Humano, não pare de escrever
Se as pessoas pararem de escrever, a AI como conhecemos será muito prejudicada, mas não somente ela, pois o conteúdo humano é mais valioso para as pessoas que para a própria AI.
A revolução da inteligência artificial é inegável e gera inúmeras transformações. Porém, às vezes nos esquecemos que essa revolução só é possível pela quantidade de conteúdo já produzido pelas pessoas e, mais importante, pelo que ainda será produzido.
O conteúdo humano é a matéria-prima para a produção do conhecimento, inclusive, da AI ou mais especificamente dos LLMs (do inglês large language model e que pode ser traduzido como modelo de linguagem ampla, mais info em um artigo do Cloudflare). O chatGPT, por exemplo, é uma aplicação que utiliza LLM, assim como o DeepSeek, entre outros.
Transformers: Quando os textos de AI começaram a fazer mais sentido
Quando um modelo de LLM gera um texto, ela utiliza seu treinamento para resolver por meio de probabilidade quais as próximas palavras a utilizar de forma matemática (e acredite, isso também é humano). Até 2017, o grande público não se importava com isso e a conversa com qualquer chatbot era entre entediante e ineficaz. A grande transformação veio com os transformers (o T do GPT), onde uma equipe do Google apresentou o conceito que, aplicado, deixa o texto gerado muito mais eloquente e agradável. O chatGPT foi o produto que aplicou melhor para o mainstream este conceito e popularizou o LLM com o formato de chatbot.
Antes de 2017, se perguntássemos para um LLM “como é a floresta amazônica”, teríamos algo assim:
“A floresta amazônica é verde, cheia de árvores e animais” 👈🏻 Convenhamos, genérico e entediante.
Hoje temos (GPT -5):
“Que legal sua pergunta Léo, a floresta amazônica é a maior floresta tropical do mundo, rica em biodiversidade e vital para o clima. Sobre o que você quer saber exatamente sobre a maior floresta do mundo?” 👈🏻 Pense comigo, a resposta está mais rica em conhecimentos ou em oratória para agradar usuários?
A eloquência da AI é fascinante, mas quando perguntamos algo como “qual dieta eu preciso fazer?”, a AI vai mixar conteúdos de nutricionistas, doutores, psicólogos, educadores físicos, analistas que catalogaram informações, entre muitos outros.
Todo esse conteúdo foi concebido em uma estrutura de mercado que gerou ou gera algum tipo de remuneração e valor de mercado para estas pessoas ou instituições. Aí mora o problema, agora quem ganha é só o serviço de AI?
O problema fica mais complexo quando a AI resume por exemplo uma partida de futebol ao utilizar o conteúdo gerado por uma equipe que teve um gasto milionário de cobertura ou mesmo para fazer seu avatar estilo mangá, onde milhares de artistas remunerados desenvolveram conceitos e produtos que atenderam uma audiência e o mercado. Sem contar com a necessidade absurda de poder computacional para realizar essas tarefas, acredite, chegamos à Lua 🌒 com muitíssimo menos recursos do que o necessário para fazer você e seus amigos conforme algum prompt divertido.
A Wikipedia e o Google contra o SPAM
A maior enciclopédia do mundo é a Wikipedia, incrivelmente mantida de forma livre e lá, a batalha contra escritores robôs faz parte do cotidiano.
Qual o sentido da Wikipedia se novos artigos forem escritos por uma AI que somente mixou outros textos já escritos? Bom, esse assunto é declarado no artigo Wikipedia: Signs of AI writing, parte do Wikipedia:WikiProject AI Cleanup onde a bela colocação “os conteúdos da AI são sinais de potenciais problemas, não o problema em si” enriquece o conteúdo mostrando que a ferramenta em si não é o problema, mas que seu uso pode gerar problemas graves e comuns.
Vale uma olhadinha no artigo e projeto para ver como uma análise mais profunda pode mostrar como o texto gerado por AI deixa a desejar em problemas críticos quando se há compromisso com a qualidade. Quanto mais sério e profundo o texto, menos se conta com a AI como gerador de conteúdo e para coisas novas, é impossível, apesar dela não declarar isso. O produtor de conteúdo precisa migrar da pastelaria ao alfaiate, como diz Flaviana Ribeiro em 5 minutos para um café.
O Google, por sua vez, luta constantemente para reprimir a propagação de, como eles dizem, “conteúdos produzidos com baixa quantidade de esforços” e que são, consequentemente, de baixa qualidade. O tema SPAM está em praticamente todos os core updates, inclusive o último em junho. De forma geral, os sites precisam ser originais e com conteúdo exclusivo, o Google não pára de bater nessa tecla.
Enquanto a Wikipedia, que tem compromisso com a geração de conteúdo de qualidade para reuso e o Google que possui uma rede de negócios totalmente baseada nas pesquisas e direcionamento de fluxos para as melhores referências, os sites também estão lutando contra o SPAM. Caso queira saber mais sobre Search Quality Rater Guidelines, ou Guia de avaliação de qualidade das buscas, temos um artigo específico sobre.
Os sites estão tentando (precisando) se proteger contra as cópias
Até alguns anos atrás, o fato do site ser “lido” por um robô era, na maioria das vezes, positivo. Um bot do Google, Bing, Yahoo ou outro estava coletando seu conteúdo, indexando e o resultado era mais tráfego.
Essa fase acabou, começando pelos bots que são centenas e podem afogar os websites, fazendo-os gastar com mais estrutura para falar com cada vez mais máquinas e menos pessoas.
Em um artigo do blog do Cloudflare com título e conteúdo em inglês “The crawl before the fall… of referrals: understanding AI's impact on content providers” há dados de pesquisa que mostram, por exemplo, a quantidade absurda de leituras de conteúdo da web por empresas como a OpenAI e Anthropic, por exemplo.
Nos dados pesquisa, o claudeBot da Anthropic leva 1 visitante para o website a cada 70 mil vezes que ele o lê. Qual tipo de negócio suporta isso? Somente os que vendem apartamentos de luxo e podem fazer milagre com esta única visita (que sabe-se lá se é qualificada). Veja de forma resumida a média de acessos do tipo referer expostos na pesquisa:
Google: 1 visita a cada 9 leituras
OpenAI: 1 visita a cada 1600 leituras
Perplexity: 1 visita a cada 202 leituras.
Ainda sobre o Cloudflare, eles afirmam que +80% dos usuários de seus serviços preferem bloquear os acessos dos AI crawlers, no que chamam de “Declare your AIndependence”, exatamente isso, uma proteção para você não gastar recursos e ter seu conteúdo copiado pela AI.
Em uma ação ainda mais interessante, a empresa apresenta um serviço que é literalmente um paywall para crawlers, propondo uma forma de monetização para que os crawlers paguem para poder ler seu conteúdo. Uma assinatura de leitura para robôs chamada “pay per crawl".
O CEO do Google Sundar Pichai já fez também diversas declarações sobre o tema, onde ele já afirmou por exemplo ao New York Times que:
“Haverá um mercado no futuro, acredito. Haverá criadores que irão criar para modelos de AI e serão pagos por isso. Eu realmente acredito nisso como parte do futuro e as pessoas encontrarão um meio de viabilização”
trecho traduzido por nossa equipe. Em outra entrevista para o The Verge (link em inglês), ele afirma que o Google vai continuar enviando tráfego para os publishers e ao ser indagado sobre abrir ou não um site além de TikTok e Youtube, ele reforça que a presença forte na web continua relevante.
Hoje a web é apenas um entre os diversos formatos de produzir e oferecer conteúdo, felizmente, ainda é um formato livre (afinal o site do chatGPT é um site, assim como o site do Youtube, também); porém, não há mais espaço para sites de qualidade média ou que não fazem um trabalho com muito esforço para realmente agradar sua audiência.
Os chatbots por LLM são produtos e as pessoas… são pessoas
Para que um prompt tenha uma resposta adequada, a imensidão de dados utilizados em treinamento não envolve somente grandes bases de dados, temos também e infelizmente, o subemprego de milhares e milhares de pessoas ao redor do mundo, principalmente no hemisfério sul. O software é de AI, mas a exploração é de pessoas e do meio ambiente (vide o artigo em inglês do MIT sobre impactos ambientais).
O próprio G1 já falou sobre os “operários de dados”, ou chão de fábrica da AI, pessoas essenciais e mal remuneradas que executam tarefas intermináveis por uma média de R$500 para refinar a AI. Eles são conhecidos como trabalhadores fantasmas porque, por motivos óbvios, não é de interesse das bigTechs expor este lado nada “A” da AI.
Já o site da BBC fala do problema de forma internacional como uma “força de trabalho oculta", onde subcontratados em países do Hemisfério Sul trabalham por R$ 4 a R$ 10 a hora, ou seja, em nenhuma situação chega um salário mínimo aqui no Brasil. Talvez a AI não seja tão fantástica com a necessidade de tanto trabalho exploratório, tornando outros trabalhos por aplicativos ou internet até “mais dignos”.
O objetivo não é entrar no aspecto social, mas enfatizar que para as máquinas fazerem algo incrível, há muitas e muitas pessoas trabalhando para isso. Não é como deveria ser, mas tem e são fundamentais.
👆🏻 Se o próprio GPT diz que sem os trabalhadores invisíveis seu conteúdo não entenderia o que é apropriado, útil ou confiável, é melhor que a gente entenda que estes tipos de serviços são apenas ferramentas com utilidades computacionais.
E nós, pessoas, continuamos com a responsabilidade de lidar com o contexto e também o que faz sentido para escrever e interagir com nossas audiências.