Humano, não pare de escrever

Se as pessoas pararem de escrever, a AI como conhecemos será muito prejudicada, mas não somente ela, pois o conteúdo humano é mais valioso para as pessoas que para a própria AI.

A revolução da inteligência artificial é inegável e gera inúmeras transformações. Porém, às vezes nos esquecemos que essa revolução só é possível pela quantidade de conteúdo já produzido pelas pessoas e, mais importante, pelo que ainda será produzido.

O conteúdo humano é a matéria-prima para a produção do conhecimento, inclusive, da AI ou mais especificamente dos LLMs (do inglês large language model e que pode ser traduzido como modelo de linguagem ampla, mais info em um artigo do Cloudflare). O chatGPT, por exemplo, é uma aplicação que utiliza LLM, assim como o DeepSeek, entre outros.

Prompt realizado do meu usuário no chatGPT utilizando o modelo 4o. Somente o primeiro parágrafo da resposta.

Transformers: Quando os textos de AI começaram a fazer mais sentido


Quando um modelo de LLM gera um texto, ela utiliza seu treinamento para resolver por meio de probabilidade quais as próximas palavras a utilizar de forma matemática (e acredite, isso também é humano). Até 2017, o grande público não se importava com isso e a conversa com qualquer chatbot era entre entediante e ineficaz. A grande transformação veio com os transformers (o T do GPT), onde uma equipe do Google apresentou o conceito que, aplicado, deixa o texto gerado muito mais eloquente e agradável. O chatGPT foi o produto que aplicou melhor para o mainstream este conceito e popularizou o LLM com o formato de chatbot.


Antes de 2017, se perguntássemos para um LLM “como é a floresta amazônica”, teríamos algo assim: 

“A floresta amazônica é verde, cheia de árvores e animais” 👈🏻 Convenhamos, genérico e entediante.

Hoje temos (GPT -5):

 “Que legal sua pergunta Léo, a floresta amazônica é a maior floresta tropical do mundo, rica em biodiversidade e vital para o clima. Sobre o que você quer saber exatamente sobre a maior floresta do mundo?” 👈🏻 Pense comigo, a resposta está mais rica em conhecimentos ou em oratória para agradar usuários?


A eloquência da AI é fascinante, mas quando perguntamos algo como “qual dieta eu preciso fazer?”, a AI vai mixar conteúdos de nutricionistas, doutores, psicólogos, educadores físicos, analistas que catalogaram informações, entre muitos outros.

Todo esse conteúdo foi concebido em uma estrutura de mercado que gerou ou gera algum tipo de remuneração e valor de mercado para estas pessoas ou instituições. Aí mora o problema, agora quem ganha é só o serviço de AI?


Prompt do meu usuário no modelo GPT-5. Somente o primeiro parágrafo está na imagem

O problema fica mais complexo quando a AI resume por exemplo uma partida de futebol ao utilizar o conteúdo gerado por uma equipe que teve um gasto milionário de cobertura ou mesmo para fazer seu avatar estilo mangá, onde milhares de artistas remunerados desenvolveram conceitos e produtos que atenderam uma audiência e o mercado. Sem contar com a necessidade absurda de poder computacional para realizar essas tarefas, acredite, chegamos à Lua 🌒 com muitíssimo menos recursos do que o necessário para fazer você e seus amigos conforme algum prompt divertido.

Imagem gerada pelo chatGPT versão 5.0. Segundo o próprio chat, estima-se que se gasta algo em torno de 🔋 0,05 kWh e 🚰 120 mL de água potável para gerar uma imagem dessas. Isso equivale a meio copo de água e 5x recargas de um celular

A Wikipedia e o Google contra o SPAM

A maior enciclopédia do mundo é a Wikipedia, incrivelmente mantida de forma livre e lá, a batalha contra escritores robôs faz parte do cotidiano.


Qual o sentido da Wikipedia se novos artigos forem escritos por uma AI que somente mixou outros textos já escritos? Bom, esse assunto é declarado no artigo Wikipedia: Signs of AI writing, parte do Wikipedia:WikiProject AI Cleanup onde a bela colocação “os conteúdos da AI são sinais de potenciais problemas, não o problema em si” enriquece o conteúdo mostrando que a ferramenta em si não é o problema, mas que seu uso pode gerar problemas graves e comuns.

Imagens do website wikipedia.org nas sessões Wikipedia: Signs of AI writing e WikiProject AI Cleanup - ambos com finalidade de tratar o problema de conteúdo pobre gerado por AI

Vale uma olhadinha no artigo e projeto para ver como uma análise mais profunda pode mostrar como o texto gerado por AI deixa a desejar em problemas críticos quando se há compromisso com a qualidade. Quanto mais sério e profundo o texto, menos se conta com a AI como gerador de conteúdo e para coisas novas, é impossível, apesar dela não declarar isso. O produtor de conteúdo precisa migrar da pastelaria ao alfaiate, como diz Flaviana Ribeiro em 5 minutos para um café.


O Google, por sua vez, luta constantemente para reprimir a propagação de, como eles dizem, “conteúdos produzidos com baixa quantidade de esforços” e que são, consequentemente, de baixa qualidade. O tema SPAM está em praticamente todos os core updates, inclusive o último em junho. De forma geral, os sites precisam ser originais e com conteúdo exclusivo, o Google não pára de bater nessa tecla.


Enquanto a Wikipedia, que tem compromisso com a geração de conteúdo de qualidade para reuso e o Google que possui uma rede de negócios totalmente baseada nas pesquisas e direcionamento de fluxos para as melhores referências, os sites também estão lutando contra o SPAM. Caso queira saber mais sobre Search Quality Rater Guidelines, ou Guia de avaliação de qualidade das buscas, temos um artigo específico sobre. 


Os sites estão tentando (precisando) se proteger contra as cópias


Até alguns anos atrás, o fato do site ser “lido” por um robô era, na maioria das vezes, positivo. Um bot do Google, Bing, Yahoo ou outro estava coletando seu conteúdo, indexando e o resultado era mais tráfego.

Essa fase acabou, começando pelos bots que são centenas e podem afogar os websites, fazendo-os gastar com mais estrutura para falar com cada vez mais máquinas e menos pessoas. 

Imagem ilustrativa de robôs aguardando para entrar no website

Em um artigo do blog do Cloudflare com título e conteúdo em inglês “The crawl before the fall… of referrals: understanding AI's impact on content providers” há dados de pesquisa que mostram, por exemplo, a quantidade absurda de leituras de conteúdo da web por empresas como a OpenAI e Anthropic, por exemplo.

Nos dados pesquisa, o claudeBot da Anthropic leva 1 visitante para o website a cada 70 mil vezes que ele o lê. Qual tipo de negócio suporta isso? Somente os que vendem apartamentos de luxo e podem fazer milagre com esta única visita (que sabe-se lá se é qualificada). Veja de forma resumida a média de acessos do tipo referer expostos na pesquisa:

Google: 1 visita a cada leituras

OpenAI: 1 visita a cada 1600 leituras

Perplexity: visita a cada 202 leituras.


Ainda sobre o Cloudflare, eles afirmam que +80% dos usuários de seus serviços preferem bloquear os acessos dos AI crawlers, no que chamam de “Declare your AIndependence”, exatamente isso, uma proteção para você não gastar recursos e ter seu conteúdo copiado pela AI.

Em uma ação ainda mais interessante, a empresa apresenta um serviço que é literalmente um paywall para crawlers, propondo uma forma de monetização para que os crawlers paguem para poder ler seu conteúdo. Uma assinatura de leitura para robôs chamada “pay per crawl".


Reprodução de www.cloudflare.com - imagem de divulgação do serviço Pay per Crawl

O CEO do Google Sundar Pichai já fez também diversas declarações sobre o tema, onde ele já afirmou por exemplo ao New York Times que:

 “Haverá um mercado no futuro, acredito. Haverá criadores que irão criar para modelos de AI e serão pagos por isso. Eu realmente acredito nisso como parte do futuro e as pessoas encontrarão um meio de viabilização”

trecho traduzido por nossa equipe. Em outra entrevista para o The Verge (link em inglês), ele afirma que o Google vai continuar enviando tráfego para os publishers e ao ser indagado sobre abrir ou não um site além de TikTok e Youtube, ele reforça que a presença forte na web continua relevante.

Hoje a web é apenas um entre os diversos formatos de produzir e oferecer conteúdo, felizmente, ainda é um formato livre (afinal o site do chatGPT é um site, assim como o site do Youtube, também); porém, não há mais espaço para sites de qualidade média ou que não fazem um trabalho com muito esforço para realmente agradar sua audiência.


Os chatbots por LLM são produtos e as pessoas… são pessoas


Para que um prompt tenha uma resposta adequada, a imensidão de dados utilizados em treinamento não envolve somente grandes bases de dados, temos também e infelizmente, o subemprego de milhares e milhares de pessoas ao redor do mundo, principalmente no hemisfério sul. O software é de AI, mas a exploração é de pessoas e do meio ambiente (vide o artigo em inglês do MIT sobre impactos ambientais).


O próprio G1 já falou sobre os “operários de dados”, ou chão de fábrica da AI, pessoas essenciais e mal remuneradas que executam tarefas intermináveis por uma média de R$500 para refinar a AI. Eles são conhecidos como trabalhadores fantasmas porque, por motivos óbvios, não é de interesse das bigTechs expor este lado nada “A” da AI.


Já o site da BBC fala do problema de forma internacional como uma “força de trabalho oculta", onde subcontratados em países do Hemisfério Sul trabalham por R$ 4 a R$ 10 a hora, ou seja, em nenhuma situação chega um salário mínimo aqui no Brasil. Talvez a AI não seja tão fantástica com a necessidade de tanto trabalho exploratório, tornando outros trabalhos por aplicativos ou internet até “mais dignos”. 


O objetivo não é entrar no aspecto social, mas enfatizar que para as máquinas fazerem algo incrível, há muitas e muitas pessoas trabalhando para isso. Não é como deveria ser, mas tem e são fundamentais. 

Trechos da pergunta para o GPT-5 sobre os operadores de dados

👆🏻 Se o próprio GPT diz que sem os trabalhadores invisíveis seu conteúdo não entenderia o que é apropriado, útil ou confiável, é melhor que a gente entenda que estes tipos de serviços são apenas ferramentas com utilidades computacionais.

E nós, pessoas, continuamos com a responsabilidade de lidar com o contexto e também o que faz sentido para escrever e interagir com nossas audiências.

Você também pode gostar de ler

Como gerar leads todos os dias com seu site

Em 14/05/2025 às 21h05 - Atualizado em 14/05/2025 às 21h21

10 exemplos de sites bem feitos para inspirar seu projeto em 2025

Em 17/04/2025 às 02h49 - Atualizado em 17/04/2025 às 02h50