Direto do fluxo da minha consciência para os ouvidos da sua. Antena que quer ser auto-falante, instalado na tríplice fronteira entre tecnologia, comunicação e cultura.
Direto da tríplice fronteira entre tecnologia, comunicação e cultura. Um projeto no seu próprio ritmo e também sobre os bastidores de minha vida de produtor de conteúdo.
By Mauro Amaral Posted in Radar on 20/04/2026 0 Comments
O experimento começou simples. Pesquisadores das universidades da Califórnia em Los Angeles, do Instituto de Tecnologia de Massachusetts e de Oxford reuniram 1.222 participantes e ofereceram a cada um deles um assistente de inteligência artificial. As pessoas trabalhavam em problemas cognitivos por dez minutos com a ajuda do modelo, e em seguida o assistente era retirado. Continuavam diante das mesmas tarefas, agora sozinhas. O desempenho caía. Era esperado. O dado que importa não é esse.
O dado que importa é que as pessoas começavam a desistir mais rápido. Tentavam menos vezes antes de abandonar o problema. A queda foi de persistência, não de inteligência. O estudo, ainda em pré-publicação (pre-print) e circulando em comunidades técnicas como o Reddit r/artificial, batiza o fenômeno de boiling frog cognition (cognição do sapo na panela), um nome que tem chance real de pegar.
A primeira coisa que o experimento recusa é a moldura do alarmismo cognitivo. Não há evidência de queda de QI. Os participantes continuavam tão capazes quanto antes em termos absolutos. O que o estudo documenta é mais sutil e, por isso, mais incômodo. Mede a disposição de continuar tentando depois que a primeira tentativa não dá certo, e mostra que essa disposição enfraquece com surpreendente rapidez quando há uma alternativa fácil disponível.
A segunda moldura recusada é a oposta, a do otimismo libertário que repete que IA é só uma ferramenta neutra e tudo depende de como você usa. O efeito apareceu independente da intenção do usuário. As pessoas não estavam usando o assistente errado. Estavam usando como qualquer um usaria, e mesmo assim algo se desgastou. Isso desloca a discussão de “use bem” para “use com consciência do que está sendo desgastado em silêncio”.
Entre essas duas leituras existe um espaço onde a conversa interessante acontece, e é nesse espaço que vale apostar.
A literatura sobre delegação cognitiva (cognitive offloading) existe há mais de uma década. A hipótese clássica é otimista. Quando delegamos tarefas mentais para ferramentas externas, a calculadora, o GPS, o corretor ortográfico, liberamos energia mental para fazer outras coisas mais importantes.
A maior parte do tempo isso funciona. Eu não preciso decorar fórmulas trigonométricas para ser bom no meu trabalho. O GPS não me deixou pior em geografia, me liberou para pensar em outras coisas durante o trajeto.
A pesquisa de UCLA, MIT e Oxford não invalida essa hipótese. Mostra um caso onde ela falha. Existe uma diferença qualitativa entre delegar uma tarefa periférica (lembrar um endereço) e delegar o esforço central que define a tarefa em si (escrever, resolver um problema, decidir entre alternativas que não são óbvias). No primeiro caso, há ganho de eficiência.
No segundo, há erosão da prática que sustenta a habilidade. O músculo da escrita está menos no ato de produzir frases e mais no de revisar a frase pela quarta vez insatisfeito com ela. O músculo da decisão se exercita pouco na escolha entre alternativas; se exercita muito no desconforto de sustentar a indecisão tempo suficiente para deixar o problema mostrar sua forma.
O que o experimento mostra é que esse segundo tipo de delegação atrofia algo. E o que atrofia primeiro não é a capacidade. É a vontade de exercer a capacidade.
Há quinze anos, o filósofo coreano Byung-Chul Han publicou um pequeno livro chamado Sociedade do Cansaço. A tese central era que o sujeito contemporâneo não está mais cansado por opressão externa, está cansado por excesso de positividade interna. Ninguém manda a gente trabalhar até tarde, a gente se manda. Ninguém exige que a gente otimize, a gente otimiza. A consequência é uma fadiga que não tem origem identificável e por isso não tem cura. O sujeito do desempenho se devora em nome do próprio rendimento.
A inteligência artificial entra nesse diagnóstico de um jeito específico, e é nessa especificidade que Han se torna útil sem virar lugar-comum. A promessa do produto é eliminar uma camada de cansaço. Você não precisa mais escrever a primeira versão, ela aparece pronta. Você não precisa mais sintetizar o documento, ele já vem resumido. Você não precisa mais procurar a referência, ela é citada antes de você saber que precisava dela. A propaganda toda vende alívio.
O que aparece no lugar do alívio é um cansaço de outra natureza. Cansaço de revisar o que não foi feito por você, sentindo que poderia estar pior do que aparenta. Cansaço de decidir se a versão entregue serve, sem ter feito o caminho que costumava preparar você para essa decisão. Cansaço de estar permanentemente diante de entregas prontas sem ter exercido o esforço prévio.
É um cansaço de segunda ordem, derivado da própria automação que prometia eliminar o de primeira. Han não previu esse cansaço específico, mas o vocabulário que ele criou serve para nomeá-lo. Pesquisa recente do Gallup sobre o paradoxo da exposição à IA oferece uma pista empírica: os profissionais mais expostos à ferramenta são os que menos confiam nas próprias decisões assistidas, uma forma de desconfiança cognitiva que o experimento agora ajuda a explicar. O sujeito que terceirizou o esforço sustentado descobre que sobrou para ele a parte mais incômoda do processo, decidir sem ter trabalhado o suficiente para confiar na própria decisão.
Quem faz trabalho criativo profissional há tempo suficiente sabe de uma coisa que raramente entra nos manuais: o que define a qualidade do entregável final não é o talento da primeira versão, é a disposição de revisitar a sexta. Um texto bom é um texto reescrito. Uma marca consistente é o resultado de centenas de microdecisões mantidas contra a tentação da inovação fácil. Uma estratégia que funciona foi defendida em reuniões onde havia pressão para abandoná-la. Em todos esses casos, a habilidade central não é gerar, é insistir. É voltar ao mesmo problema com olhar renovado. É aceitar que o trabalho ainda não está pronto quando todo mundo já considera pronto.
A IA contemporânea é exímia em produzir versões e razoavelmente boa em produzir variações, mas inequivocamente ruim em produzir insistência. Porque insistência não é uma propriedade da entrega, é uma propriedade do sujeito que produz a entrega. E é justamente essa propriedade que o experimento sugere que está se desgastando em quem terceiriza a execução.
A questão para quem trabalha com criação em 2026 não é qual ferramenta usar. É anterior a isso. É saber distinguir, dentro do próprio processo, qual parte da prática é executora (e portanto delegável sem dano) e qual parte é constitutiva da habilidade (e portanto destruída quando delegada). Essa distinção não é óbvia. Não vem em manual. Tem que ser descoberta por tentativa, aceitando o custo de errar para os dois lados, ora delegando demais e percebendo o dano tarde, ora delegando de menos e perdendo eficiência sem ganho proporcional de qualidade.
Se a leitura está certa, há uma consequência prática que vale formular como tese. Os ativos escassos da próxima década do trabalho criativo não vão ser os mesmos da década passada. Talento bruto vai estar distribuído de forma muito mais uniforme. Velocidade de execução vai ser commodity. Acesso a referências vai ser universal.
Para marcas, o contexto editorial construído ao longo do tempo se torna um dos poucos ativos realmente defensáveis. O que vai distinguir profissionais e marcas vai ser a capacidade de sustentar processos longos diante de problemas que não cedem na primeira tentativa. A disposição de tentar de novo, mesmo quando existe uma alternativa rápida disponível, vai virar a competência mais cara do mercado.
Isso tem implicações operacionais que ainda estão começando a aparecer. Empresas que aceleraram a adoção de IA sem revisar a estrutura de avaliação do trabalho vão descobrir, daqui a doze ou dezoito meses, que entregam mais e produzem menos. Isso se soma a uma segunda camada de transformação, a do AEO (Answer Engine Optimization), à medida que o cliente final passa a ser cada vez mais uma máquina lendo outra máquina.
Equipes criativas que normalizaram o uso da ferramenta como primeira parada vão notar que perderam algo difícil de nomear na qualidade do que produzem, mas que clientes notam antes delas. Profissionais individuais que se acostumaram a começar com a IA vão sentir, em algum momento, que perderam o jeito de começar sozinhos, e vão precisar reconstruir uma prática que não sabem mais como era.
Não há solução genérica para isso. Há apenas a obrigação de reconhecer o problema antes que ele se torne irreversível em escala. Algumas pistas operacionais começam a aparecer em discussões internas de agências e estúdios. Reservar momentos de modo cego, sem IA, para tipos específicos de trabalho que dependem de fricção produtiva.
Mudar métricas de desempenho para premiar profundidade de iteração e não apenas volume de entrega. Tornar transparente, dentro da equipe, em que fase de cada projeto a IA entrou e em qual proporção, para que o time desenvolva consciência coletiva da própria dependência. Tudo isso ainda está em fase embrionária e merece desconfiança até virar prática consolidada.
Daqui a algumas semanas, o estudo de UCLA, MIT e Oxford vai ser absorvido pelo ciclo do conteúdo. Vai aparecer em manchete, em coluna de opinião, em painel de evento. A maior parte das leituras vai cravar em “IA está nos deixando burros”, e essa será a versão lembrada.
Outra parte vai protestar dizendo que o estudo está em pré-publicação, n=1.222 não basta, faltam controles, e isso também terá seu lugar. As duas leituras vão ocupar a conversa pública e vão saturar a paciência geral pelo tema, abrindo um vazio de meses durante o qual quase ninguém vai voltar a discutir o assunto com seriedade.
Esse vazio é o lugar onde a leitura interessante mora. A tese que vale a pena defender em ensaio, em prática profissional, em política de equipe, é outra. A inteligência artificial não nos deixa burros, nos deixa com pouca tolerância à fricção que pensar exige. E o que se atrofia em quem vive nessa tolerância reduzida não é a capacidade de pensar, é a vontade de continuar tentando quando a primeira tentativa não foi suficiente.