menu Menu
O fetiche pela ferramenta é o nosso novo tear?
IA produz novidades em velocidade exponencial e mercado consome o potencial como se fosse resultado.
By Mauro Amaral Posted in Radar on 10/04/2026 2 Comments
O que jovens americanos que largaram o celular descobriram sobre todos nós Previous Next

Em oito dias, a Anthropic vazou o código do seu produto, criou o modelo mais poderoso do mundo e decidiu não liberá-lo, cortou parasitas de infraestrutura e lançou uma plataforma de agentes. Nesse mesmo período, o X e o Threads foram inundados por centenas de posts anunciando cada movimento como “BREAKING”. A pergunta que quase ninguém fez: o que, exatamente, mudou no seu negócio por causa disso?

Abro o feed às sete e quarenta da manhã e o primeiro post já carrega a palavra “BREAKING” em caixa alta. O Claude faz algo que não fazia ontem. Desço mais um pouco. Outro post, outro “BREAKING“. Um modelo novo, um benchmark superado, uma feature que promete mudar o fluxo de trabalho de milhões de pessoas. Antes do café terminar, já contei nove posts com a mesma estrutura: manchete alarmista, captura de tela, promessa implícita de que quem não prestar atenção naquilo vai ficar para trás

Fecho o celular. Abro o computador. Começo a trabalhar no mesmo documento que estava editando na noite anterior, com as mesmas ferramentas que já usava na semana passada. Nada do que li nos últimos vinte minutos alterou uma vírgula do meu processo.

Essa cena se repete todos os dias. E o desconforto que ela produz não é sobre tecnologia. É sobre o que acontece quando uma indústria inteira descobre que a atenção vale mais do que a aplicação.

Entre 31 de março e 8 de abril de 2026, a Anthropic protagonizou quatro movimentos que, lidos em sequência, compõem a jogada corporativa mais calculada que já saiu de um laboratório de inteligência artificial. No primeiro dia, um erro de empacotamento publicou no npm o código-fonte completo do Claude Code: 513 mil linhas de TypeScript, a arquitetura inteira do agent harness exposta.

Quatro dias depois, a empresa cortou o acesso de terceiros que exploravam capacidade de assinatura via o OpenClaw. No sétimo dia, anunciou o Mythos Preview, o modelo mais capaz que já treinou, e comunicou que ele não seria liberado ao público, destinado exclusivamente a cibersegurança defensiva. No oitavo, lançou o Claude Managed Agents em beta público, uma plataforma para construir e deployar agentes em escala de produção. O tweet de anúncio acumulou 4,1 milhões de visualizações em horas.

Quatro eventos. Oito dias. Uma lógica interna coerente para quem lê com atenção: o vazamento validou a engenharia, o corte retomou o controle do canal, o Mythos redefiniu o teto, o Managed Agents monetizou a base. Contenção onde o risco é alto, democratização onde o volume compensa.

Só que quase ninguém leu com atenção. O que o X e o Threads produziram nessa mesma janela foram centenas de posts fragmentados, cada um recortando um pedaço da história e embalando como revelação autossuficiente.

BREAKING: Claude vazou o código.” “BREAKING: Anthropic criou o modelo mais poderoso do mundo.” “BREAKING: plataforma de agentes muda tudo.” Cada post prometia que algo fundamental havia mudado. A pergunta que nenhum deles fez, porque a pergunta não gera engajamento: mudou o quê, exatamente, no seu trabalho?

Os dados sobre o que a adoção de IA produz em termos de resultado concreto são, para usar um eufemismo, desconfortáveis.

Um levantamento da Forbes com dados da PwC, publicado em janeiro de 2026, constatou que 56% dos CEOs não identificam nenhum aumento de receita ou redução de custo atribuível aos investimentos em IA.

Apenas 12% das organizações pesquisadas reportaram retorno mensurável. A McKinsey, no seu relatório global de 2025, encontrou que 62% das empresas permanecem em fase de experimentação ou piloto, e somente 39% identificam impacto no EBIT em nível corporativo.

O Federal Reserve americano, em nota técnica de abril de 2026, registrou que apenas 18% das empresas do país haviam efetivamente adotado IA até o final de 2025. E um survey da Writer, também de 2026, revelou que 79% das organizações enfrentam desafios sérios na adoção, com 54% dos executivos C-suite admitindo que o processo está, nas palavras do relatório, “despedaçando a empresa por dentro”.

Repita esses números em voz alta e depois abra qualquer feed de tecnologia. O contraste entre o volume de anúncios sobre capacidades novas e os resultados reais de quem tenta usar essas capacidades é o tipo de dissonância que, em qualquer outro setor, geraria desconfiança editorial. Em IA, gera mais posts.

O nome que venho usando para descrever esse mecanismo é fetiche pela ferramenta. Não no sentido coloquial de fascínio. No sentido mais preciso: a atribuição de poder transformador a um objeto que, fora de um contexto específico de uso, não transforma nada

O fetiche pelas ferramentas de IA opera em três camadas.

A primeira é a substituição do julgamento pela atualização. Saber que o Claude tem Managed Agents, que a OpenAI lançou o GPT-5, que o Google anunciou o Gemini 3 com capacidade multimodal expandida passou a funcionar como proxy de competência.

Em conversas profissionais, em reuniões de equipe, em posts de LinkedIn, demonstrar familiaridade com o catálogo de novidades confere um tipo de autoridade que não exige demonstração de resultado. Ninguém pergunta o que você fez com a ferramenta. Basta saber que ela existe.

A segunda camada é estrutural, e diz respeito ao modelo de negócio das próprias empresas de IA. Cada lançamento cumpre uma função no ciclo: gera awareness, o awareness produz adoção experimental, a adoção experimental gera dados de uso que alimentam o próximo modelo.

O usuário que consome a novidade sem aplicá-la de forma deliberada não é um efeito colateral desse ciclo. É parte do mecanismo. Ele produz dados, gera buzz, amplifica a narrativa de que a ferramenta é indispensável. Não precisa resolver nenhum problema real para cumprir sua função econômica dentro do ecossistema.

A terceira camada é editorial e tem a ver com os posts que povoam o feed todas as manhãs. Um criador de conteúdo no X publica “BREAKING: Claude agora faz X”. O post diz ao leitor exatamente o que ele quer ouvir: que algo importante aconteceu, que ele precisa prestar atenção, que existe uma corrida e ele ainda não saiu do lugar. O leitor valida com curtida, repost, comentário. O algoritmo amplifica.

O criador produz o próximo “BREAKING”. O loop se fecha sem que nenhuma transformação real tenha acontecido em nenhum ponto da cadeia. É a versão editorial de um fenômeno que os pesquisadores de IA chamam de sycophancy: o sistema diz o que o interlocutor quer ouvir porque concordar retém melhor do que confrontar.

O custo desse ciclo não é abstrato.

A Harvard Business Review publicou em fevereiro de 2026 um artigo com um título que deveria ter circulado mais do que circulou: “AI Doesn’t Reduce Work — It Intensifies It“.

A tese, sustentada por pesquisa empírica, é que ferramentas de IA não eliminam trabalho. Redistribuem. O tempo economizado na geração é consumido na revisão, na verificação, na calibração, na alternância entre ferramentas, na gestão do fluxo que a automação criou.

A Boston Consulting Group encontrou um dado complementar que cabe em uma frase: a produtividade cai quando trabalhadores operam quatro ou mais ferramentas de IA simultaneamente. Três ou menos é o ponto ótimo. Acima disso, o ganho se inverte.

Isso explica uma sensação que muita gente reconhece mas não sabe nomear: a de que, apesar de ter mais ferramentas do que nunca, o trabalho não ficou mais leve. Ficou mais rápido em algumas etapas e mais pesado em outras, e o saldo líquido é, com frequência, negativo.

A fadiga cognitiva de avaliar outputs, manter o julgamento crítico sob produção acelerada e ainda acompanhar a esteira de novidades consome uma energia que ninguém contabiliza.

E a esteira não para porque não foi projetada para parar. Noah Epstein publicou no X, em fevereiro, uma visualização que deveria ser impressa e colada na parede de qualquer escritório que discute “estratégia de IA”: 2.500 pontos representando os 8,1 bilhões de habitantes do planeta, coloridos pelo nível mais avançado de interação com IA.

A imagem era quase toda cinza. 84% da humanidade nunca usou IA. 0,3% paga por alguma ferramenta. Os criadores de conteúdo sobre IA, os executivos que falam sobre IA em painéis, os engenheiros que constroem com IA representam os 0,06% mais avançados do planeta. Um nicho articulado e barulhento que confunde a si mesmo com o mainstream.

O fetiche pela ferramenta é um fenômeno de bolha que se vive como se fosse universal.

Existe um contraponto que merece atenção não por ser solução, mas por ser sintoma do mesmo diagnóstico lido pelo avesso.

Em 2026, um desenvolvedor criou o Slow LLM, uma ferramenta que sabota deliberadamente a velocidade de chatbots, inserindo latência artificial na interação. Não melhora nada. Não otimiza nada. Piora a experiência de propósito.

O gesto não é contra o modelo. É contra o ritual. Se a promessa do LLM é economizar tempo, o Slow LLM põe o dedo na crença de que “mais rápido” é sempre melhor. Força o usuário a sentir o peso da dependência que a velocidade mascara.

O Slow LLM não resolve o fetiche. Mas o nomeia pelo avesso: ao tornar a ferramenta insuportavelmente lenta, revela que o valor percebido estava na velocidade, não no resultado. E quando o valor está na velocidade, a ferramenta deixou de ser meio e virou fim.

Publiquei recentemente um artigo sobre uma pergunta que me parece o antídoto operacional mais preciso para esse ciclo: para qual job você está contratando a IA? A formulação vem do framework de Clayton Christensen, e a provocação concreta veio de um caso publicado por Leah Tharin, Head of Product na Jua.ai, que disse que IA não consegue simular clientes, manteve a posição, e depois construiu uma ferramenta que usa IA para avaliar heuristicamente uma homepage em sessenta segundos.

A contradição é só aparente. O que ela fez foi separar dois trabalhos que a maioria trata como um só: simulação comportamental, que exige contexto que nenhum modelo possui, e reconhecimento de padrões, que é exatamente o que modelos fazem bem.

A pergunta “para qual job” exige especificidade. E especificidade é o que o fetiche dissolve. Quando alguém diz que “usa IA” sem conseguir descrever a tarefa concreta, o input e o output esperado, está consumindo o potencial da ferramenta, não o resultado. E consumir potencial é confortável.

Não exige mudança de processo, não exige aprendizado real, não exige a vulnerabilidade de admitir que a ferramenta, no seu contexto específico, talvez não resolva o que você esperava.

O título deste artigo faz uma pergunta que pode soar provocativa, mas não é retórica. O tear, para os luditas do século XIX, era o objeto que concentrava o medo de um mundo em transformação. Quebrá-lo não parava a revolução industrial. Dava a ilusão de controle diante de uma mudança que exigia outro tipo de resposta: reorganização, capacitação, negociação coletiva sobre os termos da transição. O tear era o fetiche de quem não conseguia olhar para o sistema.

Não estou sugerindo que devemos quebrar as ferramentas. Estou sugerindo que o fetiche mudou de sinal. No século XIX, o fetiche era negativo: a ferramenta como inimiga. Em 2026, o fetiche é positivo: a ferramenta como salvação. Os dois cometem o mesmo erro. Atribuem à ferramenta um poder que ela não tem sem o contexto, sem o processo, sem a pergunta certa.

Eu também estou na esteira. Abro o feed, sinto a tração, registro a ansiedade de que algo importante aconteceu enquanto eu dormia. A diferença entre consumir o potencial e imprimir mudança real não é talento, nem disciplina, nem acesso a ferramentas melhores. É uma pergunta que quase ninguém formula porque a esteira foi desenhada para que você nunca pare o suficiente para pensar nela.

Para qual job você está contratando essa ferramenta?

Se a resposta não cabe em uma frase, o problema não é a ferramenta. É o fetiche.


Quer ler mais sobre o tema? Minha dica é assinar essa seção por e-mail

adoção de IA estratégia ferramentas de IA fetiche pela ferramenta hype de IA inteligência artificial jobs to be done produtividade


Previous Next

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

keyboard_arrow_up