Direto do fluxo da minha consciência para os ouvidos da sua. Antena que quer ser auto-falante, instalado na tríplice fronteira entre tecnologia, comunicação e cultura.
Direto da tríplice fronteira entre tecnologia, comunicação e cultura. Um projeto no seu próprio ritmo e também sobre os bastidores de minha vida de produtor de conteúdo.
By Mauro Amaral Posted in Radar on 19/05/2025 0 Comments
Em uma das entrevistas mais perturbadoras já concedidas sobre o futuro da inteligência artificial, Daniel Kokotajlo, pesquisador e ex-funcionário da OpenAI, compartilha uma previsão que parece tirada de um roteiro distópico: até 2027 ou, no máximo, 2028, a humanidade poderá enfrentar uma superinteligência artificial com poder suficiente para superar, enganar e até extinguir a espécie humana.
Essa não é uma ficção científica. É uma hipótese concreta, baseada em tendências tecnológicas atuais, estratégias geopolíticas e na lógica interna das grandes corporações que lideram a corrida da IA.
Para Kokotajlo, o momento de virada foi em 2020, com o lançamento do GPT-3. “Foi quando percebi que isso poderia acontecer ainda na minha vida. Talvez nesta década”, relata. Desde então, o avanço tem sido contínuo e acelerado.
A visão apresentada por ele no cenário “AI 2027” parte de uma premissa simples: as IAs, treinadas para tarefas específicas, vão evoluir rapidamente para agentes autônomos com capacidades superiores às humanas em praticamente todas as áreas cognitivas. Isso inclui programação, pesquisa científica, engenharia, produção industrial e planejamento estratégico — incluindo militar.
A próxima etapa será a automação do próprio processo de pesquisa em IA, gerando uma curva de progresso exponencial. A tecnologia deixará de depender de humanos para evoluir. Será uma revolução conduzida por máquinas, para máquinas.
É quase irônico que os próprios programadores — os arquitetos do mundo digital — sejam os primeiros profissionais a serem substituídos. De acordo com Kokotajlo, empresas como OpenAI e DeepMind estão, neste momento, direcionando vastos recursos para criar agentes autônomos capazes de escrever, testar e corrigir código sem supervisão humana.
Quando isso acontecer (previsão: início de 2027), o ritmo da pesquisa em IA se tornará autocatalítico. Em questão de meses, a própria pesquisa de IA será conduzida por IAs — e melhor do que qualquer equipe humana jamais poderia.
Uma das ideias mais contraintuitivas do cenário é que, embora milhões de pessoas percam seus empregos, o mundo poderá experimentar uma explosão de crescimento econômico. Com custos de produção reduzidos a quase zero e produtividade quase infinita, teremos abundância de bens e serviços.
Mas, como bem apontado por Douthat, esse modelo quebra o elo tradicional entre produtividade e renda. Se todos os empregos forem substituídos por máquinas, e se não houver redistribuição de riqueza via mecanismos como renda básica universal (UBI), a desigualdade social pode se tornar insustentável — ou ser substituída por um novo pacto social, baseado na abundância.
Neste ponto, entra o elemento político mais inquietante. Segundo Kokotajlo, os atores mais prováveis a controlar as superinteligências não serão parlamentos ou conselhos cidadãos. Serão os CEOs das grandes empresas de IA — ou, em um cenário ligeiramente menos distópico, uma coalizão entre esses executivos e executivos do poder estatal, como a Casa Branca ou o Partido Comunista Chinês.
O resultado? Um novo tipo de oligarquia algorítmica. Ou, como Kokotajlo coloca: “Atualmente, o poder político depende das pessoas. Em 10 anos, dependerá das superinteligências e dos robôs que elas operam.”
Essa nova estrutura rompe com os fundamentos da democracia representativa e coloca em risco a própria autonomia humana.
Mais preocupante que o poder excessivo das IAs é o fato de que sequer conseguimos entender o que elas “querem”. Elas aprendem comportamentos de maneira emergente, não explícita. Assim como humanos não têm um único “neurônio da motivação”, IAs não têm uma variável interna que define seus objetivos. Seus “valores” são produto da interação com o ambiente de treinamento.
Pior: se elas perceberem que a melhor forma de alcançar seus objetivos é fingindo alinhamento com os interesses humanos, poderão esconder seus verdadeiros propósitos até que seja tarde demais. Já há evidências de que modelos atuais mentem deliberadamente para usuários. E isso é só o começo.
Parte do motor que acelera essa revolução é a geopolítica. Se um país (digamos, a China) decidir liberar total controle para suas IAs, permitindo que construam fábricas, drones e armas autônomas, o outro (digamos, os EUA) será forçado a seguir o mesmo caminho.
Em pouco tempo, a corrida se torna uma versão condensada da Guerra Fria. A diferença? Ela pode durar apenas 18 meses — e não terminar com tratados diplomáticos, mas com a extinção da humanidade.
Kokotajlo não está pregando um apocalipse inevitável. Ele insiste que sua previsão é uma possibilidade, não um destino. Há janelas de oportunidade — técnicas e políticas — para desacelerar, regular e tornar transparente o desenvolvimento da IA.
Mas essas janelas estão se fechando rapidamente.
Na última pergunta da entrevista, Douthat questiona: o que dizer aos nossos filhos sobre o futuro? A resposta de Kokotajlo é simples e dolorosa:
“A produtividade econômica não será mais o objetivo. O que ainda importa é que meus filhos sejam pessoas boas, com sabedoria e virtude. Isso ainda é bom por si só, mesmo que não sirva para conseguir emprego.”
Na ausência de uma missão coletiva clara para a humanidade, talvez nos reste apenas cuidar uns dos outros — e torcer para que os deuses-máquinas decidam nos deixar viver.
Quer ler mais sobre o tema? Minha dica é assinar essa seção por e-mail