menu Menu

A Suécia tirou as telas das escolas. Mas o problema ficou onde estava.

O que dois eventos aparentemente opostos revelam sobre como reagimos ao excesso tecnológico e por que essas reações raramente acertam o alvo

O que dois eventos aparentemente opostos revelam sobre como reagimos ao excesso tecnológico e por que essas reações raramente acertam o alvo

Em dezembro de 2025, grandes jornais bloquearam o Wayback Machine para proteger seu conteúdo da IA. Em 2026, a Suécia removeu tablets das salas de aula para proteger a cognição infantil. Ambas as decisões parecem razoáveis. Ambas destroem algo que não é o problema.

Em algum momento de 2025, uma jornalista canadense chamada Brishti Basu precisou provar que a polícia de Vancouver havia alterado um comunicado oficial após a publicação de uma matéria dela. Para fazer isso, ela acessou o Wayback Machine, a ferramenta de arquivamento da Internet Archive que captura snapshots de páginas ao longo do tempo. O arquivo estava lá. A alteração ficou documentada. A reportagem se sustentou.

O Wayback Machine é usado para esse tipo de coisa há décadas. Não é uma ferramenta de nostalgia digital, é infraestrutura de accountability. A Wikipedia o cita em mais de 2,6 milhões de artigos. Advogados o usam em procedimentos judiciais. Historiadores confiam nele para documentar como instituições mudam de posição ao longo do tempo.

No final de 2025, o New York Times bloqueou o Wayback Machine. O Guardian e o USA Today Co. seguiram. A justificativa declarada foi proteger o conteúdo de ser usado para treinar modelos de inteligência artificial. A justificativa é legítima.

A batalha entre publishers e empresas de IA é real, os interesses são grandes, e nenhum veículo deveria ter seu trabalho capturado sem consentimento para alimentar um produto concorrente. O problema é que o mecanismo escolhido para a defesa não distingue o crawler da OpenAI do jornalista que precisa verificar uma declaração oficial. Brishti Basu foi atingida junto.

Isso seria apenas uma notícia de tecnologia se não fosse pela coincidência de outro evento, em outro continente, revelando o mesmo padrão.

Suécia, unicórnios e o caderno: como o maior polo tech da Europa decidiu retirar as telas das escolas públicas

A Suécia tem mais unicórnios tech per capita do que qualquer outro país europeu. É de lá que saíram o Spotify, o Klarna, dezenas de empresas de software que moldaram como o mundo digital funciona. É também o país que, em 2026, adotou como política de governo a retirada de tablets e telas das salas de aula do ensino fundamental, resumida no slogan från skärm till pärm. Da tela ao fichário.

A decisão não é sem base. A OCDE documentou que a adoção de tecnologia nas escolas suecas foi feita sem objetivos pedagógicos claros. Dispositivos chegaram às salas de aula porque deveriam chegar, não porque havia um plano sobre o que fazer com eles. Pesquisas mostram correlação entre uso intensivo de telas e queda na compreensão leitora. Cerca de 24% dos jovens suecos não atingem níveis básicos de alfabetização. A preocupação é real.

Mas Karin Fast, pesquisadora que coordenou o projeto The Digital Backlash and the Paradoxes of Disconnection pela Nordicom, instituição nórdica de referência em pesquisa de mídia, aponta algo que a decisão sueca não discutiu: a retirada de tecnologia das escolas públicas não afeta todas as crianças do mesmo jeito.

Filhos de famílias de maior renda continuam com acesso doméstico a computadores, ferramentas de IA e conexão de qualidade. Crianças de famílias mais pobres ficam sem os dois: sem a profundidade cognitiva que a escola não conseguiu entregar com as telas, e sem a fluência digital que o mercado de trabalho vai exigir.

A causa diagnosticada era a ausência de intenção pedagógica. A solução adotada foi retirar a tecnologia. Mas retirar a tecnologia sem design pedagógico é exatamente tão acrítico quanto adotá-la sem design pedagógico. O problema não era a tela. Era a ausência de propósito.

Overcorrection digital: o mecanismo pelo qual reações ao excesso tecnológico atacam o sintoma, não a causa

O que une Brishti Basu e as escolas suecas não é uma teoria sobre tecnologia. É um mecanismo de defesa que funciona da mesma forma nos dois contextos, e tem nome: overcorrection.

O conceito vem da teoria de sistemas e da psicologia comportamental. Descreve o padrão em que uma resposta a um problema vai além do ponto de equilíbrio necessário, atacando não a causa mas a infraestrutura adjacente a ela. Não é uma correção de rota deliberada.

É rejeito por reflexo: a reação proporcional ao desconforto, não ao problema real. O sinal mais claro de que uma overcorrection está ocorrendo é que o problema estrutural permanece intacto depois que a reação acontece. O sintoma some da vista. A causa continua operando.

Publishers não processaram as empresas de IA pelo uso indevido de conteúdo. Bloquearam o arquivo público. A Suécia não redesenhou o uso de tecnologia nas escolas. Retirou os dispositivos. Em ambos, a reação é compreensível, imediata e politicamente legível. Em ambos, o problema estrutural permanece exatamente onde estava.

A OpenAI continua treinando modelos com conteúdo de toda a internet que não tem robots.txt. A ausência de intenção pedagógica nas escolas suecas não foi diagnosticada nem resolvida, apenas contornada pelo recurso mais simples. E em ambos os casos, quem paga o preço não é quem causou o problema.

Karin Fast e seus colegas chamam isso de paradoxo da desconexão. O backlash digital raramente ataca o capitalismo de vigilância, a hegemonia das plataformas ou a ausência de regulamentação. Ataca o sintoma mais visível e mais fácil de nomear.

O padrão se repete quando observamos o neo-luddismo universitário americano: jovens que largaram os celulares também respondem ao sintoma mais visível da economia da atenção, não à sua arquitetura de negócio. Ao fazer isso, frequentemente destroem algo que não era o inimigo.

Overcorrection com argumento: o que separa rejeito por reflexo de correção intencional com propósito claro

Nem toda reação ao excesso tecnológico segue esse padrão. Há uma distinção que o debate público raramente faz, e que me parece crítica.

No campo do design gráfico, existe um movimento documentado sob o conceito de estética anti-híper-digital: a rejeição do polimento excessivo, da simetria perfeita e dos outputs homogêneos do design gerado por IA. Artistas e studios estão deliberadamente escolhendo o imperfeito, o feito à mão, a textura que nenhum prompt reproduz facilmente.

Parece, à primeira vista, a mesma overcorrection. Mas há uma diferença substantiva: essa escolha tem um argumento estético e estratégico claro. Não é rejeito da ferramenta porque a ferramenta causou dano. É busca por aquilo que a ferramenta não consegue reproduzir.

O mesmo raciocínio aparece no conceito de dieta informacional — ou Efeito Flamingo. A ideia parte de uma observação simples: flamingos são cor-de-rosa porque comem camarão. Se parassem, virariam brancos, iguais a qualquer outra ave.

Criadores que consomem apenas conteúdo gerado por algoritmo, treinado em média cultural, produzem outputs que se parecem com tudo o que já existe. Quem consome arquivo, clássicos, materiais fora do circuito de recomendação, produz algo que se destaca. A escolha analógica aqui não é romantismo. É estratégia de diferenciação.

Há ainda um terceiro registro: o que A aura que falta explorou ao perceber que eficiência sem presença é um problema de design, não de tecnologia. A Tríade Criativa sistematiza isso como design de ecologia da atenção: não o abandono das ferramentas, mas o design de quando, onde e para quê elas entram. A desconexão como ferramenta, não como bandeira.

Essas são overcorrections com design. A distinção que importa não é entre analógico e digital. É entre reação por reflexo e escolha por argumento.

O argumento que não estou fazendo: por que criticar a overcorrection não é defender a tecnologia

Estou ciente de que esse argumento pode soar como defesa da tecnologia, e não é. O que os publishers fizeram ao Wayback Machine foi um erro com consequências reais para o jornalismo. O que a Suécia fez pode amplificar desigualdades que já existiam. Estou dizendo que os dois erros têm a mesma origem: a reação foi proporcional ao desconforto, não ao problema.

A IA está produzindo danos reais. A atenção das crianças está sendo fragmentada de formas que pesquisadores ainda estão mapeando. Nenhum desses problemas é pequeno. O que estou questionando é a confiança de que a retirada resolve, quando o que resolve, na maior parte das vezes, é o redesenho.

A escola finlandesa, que aparece como contraponto recorrente nos debates sobre educação, não ficou famosa por ter ou não ter tecnologia. Ficou famosa por ter professores bem formados e autonomia pedagógica. A ferramenta é variável. A intenção com que se usa a ferramenta é o que determina o resultado.

Da retirada ao redesenho: a pergunta que publishers e governos não fizeram antes de agir

Nessa parte do texto, a convenção seria entregar a resposta. Uma lista com três passos, um framework acionável, algo que o leitor pudesse aplicar na segunda-feira. Não tenho isso. A ausência da resposta é parte do argumento.

O que tenho é uma pergunta que já coloquei em outro contexto, ao examinar o fetiche pela ferramenta, e que me parece igualmente útil aqui: quando você identifica um excesso tecnológico na sua vida, no seu trabalho ou na sua instituição, a reação que você considera está atacando a causa ou o sintoma mais próximo?

Publishers que bloquearam o arquivo público não perguntaram isso. O governo sueco, ao que tudo indica, também não.

A próxima vez que eu ver alguém propor uma solução para um problema tecnológico, vou tentar identificar o que essa solução destrói junto. Não para não agir. Para agir melhor.

Você tem casos em que viu isso acontecer? Fico curioso para ouvir.


Quer ler mais sobre o tema? Minha dica é assinar essa seção por e-mail

backlash tecnologia digital intenção pedagógica tecnologia overcorrection digital Suécia escolas analógicas Wayback Machine publishers


Previous Next

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

keyboard_arrow_up