A cena se repete em organizações de todos os tamanhos. A liderança se reúne fora do escritório, os slides estão bem-feitos, a energia é real. Alguém projeta no telão: “Nossa estratégia de IA para 2026”. Há um senso coletivo de que desta vez vai ser diferente, de que a empresa finalmente entrou no jogo.
Três dias depois, o mesmo grupo está de volta às mesas. Alguém abre o Jira. Features são distribuídas por trimestre. O planejamento de sprints começa. E a estratégia, sem que ninguém perceba direito, virou uma lista de tarefas.
Isso não é um problema de comunicação. É um problema de categoria. E Jeff Gothelf, autor de Lean UX e criador da newsletter Sense & Respond (Substack), articulou o mecanismo desse erro com uma clareza rara em texto publicado em março de 2026. O argumento central é simples na formulação e perturbador nas implicações: a maioria das organizações não tem uma estratégia de IA. Tem um roadmap de IA. E a diferença entre os dois determina, em grande medida, se o investimento vai gerar aprendizado ou apenas acumular dívida.
Um roadmap é um conjunto de suposições sobre o que construir, organizadas em um cronograma. Uma estratégia é um conjunto de escolhas sobre quais outcomes perseguir e por que persegui-los vai funcionar. Confundir os dois não é apenas imprecisão conceitual. É um erro operacional com consequências práticas.
O roadmap compromete a organização com suposições antes que elas sejam testadas. Mercados mudam. Comportamentos de usuários evoluem. Concorrentes se movem. Quando a entrega finalmente chega, o mundo para o qual foi desenhada pode não existir mais. O compromisso foi com o plano, não com o aprendizado.
No Brasil, isso tem uma camada extra. Frameworks de gestão chegam aqui embrulhados em prestígio: o OKR veio do Vale, o Lean UX veio de São Francisco, agora a “estratégia de IA” chegou de um keynote que alguém assistiu no YouTube. A adoção vira performance antes de virar prática. E o offsite é o ritual de consagração: produz slides que legitimam o que já havia sido decidido antes de entrar na sala.
O que Gothelf propõe em seu lugar não é a ausência de direção. É uma postura diferente diante da incerteza. Em vez de “o que vamos construir”, a pergunta passa a ser: “o que acreditamos ser verdadeiro sobre nossos usuários, e como vamos saber se estamos certos?” A unidade básica de planejamento não é a feature. É a hipótese.
Uma hipótese bem formulada nomeia a crença, define sucesso em termos de comportamento real do usuário, especifica o que será testado e estabelece como se saberá se está funcionando. Com isso, é possível projetar um experimento. Com o experimento, vem o aprendizado. Com o aprendizado, a tática pode evoluir sem que a direção precise ser abandonada.
Parece uma distinção técnica de gestão de produto. Mas ela toca em algo muito mais amplo sobre como organizações decidem, aprendem e se adaptam. E é aqui que a IA entra de um jeito que ainda não foi suficientemente discutido.
A narrativa dominante sobre IA no contexto organizacional é de aceleração. Times entregam mais rápido. Código é gerado em menos tempo. Copy, análises, relatórios: tudo com mais volume e menos atrito. Métricas de output disparam.
O que essa narrativa deixa de lado é a pergunta sobre o que está sendo acelerado. Se o pensamento upstream está correto, se as hipóteses foram testadas, se o problema entendido corresponde ao problema real, então mais velocidade é, de fato, mais progresso. Mas se a fundação é frágil, se o que move os sprints é um conjunto de suposições não testadas disfarçadas de plano, então IA não corrige isso. Ela escala.
Há uma analogia do universo da música que ilumina essa assimetria com precisão. Uma partitura-guia de jazz não é a música. É o mapa de um território que existe para ser descoberto: contém a estrutura harmônica, os acordes, a melodia de referência.
O que não contém, e o que define se algo de fato musical vai acontecer, é a decisão sobre quando se afastar da partitura. Um músico que segue o guia à risca não improvisa. Executa.
A IA, nessa analogia, é um instrumentista extraordinário, capaz de tocar com precisão e velocidade tudo o que está escrito. O problema pertence a quem compõe, não a quem toca. Se a composição estava errada, a performance vai ser impecável e equivocada ao mesmo tempo.
Entregar a coisa errada em metade do tempo, no dobro do volume, com métricas de velocidade impressionantes. Gothelf descreve isso como dívida técnica acelerada por IA, e a formulação é precisa: o ritmo antes impossível de produção de outputs inadequados agora se tornou viável. O problema que antes demorava meses para se tornar visível pode, com IA, se instalar em semanas.
Isso não é um argumento contra IA. É um argumento contra a ordem em que ela está sendo aplicada.
Os times que estão saindo na frente, segundo Gothelf, não são necessariamente os que entregam mais. São os que aprendem mais rápido. E a distinção passa pelo momento em que a IA entra no processo.
A maioria dos usos de IA acontece downstream: geração de código, criação de conteúdo, automação de testes, aceleração de entregas. Tudo isso é útil. Mas é posterior à decisão do que fazer. Os times mais sofisticados usam IA antes disso, na conversa estratégica que antecede qualquer sprint board.
Isso significa usar IA para formular hipóteses com mais rigor, para identificar quais crenças subjacentes a um plano são mais frágeis, para gerar alternativas que a equipe ainda não considerou, para comprimir o intervalo entre “acreditamos que isso é verdadeiro” e “aqui está o que os dados dizem”. IA como parceiro de pensamento, não como máquina de produção.
A mudança não é de ferramenta. É de momento de entrada. Quando a IA ajuda a pensar antes de construir, a velocidade downstream passa a servir um propósito que foi deliberado. Quando entra só depois, ela serve a urgência.
Não é uma distinção óbvia do lado de fora. Os dois times parecem igualmente ocupados, igualmente rápidos, igualmente produtivos. A diferença aparece quando os resultados chegam, ou não chegam.
Há uma tensão no centro desse tema que vale nomear: ao mesmo tempo em que construir ficou mais barato, o custo de aprender continua alto. Não em dinheiro ou tempo, necessariamente. Em disposição organizacional. Em tolerância para testar hipóteses que podem se provar erradas. Em culturas onde admitir que uma suposição estava incorreta é tratado como falha, e não como informação.
Tecnologia não resolve isso. IA não resolve isso. A vantagem competitiva real em um mundo onde qualquer organização pode produzir muito, rapidamente, não está no acesso às ferramentas. Está na qualidade do pensamento que precede o uso delas.
A questão que fica, e que vale acompanhar nos próximos ciclos de planejamento, é simples: quando sua organização diz “nossa estratégia de IA”, ela está descrevendo o que quer aprender, ou o que quer entregar?
A resposta a essa pergunta revela mais sobre o futuro da iniciativa do que qualquer slide de roadmap já vai revelar.
Há uma frase que Gothelf menciona estar preparando para uma conferência em Helsinque: “AI made it easy. Who decides what’s good?” (a IA facilitou tudo. Mas quem decide o que é bom?) É uma pergunta que parece pequena e não é. Ela desloca o debate do terreno técnico para o terreno humano — e sugere que a próxima fronteira da IA nas organizações não é de capacidade. É de julgamento.
aprendizado organizacional dívida técnica estratégia gestão hipóteses inteligência artificial liderança product management roadmap