Leah Tharin, especialista em product-led growth com mais de vinte anos em gestão de produto e atual Head of Product na Jua.ai, escreveu na sua newsletter ProducTea, no Substack, que inteligência artificial não consegue simular o comportamento de clientes.
A posição era firme, bem fundamentada, e ressoou com força numa comunidade cansada de promessas infladas sobre o que modelos de linguagem podem fazer. Meses depois, na mesma newsletter, Leah publicou que havia construído uma ferramenta que coloca cinco personas virtuais para avaliar uma homepage em sessenta segundos. A contradição é aparente, e é exatamente por isso que o caso interessa.

O que Leah fez, sem fazer alarde, foi separar dois trabalhos que a maioria das pessoas trata como um só. De um lado, simulação comportamental: prever churn, modelar disposição de pagamento, antecipar dinâmicas de compra ao longo do tempo.
Esse tipo de tarefa exige contexto que nenhum modelo de linguagem possui, porque depende de história, de ambiente, de variáveis que mudam quando observadas, às vezes pelo próprio ato de serem observadas.
Do outro lado, avaliação heurística: identificar contradições de copy, confusões de UX, desalinhamentos entre o que o CTA promete e o que a página entrega. Isso é reconhecimento de padrões, e reconhecimento de padrões é precisamente o que LLMs fazem bem.
A distinção parece simples quando enunciada assim. Na prática, quase ninguém a faz.
O mercado de tecnologia tem uma tendência estrutural de embalar novas ferramentas em promessas totalizantes. A IA vai “entender seus clientes”. Vai “personalizar a experiência em escala”. Vai “substituir o processo de pesquisa qualitativa”.
Essas afirmações não são mentiras exatamente, mas são imprecisas de uma forma que acaba sendo mais danosa do que uma mentira clara: elas criam expectativas difusas, geram decepções igualmente difusas, e bloqueiam o aprendizado sobre o que a tecnologia de fato faz bem.
O resultado é uma divisão que se estabeleceu em dois campos igualmente improdutivos. De um lado, os que acreditam que IA resolve qualquer problema de compreensão de audiência. Do outro, os que descartam qualquer uso de IA no entendimento de clientes porque “a máquina não sente, não vive, não tem contexto”.
Os dois estão errados pela mesma razão: confundem a ferramenta com o job.
Clayton Christensen, quando desenvolveu a teoria do Jobs to Be Done, estava interessado em entender por que produtos bem projetados falham. A resposta que ele encontrou era que empresas tendem a pensar em termos de produto, não em termos de tarefa.
Por exemplo: o cliente não compra uma furadeira. Ele contrata uma furadeira para fazer um buraco na parede. Essa distinção muda tudo na hora de projetar, comunicar e distribuir o produto. O mesmo raciocínio se aplica à adoção de IA: a pergunta não é se a ferramenta é boa, mas para qual job específico você a está contratando.
O RoastMyWebsite, a ferramenta que Leah criou, é um experimento elegante de delimitação. Ela gera cinco perfis com contextos distintos, um PM júnior de startup, um VP de Engineering em empresa enterprise, um founder sensível a preço, um head de operações não técnico, um CTO cético, e simula a reação de primeira visita a uma página.

Nenhum desses perfis prevê se o visitante real vai converter. Nenhum deles substitui uma entrevista qualitativa conduzida com método. O que eles fazem é funcionar como cinco pares de olhos frescos que identificam o que o criador do copy não consegue mais ver, porque está próximo demais do próprio material.
“Seu site diz ‘simples’ quatro vezes, mas sua página de preços tem 47 itens.”
Esse tipo de observação não requer empatia. Não requer experiência vivida. Requer atenção a padrões e consistência interna, e atenção a padrões e consistência interna é escalável. É isso que o modelo está fazendo, e é por isso que funciona para esse job específico.
Há um ponto cego comum em organizações que produzem conteúdo com frequência: a proximidade com o material cria uma espécie de cegueira de mensagem.
Quem escreveu o copy de uma landing page, quem desenvolveu a narrativa de uma campanha, quem construiu a arquitetura de informação de um site, raramente consegue ver o que um visitante de primeira viagem vê. Não porque seja menos inteligente. Porque sabe demais.
O contexto que parece óbvio para quem está dentro é exatamente o contexto que o visitante de fora não tem. A IA, sem contexto, reproduz a experiência do primeiro olhar. Isso é uma limitação que se transforma em vantagem quando o job é esse.
O ponto que mais interessa, porém, está no framework por trás da ferramenta, não na ferramenta em si.
“Para qual job você está contratando a IA?” Essa pergunta, formulada com essa precisão, deveria ser o filtro de qualquer decisão sobre adoção de inteligência artificial em estratégia de conteúdo, produto ou marketing.
Não porque seja revolucionária, mas porque é difícil de responder com honestidade. A tendência é responder em termos vagos: “para entender melhor minha audiência”, “para otimizar minha comunicação”, “para escalar minha produção”. Essas respostas não são respostas. São intenções.
O job exige especificidade: identificar exatamente qual tarefa, com qual input, gerando qual output, em qual contexto de uso.
Quando alguém diz que usa IA para “entender o cliente”, o problema não é a IA. É a imprecisão do pedido. Entender o cliente como? Para identificar inconsistências na comunicação? Para isso, funciona.
Para prever comportamento de compra em contextos complexos de alto envolvimento emocional? Para isso, não funciona. A maturidade na adoção de IA passa por essa capacidade de decompor o problema em tarefas específicas e avaliar, tarefa por tarefa, o que é delegável e o que não é.
IA pode avaliar se o seu copy está claro, se a estrutura do artigo segue uma lógica interna consistente, se o tom oscila de forma não intencional entre parágrafos, se o título e o primeiro parágrafo estão alinhados com a expectativa que o título cria. Para esses jobs, é uma ferramenta poderosa.
IA não pode avaliar se o seu público vai se identificar com a história que você está contando, porque identificação é um fenômeno relacional que depende de contexto vivido, de memória afetiva, de pertencimento a uma comunidade interpretativa. Confundir as duas coisas é o caminho mais rápido para produzir conteúdo que parece profissional e não comunica nada.
Existe uma faixa de sofisticação na adoção de qualquer tecnologia que poderíamos chamar de zona de clareza. Abaixo dela estão os usos primitivos, os que tratam a ferramenta como varinha mágica e se decepcionam quando ela não funciona para todo job imaginável. Acima dela estão os usos maduros, os que sabem o que a ferramenta faz, para qual tarefa específica foi desenhada ou se mostra eficaz, e onde estão seus limites reais.
A maioria dos usuários de IA em marketing e conteúdo ainda está abaixo dessa faixa, não por falta de inteligência, mas por falta de um framework que os ajude a fazer a pergunta certa.
Leah Tharin, sem fazer alarde, ofereceu exatamente isso. Disse que IA não simula clientes. Manteve a posição. Construiu algo útil a partir da mesma premissa, sem contradizê-la. O que mudou não foi a opinião. Foi a granularidade da pergunta.
A sofisticação no uso de IA está em saber para quê, não em usar mais.
Quer ler mais sobre o tema? Minha dica é assinar essa seção por e-mail
avaliação heurística estratégia de conteúdo IA em marketing inteligência artificial jobs to be done product-led growth