Imagine a cena:
Uma equipe de design se reúne para entender os usuários de um novo aplicativo. Na tela, em vez de pessoas, aparecem agentes de IA com nomes, perfis e personalidades simuladas.
Um deles “é” uma mãe solo que usa transporte público.
Outro “é” um idoso com dificuldade para lidar com tecnologia.
Um terceiro “é” um jovem ansioso por produtividade.
Eles conversam entre si, discordam, opinam, criticam telas, sugerem melhorias.
Ao final, alguém diz:
“Pronto. Fizemos uma pesquisa com usuários”.
Não. Não fizemos.
Agentes podem ajudar a pensar melhor uma pesquisa. Mas não devem ocupar o lugar de quem vive a experiência.
Fizemos uma simulação. Talvez útil. Talvez interessante. Talvez até provocadora. Mas não uma pesquisa com usuários reais.
Essa distinção é mais do que preciosismo acadêmico. Ela toca no coração do processo de design, especialmente quando falamos de UX, HCI e Design Centrado no Usuário. A tendência de usar “aquários de agentes” — grupos de agentes de IA simulando conversas, entrevistas ou focus groups — pode ser uma ferramenta poderosa de apoio. O problema começa quando ela é vendida ou adotada como substituta da pesquisa qualitativa com pessoas reais, em contextos reais, enfrentando problemas reais.
A tese aqui é simples:
Agentes podem gerar hipóteses, mas não produzem dado empírico sobre usuários reais. Eles ajudam a preparar o terreno. Mas não pisam no terreno.
O que é dado empírico, afinal?
Dado empírico é informação produzida a partir da observação, interação ou registro de fenômenos no mundo real.
Em pesquisa com usuários, isso pode aparecer de várias formas: uma entrevista com uma pessoa real; a observação de alguém tentando realizar uma tarefa; um teste de usabilidade; um diário de uso; uma gravação de sessão; anotações de campo; respostas abertas de participantes; comportamentos inesperados durante o uso de um produto; dificuldades que aparecem quando a solução encontra o cotidiano.
O ponto central é:
O dado empírico nasce do contato com a experiência vivida.
Ele não precisa ser perfeito. Nenhum dado é puro, neutro ou livre de interpretação. A própria etnografia, a pesquisa qualitativa e a tradição de HCI já nos ensinaram que observar pessoas envolve contexto, mediação, recorte e interpretação. Autores como Lucy Suchman chamaram atenção para a ação situada: aquilo que as pessoas fazem não pode ser plenamente compreendido fora das circunstâncias concretas em que a ação acontece.
Mas mesmo quando interpretamos, analisamos e organizamos os dados, ainda há uma diferença fundamental entre observar uma pessoa lidando com uma situação concreta e pedir que um modelo de IA imagine como essa pessoa talvez se comportaria.
Um agente pode dizer:
“eu teria dificuldade em encontrar o botão”. Um usuário real pode passar três minutos procurando o botão, hesitar, rir sem graça, pedir desculpa, clicar em outro lugar, desistir, dizer que entendeu quando não entendeu, ou revelar que o verdadeiro problema nem era o botão.
É aí que mora a pesquisa.
Simulação não é observação
Uma boa simulação pode ser útil. Um mapa pode orientar. Um ensaio pode preparar. Uma maquete pode antecipar problemas. Mas mapa não é território. Ensaio não é apresentação. Simulação de chuva não molha.
Quando usamos agentes para simular usuários, estamos lidando com uma representação construída a partir de dados, instruções, probabilidades e padrões linguísticos. O agente não está cansado depois de um dia de trabalho. Não tem medo de errar diante do pesquisador. Não está usando um celular com tela quebrada. Não está dividido entre responder à entrevista e cuidar de uma criança. Não depende daquele serviço para resolver uma questão urgente da vida.
Isso afeta diretamente a validade ecológica da pesquisa. Em termos simples, validade ecológica diz respeito ao quanto uma situação de pesquisa se aproxima das condições reais em que o comportamento acontece. Um teste em laboratório pode ter limitações. Uma entrevista remota pode ter limitações. Um focus group tradicional também pode ter limitações. Mas todos ainda envolvem pessoas reais, com repertórios, contradições, histórias e contextos próprios.
No caso dos agentes, existe outro problema: a rastreabilidade. Quando uma pessoa real faz uma afirmação, podemos registrar quem disse, em que contexto, diante de qual estímulo, com qual tarefa, em qual momento da sessão. Podemos comparar falas, comportamentos e evidências. Podemos voltar ao material bruto. Podemos discutir a interpretação.
Já uma resposta de agente é resultado de um modelo, de um prompt, de uma configuração, de uma base de treinamento opaca e de escolhas feitas por quem escreveu a instrução. Mesmo quando o sistema parece sofisticado, a pergunta metodológica permanece: isso é evidência sobre o usuário ou é uma projeção plausível sobre o usuário?
Há ainda a questão da surpresa genuína. Pesquisas boas frequentemente nos desobedecem. Elas desmontam premissas. Mostram que o problema era outro. Revelam usos improvisados. Expõem gambiarras. Contrariam a expectativa do designer, do gestor e do próprio pesquisador. Donald Norman insistiu, ao longo de sua obra, que sistemas precisam ser compreendidos a partir da relação entre pessoas, tarefas, ambiente e artefatos. Jakob Nielsen, ao popularizar métodos de usabilidade, também reforçou a importância de observar usuários realizando tarefas.
Agentes podem simular objeções. Mas usuários reais podem nos surpreender de formas que não estavam no prompt.
O viés não desaparece. Ele muda de lugar
Um argumento comum em defesa dos agentes é que usuários reais também são enviesados. Sim, são. Pesquisadores também. Amostras também. Entrevistas também. Focus groups, inclusive, são cheios de problemas: influência social, participantes dominantes, desejo de agradar, respostas performáticas.
Mas reconhecer os limites da pesquisa qualitativa não autoriza substituí-la por uma encenação algorítmica sem o mesmo tipo de lastro empírico.
Com agentes, o viés não desaparece. Ele muda de lugar.
Ele entra pelo prompt. Pela escolha dos perfis. Pela forma como descrevemos “usuário idoso”, “mãe solo”, “jovem gamer”, “pessoa de baixa renda”, “cliente premium”. Entra pelos dados que treinaram o modelo, pelas lacunas culturais, pelos estereótipos, pelas categorias que parecem neutras, mas não são.
Se eu peço a um agente para simular “um usuário brasileiro de baixa renda com dificuldade tecnológica”, posso receber uma resposta coerente, bem escrita e convincente. Mas coerência textual não é evidência. Plausibilidade não é verdade. Uma persona sintética pode soar verossímil e, ainda assim, reforçar um estereótipo.
A responsabilidade metodológica exige que a equipe saiba dizer de onde veio cada afirmação importante. Se uma decisão de projeto foi tomada porque “os agentes disseram”, temos um problema. O mais honesto seria dizer: “geramos hipóteses com agentes e depois precisamos investigar isso com pessoas reais”.
Onde os agentes ajudam de verdade?
Nada disso significa descartar os agentes. Pelo contrário. Eles podem ser excelentes ferramentas auxiliares.
Agentes podem ajudar uma equipe a levantar hipóteses antes de ir a campo. Podem sugerir perguntas para entrevistas. Podem organizar possíveis objeções. Podem simular discussões internas entre áreas de negócio, tecnologia, atendimento e design. Podem fazer um pré-mortem: “de que formas este produto pode fracassar?”. Podem ajudar a revisar um roteiro de pesquisa, apontando perguntas enviesadas, confusas ou indutivas.
Também podem ser úteis para brainstorming. Uma equipe pode pedir que diferentes agentes assumam perspectivas argumentativas: um defensor da acessibilidade, um gestor preocupado com custo, um usuário iniciante hipotético, uma pessoa cética quanto ao produto. Isso não substitui usuários. Mas pode melhorar a qualidade da preparação antes do contato com usuários.
IDEO, Design Thinking e tradições de projeto centrado no humano sempre valorizaram ciclos de exploração, prototipagem, teste e aprendizado. Agentes podem entrar nesse ciclo como ferramenta de preparação e reflexão. O erro é confundir preparação com validação.
Três exemplos hipotéticos de mau uso
1. Validar uma interface bancária apenas com agentes
Imagine uma fintech que usa agentes para simular idosos avaliando um novo fluxo de pagamento. Os agentes dizem que o processo está claro. A equipe lança a funcionalidade. Depois percebe que usuários reais se confundem com termos técnicos, têm medo de confirmar transações e abandonam o fluxo por insegurança.
Consequência:
a empresa economizou na pesquisa, mas pagou em retrabalho, suporte e perda de confiança.
2. Criar uma solução de saúde baseada em personas sintéticas
Uma equipe desenvolve um aplicativo para acompanhamento pré-natal e usa agentes para representar gestantes de diferentes perfis sociais. As respostas parecem ricas. Mas ninguém conversa com gestantes reais, profissionais de saúde ou pessoas que enfrentam barreiras concretas de acesso.
Consequência:
o produto pode parecer sensível no discurso, mas falhar em situações críticas de uso, linguagem, privacidade e confiança.
3. Substituir pesquisa de campo por “focus group sintético” em serviço público
Uma prefeitura quer redesenhar um serviço digital. Em vez de observar cidadãos usando o sistema, simula perfis com agentes. Os agentes reclamam de pontos previsíveis: linguagem difícil, excesso de etapas, falta de clareza. Tudo verdadeiro, mas incompleto.
Consequência:
a equipe perde o que só o campo mostraria: documentos que as pessoas não têm, intermediários que ajudam no processo, medo de errar, dependência de lan houses, uso compartilhado de celular, deslocamentos físicos que continuam existindo apesar do serviço ser “digital”.
Três exemplos hipotéticos de bom uso
1. Preparar um roteiro de entrevista
Antes de falar com usuários reais, a equipe pede a agentes que critiquem o roteiro. Eles apontam perguntas tendenciosas, termos técnicos e lacunas. A equipe melhora o instrumento e depois conduz entrevistas reais.
Aqui, o agente não substitui a pesquisa. Ele melhora a pesquisa.
2. Gerar hipóteses para investigação
Uma equipe quer entender por que usuários abandonam um cadastro. Agentes simulam possíveis razões: falta de confiança, campos excessivos, medo de compartilhar dados, linguagem confusa. Essas hipóteses viram perguntas e tarefas em um teste com usuários reais.
Aqui, o agente ajuda a ampliar o olhar inicial.
3. Fazer pré-mortem de uma solução
Antes de testar um protótipo, a equipe pede que agentes assumam papéis críticos: atendimento, jurídico, usuário iniciante, pessoa com deficiência visual, gestor de produto. Eles levantam riscos. A equipe ajusta o protótipo e define o que observar com participantes reais.
Aqui, o agente funciona como ferramenta de antecipação, não de conclusão.
Um acordo de paz metodológico(?)
Em vez de tratar agentes como ameaça ou salvação, podemos propor um acordo de paz metodológico.
Agentes entram como pré-pesquisa. Usuários reais entram como descoberta, validação e aprofundamento.
Um workflow híbrido possível seria:
- Exploração inicial com agentes
Entregáveis: lista de hipóteses, riscos, perguntas preliminares, possíveis perfis de usuários, dúvidas da equipe. - Revisão crítica das hipóteses
Entregáveis: mapa do que é suposição, do que já tem evidência e do que precisa ser investigado. - Planejamento da pesquisa com pessoas reais:
Entregáveis: roteiro de entrevista, plano de recrutamento, critérios de participantes, tarefas de teste, termos de consentimento quando aplicável. - Pesquisa Empírica
Entregáveis: gravações, notas de campo, transcrições, achados, evidências, padrões e exceções. - Síntese e confronto
Entregáveis: matriz comparando hipóteses dos agentes com achados reais. O que se confirmou? O que caiu? O que ninguém previu? - Decisão de projeto
Entregáveis: recomendações priorizadas, critérios de decisão, backlog de melhorias, novas perguntas de pesquisa.
Esse fluxo reconhece o valor da IA sem entregar a ela uma autoridade que ela não tem.
Checklist do bom senso
Antes de decidir usar apenas agentes, pergunte:
- A decisão de projeto afeta pessoas reais em situações importantes da vida?
- O contexto de uso envolve risco, vulnerabilidade, urgência ou constrangimento?
- Há diferenças culturais, sociais, econômicas ou regionais relevantes?
- O comportamento do usuário importa tanto quanto sua opinião declarada?
- A equipe precisa observar hesitação, erro, improviso ou abandono?
- Existem suposições fortes demais sobre quem é o usuário?
- A solução depende de confiança, linguagem, acessibilidade ou privacidade?
- Você conseguiria explicar de onde veio cada evidência usada na decisão?
- O agente está ajudando a formular perguntas ou está sendo tratado como respondente?
- Se a solução falhar, você conseguiria defender metodologicamente a ausência de usuários reais?
Se muitas respostas apontarem para incerteza, risco ou contexto, fale com pessoas reais. Use agentes para chegar melhor preparado a essa conversa.
Não terceirize seu compromisso com o real
A inteligência artificial pode ser uma grande aliada do design. Pode acelerar preparação, ampliar repertório, tensionar ideias, organizar hipóteses e melhorar instrumentos de pesquisa. Mas ela não deve servir como álibi para evitar o encontro com o mundo.
Design não acontece apenas no plano da plausibilidade. Acontece quando uma proposta encontra corpos, rotinas, medos, desejos, limitações, ambientes, instituições, telas pequenas, conexões ruins, vocabulários locais e vidas concretas.
Agentes podem nos ajudar a imaginar. Usuários reais nos ajudam a descobrir.
E essa diferença importa.
Porque, no fim das contas, a tarefa do design não é produzir respostas convincentes em uma conversa simulada. É construir soluções responsáveis em contato com a realidade.
Não terceirize seu compromisso com o real.