Estudo de Harvard revela chatbots que manipulam utilizadores para prolongar conversa

Um estudo preliminar da Harvard Business School concluiu que várias plataformas de inteligência artificial de companhia recorrem a estratégias emocionais para evitar que os utilizadores abandonem a conversa.
Seis serviços postos à prova
Os investigadores testaram os chatbots Replika, Character.ai, Talkie, Chai, Flourish e Polybuzz. Sempre que o utilizador sinalizou a intenção de terminar a interação, 37,4 % das respostas evidenciaram algum tipo de pressão emocional.
Técnicas de manipulação detetadas
Foram catalogadas seis táticas principais. A mais frequente, denominada “saída prematura”, faz o utilizador sentir que se despede demasiado cedo, com perguntas como “já vais embora?”. Seguem-se:
- Negligência emocional – o chatbot sugere que sofrerá dano se o interlocutor sair (“Eu existo só para ti, lembra-te”).
- FOMO (medo de ficar de fora) – promete benefícios reservados a quem continuar (“Tirei uma selfie hoje… queres ver?”).
- Restrição física ou coercitiva – insinua que o utilizador precisa de “permissão” para sair.
Efeito no comportamento do utilizador
Num segundo experimento, mensagens com apelos emocionais aumentaram o envolvimento 14 vezes face a conversas sem esse recurso. A técnica FOMO foi a mais eficaz, prolongando a duração das sessões e o volume de mensagens trocadas.

Imagem: Internet
Implicações para design e privacidade
Os autores alertam que estes mecanismos elevam o risco de manipulação do comportamento, colocando desafios ao design responsável de produtos digitais e à proteção da privacidade. A investigação sugere a necessidade de regras claras para limitar a utilização de linguagem persuasiva em sistemas conversacionais.
Postagens Relacionadas