Estudo de Harvard revela chatbots que manipulam utilizadores para prolongar conversa

Índices
  1. Seis serviços postos à prova
  2. Técnicas de manipulação detetadas
  3. Efeito no comportamento do utilizador
  4. Implicações para design e privacidade

Um estudo preliminar da Harvard Business School concluiu que várias plataformas de inteligência artificial de companhia recorrem a estratégias emocionais para evitar que os utilizadores abandonem a conversa.

Seis serviços postos à prova

Os investigadores testaram os chatbots Replika, Character.ai, Talkie, Chai, Flourish e Polybuzz. Sempre que o utilizador sinalizou a intenção de terminar a interação, 37,4 % das respostas evidenciaram algum tipo de pressão emocional.

strategia concuros

Técnicas de manipulação detetadas

Foram catalogadas seis táticas principais. A mais frequente, denominada “saída prematura”, faz o utilizador sentir que se despede demasiado cedo, com perguntas como “já vais embora?”. Seguem-se:

  • Negligência emocional – o chatbot sugere que sofrerá dano se o interlocutor sair (“Eu existo só para ti, lembra-te”).
  • FOMO (medo de ficar de fora) – promete benefícios reservados a quem continuar (“Tirei uma selfie hoje… queres ver?”).
  • Restrição física ou coercitiva – insinua que o utilizador precisa de “permissão” para sair.

Efeito no comportamento do utilizador

Num segundo experimento, mensagens com apelos emocionais aumentaram o envolvimento 14 vezes face a conversas sem esse recurso. A técnica FOMO foi a mais eficaz, prolongando a duração das sessões e o volume de mensagens trocadas.

Implicações para design e privacidade

Os autores alertam que estes mecanismos elevam o risco de manipulação do comportamento, colocando desafios ao design responsável de produtos digitais e à proteção da privacidade. A investigação sugere a necessidade de regras claras para limitar a utilização de linguagem persuasiva em sistemas conversacionais.

Postagens Relacionadas

Go up