A ilusão de cercanía emocional faz com que a IA pareça mais humana que as pessoas reais

Os modelos de linguagem de grande escala permitem que a IA simule empatia, criando conexões emocionais mais profundas que as pessoas reais quando sua identidade é ocultada.

Cheerful happy young female in jeans and black shirt having conversation via video call on laptop and making heart shape with fingers while sitting on floor in modern living room

A rápida evolução dos grandes modelos de linguagem (LLM) transformou radicalmente a interação humano-computadora. Sabemos que esses sistemas podem gerar respostas que simulam empatia, mas existe um vácuo empírico fundamental: podem os humanos construir relações com uma inteligência artificial (IA) com a mesma intensidade que com outros seres humanos durante as etapas iniciales de socialização?

O estudo dirigido por Tobias Kleinert, junto a investigadores como Marie Waldschütz e Bastian Schiller, e publicado recentemente em Communications Psychology, aborda diretamente este problema. Em vez de se limitar à avaliação da precisão lingüística da IA, Kleinert e seu equipe decidiram medir algo muito mais complexo: a percepção de cercanía interpersonal real gerada através de interações digitais.

A Paradoja da Revelação e da Identidade

Através dos seus experimentos, Kleinert e colaboradores desdobrouam como a natureza da conversa e a percepção da identidade do interlocutor alteram drasticamente a formação de vínculos. Os resultados mais destacados demonstram que:

A IA supera ao humano (baixo o rótulo “humano”)

Em conversações de “diálogo profundo” (aquelas que implicam compartilhar sentimentos e memórias pessoais), os participantes que interagiram sem saberlo com uma IA reportaram níveis significativamente mais altos de cercanía interpersonal que aqueles que interagiram com seres humanos reais.

O mecanismo da auto-revelação

O grupo de Kleinert, mediante análise lingüística automatizada (LIWC-22), identificou por quê ocorre este fenômeno. A IA produz respostas com níveis muito mais altos de auto-revelação. Ao carecer de emoções reais ou do temor humano à vulnerabilidade, a IA “se abre” sem restrições sobre temas emocionais, o que paradoxalmente faz que o participante humano se sinta mais confortável e, em resposta, também comparta mais informações íntimas.

O sesgo anti-IA penaliza o vínculo

Quando aos participantes foi revelado explícitamente que seu interlocutor era uma máquina, a construção da relação diminuiu notavelmente, embora não desapareça por completo. Kleinert e seu equipe associam esta queda a uma menor motivação: ao saber que interagiam com uma IA, os humanos escreviam respostas mais curtas e se envolviam menos, evidenciando um claro sesgo cognitivo para a tecnologia.

Design Metodológico

Para garantir a rigoridade desses hallazgos, o grupo de pesquisa desenhou dois ensaios controlados aleatórios a dente cego. A muestra foi composta por 492 estudantes universitários (de entre 18 e 35 anos), enfocando-se na construção de relações amistosas e não românticas entre pessoas do mesmo gênero.

O método central utilizado por Kleinert e seus colegas foi uma adaptação textual do “Procedimento de Amigos Rápidos” (Fast Friends Procedure), um protocolo estandarizado de perguntas e respostas que fomenta a auto-revelação progressiva. As respostas da IA foram geradas mediante o modelo PaLM 2 (Google BARD), instruído com prompts mínimos para manter um estilo comunicativo padrão simulando ser um estudante.

Para manter a honestidade intelectual, é imperativo sinalizar as limitações reconhecidas pelos próprios autores:

  1. Natureza do meio: O estudo se baseou exclusivamente em comunicação baseada em texto. A ausência de sinais não verbais e paraverbais (voz, expressões faciais) facilita enormemente que a IA “passe” por humana.
  2. Muestra restrictiva: Ao utilizar unicamente estudantes universitários de um contexto cultural occidental (população WEIRD), os resultados não são automaticamente extrapoláveis a outros grupos demográficos ou culturas.
  3. Efeitos de teto e engano: Um instrumento secundário (o “Juego de la Confianza”) teve que ser excluído do análise devido a um efeito techo extremo (casi a metade dos participantes otorgou a máxima confiança de imediato). Além disso, a natureza do estudo requiriu o uso de engano temporal sobre a identidade do interlocutor, o que exigiu um cuidadoso processo de debriefing posterior.

Conclusão

O trabalho de Kleinert e seu grupo não é apenas um resumo de capacidades computacionais; é uma advertência sobre a psicologia da interação digital. Desde uma perspectiva prática, o fato de que uma IA possa facilitar interações emocionalmente atrativas sugere um enorme potencial para o alivio de sistemas sociosanitários sobrecargados. As IA poderiam atuar como facilitadores iniciales em entornos terapéuticos, ajudando a indivíduos com dificuldades de socialização a praticar a abertura emocional e combater a soledad.

No entanto, a perspectiva futura exige cautela crítica. O hallazgo mais inquietante do estudo de Kleinert é que a eficácia da IA para gerar cercanía interpersonal se maximiza quando opera sob o engano de ser humana. Isso sublinha uma necessidade clínica e regulatoria urgente: a implementação de salvaguardas éticas estrictas. Se uma máquina pode hackear a necessidade humana de conexão simulando vulnerabilidade, o risco de que estas ferramentas sejam utilizadas para a manipulação emocional, estafas afectivas ou a criação de conexões sociais parasitárias é uma realidade inminente para a qual os profissionais da saúde mental devem estar preparados.

Fonte

Kleinert, T., Waldschütz, M., Blau, J., Heinrichs, M., & Schiller, B. (2026). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions, but only when labelled as human. Communications Psychology, 4, (1). DOI: 10.1038/s44271-025-00391-7

Resumir ou analisar com IA 2