Por que resumos de IA podem limitar sua capacidade de aprendizado profundo?

A análise revela que resumos de IA limitam a compreensão profunda, favorecendo conhecimentos superficiais e menos implicados emocionalmente.

artificial intelligence, brain, thinking, computer science, technology, intelligent, information, data, microprocessor, data exchange, communication, network, digitization, science fiction, futuristic, artificial intelligence, brain, brain, brain, brain, brain, technology

Desde a adoção massiva dos Modelos de Linguagem Grandes (LLMs) como ChatGPT ou as “AI Overviews” integradas em motores de busca, a aquisição de informação experimentou uma transformação radical. A promessa é clara: máxima eficiência através da síntese imediata de dados. No entanto, no âmbito da psicologia cognitiva e da educação, surge uma questão inevitável:

Qual é o custo cognitivo de delegar o processo de busca e síntese a uma inteligência artificial?

Para preencher este vazio empírico, a investigação liderada por Melumad e Yun (2025) aborda diretamente o impacto da modalidade de aquisição de informação na profundidade do aprendizado. Enquanto a busca web tradicional exige que o utilizador navegue, interprete e estruture a informação por si mesmo, os LLMs realizam este trabalho de “dar sentido” (sensemaking) de forma automática. O trabalho de Melumad e Yun postula que esta facilidade suprime um processo crítico de aprendizado exploratório, transformando um exercício ativo num passivo.

A síntese imediata e o espejismo do aprendizado

Durante os últimos anos, o desenvolvimento de ferramentas impulsionadas por inteligência artificial mudou drasticamente os hábitos de estudo e investigação. Treinados com vastas coleções de texto e arquiteturas de aprendizado profundo, os modelos atuais não só recuperam informação, mas também a processam, traduzem e, o mais crítico para o âmbito académico: o resumo.

Hoje em dia, é uma prática comum entre estudantes e profissionais utilizar um LLM para extrair as ideias principais de manuais extensos ou papers científicos em questão de segundos, eliminando a necessidade de ler os textos completos. Embora isto otimize o tempo, altera fundamentalmente a mecânica da assimilação.

Historicamente, o aprendizado profundo tem dependido da “fricção intelectual”: o ato de buscar, avaliar fontes contraditórias e destilar ideias complexas.

O problema central que Melumad e Yun identificam é que, ao interagir com resumos gerados por IA, o utilizador se torna um receptor passivo. Ao não ter que ensamblar o conhecimento por conta própria a partir de múltiplas peças de informação, perde-se uma etapa vital do processamento cognitivo.

Neste cenário de alta comodidade tecnológica, Melumad e Yun se plantearam investigar se este atalho no esforço inibe nossa capacidade para desenvolver um conhecimento enraizado e original, gerando uma mera ilusão de competência onde, na realidade, só existe uma compreensão superficial.

A ilusão da eficiência cognitiva

O estudo de Melumad e Yun demonstra consistentemente que delegar a síntese de informação à IA tem consequências diretas na assimilação do conhecimento e na qualidade do desempenho posterior. Seus achados revelam o seguinte:

Conhecimento mais superficial

Os participantes que utilizaram resumos de LLM desenvolveram um nível de conhecimento significativamente menos profundo em comparação com aqueles que navegaram por links web tradicionais.

Redução do esforço cognitivo

A inmediatez da IA reduziu o investimento de esforço mental. Ao não ter que ensamblar ativamente a informação, os utilizadores experimentaram uma queda no processamento profundo.

Produção de conteúdo genérico

Ao solicitarem que gerassem conselhos baseados no aprendido, o grupo que utilizou IA produziu textos objetivamente mais curtos, com menos referências a factos concretos e carentes de originalidade semântica.

Efeitos em cascata negativos

Evaluadores independentes (cegos ao método de busca original) qualificaram os conselhos derivados da IA como menos úteis, menos informativos, menos confiáveis e com menor probabilidade de serem adotados.

Baixa apropriação do conhecimento

Os utilizadores de IA reportaram-se sentir-se menos envolvidos e com menor sentido de propriedade intelectual sobre as recomendações que eles mesmos redigiram.

Metodologia do estudo e limitações

Para isolar estas variáveis, Melumad e Yun desenharam um total de sete experimentos controlados com uma amostra massiva (n = 10.426 participantes) em ambientes de laboratório e plataformas online. Quatro destes estudos conformam o núcleo principal do seu artigo, enquanto os três restantes serviram como replicações conceituais (incluídas no material suplementar) para dotar de robustez aos seus achados.

Atribuíram aleatoriamente os sujeitos a aprender sobre temas cotidianos (ex. como plantar um huerto ou levar um estilo de vida saudável) utilizando motores de busca padrão (Google) ou interfaces de síntese de IA (ChatGPT ou Google AI Overview). Posteriormente, pediram-lhes para redigir conselhos sobre o tema. No quarto experimento central, um grupo independente de “receptores” avaliou a ciegas a qualidade dos dichos conselhos.

Para manter o rigor e a honestidade intelectual, os próprios Melumad e Yun apontam limitações críticas no seu design:

  • Contexto da tarefa: Os resultados enquadram-se na tarefa específica de aprender para dar conselhos. O uso de LLMs para buscar dados pontuais (conhecimento declarativo) poderia não apresentar estas desvantagens.
  • Métricas de aprendizado: A profundidade do conhecimento foi medida através de auto-relatos, a análise qualitativa do texto produzido e a percepção de terceiros. Não se utilizaram testes padronizados de desempenho, o que deixa espaço para futuras investigações objetivas.
  • Motivação extrínseca: Ao utilizarem participantes remunerados em plataformas como Prolific, a motivação intrínseca pela qualidade do conselho era baixa. Em cenários do mundo real com altas implicações pessoais, os resultados poderiam variar.
  • Complexidade do domínio: O estudo centrou-se em temas acessíveis sem necessidade de conhecimentos prévios profundos. Em disciplinas altamente especializadas (matemáticas avançadas, física), os resumos de IA poderiam, paradoxalmente, facilitar a compreensão inicial.

Implicações para a Prática Profissional

O trabalho de Melumad e Yun (2025) é um aviso fundamental contra a “desprofess profissionalização” (deskilling) das nossas capacidades de aprendizado ativo. Em psicologia cognitiva, o conceito de “dificuldade desejável” sublinha que o esforço investido em superar obstáculos durante o aprendizado—como o ensaio e erro de navegar por múltiplas fontes—fortalece a retenção e a compreensão profunda.

Quando deixamos que um LLM “faça o trabalho de buscar” por nós, estamos sacrificando a construção de conhecimento procedimental (entender como e porquê as coisas funcionam) a troco de conhecimento declarativo empacotado. Isto implica que o uso de IA deve ser estratégico: excelente para estruturar ou revisar, mas potencialmente prejudicial se substituir a leitura crítica, a curadoria de fontes e o esforço pessoal de síntese.

Fontes

Melumad, S. & Yun, J. (2025). Experimental evidence of the effects of large language models versus web search on depth of learning. PNAS Nexus, 4, (10). DOI: 10.1093/pnasnexus/pgaf316

Resumir ou analisar com IA 2