Falhas graves em resumos de IA
Um estudo da BBC com a União Europeia de Radiodifusão revela que as inteligências artificiais ainda cometem erros graves ao resumir notícias. Os principais assistentes de IA do mercado estão longe de oferecer resumos jornalísticos confiáveis.
A pesquisa analisou mais de 3 mil respostas de ferramentas como ChatGPT, Copilot, Gemini e Perplexity. Do total, 45% continham informações incorretas ou fontes problemáticas.
Gemini lidera ranking de erros
Desempenho por plataforma
O Gemini, do Google, registrou a maior taxa de falha: 76% das respostas apresentaram imprecisões. Isso o coloca como o menos confiável entre os principais assistentes disponíveis.
Em contraste, o ChatGPT teve imprecisões em 24% das respostas. Apesar do desempenho melhor, os erros foram considerados graves pelos pesquisadores.
Casos emblemáticos de imprecisão
Exemplos específicos de falhas
O Gemini garantiu que nenhum astronauta da NASA jamais ficou preso no espaço, contradizendo fatos históricos conhecidos. Essa informação incorreta foi classificada como especialmente preocupante.
O estudo confirmou que, de fato, um astronauta da NASA já ficou preso no espaço. Já o ChatGPT afirmou que o papa Francisco ainda estava vivo semanas após sua morte.
Causas principais dos erros
Limitações técnicas
A principal causa está na dificuldade desses sistemas em processar notícias atualizadas e verificar a confiabilidade das fontes consultadas. Essa limitação técnica explica parte considerável dos problemas de precisão.
Além disso, a arquitetura desses sistemas pode não estar totalmente adaptada para o trabalho jornalístico, que exige alto grau de precisão factual e contextualização adequada.
Crescimento da confiança do público
Paradoxo preocupante
A pesquisa revelou que a confiança do público em resumos de IA cresceu recentemente. Esse aumento na credibilidade preocupa os pesquisadores, pois ocorre quando o estudo demonstra problemas significativos de precisão.
Os especialistas alertam que essa confiança pode levar à aceitação acrítica de informações imprecisas, com consequências para a formação de opinião pública.
Limites do que se sabe
Lacunas na pesquisa
O estudo representa um passo importante, mas deixa questões em aberto. A fonte não detalhou metodologias específicas para a correção desses problemas ou prazos para possíveis melhorias.
Também não há informações sobre como diferentes tipos de notícias podem afetar as taxas de erro. Os pesquisadores recomendam supervisão humana sobre resumos gerados por IA.





