Caçadora de fake news: nova IA verifica erros científicos em reportagens

Modelos de linguagem como o ChatGPT são notoriamente suscetíveis a “alucinações”, inventando fatos falsos com aparente segurança. Mas e se essas mesmas ferramentas pudessem ser usadas para identificar informações enganosas ou equivocadas — especialmente em reportagens sobre ciência?

Pesquisadores do Stevens Institute of Technology desenvolveram um sistema baseado em IA justamente para isso.

Apresentado em um workshop da Associação para o Avanço da Inteligência Artificial, o projeto usa modelos de linguagem de código aberto para analisar a precisão de notícias sobre descobertas científicas.

Descobertas da pesquisa

·       A equipe, liderada pela professora K.P. Subbalakshmi, criou um conjunto de dados com 2.400 reportagens — reais e geradas por IA — combinadas com resumos técnicos da pesquisa original.

·       A IA compara as afirmações da reportagem com as evidências científicas e avalia sua precisão, usando critérios como exagero, simplificação ou confusão entre causa e correlação.

·       Os modelos conseguiram identificar reportagens confiáveis com cerca de 75% de acerto, sendo mais eficazes ao analisar textos escritos por humanos do que por outras IAs.

·       Segundo Subbalakshmi, isso mostra o desafio de detectar erros técnicos em textos artificialmente bem estruturados.

Estudo pode ter aplicações úteis

Além de oferecer um novo recurso para checagem automatizada, o estudo pode servir de base para ferramentas práticas — como plugins que alertem para possíveis distorções em tempo real, ou sistemas de ranqueamento de veículos de mídia com base na precisão científica.

Para Subbalakshmi, o objetivo final é claro: “Não podemos ignorar a presença da IA, mas podemos usá-la para criar sistemas mais confiáveis — e ajudar as pessoas a separar ciência de desinformação.”

Postar um comentário

Postagem Anterior Próxima Postagem