Modelos
de linguagem como o ChatGPT são notoriamente suscetíveis a “alucinações”,
inventando fatos falsos com aparente segurança. Mas e se essas mesmas
ferramentas pudessem ser usadas para identificar informações enganosas ou
equivocadas — especialmente em reportagens sobre ciência?
Pesquisadores
do Stevens Institute of Technology desenvolveram um sistema baseado em IA
justamente para isso.
Apresentado
em um workshop da Associação para o Avanço da Inteligência Artificial, o
projeto usa modelos de linguagem de código aberto para analisar a precisão de
notícias sobre descobertas científicas.
Descobertas
da pesquisa
· A equipe, liderada pela professora K.P. Subbalakshmi, criou
um conjunto de dados com 2.400 reportagens — reais e geradas por IA —
combinadas com resumos técnicos da pesquisa original.
· A IA compara as afirmações da reportagem com as evidências
científicas e avalia sua precisão, usando critérios como exagero, simplificação
ou confusão entre causa e correlação.
· Os modelos conseguiram identificar reportagens confiáveis
com cerca de 75% de acerto, sendo mais eficazes ao analisar textos escritos por
humanos do que por outras IAs.
· Segundo Subbalakshmi, isso mostra o desafio de detectar
erros técnicos em textos artificialmente bem estruturados.
Estudo
pode ter aplicações úteis
Além
de oferecer um novo recurso para checagem automatizada, o estudo pode servir de
base para ferramentas práticas — como plugins que alertem para possíveis
distorções em tempo real, ou sistemas de ranqueamento de veículos de mídia com
base na precisão científica.
Para
Subbalakshmi, o objetivo final é claro: “Não podemos ignorar a presença da IA,
mas podemos usá-la para criar sistemas mais confiáveis — e ajudar as pessoas a
separar ciência de desinformação.”