Em uma pesquisa publicada na revista Science Advances nesta quarta-feira (27), uma equipe de cientistas da computação liderada pela Universidade do Colorado, em Boulder, nos Estados Unidos, apresenta uma nova plataforma de inteligência artificial (IA) que busca automaticamente periódicos científicos “questionáveis”.
Leia mais notícias:
A IA identificou mais de 1.000 jornais científicos falsos, que buscam convencer cientistas a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação por pares.
“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, diz Daniel Acuña, principal autor do estudo, em comunicado. “Mas é como um jogo de acertar uma toupeira. Você pega uma, e logo aparece outra, geralmente da mesma empresa. Eles simplesmente criam um novo site e inventam um novo nome.”
Várias vezes por semana, o próprio Acuña recebe spans em sua caixa de entrada de e-mail que vêm de pessoas que dizem ser editores de periódicos científicos, oferendo para publicarem artigos por taxas altas. Ele vê sua nova ferramenta como um meio de pesquisadores protegerem suas áreas de pesquisa de dados incorretos — o que ele chama de “firewall para a ciência”.
Normalmente, quando cientistas submetem um estudo para uma publicação respeitável, o artigo passa por uma revisão por pares, na qual especialistas externos leem o estudo e avaliam sua qualidade. Porém, várias empresas tem buscado burlar esse processo para obter lucro.
Em 2009, Jeffrey Beall, bibliotecário da Universidade do Colorado, em Denver, cunhou a expressão “periódicos predatórios” para descrever essas publicações. Muitas vezes, esses sites visam explorar pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã — países onde há maior pressão para publicação, além de maior quantidade de instituições científicas jovens.
Alimentando a IA
Para identificar o problema, a equipe de Acuña treinou a IA com dados da organização sem fins lucrativos Directory of Open Access Journals (DOAJ), que, desde 2003, sinalizou milhares de periódicos como suspeitos. Até então, esse trabalho da organização fora feito por humanos.
Os cientistas pediram então que a IA analisasse uma lista de quase 15.200 periódicos de acesso aberto na internet. Desses, 1.400 foram reconhecidos como potencialmente problemáticos. Em seguida, uma equipe de especialistas humanos revisou as suspeitas.
Embora a IA tenha cometido erros, sinalizando erroneamente cerca de 350 publicações que provavelmente eram legítimas, isso ainda deixou mais de 1.000 periódicos como suspeitos. “Acho que isso deveria ser usado como um auxílio para a pré-triagem de um grande número de periódicos”, aponta Acuña. “Mas a análise final cabe a profissionais humanos.”
Ainda assim, a IA permitiu que os pesquisadores percebessem que os periódicos questionáveis publicaram um número anormalmente alto de artigos. Além disso, esses jornais incluíam autores com um número maior de afiliações do que periódicos mais legítimos, e muitos autores que citaram suas próprias pesquisas, em vez das pesquisas de outros cientistas.
Acuña e seus colegas não queriam que sua IA fosse uma “caixa preta” como algumas outras plataformas.”Com o ChatGPT, por exemplo, muitas vezes você não entende por que ele está sugerindo algo”, disse o especialista. “Tentamos tornar o nosso [programa] o mais interpretável possível”.
Embora o pesquisador acredite que especialistas humanos, e não máquinas, devam tomar a decisão final sobre a reputação de um periódico, o instrumento pode ser útil para iniciar um trabalho de curadoria. “Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse. “Então, se a fundação daquela torre ruir, tudo desmorona.”
Por ora, o novo sistema de IA ainda não está disponível a público, mas ele deve ser lançado para universidades e editoras em breve. “Como cientista da computação, costumo dar o exemplo de quando um novo smartphone é lançado”, afirma Acuña. “Sabemos que o software do telefone terá falhas e esperamos que as correções de bugs sejam feitas no futuro. Provavelmente deveríamos fazer o mesmo com a ciência”.