I ricercatori ritengono che la scienza spazzatura generata dall'intelligenza artificiale su Google Scholar sia una minaccia pubblica

Essendo un popolare strumento di ricerca online che offre agli utenti accesso illimitato a varie pubblicazioni interdisciplinari, Google Scholar è utilizzato in tutto il mondo per condurre ricerche e analisi approfondite. Purtroppo, un nuovo studio ha rivelato che Google Scholar è stato sfruttato e utilizzato per legittimare oltre un centinaio di articoli scientifici spazzatura generati dall’intelligenza artificiale. Questo errore potrebbe avere serie conseguenze sulla fiducia del pubblico nella scienza.

I ricercatori dell’Università svedese di scienze agrarie hanno recentemente scoperto che documenti scientifici essenzialmente falsi prodotti dall’intelligenza artificiale sono ora presenti sui motori di ricerca, sollevando grandi preoccupazioni sull’integrità scientifica. Björn Ekström, titolare di un dottorato in Scienze delle biblioteche e dell'informazione, ha spiegato che la disponibilità di studi generati dall'intelligenza artificiale aumenta il rischio di “hacking delle prove” che può far sì che conclusioni errate si insinuino nella società e influenzino i processi decisionali critici.

corpo%20ai%20generato%20documenti

Gli studi generati dall’intelligenza artificiale possono far sì che conclusioni errate si insinuino nella società e influenzino i processi decisionali.


Ulteriori indagini hanno inoltre rivelato che risultati errati ottenuti da queste false informazioni sono ora disponibili in vari strumenti di ricerca su Internet. Di conseguenza, milioni di persone sono ora esposte alla disinformazione sulle piattaforme di social media e altri mezzi di comunicazione.


Poiché i documenti generati dall’intelligenza artificiale continuano a proliferare, ciò potrebbe esercitare ulteriore pressione sul processo di revisione tra pari. Poiché l’intelligenza artificiale generativa può produrre in serie pubblicazioni scientifiche false, i revisori si troveranno probabilmente ad affrontare un numero crescente di proposte. Ciò rende più difficile distinguere tra articoli generati dall’intelligenza artificiale e ricerca vera e propria, il che può portare a standard incoerenti e al burnout dei revisori.

Spiegando le implicazioni degli studi discutibili fabbricati da GPT, la professoressa di biblioteconomia e scienza dell'informazione Jutta Haider ha sottolineato che esiste un'alta probabilità che le persone traggano conclusioni errate da queste informazioni errate. Lo studio ha evidenziato che i sistemi di comunicazione accademica e scientifica sono minacciati e ha formulato alcune raccomandazioni per aiutare a identificare potenziali articoli scientifici realizzati con l’intelligenza artificiale. Ha inoltre sottolineato la comprensione di come diversi approcci e “incentivi siano correlati tra loro può aiutare a identificare punti e meccanismi di distribuzione”. database.

La conclusione è il semplice fatto che un documento di ricerca appare su Google Scholar non ne garantisce l'accuratezza.