Acest lucru pune în pericol calitatea răspunsurilor și împiedică eforturile de dezvoltare a unor instrumente IA fiabile și verificate pentru cercetători și publicul larg
Noi studii au identificat o problemă serioasă în funcționarea inteligenței artificiale: multe modele, inclusiv chatbot-urile populare, se bazează pe date din articole științifice care au fost retrase oficial sau recunoscute ca fiind nefiabile pentru a răspunde la întrebări. Acest lucru se aplică medicinei, biologiei și altor domenii ale științei, unde publicațiile retrase continuă să fie utilizate de IA pentru a formula recomandări și explicații.
O echipă de cercetători de la Universitatea Tennessee (SUA) a efectuat teste utilizând 21 de articole retrase din domeniul imagisticii medicale și a descoperit că versiunile moderne ale ChatGPT (de exemplu, GPT-4o) menționau aceste surse invalide în citate în mai multe cazuri, și mai des decât avertizau asupra statutului lor. Un alt studiu a arătat că, la verificarea a peste 200 de lucrări respinse și nefiabile, multe modele de IA nu au raportat statutul acestora și, uneori, au recunoscut afirmațiile controversate ca fiind corecte. Este semnificativ faptul că majoritatea acestor studii au fost efectuate pe versiuni de modele cu cunoștințe limitate și fără acces la informații pe internet.
Cercetătorii subliniază importanța implementării mecanismelor de recunoaștere a lucrărilor retrase și integrarea acestor date din bazele de date științifice în algoritmii de învățare și căutare ai inteligenței artificiale. Unele companii au început deja să își actualizeze bazele de date ale modelelor lor pentru a minimiza utilizarea surselor nefiabile, dar problema rămâne actuală.
Profesorul Yuan Fu de la Universitatea Illinois observă: „Importanța diferențierii publicațiilor retrase este evidentă, mai ales când IA influențează deciziile în medicină și tehnologie.
Trebuie să sensibilizăm atât specialiștii, cât și publicul larg, pentru a preveni încrederea oarbă în modelele generative”. OpenAI și alți dezvoltatori importanți nu au făcut încă comentarii detaliate pe această temă, dar comunitatea științifică face apel la cooperare și integrarea unor sisteme mai transparente și verificabile de lucru cu informații științifice.
Această situație suscită îngrijorări serioase, deoarece IA este utilizată din ce în ce mai des pentru revizuiri științifice, asistență pentru cercetători și formularea ipotezelor științifice. Posibilitatea de a obține informații învechite sau incorecte poate submina încrederea în astfel de sisteme și poate duce la răspândirea erorilor în contextul științific și aplicat.