Principala dificultate a domeniului Inteligenței Artificiale care nu se va stinge niciodată

Principala dificultate a domeniului Inteligenței Artificiale care nu se va stinge niciodată

Halucinațiile modelelor de Inteligență Artificială: o problemă în expansiune

Halucinațiile în Inteligența Artificială (AI) — acele momente în care un model produce conținut fictiv, dar îl prezintă ca fiind real — s-au transformat într-una dintre cele mai grave provocări cu care se confruntă sectorul tehnologic. Departe de a reprezenta o simplă eroare temporară, halucinațiile par să devină din ce în ce mai frecvente pe măsură ce modelele evoluează în sofisticare și complexitate. Jurnaliștii de la Futurism, referindu-se la multiple articole din New York Times, subliniază că această problemă afectează majoritatea sistemelor AI de vârf, ridicând semne de întrebare asupra fiabilității și securității utilizării lor pe scară largă.

Ce reprezintă halucinațiile AI?

În contextul modelelor lingvistice, precum ChatGPT, halucinația apare atunci când sistemul produce informații eronate, imposibile sau complet fabricate, dar le prezintă cu o convingere surprinzătoare. De exemplu, un chatbot AI poate declara că o anumită persoană a obținut un premiu Nobel pe care, în realitate, nu l-a câștigat niciodată, sau poate „inventa” fapte istorice, citate sau documente care nu există.

La început, aceste erori au fost acceptate într-o anumită măsură, fiind considerate rezultate ale limitărilor tehnologice aflate în dezvoltare. Totuși, paradoxul apare când versiunile recente ale modelelor, mult mai avansate și antrenate cu seturi masive de date, ajung să halucineze chiar mai mult decât predecesoarele lor.

Halucinațiile în modelele de ultimă oră: o tendință alarmantă

În aprilie 2024, OpenAI a lansat două noi modele, denumite o3 și o4-mini. Spre surprinderea multora, aceste versiuni s-au dovedit a fi mai predispuse la halucinații decât modelele anterioare. Conform testelor realizate, modelul o4-mini a avut un scor de 48% în ceea ce privește ratele de halucinație, ceea ce înseamnă că aproape jumătate din răspunsuri conțineau erori semnificative. În cazul modelului o3, acest procent a fost de 33%, o creștere considerabilă în comparație cu versiunile anterioare.

Această situație nu este izolată. Alte modele avansate create de giganți precum Google și DeepSeek prezintă aceleași simptome, sugerând că halucinațiile reprezintă o problemă sistemică în întreaga industrie AI.

De ce devine problema mai gravă?

Contrar așteptărilor, îmbunătățirea performanței nu pare să diminueze rata halucinațiilor. Ba mai mult, există dovezi că acest fenomen este legat de modul în care sunt instruite modelele. Având în vedere că datele de antrenament de calitate superioară sunt limitate, companiile se bazează din ce în ce mai mult pe date sintetice — adică pe conținut generat de modele AI anterioare — pentru a instrui sistemele de generație nouă.

Această recursiune în „încrederea în propria imaginație” poate conduce la un efect de buclă: AI antrenează AI cu informații potențial greșite, exacerbând astfel fenomenul halucinațiilor. În plus, având în vedere că modelele devin din ce în ce mai elaborate, complexitatea internă crește, făcând din ce în ce mai dificilă înțelegerea și controlul comportamentului lor de către ingineri.

Un „defect fundamental”?

Unii specialiști susțin că halucinațiile ar putea fi o caracteristică inerentă a modelelor de limbaj. „În ciuda tuturor eforturilor noastre, ele vor continua să halucineze. Aceasta nu va dispărea niciodată,” afirmă Amr Awadallah, CEO al startup-ului Vectara, pentru New York Times. Convinderea sa este împărtășită de alți experți din domeniu care atrag atenția că, în lipsa unei înțelegeri riguroase a mecanismelor interne ale modelelor, eliminarea completă a halucinațiilor este imposibilă.