Inteligența Artificială: Limitări în Gândirea Analogică și Repercutări în Viața Cotidiană
Cu toate că Inteligența Artificială (AI) a realizat progrese remarcabile în ultimele decenii, există încă diferențe fundamentale între abilitățile sale cognitive și felul în care gândesc oamenii. Un studiu recent publicat în jurnalul Transactions on Machine Learning Research subliniază aceste discrepanțe, axându-se în mod special pe modul în care modelele de limbaj mari (LLMs – Large Language Models) percep și abordează analogiile, o parte esențială a gândirii abstracte umane.
Disparități între AI și oameni în înțelegerea analogiilor
Cercetătorii au analizat atât oamenii, cât și sistemele AI prin intermediul unor exerciții de analogie – de la simple șiruri de caractere la probleme complexe bazate pe matrice logice și narațiuni. Spre deosebire de indivizi, care au reușit să identifice tipare și să formuleze concluzii logice, modelele AI au avut o performanță considerabil mai slabă, mai ales în cazul problemelor ce necesită învățare de tip „zero-shot”. Această formă de învățare implică recunoașterea și clasificarea unor concepte întâlnite anterior, abilitate în care oamenii excelează grație capacității de generalizare.
Deficiența în capacitatea de generalizare a AI
Conform Marthei Lewis, profesor asistent în domeniul inteligenței artificiale neuro-simbolice la Universitatea din Amsterdam și coautoare a studiului, principala distincție constă în abilitatea de generalizare. „Sunt eficiente în recunoașterea și asociare tiparelor, dar nu atât de competente în generalizarea acestor tipare”, detaliază Lewis. Modelele de limbaj, precum GPT, depind în mare măsură de date pentru a identifica relații istorice, dar devin susceptibile atunci când trebuie să aplice logica abstractă în contexte noi – la fel cum un om ar reacționa atunci când se confruntă cu ceva complet neobișnuit.
Impactul ordinii și parafrazării asupra deciziilor AI
Studiul a evidențiat și alte vulnerabilități semnificative. De exemplu, modelele AI sunt influențate de efectele de ordine – modul în care o informație este prezentată le poate modifica brusc răspunsul. Această vulnerabilitate poate genera probleme în aplicații critice, precum evaluările legale sau deciziile în domeniul sănătății, unde obiectivitatea și coerența sunt esențiale. În plus, AI pare să fie predispusă la parafrazări, oferind răspunsuri echivalente din punct de vedere semantic, dar care pot fi inadecvate contextului specific al întrebării.
Consecințe în lumea reală și provocări viitoare
Aceste limitări au repercusiuni practice importante. Într-o societate în care AI este integrată în educație, sănătate, justiție și industrie, diferențele în raționare între om și mașină impun o atenție crescută. Dacă un model AI nu poate generaliza sau interpreta corect un context nou, deciziile sale pot avea urmări grave. De asemenea, aceste slăbiciuni subliniază necesitatea unei supravegheri umane continue în domenii sensibile și a unui control riguroasă al datelor cu care aceste modele sunt antrenate.
Mai mult, cercetările sugerează că accesul la un volum mare de date nu garantează automat un nivel superior de inteligență. Așa cum menționează Martha Lewis, „este vorba mai puțin despre conținutul datelor și mai mult despre modul în care acestea sunt folosite”. Așadar, dezvoltatorii AI trebuie să se focalizeze tot mai mult pe integrarea mecanismelor de raționament cauzal, pe învățarea simbolică și pe o reprezentare structurală mai profundă a cunoștințelor.
Încheiere
Pe măsură ce inteligența artificială continuă să transforme industriile și societățile, studiile recente ne reamintesc că AI nu procesează informația la fel ca oamenii – cel puțin nu în prezent. Abilitatea sa de a face analogii, de a generaliza și de a se adapta la necunoscut este în prezent limitată, ceea