# **Plângere împotriva ChatGPT: Un bărbat din Norvegia acuză OpenAI pentru difuzarea de informații incorrecte**
Un cetățean norvegian, Arve Hjalmar Holmen, a inițiat o plângere formală împotriva OpenAI după ce ChatGPT i-a oferit informații eronate despre viața sa. O raportare de la BBC susține că asistentul AI de la OpenAI a generat o narare fictivă în care Holmen ar fi fost condamnat la 21 de ani de închisoare pentru omorul a doi dintre copiii săi.
Acest caz evidențiază pericolele asociate cu așa-numitele „halucinații” ale inteligenței artificiale, în situații în care modelele lingvistice AI generează informații inexacte sau complet falsificate. Incidentul a suscitat întrebări cu privire la credibilitatea tehnologiei AI și responsabilitatea dezvoltatorilor pentru informațiile generate de modelele lor.
—
## **Detaliile incidentului**
Arve Hjalmar Holmen a identificat eroarea când a introdus numele său în ChatGPT, dorind să obțină informații despre prezența sa în spațiul public. Spre surprinderea lui, chatbotul a produs o poveste inventată, afirmând că doi copii ai săi, în vârstă de 7 și 10 ani, ar fi fost găsiți decedați într-un iaz din Trondheim, Norvegia, în decembrie 2020. De asemenea, modelul AI a susținut în mod eronat că Holmen a fost declarat vinovat și condamnat la 21 de ani de închisoare.
În realitate, Holmen nu a fost niciodată acuzat sau condamnat pentru vreo infracțiune și se consideră un cetățean responsabil. Organizația pentru drepturile digitale Noyb (None of Your Business) și-a exprimat suportul în acest caz, afirmând că OpenAI ar trebui să fie trasă la răspundere pentru daunele cauzate de informațiile false generate.
—
## **Problema „halucinațiilor” AI**
Acest incident ilustrează un fenomen recunoscut în domeniul inteligenței artificiale, denumit „halucinații AI”. Modelele lingvistice avansate, precum ChatGPT, sunt antrenate pe cantități mari de date și, uneori, generează răspunsuri care par plauzibile, dar nu au nicio bază reală.
Cauza acestor „halucinații” constă în modul în care AI prezice, bazându-se pe modele probabilistice. Dacă modelul nu dispune de suficiente informații pentru a oferi un răspuns corect, acesta poate inventa detalii. În anumite situații, aceste informații false pot afecta în mod real reputația și viața persoanelor implicate.
Holmen a subliniat efectul negativ pe care astfel de erori l-ar putea avea asupra individului:
> *„Unii cred că nu există fum fără foc – gândul că cineva ar putea citi acest răspuns și să-l creadă adevărat mă neliniștește cel mai mult”*, a declarat el.
—
## **Reacția autorităților și a OpenAI**
Holmen a depus o plângere formală la **Autoritatea Norvegiană pentru Protecția Datelor**, cerând ca OpenAI să fie sancționată pentru acest incident. Conform reglementărilor generale privind protecția datelor **(GDPR)**, indivizii au dreptul la informații corecte și la protejarea reputației lor împotriva defăimării neîntemeiate.
Organizația Noyb susține că OpenAI a încălcat normele GDPR care asigură acuratețea datelor personale și protejarea acestora împotriva utilizării necorespunzătoare. Ca rezultat, OpenAI ar putea înfrunta sancțiuni financiare dacă autoritățile norvegiene decid că plângerea lui Holmen este justificată.
Până în prezent, OpenAI nu a oferit un răspuns oficial în legătură cu acest incident. Cu toate acestea, compania a modificat între timp modelul ChatGPT pentru a accesa mai multe articole de știri actuale și pentru a îmbunătăți procesul de verificare.