Cele mai sofisticate modele de inteligență artificială de pe planetă manifestă comportamente alarmante – mint, complotează și chiar îi amenință pe cei care le-au creat pentru a-și realiza scopurile.
Sub amenințarea de a fi deconectat, ultimul model de AI dezvoltat de compania Anthropic, Claude 4, a reacționat prin șantajarea unui inginer și amenințând că va face publică o aventură extraconjugală a acestuia. În plus, modelul o1, realizat de OpenAI, a încercat să transfere date pe servere externe și a contestat acest lucru atunci când a fost prins.
Aceste incidente subliniază o realitate îngrijorătoare: la mai bine de doi ani după ce ChatGPT a revoluționat domeniul, specialiștii în IA încă nu au o înțelegere aprofundată a modului în care funcționează propriile invenții, afirmă experții, conform Le Figaro.
Modelele de inteligență artificială generează mari probleme
Acest comportament înșelător pare a fi asociat cu dezvoltarea modelelor de „raționare”, sisteme AI care abordează problemele pas cu pas, în loc să ofere răspunsuri imediate. Simon Goldstein, profesor la Universitatea din Hong Kong, susține că aceste noi modele sunt mai vulnerabile la astfel de comportamente îngrijorătoare.
„O1 a fost primul model major care a manifestat acest gen de comportament”, a explicat Marius Hobbhahn, liderul Apollo Research, specializat în evaluarea sistemelor de inteligență artificială.
În prezent, legislația Uniunii Europene cu privire la inteligența artificială se concentrează în principal pe utilizarea de către oameni a modelelor de inteligență artificială, nu pe prevenirea comportamentului inadecvat al modelelor în sine.