OpenAI a emis un avertisment cu privire la faptul că modelele de inteligență artificială care vor fi introduse vor prezenta un nivel crescut de risc în ceea ce privește dezvoltarea armelor biologice, în special dacă ajung în mâinile unor utilizatori fără expertiză adecvată în domeniu.
conform unui comunicat al companiei, riscul principal este reprezentat de capacitatea amatorilor de a efectua acțiuni periculoase, reproducând agenți biologici deja cunoscuți de specialiști, fără a genera neapărat tipuri noi de amenințări.
OpenAI evidențiază necesitatea unor măsuri riguroase și aproape perfecte de monitorizare și prevenire, pentru a evita utilizarea necorespunzătoare a tehnologiei.
OpenAI evidențiază necesitatea unor măsuri riguroase
Managementul companiei americane a declarat că va intensifica testările și va implementa noi măsuri de precauție pentru modelele ce vor avea astfel de funcționalități, dar nu a specificat un termen exact pentru lansarea primului model cu acest grad de risc.
Această îngrijorare este împărtășită și de alte firme din domeniu, precum Anthropic, care a implementat deja măsuri speciale pentru modelul Claude 4, din cauza potențialului său de a facilita răspândirea amenințărilor biologice sau nucleare.
OpenAI plănuiește să organizeze un eveniment în colaborare cu organizații nonprofit și cercetători guvernamentali pentru a discuta riscurile și oportunitățile asociate tehnologiei AI în acest cadru. De asemenea, compania intenționează să își extindă colaborarea cu laboratoarele naționale din SUA și autoritățile pentru a preveni eventualele abuzuri ale tehnologiei.
Conform lui Chris Lehane, șeful politicilor OpenAI, expansiunea capabilităților modelelor AI evidențiază necesitatea ca evoluția globală a acestei tehnologii să fie în principal direcționată de Statele Unite, pentru a asigura securitatea și controlul necesare.