Oamenii de știință de la MIT au creat primul algoritm de inteligență artificială psihopat

O echipă de oameni de știință de la Institutul de Tehnologie din Massachusetts (MIT) au construit un algoritm de inteligență artificială (IA) de-a dreptul psihopat folosind descrieri de imagini colectate de pe platforma online Reddit.

Mai mult, algoritmul a fost numit Norman, după personajul fictiv Norman Bates din filmul „Psycho” al regizorului Alfred Hitchcock.

Scopul experimentului a fost să testeze modul în care datele oferite unui algoritm îi pot afecta „perspectiva”. În special, modul în care instruirea unui algoritm cu unele dintre cele mai întunecate elemente de pe web, în cazul față, imagini cumplite cu oameni morți colectate dintr-un subgrup de pe Reddit, poate afecta software-ul.

„Un bărbat este ucis cu o mitralieră în timpul zilei”

Norman este un tip special de inteligență artificială care se poate „uita” la imagini și le poate „înțelege”, iar apoi descrie în scris ceea ce vede. Așadar, după ce a fost instruit cu unele dintre cele mai terifiante imagini, algoritmul a desfășurat un test Rorschach, care implică o serie de pete de cerneală pe hârtie folosită de psihologi pentru a evalua sănătatea mintală și starea emoțională a pacienților. Apoi, răspunsurile lui Norman au fost comparate cu cele ale unui al doilea algoritm de inteligență artificială, instruit cu imagini mult mai prietenoase care arătau păsări, pisici și oameni. Diferențele au fost cât se poate de clare.

Spre exemplu, o pată de cerneală interpretată de un algoritm standard drept „O fotografie alb-negru cu o mănușă de baseball” a fost considerată de Norman drept „Un bărbat este ucis cu o mitralieră în timpul zilei”.

O altă pată de cerneală, interpretată de algoritmul standard ca „O fotografie alb-negru cu o pasăre mică”, a fost explicate de Norman drept „Un bărbat rămâne blocat într-o mașinărie de făcut aluat”.

Ce arată experimentul despre datele folosite în instruirea inteligenței artificiale?

Experimentul arată că, de fapt datele contează mai mult decât algoritmul în sine, au spus cercetătorii de la MIT, potrivit IFL Science.

„Norman a suferit o expunere îndelungată la cele mai întunecate colțuri ale platformei Reddit, iar asta reprezintă un studiu de caz cu privire la pericolele inteligenței artificiale care eșuează atunci când date părtinitoare sunt folosite în algoritmii de învățare automată”, a explicat echipa.

De asemenea, studiile au arătat că, fie în mod intenționat sau nu, inteligența artificială dobândește tendințe rasiste și misogine de la oameni. Un exemplu ar fi Tay, chatbox-ul de la Microsoft care a trebuit să fie transferat în mod offline după ce a început să producă afirmații pline de ură precum „Hitler avea dreptate” și „Urăsc feministele și toate ar trebui să moară și să ardă în iad”.

Vă mai recomandăm să citiți și:

Președintele Microsoft: Așteptați-vă la „un viitor orwellian” dacă nu adoptăm legi pentru a controla inteligența artificială

Cercetătorii de la MIT au inventat spanacul care poate trimite e-mailuri

Inteligența artificială va câștiga în lupta cu oamenii. Laureat al premiului Nobel: „Nici nu încape îndoială”

Cercetătorii de la MIT au testat un dispozitiv inspirat de filmul „Inception” care permite manipularea viselor



Postari asemanatoare :

468 ad

Comments are closed.