Adoptarea rapidă a inteligenței artificiale în domeniul medical pune problema reglementării și eticii.

Adoptarea rapidă a inteligenței artificiale în domeniul medical pune problema reglementării și eticii.

Inteligența artificială este deja utilizată pe scară largă în spitalele din Statele Unite pentru a sprijini medicii în diagnosticare, prioritizarea cazurilor critice și transcrierea notelor clinice. Însă ritmul rapid al adoptării acestor tehnologii a depășit capacitatea actuală de reglementare, avertizează experții într-un raport publicat pe 5 iunie în PLOS Digital Health.

Inteligența artificială devine din ce în ce mai integrată în medicină

Food and Drug Administration (FDA) și spitalele le incorporează tot mai frecvent în fluxul de lucru, conform revistei Nature. Spre deosebire de medicamentele sau alte dispozitive supuse reglementării de către FDA, aceste instrumente AI continuă să se actualizeze și să învețe din noi seturi de date după ce au fost inițial aprobate. Această caracteristică necesită o supraveghere constantă, pe care reglementările actuale o pot susține doar parțial.

Recent, guvernul federal al SUA a exprimat intenția de a simplifica reglementările pentru AI. În ianuarie, președintele Donald Trump a revocat un ordin executiv privind siguranța inteligenței artificiale, argumentând că barierele inovației trebuie eliminate. Ulterior, departamentul FDA responsabil cu sănătatea digitală și AI a suferit reduceri de personal.

Absența reglementărilor clare poate provoca probleme

Lipsa unor reguli precise și stricte poate duce la cazuri în care algoritmii medicali oferă recomandări eronate, influențând negativ îngrijirea pacienților. „Este necesară implementarea unor măsuri de siguranță, iar a se baza exclusiv pe FDA pentru acestea nu este realist, poate chiar imposibil”, afirmă Leo Anthony Celi, cercetător la MIT și coautor al raportului.

FDA aplică standarde de aprobat mai puțin exigente pentru instrumentele AI comparativ cu cele pentru medicamente. Numai dispozitivele considerate a avea un risc ridicat pentru pacienți trebuie să treacă prin studii clinice, iar mulți algoritmi performează slab atunci când sunt folosiți pe populații diferite față de cele pentru care au fost antrenați. Astfel, o aprobată de FDA nu garantează neapărat beneficiul real pentru toți pacienții.

Ideal ar fi ca spitalele să testeze algoritmii local, adaptându-i la pacienții lor și să instruiească personalul medical pentru a interpreta rezultatele. „Majoritatea spitalelor nu dispun de resursele necesare pentru a angaja echipe de AI care să efectueze aceste verificări”, explică Celi, subliniind un studiu recent care arată că multe spitale utilizează tehnologii AI «de pe raft», fără validare locală, ceea ce reprezintă „o rețetă pentru dezastru”.

Raportul propune ca universitățile să colaboreze cu spitalele pentru a evalua calitatea acestor tehnologii, sprijinind departamentele IT și monitorizând impactul algoritmilor asupra pacienților. Aceasta reprezintă o abordare nouă, esențială în contextul evoluției accelerate a domeniului.

FDA nu are autoritatea legală de a impune teste post-aprobat în spitale, ceea ce poate permite altor instituții să preia această responsabilitate. Michelle Mello, specialist în dreptul sănătății la Stanford, menționează Centers for Medicare & Medicaid Services (CMS), care administrează asigurările publice de sănătate și ar putea condiționa plățile de adoptarea unor evaluări riguroase.

David Ouyang, cardiolog la Cedars–Sinai, subliniază și importanța companiilor de asigurări, care pot refuza acoperirea costurilor pentru tehnologii insuficient testate. „Standardul pentru asigurări este chiar mai ridicat decât cel al FDA”, afirmă el, lucru ce poate crea o „barieră suplimentară” pentru implementarea AI în medicină.