Intelligenza artificiale: allarme diagnosi da Milano

101
Diagnosi errate
Diagnosi errate

Uno studio scientifico ha messo in luce i seri pericoli derivanti dall’utilizzo di chatbot guidati dall’intelligenza artificiale per ottenere diagnosi e terapie. L’indagine ha rivelato che nel 70% dei casi le risposte fornite a quesiti medici sono risultate errate, sollevando preoccupazioni significative per la sicurezza dei pazienti.

La ricerca è stata coordinata da Vincenzo Guastafierro presso l’Istituto Clinico Humanitas e la Humanitas University di Rozzano, in provincia di Milano. Un dato ulteriore emerso è che quasi un terzo dei riferimenti bibliografici citati dai sistemi di IA a supporto delle proprie tesi si è dimostrato inesatto o completamente inventato.

Questi risultati suggeriscono che i rischi associati a un uso non supervisionato dell’intelligenza artificiale in campo sanitario potrebbero superare persino quelli legati alla diffusa abitudine di cercare risposte mediche su motori di ricerca generici, un fenomeno comunemente noto come “Dr. Google”.

Il lavoro, pubblicato sulla rivista scientifica *European Journal of Pathology*, ha avuto l’obiettivo di analizzare in modo rigoroso l’attendibilità dei modelli di intelligenza artificiale generativa come strumenti di supporto alla diagnosi. Per condurre il test, il team di scienziati ha preparato 200 quesiti clinici, suddivisi in cinque scenari simulati e calibrati sulla base delle attuali linee guida mediche.

I modelli di IA testati, tra cui ChatGPT, hanno fornito risposte considerate clinicamente corrette soltanto nel 32% dei casi. Sebbene una porzione più ampia delle risposte (62%) sia stata classificata come “utile”, la bassa percentuale di piena accuratezza rappresenta un forte segnale di avvertimento.

Inoltre, l’analisi delle fonti ha confermato la tendenza dei sistemi a generare informazioni fittizie: su 214 riferimenti bibliografici forniti a sostegno delle risposte, ben il 18% è risultato completamente inventato, privo di qualsiasi fondamento reale.

L’analisi ha evidenziato un aspetto particolarmente inquietante: le inesattezze più gravi sono state riscontrate in relazione a patologie molto serie e delicate. Tra queste figurano il carcinoma cutaneo e il tumore alla mammella, ambiti in cui un’informazione errata può avere conseguenze drammatiche.

Il potenziale impatto di tale disinformazione è amplificato dalla crescente adozione di questi strumenti da parte del pubblico. Un sondaggio del 2024 ha rilevato che circa un adulto su sei utilizza chatbot di IA almeno una volta al mese per reperire informazioni sanitarie, esponendo una vasta fetta della popolazione a un rischio concreto di ricevere indicazioni fuorvianti.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome