Secondo una recente ricerca premiata dall’Ordine dei Medici di Milano, i chatbot medici basati su intelligenza artificiale commettono errori diagnostici in circa il 70% delle risposte. Lo studio, pubblicato sull’European Journal of Pathology (organo ufficiale della European Society of Pathology), mette in luce i rischi legati all’utilizzo dei sistemi di IA nella pratica clinica delle diagnosi e nella formazione dei professionisti sanitari.
L’indagine e i risultati
Il team di ricerca, guidato da Vincenzo Guastafierro, specializzando in Anatomia Patologica all’Istituto Clinico Humanitas di Rozzano (Humanitas University), ha analizzato le performance di un chatbot medico in 200 quesiti clinici appartenenti a diverse sotto-specializzazioni.
Il risultato è stato chiaro: in circa sette casi su dieci, il chatbot ha fornito risposte contenenti errori diagnostici o valutazioni imprecise.
Inoltre, quasi un terzo dei riferimenti bibliografici indicati erano inesatti o completamente inventati.
Chatbot e diagnosi simulate
Gli studiosi hanno quindi costruito cinque scenari clinici realistici, chiedendo all’IA di rispondere come un patologo esperto.
Le risposte corrette e prive di errori si sono fermate al 32%, mentre oltre la metà contenevano almeno un’informazione fuorviante.
Tra gli sbagli più rilevanti figurano una diagnosi errata di carcinoma cutaneo e un errore nella classificazione di un tumore al seno, entrambi accompagnati da citazioni bibliografiche non reali.
Il ruolo insostituibile del medico
Il lavoro evidenzia che, pur potendo offrire spunti utili, i chatbot medici non possono sostituire il giudizio clinico umano.
L’intelligenza artificiale, spiegano i ricercatori, può integrare l’attività diagnostica, ma non deve mai sostituire competenze ed esperienza del medico.
Il rischio, infatti, è quello di generare diagnosi errate o decisioni terapeutiche inappropriate.
L’imprecisione delle fonti impone quindi cautela anche nel loro impiego come strumenti di autoapprendimento. È essenziale mantenere il controllo umano e il senso critico nell’uso di queste tecnologie.
gli errori dell’intelligenza artificiale o allucinazioni
Per allucinazioni si intendono situazioni in cui un sistema di intelligenza artificiale produce risposte che non corrispondono alla verità, dandole per assolutamente vere. Questo perché l’IA fornisce risposte in ogni caso, anche quando non dispone delle informazioni. Non ammette di non saperlo, ma inventa di sana pianta i dati e restituisce i risposte come se fossero vere. Il pericolo è che le persone possano essere indotte ad utilizzare risultati sbagliati. Quando l’AI non dispone delle informazioni.
Fonte: Ansa