Allenare l’AI per migliorare i percorsi di diagnosi differenziale

14 Marzo 2023

L’IRCCS partecipa al progetto Aequitas, finanziato dalla Comunità Europea e coordinato dall’Università di Bologna per rimuovere i “bias” nei sistemi di intelligenza artificiale.

L’utilizzo sempre più frequente dei software di intelligenza artificiale (AI) in ambito sanitario offre diversi vantaggi ma apre anche alcune sfide importanti. Se non adeguatamente tarati, infatti, tali sistemi possono sottostimare elementi di discriminazione razziale e socioeconomica, soprattutto in una società sempre più multiculturale come quella in cui viviamo. Il rischio è, di conseguenza, di non riconoscere segni e criticità fondamentali per la formulazione di una corretta diagnosi

Il progetto Aequitas unisce un team multidisciplinare composto da informatici, medici ed esponenti di associazioni di minoranze con l’obiettivo di verificare ed eventualmente correggere questi potenziali “bias”.  Il gruppo di lavoro del Sant’Orsola, costituito da pediatri e dermatologi che si occupano di dermatologia pediatrica, si pone un duplice obiettivo: da un lato facilitare l’identificazione dei casi di abbandono e di abuso dei minori, dall’altro migliorare la valutazione delle malattie dermatologiche dell’età pediatrica che possono riscontrarsi in queste situazioni

«Tradizionalmente in campo dermatologico i sistemi di intelligenza artificiale sono tarati su immagini di lesioni cutanee riferite principalmente a soggetti caucasici con la pelle chiara - spiega la dermatologa Iria Neri, referente del progetto per il Sant’Orsola insieme al professor Marcello Lanari – Ciò può portare delle criticità nel riconoscimento quando le stesse patologie interessano soggetti di colore». Proprio per evitare questi “bias”, il gruppo di lavoro coordinato dalla dottoressa Neri intende revisionare i dati riferiti a circa 18mila accessi al pronto soccorso pediatrico e a 50mila immagini dermatologiche in modo da favorire una lettura più corretta

L’obiettivo, insomma, è quello di «fornire metodi di mitigazione e linee guida pratiche affinché tali bias siano rimossi, intendiamo quindi “allenare” l’intelligenza artificiale per correggere i possibili errori».