Continuiamo con voi a leggere il contributo della Prof.ssa Rossana Cecchi (Ordinario di Medicina Legale dell’Università di Modena Reggio Emilia) e del Dott. Francesco Calabrò dell’Università di Parma, sul sempre interessante argomento inerente il rapporto tra Medicina e Intelligenza Artificiale con tutte le sue implicazioni dal punto vista etico.
AI e medicina: quanti problemi dal punto di vista etico
Tutti gli argomenti di cui ci è occupato nell’articolo precedente lasciano senz’altro ampio margine per un dibattito di natura etica, medica e medico-legale. Non può essere considerato accettabile sviluppare un sistema di IA destinato all’ambito sanitario, dunque ai pazienti, senza che questo abbia una solida base etica, né tantomeno è pensabile relegare gli aspetti etici e legali a un ruolo marginale nel processo di progettazione.
Temi fondamentali come il segreto professionale, il consenso informato, la responsabilità professionale, il trattamento dei dati sensibili, la tutela della privacy non possono essere considerati questioni secondarie. Valutare la qualità di un sistema esclusivamente in base alle sue prestazioni tecniche, senza garantirne la conformità a principi etici e normativi, significa trascurare la sicurezza e la fiducia che dovrebbero essere al centro di qualsiasi innovazione in ambito medico.
Quale didattica
Alla luce di queste criticità, emerge senz’altro la necessità e l’urgenza di un approccio più integrato e multidisciplinare nello sviluppo dei sistemi di IA in sanità, aprendo ampi spazi per la ricerca e l’introduzione di una didattica innovativa,attualmente carente sul nostro territorio.
In quest’ottica, proprio da un punto di vista didattico e formativo, potrebbero essere prese in considerazione diverse strategie, prevalentemente di tipo multidisciplinare.
Per quanto riguarda l’aspetto formativo, in un’ottica di multidisciplinarietà e cooperazione, potrebbe essere utile l’attivazione di percorsi formativi specifici per medici, ingegneri e ricercatori, che includano nozioni di bioetica, medicina legale e regolamentazione dell’IA; anche l’istituzione di Master Universitari, come ad esempio un “Master in Intelligenza Artificiale Applicata in Sanità”, con la partecipazione di docenti di medicina, ingegneria informatica, biostatistica e diritto sanitario, nonché l’introduzione nei corsi di Laurea in Medicina di moduli dedicati all’IA, focalizzati non solo sugli aspetti tecnici, ma anche sulle implicazioni etiche e giuridiche, potrebbero favorire una maggior conoscenza e consapevolezza delle possibilità e criticità offerte da questa nuova tecnologia.
È, inoltre, auspicabile una maggior collaborazione tra sviluppatori ed utilizzatori (personale medico) con la creazione di team multidisciplinari in cui ingegneri e medici lavorino insieme sin dalle prime fasi di sviluppo degli algoritmi o, ancora, l’adozione di framework di co-progettazione con aspirazioni comuni, che assicurino che gli obiettivi clinici e le esigenze dei pazienti siano al centro dello sviluppo tecnologico.
Regolamentazione: la necessità di standard adeguati
La velocità con cui la tecnologia avanza pone questioni riguardanti la regolamentazione, la protezione dei dati e la tutela della privacy destinate a trovare soluzioni sempre più urgenti. Un passo avanti potrebbe essere fatto mediante la definizione di standard chiari per la validazione e certificazione dei sistemi di IA, con il coinvolgimento di enti regolatori e società scientifiche. Anche l’implementazione di audit periodici sugli algoritmi, per verificarne il rispetto delle normative etiche e medico-legali, con rafforzamento delle misure di sicurezza per la gestione dei dati, rimangono punti cruciali per un etico e corretto sviluppo degli algoritmi.
In conclusione, l’adozione dell’intelligenza artificiale in sanità rappresenta una rivoluzione con enormi potenzialità, ma anche con rischi significativi se non governata in modo adeguato. La carenza di attenzione agli aspetti etici e medico-legali da parte degli sviluppatori rischia di compromettere la fiducia nei confronti della tecnologia e di creare diseguaglianze nell’accesso alle cure. È fondamentale promuovere un approccio multidisciplinare, che integri ingegneria, medicina, diritto e bioetica sin dalle fasi iniziali dello sviluppo degli algoritmi. Solo così sarà possibile garantire un uso responsabile dell’IA, in grado di migliorare la qualità dell’assistenza sanitaria senza compromettere i diritti fondamentali dei pazienti.