Abstract
Il nostro Davide Santovito ci parla di intelligenza artificiale applicata al nostro mondo assicurativo. Quali sono i diritti dei pazienti e degli assicurati visitati e quelli dei medici legali che implementano eventuali nuovi strumenti adottati dalle imprese sotto forme di procedure legate all’utilizzo della Intelligenza Artificiale (IA) e del “Machine Learning” (ML). Qualcuno forse non ricorda delle 3 leggi della robotica di Asimov.
. . . .
IA e medicina legale
Di intelligenza artificiale ormai si parla diffusamente anche nel nostro mondo medico legale.
In questo sito sono stati pubblicati vari documenti, anche audio, frutto di incontri e convegni. Basti riascoltare l’intervento del Prof. Zoja al XXIX Congresso Nazionale Medico Giuridico Melchiorre Gioia dell’8/10/2021 (vedi), o l’intervento del Prof. Dell’Erba sulle perizie telematiche perfezionate da “suggerimenti Valutativi” informatici introdotte da Compagnie Assicurative sui portali dei fiduciari del 12/09/2022 (vedi), o l’articolo della dottoressa Curti “Verso il Congresso SIMLA di Bari: Focus su “Medicina Legale e Intelligenza artificiale” (vedi), o ancora il Convegno “Assicurazioni, gestione e IA in sanità” tenutosi a Roma l’8 ed il 9 giugno 2023 (vedi).
La tematica è senza dubbio di profondo interesse medico legale e certamente attuale. Come ebbi modo di provare sulla mia pelle, ed anche sulla vostra, con la pubblicazione dell’articolo sulla rottura di milza (vedi), l’uso dell’intelligenza artificiale di Chat-Gpt, che per quanto riduttivo è assai esemplare.
Chat-Gpt mi ha restituito un testo solo a fronte di domande via via più specifiche, ma per ora non è stato in grado di fornire uno scritto articolato e specialistico come fa il patologo forense. Tuttavia, io ho fornito a Chat-Gpt una nozione sull’argomento, che prima non possedeva, mentre ora la ha memorizzata in modo molto più articolato. Il mio lavoro ora è a sua completa disposizione, senza che io possa intervenire.
IA e mondo assicurativo
Se vogliamo ampliare il discorso, è interessante leggere il documento IVASS pubblicato nel febbraio 2023 “Indagine sull’utilizzo degli algoritmi di Machine Learning da parte delle imprese assicurative nei rapporti con gli assicurati”. Il primo paragrafo del documento indica che l’indagine dell’IVASS supporta un obiettivo strategico di “di analisi dell’evoluzione e dell’impatto delle tematiche InsurTech, favorendo lo sviluppo digitale in un moderno sistema di tutele per i consumatori.”.
Poco oltre si legge che le imprese di assicurazione “riportano di essere in una fase iniziale e conoscitiva riguardo l’utilizzo degli algoritmi ML”, adottati principalmente per l’ottimizzazione dei processi interni e, in casi circoscritti, nei rapporti con gli assicurati. Però, se si va oltre nella lettura ecco quali sono i fini di tale ottimizzazione: valore aggiunto al business, prevenzione delle frodi, gestione dei sinistri in rc auto, identificazioni delle intenzioni di abbandono dei clienti o pricing al rinnovo della polizza. E quindi, quali sono gli impatti sulla clientela o sul danneggiato?
Non si vuole certo qui sollevare una polemica di natura socio-economica, in fondo le assicurazioni sono società per azioni (tertium non datur) ma, ripensando ai modelli “futuristici” di intelligenza artificiale di “valutazione del danno alla persona”, allora bisogna soffermarsi a riflettere secondo punti di vista assai differenti.
IA e allucinazioni
Di spicco è l’articolo pubblicato da Naomi Klein (la famosa autrice di No Logo) “AI machines aren’t ‘hallucinating’. But their makers are” sul The Guardian l’8 maggio 2023, dove per la prima volta ho appreso che il termine “allucinazione” (hallucinate in lingua inglese) è inserito nelle definizioni di qualcosa che non esiste richieste ad un bot (programma per computer progettato per imitare o sostituire le azioni di un essere umano eseguendo attività automatizzate e ripetitiva – un piccolo “robot”, insomma). L’autrice si chiede per quale motivo non è utilizzato il termine difetto, oppure errore, o perfino “spazzatura algoritmica”. La giornalista afferma che queste “allucinazioni” mascherano un “furto di massa” come un dono, si pensi ai diritti di autore per l’elaborazione di immagini operate dalla IA.
Nell’articolo l’autrice specifica che il termine “allucinazione” è utilizzato nel senso che i detentori di queste IA “vedendo, o almeno affermando di vedere, prove che non ci sono affatto, persino evocando interi mondi che utilizzeranno i loro prodotti per la nostra elevazione e istruzione universali.”.
IA e diritti del paziente
Se questa curiosità è solo la punta dell’iceberg dell’intervento della sociologa in veste di giornalista, non può mancare una riflessione nel contesto medico legale.
In prima battuta bisogna pensare a chi appartengono i dati con cui vengono alimentate le ML e le IA.
I dati appartengono senza dubbio al paziente/danneggiato e c’è da chiedersi se siano raccolti adeguati consensi per il trattamento di tali dati per quelle finalità, che non hanno nulla a che fare con il processo di risarcimento specifico alla persona.
Ci si imbatte, pertanto, in una questione di gestione e finalità di dati personali e sanitari dei danneggiati.
IA e diritti del medico-legale
Un secondo aspetto riguarda il lavoro fatto da chi materialmente immette i dati personali e sanitari nei data base che alimentano le IA e le ML. Se tale attività è svolta negli studi dei professionisti medico legali, allora sorge un problema connesso ad una attività lavorativa che dovrebbe essere regolamentata e/o resa nota, se non lo è già, al professionista stesso.
Tralasciando qualsivoglia argomento di natura giuslavoristica, questa non è la sede opportuna, è invece il caso di riflettere come l’impegno, il sapere e l’arte medico legale possa alimentare così facilmente, magari ad insaputa del professionista, un sistema di IA o ML che inevitabilmente domani potrebbe avere ripercussioni sia sul danneggiato che sull’opera del medico legale stesso.
È quindi necessaria una estrema trasparenza (e presa di coscienza e conoscenza) della e nella gestione dei dati personali e sanitari del paziente/danneggiato/cliente al pari dell’opera che si richiede al medico legale fiduciario nella stesura (o compilazione di campi prefigurati) delle proprie valutazioni tecnico-scientifiche.
L’allarme di Naomi Klein non può quindi essere preso sotto gamba in un mondo dove il linguaggio è in grado di mascherare la realtà, mutare i significati delle sostanze delle cose, e soprattutto nell’esercizio della nostra professione in cui il sapere scientifico si mescola con l’arte medica e con il diritto dell’essere umano, alimentando forme di IA a cui, e la tentazione è forte, si potrebbe delegare nel futuro la valutazione del danno all’essere umano.
Le leggi della robotica
Questo mie breve pensiero, che non deve essere visto come distruttivo dell’IA, ma ha finalità di sollecitare l’intelligenza umana nell’uso della IA, vuole terminare ricordando le tre leggi della robotica di Asimov (Circolo vizioso, 1942) a cui anche l’IA o di chi se ne propugna come nuove frontiera della medicina legale nella valutazione del danno alla persona, dovrebbe rispondere:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
VUOI APPROFONDIRE QUESTO ARGOMENTO?
Leggi anche: Danno a persona e intelligenza artificiale: parla il Presidente Zoja con un intervento del Prof. Pomara