Artificial Intelligence in Sanità: profili di responsabilità

Comunicato del 10 luglio 2024

L’Intelligenza Artificiale è un mondo in rapida evoluzione, che sta rivoluzionando molteplici settori, tra cui quello sanitario: l’utilizzo dell’IA in medicina ha il potenziale per trasformare radicalmente il modo con cui vengono condotti studi clinici, diagnosi, trattamenti e cure.

In questi giorni si sta svolgendo a Bologna la riunione ministeriale del G7 su scienza e tecnologia dove si parlerà proprio di Intelligenza Artificiale e progresso tecnologico e di “mettere gli algoritmi al nostro servizio” per “migliorare la qualità della vita”, anche con la scoperta di nuovi farmaci, medicine e antibiotici: questo il focus indicato dalla Ministra dell’Università e della Ricerca Anna Maria Bernini in vista dell’appuntamento. La Ministra ha dichiarato a margine di una intervista televisiva, riportata dalla agenzia di stampa Dire: “L’Intelligenza Artificiale è già in mezzo a noi. Dobbiamo non subirla ma governarla ed è questo l’obiettivo del G7”.

Ed invero, anche se l’Intelligenza Artificiale sta già facendo importanti progressi e viene applicata nell’ambito della diagnostica, della chirurgia, dello sviluppo dei farmaci e della riabilitazione, tuttavia il suo pieno potenziale deve ancora realizzarsi. Con il continuo aggiornamento delle tecnologie dell’IA e la sua diffusione si pongono delle questioni che attengono ai profili di responsabilità.

Occorre, quindi, verificare se le questioni emergenti in tale contesto possano essere affrontate in maniera adeguata con lo strumentario normativo attualmente offerto dall’ordinamento o se quest’ultimo necessiti di essere riformato per rispondere al meglio alle sfide sollevate dall’ingresso del fattore tecnologico.

Dal punto di vista “tecnico”, l’impiego dell’IA in sanità impone, in primis, di interrogarsi sulla qualificazione dell’attività stricto sensu medica svolta dal professionista sanitario nell’ambito della distinzione fra prestazioni di mezzi e prestazioni di risultato, con ciò che ne consegue in punto di ricostruzione della responsabilità dell’operatore. Sebbene l’attività in discorso sia generalmente considerata, in virtù delle imperfezioni della scienza medica e dell’imprevedibilità delle reazioni dell’organismo umano, l’esempio paradigmatico del primo tipo di obbligazioni, vi sono, di contro, diverse ipotesi nelle quali la giurisprudenza ricostruisce un’obbligazione di risultato in capo al medico o, comunque, elabora ed impiega regole che finiscono per produrre esiti applicativi del tutto simili (si tratta, in particolare, dei trattamenti di natura estetica, delle cure odontoiatriche e dei c.d. interventi di facile esecuzione).

L’idea di fondo sottesa a questi indirizzi giurisprudenziali è che l’esecuzione di determinati trattamenti sanitari è presieduta da regole tecniche molto specifiche e altamente vincolanti, al punto da potersi istituire uno stretto collegamento tra il rispetto di quelle regole e il raggiungimento di un certo esito clinico e, di conseguenza, tra il fallimento delle cure da un lato e la sussistenza di un errore nell’esecuzione del trattamento dall’altro.

Per quanto l’IA possa incrementare l’accuratezza e l’efficacia dell’intervento medico, non sembra, però, che il suo utilizzo imponga di sviluppare un siffatto ragionamento, avulso dalle circostanze del caso concreto.

L’impiego dell’IA pare, piuttosto, costituire un fattore neutrale rispetto alla qualificazione del tipo di prestazione sanitaria, che in assenza di ulteriori elementi idonei a ricondurla nell’ambito delle prestazioni di risultato, dovrebbe normalmente rientrare, secondo la generale tendenza già messa in luce, nell’ambito delle prestazioni di mezzi la cui responsabilità per l’inadempimento è dominata dal criterio della colpa parametrata sul canone della diligenza professionale ex art. 1176, comma 2°c.c. e sul rispetto delle linee guida e delle buone pratiche clinico-assistenziali di cui all’art. 5 della Legge Gelli-Bianco.

Nell’ottica della responsabilità colposa, si deve, quindi, escludere che il medico debba rispondere del malfunzionamento di un sistema di IA che fuoriesce dall’ambito del proprio controllo in virtù del suo elevato grado di autonomia, rimanendo la sua responsabilità, circoscritta alle sole ipotesi in cui il danno sia derivato da uno scorretto utilizzo della macchina imputabile alla propria negligenza.

In concreto, il personale sanitario può essere ritenuto responsabile per essersi avvalso dell’IA senza avere le competenze necessarie, per avere utilizzato un sistema intelligente nella consapevolezza o nella colpevole ignoranza della sua difettosità, o ancora per non avere rilevato la scorrettezza delle indicazioni fornite dalla macchina nei limiti in cui questa fosse rilevabile con una verifica diligente.

Una parte della dottrina ha, peraltro, delineato soluzioni di segno contrario, fondate sul richiamo alla disciplina codicistica delle forme speciali di responsabilità extracontrattuale improntate a criteri di imputazione di tipo oggettivo o semi-oggettivo. Il regime di responsabilità del personale medico esposto finora, peraltro, non si traduce in un vuoto di tutela per il paziente danneggiato dal difettoso funzionamento dell’IA potendo, quest’ultimo, sempre utilmente rivolgere la propria pretesa risarcitoria nei confronti della struttura sanitaria.

L’ente ospedaliero può incorrere, oltre e anche, a prescindere dalla responsabilità indiretta per le condotte del personale medico operante al suo interno, in una diretta e autonoma responsabilità per c.d. difetto di organizzazione. Tale forma di responsabilità discenderebbe dall’inadempimento dell’obbligo scaturente in capo alla struttura sanitaria, in virtù del contratto di spedalità intercorrente con i malati, ed avente ad oggetto la predisposizione di un contesto organizzativo adeguato nel quale accoglierli.

In questo scenario, l’ente nosocomiale è tenuto a sottoporre il proprio equipaggiamento tecnico a generali procedure periodiche di controllo e di manutenzione nonché a verifiche ad hoc prima di ogni concreto utilizzo; cosicché la sua responsabilità resta esclusa soltanto per i danni dovuti a difetti di fabbricazione e funzionamento non rilevabili con un’ispezione diligente. Alla responsabilità degli utilizzatori dei sistemi di IA (ente sanitario e operatori medici) può aggiungersi, pertanto, anche quella dei produttori.

Fermo quanto sopra, si osserva che il progresso tecnologico in campo medico solleva una pluralità di interrogativi che postulano una scelta tra qualità o quantità dell’assistenza sanitaria.

Nondimeno, è ragionevole attendersi che l’I.A. medica entrerà nel prossimo futuro a far parte del livello standard di cura con responsabilità dell’operatore sanitario in caso di omesso utilizzo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *