L’intelligenza artificiale in sanità: rischi e responsabilità

L’integrazione dell’Intelligenza Artificiale (IA)in ambito sanitario sta trasformando radicalmente la medicina, passando da una fase sperimentale a un’applicazione concreta in diverse aree cliniche e organizzative. L’IA non sostituisce il professionista, ma agisce come uno strumento di supporto decisionale per migliorare diagnosi, cure e gestione delle risorse. Ed invero, L’intelligenza artificiale ha già dimostrato un forte impatto nel campo della sanità: sfruttando algoritmi sofisticati e vasti dataset sanitari, l’IA consente diagnosi più rapide e precise, migliorando, così, la qualità dell’assistenza ai pazienti. Tuttavia, l’introduzione di sistemi basati sull’intelligenza artificiale solleva anche importanti questioni, specialmente in materia di responsabilità medica in caso di errori. Se un sistema di IA dovesse commettere un errore e il paziente subisse un danno, chi ne sarebbe responsabile? Nonostante i benefici, l’adozione dell’IA deve affrontare diversi nodi critici evidenziati da istituzioni come l’OCSE e la normativa europea. Stabilire i confini della responsabilità non è semplice. Il produttore del software, la struttura sanitaria che lo utilizza, il personale di manutenzione e il medico stesso possono tutti avere un ruolo, ma la mancanza di trasparenza dell’IA rende difficile attribuire le colpe con precisione. Nel nostro Paese non ci sono, a tutt’oggi, riferimenti normativi che disciplinino espressamente la materia. Anche in ambito di Unione Europea, oltre al cd. AI Act, c’è solo una proposta di Direttiva che attende di essere sviluppata. In caso di errore nell’utilizzo dell’IA in sanità, la questione della responsabilità va analizzata in base alle circostanze specifiche del caso concreto, senza poter generalizzare. In ogni caso, in linea di massima: se l’errore deriva dal sistema di IA, la responsabilità dovrebbe ricadere sulla struttura sanitaria che la utilizza, in conformità alle regole della responsabilità contrattuale (“Danno cagionato da cosa in custodia”); se si tratta di un mancato o erroneo aggiornamento del software, potrebbe configurarsi una azione di rivalsa nei confronti della società incaricata della manutenzione; se, invece, l’errore è nella programmazione, sarà possibile invocare la responsabilità del produttore per danno da prodotti difettosi, prevista sin dalla direttiva 85/374/CEE. Nel caso poi è il professionista sanitario a non aver usato in modo corretto la macchina, o ad aver interpretato male i relativi output, si tornerà alle tradizionali ipotesi di responsabilità, contrattuale od extracontrattuale in applicazione della Legge Gelli-Bianco. Tuttavia, ricostruire in giudizio tutti questi livelli di responsabilità appare complesso. A cominciare, proprio, dalla ripartizione dell’onere della prova tra le parti. È probabile che il contenzioso medico-legale in questo ambito dovrà prevedere il ricorso a consulenti tecnici non solo in medicina legale, ma anche ad esperti di IA, e forse non ci si dovrà limitare a richiedere la cartella clinica del paziente ma anche la scheda tecnica della macchina. L’intelligenza artificiale in sanità rappresenta, quindi, un’opportunità straordinaria ma richiede un uso prudente e regolamentato, con attenzione ai limiti e ai rischi che comporta per la sicurezza, l’etica e la qualità delle cure.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *