"Inizia con questo articolo, in tema di Intelligenza Artificiale (IA) e Responsabilità Medica, la collaborazione con il nostro studio legale l'avvocato Marcello Albini".
Scopo della presente trattazione è valutare l’impatto sul regime della responsabilità civile sanitaria dei moderni sistemi di Intelligenza Artificiale applicati in ambito medico.
La questione della responsabilità nei casi di danni provocati dall’utilizzo di un sistema di IA è, infatti, uno degli aspetti essenziali da affrontare nell'ambito dell’attuale processo di transizione tecnologica.
Occorre, infatti, individuare un sistema di allocazione della responsabilità civile sanitaria, secondo un criterio di massima efficienza per la società.
Con riferimento all’ambito medico, si consideri come con l’introduzione dei sistemi di IA, il sistema di allocazione delle responsabilità siano ad oggi binario, essendo 2 i soggetti protagonisti della prestazione sanitaria (medico e ospedale), veda l’interferenza di un terzo elemento il quale porta ad un parziale cambiamento anche del ruolo del medico, che da esclusivo esecutore della prestazione sanitaria (di cui si assumeva l’esclusiva responsabilità) diviene controllore ex post del risultato fornito dalla IA.
La prima domanda che bisogna porsi è, pertanto, se l’attuale disciplina della Responsabilità civile Sanitaria sia adeguato e rispondente al nuovo scenario e con esso alle problematiche insite nell’impiego di sistemi di IA in medicina, ovvero se sia necessario elaborarne uno nuovo che sia in grado di meglio rispondere alle nuove sfide ed adattarsi alle nuove questioni suscitate dal fattore tecnologico applicato alla cura del paziente.
Spoileriamo subito. Una riforma nel futuro prossimo è opportuna quanto inevitabile (stante anche la rapidissima e continua evoluzione dei sistemi di IA verso una loro sempre maggiore autonomia) e vi sarà, anzi è alle porte.
Le basi di tale regime ad hoc, in ambito di Unione Europea, sono state poste che con due risoluzioni del Parlamento Europeo (16 febbraio 2017 “Raccomandazioni alla Commissione Europea concernenti norme di diritto civile sulla robotica” e 20 ottobre 2020 “Raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale”) che ha avviato un processo per l’armonizzazione delle norme in materia di IA nel settore della Responsabilità civile.
La Commissione Europea è stata invitata ad elaborare una proposta di direttiva per regolare l’impiego della robotica intelligente anche con riferimento al settore sanitario, precisando che la scelta inziale di cura e quella finale sull’esecuzione dovranno spettare comunque ad un medico umano (la tecnologia robotica dovrà integrare la capacità umana e non sostituirsi ad essa) e sottolineando la necessità di predisporre un quadro giuridico basato su principi comuni per garantire la certezza giuridica e fissare norme uniformi in tutta l’Unione.
Si è arrivati così alla “Direttiva del Parlamento Europeo e del Consiglio del 28.09.2022 relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale” (Direttiva sulla responsabilità da intelligenza artificiale) che segue un approccio di armonizzazione minima.
L'intento è quello di promuovere la fiducia nell'IA garantendo l'effettivo risarcimento dei danneggiati in caso di danni malgrado i requisiti preventivi della legge sull'IA e altre norme di sicurezza.
Di dicembre di quest’anno è, infatti, l’“Accordo provvisorio sul progetto di regolamento sull’intelligenza artificiale” che ha riguardo, d’altro canto, la messa in commercio dei sistemi di IA e nel quale l'idea principale è quella di regolamentare l'IA sulla base della capacità di quest'ultima di causare danni alla società seguendo un approccio basato sul “rischio” per cuitanto maggiore è il rischio, quanto più rigorose sono le regole per l’immissione sul mercato. Con il regolamentosi mira, infatti, a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione Europea
Sui prossimi scenari futuri che scaturiranno dalle norme di diritto “europeo” complete e definitive in materia di responsabilità civile da IA torneremo in chiusura della nostra disamina. Vogliamo vedere invece, allo stato attuale, “qui ed ora” (perché le applicazioni in ambito medico sono già adesso), ovvero sulla base del vigente quadro normativo interno, quale debba essere il regime di allocazione delle responsabilità in caso di danni conseguenti all’utilizzo di strumentazioni dotate di IA .
In primis, deve ritenersi che l’impiego dell’IA sia un fattore neutrale rispetto alla qualificazione della natura della prestazione medica che è e rimane (allo stato attuale) una obbligazione di mezzi (ovvero senza un obbligo di risultato in capo al medico) e nella quale la responsabilità del sanitario rimane vincolata alla “colpa” parametrata al canone della diligenza professionale qualificata ai sensi dell’art. 1176, comma 2° cod. civ. e/o al rispetto della linee guida di cui all’art. 5 della Legge Gelli-Bianco.
Prendendo le mosse dalle regole ordinarie di responsabilità civile medica, esse non si ritiene debbano mutare quando la macchina d’IA non sia autonoma e sia pertanto guidata e sotto il controllo del chirurgo. In tale ipotesi, il sanitario dipendente di struttura ospedaliera risponderà in via extracontrattuale per “colpa” ai sensi dell’art. 2043 Cod. civ. (secondo i canoni tradizionali di colpa per imprudenza, imperizia, negligenza) , mentre il medico libero professionista e la struttura sanitaria in via contrattuale ai sensi dell’art. 1218 Cod. civ., quest’ultima anche per il fatto del proprio personale sanitario/ausiliario ai sensi dell’art. 1228 Cod. civ..
Deve, invece, escludersi la possibilità di una applicazione alla prestazione medica con utilizzo di tecnologia d’IA dell’art. 2236 cod. civ. che prevede per le prestazioni sanitarie implicanti “problemi tecnici di particolari difficoltà” la limitazione della responsabilità ai soli casi di “dolo” o “colpa grave”. Non sembra corretto, infatti, ricavare alcun automatismo tra sofisticatezza e innovatività dei sistemi di IA e ricorrenza della “particolare difficoltà” che deve sempre essere accertata nel caso concreto.
Non appare convincente neppure la possibilità di applicare alle prestazioni sanitarie eseguite tramite l’utilizzo di IA l’art. 2050 cod. civ. che prevede a carico di chi eserciti “attività pericolose”, una presunzione responsabilità in caso di danno. La qualificazione dell’attività medica come “attività pericolosa” è, infatti, da sempre controversa e avversa.
Si ritiene, invece, plausibile che le nuove tecnologie possano comportare a carico della struttura sanitaria responsabilità organizzative-gestionali, in caso ad esempio di mancato controllo-manutenzione periodicaprima di ogni utilizzo.
Tale “responsabilità organizzativa” potrà essere esclusa solo in caso di danni dovuti a difetti di fabbricazione e funzionamento non rilevabili dall’utilizzatore.
Per tali danni cagionati dal malfunzionamenti dei sistemi di IA - non riconducibili né a un deficit organizzativo della struttura sanitaria, né ad una colpa (per imprudenza, imperizia, negligenza) necessaria (secondo l’attuale disciplina di cui alla Legge Gelli-Bianco) per incolpare il medico ausiliario-dipendente della struttura - ci si domanda se sia applicabile la normativa in materia di “responsabilità da prodotto difettoso” contenuta negli artt. 114-127 del Codice del Consumo.
Al riguardo vi sono alcune criticità.
Da un lato sarebbero opportuni cambiamenti volti ad aggiornare le definizioni giuridiche di “prodotto” (per assicurare la riconducibilità del dispositivo di IA alla nozione di prodotto), dall’altro lato, va evidenziato che tale normativa garantisce il risarcimento del danno soltanto quando il danneggiato sia in grado di dimostrare il difetto del prodotto (ed il nesso di causa tra difetto e danno), prova particolarmente difficile per tali tipi di dispositivi causa l’opacità che li caratterizza, con la conseguenza che vi sarebbero moltissimi casi in cui il paziente danneggiato non sarà in grado di ottenere alcun risarcimento.
Per questo motivo il Parlamento Europeo nella sopracitata “Direttiva sulla responsabilità da intelligenza artificiale” del 28.09.2022” ha proposto l’obiettivo d’introdurre una nuova disciplina della responsabilità per danno da prodotto difettoso che tenga conto delle peculiarità dell’IA e/o di un regime di responsabilita` oggettiva per i sistemi di IA c.d. ad alto rischio.
Tali ragioni, unitamente al fatto che nel prossimo futuro l’autonomia di tali sistemi di IA sarà sempre maggiore, inducono a fare ritenere che il regime più idoneo a regolare tali situazioni non possa che essere altro che quello della responsabilità oggettiva, ovvero che prescinde dall’accertamenti di una colpa, nel quale chi crea un sistema di IA e lo mette in commercio, sia chiamato a rispondere del un rischio imprevedibile e ineliminabile ad esso connesso, consentendo di tutelare il paziente (ma anche il medico è il caso di dire).
Un ruolo fondamentale in questo contesto non potrà che essere assunto dal diritto assicurativo, in specie dalla assicurazione obbligatoria come strumento di copertura volto a incoraggiare le aziende ad assumersi rischi nel campo delle nuove tecnologie.
Avv. Marcello Albini
Archivio news