Logo
Aspetti legali per medici - intelligenza artificiale

Secondo le indicazioni della Commissione Europea, l’intelligenza artificiale comprende i software e gli hardware progettati dall’uomo che, dato un obiettivo, acquisiscono ed elaborano i dati e, attraverso una serie di operazioni autonome, individuano le migliori scelte e strategie per raggiungere detto obiettivo. La sanità è interessata all’utilizzo di sistemi di intelligenza artificiale che consentano l’acquisizione di una cospicua mole di dati, con l’obiettivo di individuare più rapidamente terapie su misura per i singoli pazienti e disporre di strumenti per prevenire la diffusione di determinate patologie. 

Ciò premesso, le principali questioni giuridiche che scaturiscono dall’utilizzo di sistemi di intelligenza artificiale riguardano la tutela della privacy, il consenso informato e le responsabilità per danni dei soggetti a vario titolo coinvolti in tale utilizzo, nonché la corretta qualificazione giuridica di tali nuovi sistemi. Al riguardo, il Decreto Legislativo 37 del 2010 ha riconosciuto l’importanza del software nel settore dei dispositivi medici, nonché l’esistenza del software stesso come dispositivo medico indipendente, il cosiddetto “Software Stand Alone”. Al fine di accertare quando un software è qualificabile come dispositivo medico, può essere utile il richiamo a due sentenze della Corte di Giustizia Europea del 2012 e del 2017 con le quali, in sintesi, è stato chiarito che il criterio cardine per la classificazione è costituito dalla finalità attribuita al software (intended purpose). Infatti, se la finalità del software rientra in una di quelle individuate nella definizione di dispositivo medico, lo stesso dovrà essere classificato come tale.

Per quanto riguarda i soggetti responsabili in caso di malfunzionamento di un sistema di intelligenza artificiale, il modello tradizionalmente utilizzato è quello di imputazione indiretta della responsabilità in capo a chi ha programmato o utilizzato i sistemi di intelligenza artificiale che hanno provocato il danno. Questo modello “tradizionale” è stato tuttavia messo recentemente in discussione con l’avvento dei nuovi sistemi di intelligenza artificiale che si basano su algoritmi aperti ad auto-modifiche e che possono determinare comportamenti del tutto imprevedibili e inevitabili da parte dell’operatore umano. A fronte di tale scenario, la dottrina ha ipotizzato la possibilità di individuare una responsabilità dell’entità digitale che ha provocato il danno, in via autonoma o cumulativa rispetto alla responsabilità del programmatore o dell’utilizzatore. Al riguardo, si ricorda inoltre che la Commissione Europea ha pubblicato il “Libro bianco sull’intelligenza artificiale”, esprimendo l’esigenza di apportare delle modifiche al quadro normativo vigente con la finalità di intervenire sui rischi e sulle situazioni derivanti dall’utilizzo dei sistemi di intelligenza artificiale e di definire meglio i criteri di imputazione di responsabilità dei vari soggetti coinvolti nel loro utilizzo. 

Aspetti legali per medici - intelligenza artificiale

Infine, la legislazione italiana pone alcuni ostacoli al riconoscimento del diritto di proprietà intellettuale in capo alle opere derivanti da sistemi di intelligenza artificiale. In particolare, il Codice civile e la legge italiana sul diritto d’autore si focalizzano sul carattere di creazione personale dell’opera e sembrano escludere la possibilità che i titolari del diritto d’autore siano soggetti diversi rispetto al creatore dell’opera e ai suoi aventi causa. Allo stato sembra dunque che il sistema di intelligenza artificiale, pur essendo il creatore dell’opera, non possa essere riconosciuto quale titolare del diritto di autore della stessa in mancanza dell’elemento della personalità. Tuttavia, anche la persona fisica creatrice del software potrebbe non essere riconosciuta quale titolare del diritto d’autore dell’opera creata dal sistema di intelligenza artificiale per mancanza del requisito di creatività personale. Risulta chiaro come questa linea di analisi possa portare a conseguenze potenzialmente negative nei confronti sia degli sviluppi tecnologici sia a livello di disincentivi negli investimenti. Un percorso alternativo, in fase di esplorazione, riguarda l’eventualità di anticipare l’indagine dell’atto creativo al momento della programmazione del software. In questo caso, gli input della programmazione del software diventerebbero centrali e coinciderebbero con la creatività dell’uomo, requisito essenziale per l’attribuzione di un diritto esclusivo. 

Nelle video-pillole de “Il legale risponde” presenti sul sito Janssen Medical Cloud, l’avv. Pasturenzi illustra nel dettaglio le questioni giuridiche emergenti dall’impiego di sistemi di intelligenza artificiale nel settore sanitario. Se vuoi saperne di più su questa tematica, approfondisci su Il legale risponde 2.0.