L'intelligenza artificiale (AI) si sta sviluppando in modo dinamico ed è il futuro della medicina. Tuttavia, mancano ancora normative a livello internazionale - soprattutto una definizione giuridica - che definiscano l'intelligenza artificiale e, quindi, chiarezza sul tema della responsabilità per possibili errori medici che si verificano quando si utilizzano apparecchiature assistite da AI.
Il potenziale dell'IA in medicina
Gli strumenti diagnostici supportati dall'intelligenza artificiale aumentano la qualità e l'efficienza dell'assistenza sanitaria. Sono utilizzati principalmente per intervistare il paziente, analizzare i risultati dei test, monitorare le condizioni della persona trattata e svolgere molte altre attività da parte di un medico per fare una diagnosi appropriata. Il loro corretto funzionamento dipende principalmente da una grande quantità di informazioni varie, inclusi dati specifici sui pazienti.
- L'accesso incontrollato a tali informazioni può danneggiare l'interesse individuale dell'individuo. I centri che offrono assistenza sanitaria privata, che non vogliono condividere le proprie risorse informative sui pazienti - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy, sono scettici sull'accumulo di dati.
Diversi sistemi di intelligenza artificiale sono già in uso in medicina. Uno di questi è DXplain, un programma che, dopo aver analizzato l'insieme dei sintomi osservati in un paziente, presenta un elenco di possibili diagnosi. Tuttavia, lascia la scelta finale al medico. Vale anche la pena prestare attenzione al Germwatcher. È un sistema informativo di laboratorio che rileva, traccia ed esamina la possibilità di infezioni nelle persone ospedalizzate.
L'introduzione di sistemi chirurgici robotici è stata sicuramente una svolta. Utilizzando il sistema DaVinci con bracci robotici, movimenti precisi e visione magnetica, i medici sono in grado di eseguire interventi chirurgici che non sarebbero possibili con le procedure standard.
Necessità di regolamentazione
Il Parlamento europeo, insieme al Comitato economico e sociale europeo, indica che è necessario elaborare una definizione precisa di intelligenza artificiale. Dovrebbe soddisfare i requisiti di rigore elevato, e quindi non introdurre ulteriori ambiguità, dubbi o scappatoie legali, ed essere tecnologicamente sufficientemente "aperto" da non inibire il potenziale sviluppo della tecnologia AI in futuro.
Una definizione di IA legale ci consentirebbe di identificare chi è responsabile di eventuali errori medici che si verificano quando si utilizzano macchine assistite da AI.
- A seguito delle disposizioni di diritto civile, per poter attribuire la responsabilità ad un determinato ente, devono esserci, tra l'altro, una delle premesse, un adeguato nesso di causalità tra il suo atto o omissione e l'evento a seguito del quale si è verificato il danno. Sembra molto difficile attribuire la responsabilità civile a un'entità per un'attività derivante dall'intelligenza artificiale. Il medico non può prevedere le intenzioni dell'individuo autonomo. Questo è un problema particolarmente notato dagli oppositori dell'uso dell'IA in medicina: Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy.
Vale anche la pena notare che lo sviluppo di diagnosi da parte di macchine con risorse di intelligenza artificiale è statisticamente più efficace e più veloce rispetto ai medici. Tuttavia, gli esperti sottolineano che l'intelligenza artificiale in medicina dovrebbe essere sotto costante supervisione umana a causa dell'importanza degli effetti che qualsiasi interruzione può avere. Ad esempio, questo è lo spirito della Food and Drug Administration (FDA) statunitense, che consente ai medici di condurre solo ricerche sull'IA a basso rischio.