Lavoro e professione
L’intelligenza artificiale avrà le sue responsabilità in ambito sanitario: scenari di rischio nel rapporto di cura
di Flaviano Antenucci *
24 Esclusivo per Sanità24
Nel biennio della telemedicina, il settore sul quale il Pnrr concentra fondi e progetti per la sanità del futuro, l’intelligenza artificiale (AI) sta svolgendo un ruolo da protagonista facendo sembrare ogni altro scenario come passato o non più attuale. È comprensibile che si ricerchino spazi di applicazione nell’ambito sanitario di tecnologie che promettono di migliorare il percorso di cura dei pazienti. Tuttavia, penso che sia indispensabile in questa fase immaginare oltre gli ambiti di applicazione anche i punti di attenzione e i rischi nell’impiego di queste innovazioni.
Per farlo – come diceva John Cage, grande artista americano, un uomo in costante ricerca che molto ha sperimentato nella musica del Novecento – non è necessario rinunciare al passato, ma è anzi partendo dalle esperienze note e dalla coscienza della centralità dell’essere umano rispetto a qualsiasi complemento o strumento che sarà possibile costruire le migliori applicazioni possibili.
Rispetto alla medicina come l’abbiamo conosciuta fino ai tempi recenti, che è stata sostanzialmente assistenza nosocomiale alle gravi patologie e opera artigianale di singoli medici di comunità, impegnati nella diagnosi clinica senza molti strumenti, la moderna responsabilità professionale risulta influenzata da tre fattori caratterizzanti, che vanno oltre gli scenari di colpa ed errore con cui ci siamo confrontati fino a questo momento: tecnologia, multidisciplinarietà e aspettative.
Gli esperti di gestione del rischio nelle strutture sanitarie dovrebbero familiarizzare con questi fattori, determinando nelle attività oggetto di analisi in quale "categoria" si posiziona l’introduzione dell’AI:
A. come strumento di produzione, privilegiando così la componente "tecnologica"
B. come elemento di "staff", cioè utilizzandola come contributo multidisciplinare
C. come amplificatore delle aspettative del paziente, con le conseguenze sulla responsabilità degli operatori sanitari da valutare
Nello scenario A, il rapporto medico-paziente rimarrà sostanzialmente invariato, perché l’AI sarà semplicemente uno strumento di produzione, un ausilio simile (per categoria di rischio) a una macchina Tac o a un elettrobisturi o a un device. Il paziente continuerà a "vedere" nel suo orizzonte solo medici e strutture, ed il rischio rimarrà confinato nell’area "interna" delle responsabilità eventualmente concorrenti all’interno dell’arco terapeutico di cura. Se quindi sarà il device e la componente di AI ad essere in tutto o in parte la causa della responsabilità verso il paziente, si tratterà di delineare le responsabilità tra operatori sanitari e produttori/gestori dei devices, anche in base alle norme del Reg. 745/2017 UE (Responsabilità del produttore di medical devices).
Nello scenario B – situazione in cui l’AI diventa una sorta di "operatore virtuale" dello staff di cura – possiamo e dobbiamo immaginare invece un nuovo tipo di rapporto medico-paziente in quanto, in questo caso, l’AI diventerà un interlocutore del paziente stesso (probabilmente, instaurando un rapporto anche diretto). Tale mutamento si rifletterà anche sulle responsabilità e corresponsabilità (se ad esempio l’anamnesi di un paziente viene curata da un interlocutore "virtuale" grazie all’AI, e questo guida il medico nella determinazione di un iter terapeutico inappropriato, ne risponderà solo il professionista o anche il produttore dell’AI? E con quali interazioni?). Possiamo immaginare un rischio determinato dalla compresenza di profili professionali e di responsabilità legate alle equipe collegate a quelle del produttore dei devices. Insomma, un
mutato rapporto di cura con un sostanziale mantenimento delle responsabilità proprie anche dei produttori di devices (in questo caso dotati di AI).
E arriviamo infine all’ultimo scenario che è anche il più immediato e urgente in cui, indipendentemente dall’apporto della tecnologia al processo di cura, la presenza di AI viene pubblicizzata o, comunque, comunicata al paziente instillando aspettative di nuove chance e possibilità. In altre parole, l’AI viene comunicata come un upgrade capace di generare esiti più sicuri, guarigioni più veloci e così via.
Per generare aspettative non è necessario dire espressamente che ci saranno, ma è sufficiente darlo a intendere con espressioni come: "Si tratta della prima macchina nel territorio a "campo largo" e "dotata di Intelligenza Artificiale". È evidente che l’utente medio non può sapere in che modo un "campo largo" e l’"AI" possano essere un valore per lui, ma queste notizie potrebbero motivare la decisione di preferire il luogo dove queste apparecchiature sono presenti rispetto a quello dove non lo sono e, di certo, rinforzeranno le attese di miglior esito per l’utilizzo di macchinari evoluti ed innovativi.
Rappresenteranno insomma una ulteriore e più rafforzata promessa contrattuale, rispetto alla quale ogni risultato diverso da quello ottimale verrà vissuto come un fallimento o comunque un tradimento delle promesse indotte. Insomma, si prospettano scenari professionali che daranno da fare sia ai risk manager che a tutti gli attori del processo di cura in rapporto con il paziente. E, ancora una volta, dovrà essere un lavoro multidisciplinare, aperto, costruttivo e pratico, che rilevi i rischi sopra accennati, li metta in relazione con le altre novità dei servizi sanitari (dalla telemedicina alle nuove organizzazioni territoriali) e crei sicurezza e controllo, senza amplificare paure, ma comunicando in modo diretto e preciso nuovi compiti e nuovi modi di compiere attività consolidate.
* coordinatore dei corsi specialistici Cineas in Cyber sicurezza in Sanità e Gestione del rischio assicurativo in Sanità
© RIPRODUZIONE RISERVATA