Dal governo

Intelligenza artificiale: senza dati affidabili si rischia una schizofrenia artificiale

di Ettore Jorio

S
24 Esclusivo per Sanità24

L’IA diventa sempre più vicina il quotidiano. Ciononostante intorno ad essa circola la confusione di tanti con le metodiche in atto da tempo, per esempio nella diagnostica per immagini ovvero nella vera robotica in uso alla chirurgia ormai di routine. L’IA è tutt’altro. Al momento, quella in uso è infatti fondata su procedure empiriche, molto raffinate ma non prevedibili e controllabili.
Il “Regolamenta(UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024” che stabilisce “regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale)” nasce a garanzia dei sistemi di IA ( si veda qui articolo del 4 ottobre scorso). A che gli stessi vengano sviluppati e utilizzati in modo responsabile, imponendo obblighi ai fornitori e ai distributori (i deployer) di tecnologie di IA. Proprio per questo il provvedimento dell’UE regola il rilascio dell’autorizzazione dei sistemi di intelligenza artificiale nel mercato unico europeo.

L’inizio di una disciplina che si pretende rigorosa

Di conseguenza, il Regolamento UE 2024/1689 è da considerare una pietra miliare, per ovunque, nella regolazione della materia. Il suo fine, che è corrispondente all’intento di mettere a terra una normativa cautelativa erga omnes, ha costruito una rete di protezione, che a leggere bene non è proprio assolutamente tale. Ha, infatti, sancito la sua definizione di attività a rischio, anche elevato. In quanto tale strumento probabile di generazione di danni anche elevatissimi. Una peculiarità che, francamente, sta un po’ impensierendo la società civile, in considerazione del suo vasto spettro di impiego.

Il probabile pericolo dell’errore sulle condizioni di vita della persona, sino a potere compromettere quella di nazioni intere, sono una realtà, considerata la invadenza del suo impiego.

Sanità, scuola, trasporti, amministrazione della giustizia, emergenza, lotta alla criminalità, merito creditizio, campagne elettorali e infrastrutture critiche sono gli ambiti più preoccupanti, perché potenzialmente generativi di elaborazioni affette da una sorta di schizofrenia. Una valutazione sociale, che letta come una dichiarazione di guerra alla tranquillità sociale, ritrova la conferma delle preoccupazioni dell’entrata a gamba tesa nella sua definizione in diritto. Il regolamento, atto di esercizio applicativo nell’ambito giuridico, definisce i sistemi di IA come caratterizzati dal “rischio consentito”. Una brutta definizione per chi conosce il sistema di rilevazione dei dati riguardanti i temi oggetto di maggiore “occupazione”. Pressoché inesistente, alterati nelle dinamiche e nei tempi di riferimento, anche perché di sovente compromessi nei risultati dai diversi interessati pronti ad utilizzare a vendere “le sorte”, l’obsoleto, piuttosto che la produzione innovativa, sia in termini industriali che finanziari. Siffatto brutto concetto, di rischio consentito, viene fuori dai risultati che formano le statistiche, cui l’IA fa ampio e unico ricorso – che solo per prodursi necessita di un sistema di raccolta dei dati fatta bene e tempestiva -, che per la regola sono individuate nel concepire e produrre l’intelligente risultato “artificiale”. Con essa oramai occorre fare i conti affievolendo le preoccupazioni anzidette supponendo che comunque con il suo ingresso il rischio dell’errore dovrebbe essere potenzialmente inferiore a quello affrontato con le comuni “calcolatrici” della vecchia Olivetti.

Un papà Nobel che ha paura della sua creatura

Le parole pronunciate di recente da Geoffry Hinton, appena insignito del premio Nobel per la fisica, hanno sottolineato il problema. Ciò in quanto Hinton è ritenuto, a ragione, uno dei padri fondatori, per l’appunto, dell’intelligenza artificiale. Se, da una parte, lo scienziato ha confermato l’importante ruolo della IA di sviluppare “reti neurali artificiali”, dall’altra, ha espresso non poche preoccupazioni per l’umanità, sino a metterla in guardia da siffatto strumento tecnologico, dal quale potranno verificarsi, se male impiegati, catastrofi per l’umanità. Ciò nel senso che i sistemi di intelligenza artificiale sono destinati a diventare indipendenti dall’uomo e dai suoi diritti fondamentali, assurgendo a divenire più intelligenti dalla nazione umana. Una ipotesi non inverosimile, quale effetto dell’apprendimento automatico, il cd. machine learning,

Secondo l’insignito del Nobel per la fisica, la chiave di questa trasformazione risiede nell’apprendimento, che consente ai sistemi di IA di migliorare in perfetta autonomia la capacità elaborativa. E già, perché a loro non sarà più necessaria una programmazione manuale, essendo le reti neurali abilitate ad auto-apprendere, per divenire più efficienti con l’adattamento ai nuovi dati senza bisogno di input esterni. Gli esempi già ci sono in diffusa circolazione, riferiti a compilazioni automatiche dei più svariati argomenti, ed è indubbio che con il loro progredire metteranno a rischio la circolazione dei libri di autentici autori, la creatività e il ragionamento umano. L’IA abolirà in sintesi le comunità educanti, persino la scuola, che hanno svolto il ruolo positivo di acculturamento di tutto l’occidente e di gran parte dell’oriente, Cina e Giappone in primis.

Greve l’impegno del sistema della salute ad affrontare il tema della sua consegna all’IA.

Al riguardo, è corretto nutrire non poche perplessità sui disordinati tentativi in corso di arrivare con essa alla definizione delle migliori politiche programmatiche di welfare assistenziale. Il tema, quello della progettualità pluriennale della tutela della salute - che non sia mai costruito su dati male rilevati dal sistema sanitario e, quindi, ceduti in uso alla IA -, farebbe più male di quanto lo faccia l’attuale disastrata assistenza sociosanitaria.

Uno strumento che non assicura specificità, causa le asimmetrie regionali

Una siffatta metodologia, con ricorso ad algoritmi, non è convincente in assoluto nell’obiettivo che si pone di elaborare un «abito su misura» ai diversi Servizi sanitari regionali. A proposito, è semplicemente illusorio pensare di cucire una giacca senza alcuna consapevolezza delle spalle, del torace, della vita e delle maniche del destinatario, si rischierebbe di indossarla mai. Peggio ancora se le misure dovessero appartenere a persona diversa del destinatario finale.

Sarebbe una pretesa assurda. E’ come esigere che Ollio indossasse la giacca cucita con le misure di Stanlio o viceversa.

Così – prescindendo dal ricorso alla IA - si è fatto per decenni prevedendo di tutto e di più, ma nulla di risolutivo. Sistemi basati sulla spesa ma senza progetto. Presidi di spedalità con organici di personale ospedalieri finalizzati a tutto tranne che alla funzionalità del presidio e alla buona ricaduta dei suoi servizi sul sistema salute. Territorio completamente sguarnito tanto da non avere avuto alcun intervento interdittivo contro il Covid, che pare non avere insegnato nulla. Un blocco del turnover e una politica universitaria inadeguata a coprire le esigenze vitali della popolazione. Una gestione delle aziende sanitarie lasciate in mano a fedeli ma incapaci, per non parlare di autori di fatti attenzionati dal Giudice penale e contabile

Il ricorso agli algoritmi sarebbe diversamente efficace solo che agli stessi venissero offerti in pasto i dati necessari per determinare un corretto fabbisogno di personale, specie nella sanità. La variabilità degli stessi è infatti infinita, ma soprattutto con rilevazioni bugiarde. Proprio per questo i dati desunti e non rilevati mettono in serio pericolo il risultato: wrong data wrong results. Continuando così l’errore di sempre, si mette a rischio l’incidenza dell’errato rimedio alle esigenze della utenza, affamata di assistenza da mezzo secolo. Al riguardo, diventa pertanto insignificante e pericoloso riportarsi a fattori di contesto e organizzativo datati nonché ad edificare standard fondati sul nulla. La forza dell’informatica sta nella elaborazione di dati corrispondenti al presente con ragionevole proiezione per il futuro da adeguarsi con facilità agli eventi sopravvenienti.

Per prendere bene le misure necessita un buon metro

Di conseguenza prima di sprecare “stoffa” attraverso modello di taglio sbagliato, occorre tenere conto dei deficit di funzionamento che ossessionano il SSN, quantomeno quelli riguardanti:

- i dati del passato più recente, dei quali molti venuti fuori da rilevazioni mai avvenute perché costruiti in modo premiante per le governance avvicendatisi;

- i deficit organizzativi, tenuti ben nascosti dai decisori regionali;

- le assenze croniche della produzione delle conoscenze necessarie alle aziende sanitare per operare, come sarebbe loro obbligo, nei siti di loro competenza;

- la pagella nera per avere disatteso a rendere concreta, per oltre sette anni, ogni riorganizzazione degli ospedali che era pretesa dal DM 70/2015.

La conoscenza del presente è, dunque, la corretta guida, a tutela degli errori finanche omicidiari.

Il vulnus più pesante per generare un corretto patrimonio di dati è la mancata consapevolezza del presente, che urge garantire al tesoro dell’IA. Mantenuto nell’ombra della disattenzione colpevole delle aziende sanitarie a rilevare il fabbisogno epidemiologico, attraverso le rilevazioni fisiche effettuate sul territorio, e la mappatura dei rischi, intercettabili utilizzando i dati di provenienza principalmente ospedaliera connesse con le diagnosi e le cure effettuate da chi esercita l’assistenza primaria. Il tutto, con l’accondiscendenza dei Sindaci che, da massime autorità sanitare locali, non vedono, non sentono e non parlano. Figuriamoci a rivendicare il soddisfacimento dei bisogni sociosanitari, finanche elementari.

Conseguentemente, è ovvio presagire cosa accadrà dando in pasto questi (non) dati all’intelligenza artificiale, che rischia di sputare fuori risultati surreali, perché fondati su dati non provenienti da fonti attendibili, generativi pertanto di metodologie diagnostiche e terapeutiche frutto di una statistica alterata, brutto esempio di una “schizofrenia artificiale”.


© RIPRODUZIONE RISERVATA