Dal governo

Dalle neurotecnologie ai neurodiritti: serve una legislazione contro il doping mentale

di Ettore Jorio

S
24 Esclusivo per Sanità24

Una sanità condizionata dalle neurotecnologie che “rubano i dati del cervello”. E’ questa la condizione in cui la tutela della salute sta pervenendo con una certa celerità, ma anche incoscienza. Le stesse imporranno, infatti, sempre di più metodologie di trattamento nei confronti delle quali sarà pressoché impossibile prestare un consenso cosciente e consapevole. Ciò dà adito al verosimile sospetto che sarà difficile godere dei risarcimenti dei danni prodotti dalla applicazione delle medesime metodiche, perché sarà altresì malagevole ricondurli, nel caso di alterazione del risultato, al progettista/produttore del software ovvero all’operatore maldestro. Un problema, quest’ultimo, che troverà tra l’altro non poche difficoltà nell’istaurazione delle relative coperture assicurative per responsabilità civile che soddisfino i diritti risarcitori dei danneggiati. Per non parlare della quasi impossibilità economica per le aziende sanitarie di coprire i fondi di garanzia appositi da costituire in bilancio, nel caso dilagante in cui le stesse operino in regime di auto-ritenzione assicurativa del rischio clinico.

I convincimenti a rischio di adulterazione a causa di informazioni precarie

Tra l’altro, il doping mentale è il rischio che si sta attraversando, generando dipendenze in continua evoluzione acquisite dall’umanità del benessere, con l’avvicinamento progressivo alle neurotecnologie. Molte di queste dipendenze assunte via internet, attraverso l’apparente innocua concessione del ricorrente e generico “accetto” quasi sempre ignaramente accordato. Così facendo si dice sì acriticamente all’uso dei propri dati, di farne quasi ciò che più conviene all’accaparratore per conto terzi, ai quali i dati vengono poi ceduti a caro prezzo. Un beneplacito, questo, che è culturalmente figlio della medesima brutta abitudine assunta nel firmare, senza leggere, i contratti per adesione proposti da banche e assicurazioni, ovvero peggio ancora di rilasciare il consenso informato nella sottoposizione a trattamenti sanitari. Questi ultimi spesso acquisiti, peggio di come si fa nella raccolta ai banchetti referendari spinta dal sostegno alla politica che li organizza.

Insomma, per la maggior parte di noi, è divenuta frequente la costruzione di una sempre più diffusa violazione di nuovi diritti specifici: i cosiddetti neurodiritti. Primo fra questi, quello di scegliere se autorizzare il ricorso volontario o meno a trattamenti di neurotecnologia. In buona sostanza, nell’esercizio del diritto di libertà cognitiva, concedere l’uso della propria sfera cerebrale.

La loro raccolta, il loro uso, la loro diffusione e la loro commercializzazione saranno il nuovo banco di prova per i giuristi, che dovranno essere i primi a codificare la legittimità e la liceità delle ricadute dirette da una siffatta pratica di assunzione nonché la tutela severa del diritto alla privacy mentale. Quella che va ben oltre quella di tipo informazionale che afferisce alla privacy generale generata da attività umane coscienti e, dunque, verificabili. Quella mentale è, infatti, quella non facilmente desumibile sul piano del consenso, perché avulso da un atteggiamento decisivo cosciente. I limiti di impiego e di esercizio sono la regola da codificare, senza ambiguità di sorta.

Le esperienze vissute impensabilmente in Stati del sud-America, perché non avvezzi ad implementare le loro Costituzioni sul piano dell’attualizzazione ai tempi correnti, hanno dimostrato la necessità e l’urgenza di premere l’acceleratore sulla tutela dell’integrità mentale, costituzionalizzando il divieto di ogni forma di dannosa interferenza. Altri Stati europei hanno legiferato severamente in tema di integrità mentale nella disciplina di bioetica (Francia) e inserito i neurodiritti nella Carta dei diritti digitali (Spagna). Il Consiglio d’Europa sta lavorando nel loro ambito da circa cinque anni. Una considerazione, questa, che impone di ampliare ovviamente, a bocce ferme, lo spettro della tutela della salute, insediata nella Costituzione all’art. 32.1, con l’integrità e la privacy mentale. Un tema quello della privacy, meglio della vita privata della persona, che tuttavia dovrebbe trovare presto una disciplina espressa nella Costituzione, ovviamente estesa all’integrità mentale.

Le regole europee

Allo stato, è al riguardo vigente il Regolamento generale sulla protezione dei dati (UE) nr. 2016/679 del Parlamento Europeo e del Consiglio del 27 aprile 2016 “relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). Ciò nel testo implementato con riferimento ai considerando e, quindi, aggiornato alle rettifiche pubblicate sulla Gazzetta Ufficiale dell’Unione Europea nr. 127 del 23 maggio 2018, a tutela dello sfruttamento improprio degli anzidetti dati da parte di persone, società o organizzazioni.

Sui principi del Regolamento UE (legalità, equità e trasparenza) e sui sei criteri di trattamento delle informazioni - limitazione di scopo, minimizzazione, accuratezza, integrità e riservatezza, limitazione della conservazione, legittimità e trasparenza assoluta per i soggetti titolari dei dati - gli Stati membri dovranno approntare regolazioni attuative, sino a pensare ad una disciplina costituzionale posta a tutela dell’habes data, a garanzia del diritto al controllo della propria identità e trattamento digitale.

La misura massima del “raccolto” dei dati dalla CGUE

Sui limiti di accesso ai dati personali è intervenuta una interessante sentenza della Corte di Giustizia Europea (caso-548/2021) che ha sancito il principio di minimizzazione dell’assunzione (si veda IlSole24Ore del 5 novembre scorso). Quel principio sancito dalla direttiva 2016/680, che ha imposto alle autorità, fossero anche di polizia, di raccogliere solo i dati “adeguati”, intendendo per tali quelli assolutamente pertinenti e non affatto eccedenti. Un monito, questo, contro la raccolta “a strascico” che si sta, per molti versi, materializzando soprattutto per pervenire a mettere a punto i sistemi di IA, sulla quale occorrerebbe mettere mano ad una più rigida regolazione di protezione giuridica dei dati che fissi l’impiego di una siffatta tecnologia a standard giuridici rigorosi, con una prioritaria e significativa tutela dei diritti fondamentali.

Ai giuristi toccherà il grande compito di individuare soluzioni regolative che vadano dalla raccolta dei dati, alle tutele conservative e ai loro utilizzi anche nell’agire e negli impieghi che ne farà l’IA.

Un pericolo non di poco conto

Il tema del binomio dati cerebrali e IA sarà la sfida più importante di oggi e del futuro, anche in applicazione dell’Artificial intelligence act. Ciò in quanto, attraverso l’analisi dei dati cerebrali delle persone, con conseguente estrazione deduttiva delle informazioni critiche che essi forniscono, l’IA riesce a capire come e cosa pensa il soggetto produttore dei dati cerebrali medesimi, traducendo a buon fine il loro significato utile, immaginandolo in contesti diversi da quelli dai quali i dati sono stati originariamente estratti. L’IA eserciterà così un ruolo della assistenza alle persone che diventerà prevalente e autogovernante. Il pericolo che necessita evitare è quello afferente alla raccolta dei dati, specie in un mondo qual è quello sociosanitario ove i fabbisogni epidemiologici si sono irresponsabilmente desunti per decenni e giammai rilevati. Un gap che fa saltare l’attendibilità di quelli storici, con grande preoccupazione per elaborazioni che la IA farà su di essi per definire il suo da farsi.


© RIPRODUZIONE RISERVATA