L’intelligenza artificiale (IA) è ormai diventato un fattore fondamentale nella rivoluzione digitale della nostra società (ne abbiamo parlato qui). L’IA fornisce beni e servizi di diversi tipi in numerosi ambiti come nel mondo del lavoro, della finanza, della sanità, della sicurezza e dell’agricoltura. Non a caso, l’intelligenza artificiale è un punto focale del rilancio dell’economia dopo la crisi del COVID-19 e del Green deal europeo. Diventa quindi necessario stabilire le norme per la gestione dell’IA a livello europeo e non.
Un tema ricorrente è il rafforzamento della fiducia dei cittadini nell’intelligenza artificiale. Attraverso la gestione corretta del potenziale impatto dell’IA sul singolo cittadino, sulla società, sulla sanità e sull’economia, questo obiettivo diventa raggiungibile. Allo stesso tempo, è necessario garantire ai ricercatori un ambiente idoneo affinché le tecnologie possano avanzare.
Il Parlamento europeo e la legislazione sull’intelligenza artificiale
Il Parlamento ha creato la commissione speciale sull’intelligenza artificiale nell’era digitale per analizzare l’impatto dell’IA sull’economia dell’Unione europea. Il tutto in previsione della proposta della Commissione europea sull’intelligenza artificiale.
Secondo il presidente della Commissione:
L’Europa ha bisogno di sviluppare un’intelligenza artificiale che sia degna di fiducia, in grado di eliminare pregiudizi e discriminazioni e servire il bene comune, di assicurare sviluppo a imprese e industrie oltre a generare benessere economico.
Il 20 ottobre 2020, il Parlamento europeo ha adottato tre proposte per regolamentare l’intelligenza artificiale con lo scopo di spingere l’innovazione e rispettare gli standard etici per raggiungere una maggior fiducia nella tecnologia:
- Ricerca di equilibrio tra tutela dei cittadini e promozione dello sviluppo tecnologico;
- Un sistema di responsabilità civile orientato al futuro per proteggere privati e imprese;
- Un sistema efficace di proprietà intellettuale e salvaguardie per gli sviluppatori.
Inoltre, le future leggi dovranno seguire diverse linee guida descritte nel Ethical Guidelines for Trustworthy AI:
- Un’intelligenza artificiale antropocentrica e antropogenica;
- Sicurezza, trasparenza e responsabilità;
- Garanzie contro distorsioni e discriminazioni;
- Diritto di ricorso;
- Responsabilità sociale e ambientale;
- Rispetto della privacy e protezione dei dati.
Le tecnologie IA ad alto rischio, come quelle con capacità di autoapprendimento, dovrebbero essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di autoapprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.
“Il cittadino è al centro di questa proposta”, ha riferito il relatore Ibán García del Blanco durante una conferenza stampa.
Il 20 gennaio 2021, il Parlamento europeo ha proposto delle linee guida per l’uso dell’intelligenza artificiale in campo militare e civile. Il relatore Gilles Lebreton ha spiegato che:
l’intelligenza artificiale non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità in questi campi.
Infatti, si è sottolineato il bisogno di una supervisione umana dei sistemi usati per la difesa basati sull’intelligenza artificiale come i “robot assassini”, i quali sono in grado di compiere un’azione letale utilizzando un sistema d’arma autonomo.
L’ambito di applicazione dell’IA non è limitato al campo militare ma si espande anche nell’istruzione, nella cultura e nel diritto penale. Difatti, il Parlamento europeo sta sviluppando azioni specifiche da mettere in pratica.
L’intelligenza artificiale negli USA
L’Unione Europea è stata la prima organizzazione a iniziare a definire l’etica che l’intelligenza artificiale dovrebbe seguire con le linee guida Ethical Guidelines for Trustworthy AI che sono state adottate nel 2019.
L’approccio europeo è stato definito “top-down” dato che sono le istituzioni a promuovere la costituzione di commissioni che individuano regole etiche da seguire in questo ambito.
Gli USA, d’altro canto, hanno iniziato a valutare l’idea delle linee guide per l’IA molto dopo. In aggiunta all’approccio europeo, gli statunitensi hanno adottato ulteriori principi:
- “Identification Obligation” secondo cui l’ente che è responsabile del sistema di intelligenza artificiale deve essere reso noto al pubblico;
- “Prohibition on Unitary Scoring” sulla base del quale nessun governo nazionale deve istituire o mantenere un sistema generale di scoring sui cittadini o residenti;
- “Termination Obligation” per cui l’ente che utilizza un sistema di intelligenza artificiale ha l’obbligo di arrestarne il funzionamento quando il controllo umano del sistema non è più possibile.
Il 21 giugno 2019, infatti, il Select Commitee on Artificial Intelligence del National Science & Technology Council ha pubblicato il report intitolato The National Artificial Intelligence Research and Development Strategic Plan: 2019 Update, con il quale vengono fissati nuovi obiettivi per la ricerca federale sull’intelligenza artificiale negli Stati Uniti.
Il piano strategico ha tra gli obiettivi quello di assicurare che i dati utilizzati per alimentare l’intelligenza artificiale siano affidabili e che gli algoritmi utilizzati per elaborarli siano comprensibili.
Nel rapporto si sostiene che una delle principali sfide della ricerca è l’aumento della trasparenza dell’IA. Molti algoritmi sono incomprensibili per gli utenti, con pochi meccanismi esistenti per spiegare i loro risultati. Questo è particolarmente problematico per settori come l’assistenza sanitaria, dove i medici hanno bisogno di spiegazioni per giustificare una particolare diagnosi o un ciclo di trattamento.
A tale scopo, vengono elencate otto strategie per consentire al governo di sviluppare al meglio tecnologie sicure ed efficaci di IA e di apprendimento automatico per la sanità e altri settori:
- Investire a lungo termine nella ricerca sull’I.A., dando la priorità alle applicazioni di nuova generazione che possono aiutare a “guidare la scoperta e la comprensione e consentire agli Stati Uniti di rimanere leader mondiale nell’IA”.
- Sviluppare strategie più efficaci per la collaborazione tra essere umano e IA, con particolare attenzione ai sistemi di IA che “completano e incrementano efficacemente le capacità umane”.
- Comprendere e affrontare le “implicazioni etiche, legali e sociali dell’IA” e come possono essere affrontate attraverso la tecnologia.
- Lavorare per garantire la sicurezza dei sistemi di IA e diffondere la conoscenza di “come progettare sistemi di IA che siano affidabili, attendibili, sicuri e degni di fiducia”.
- Creare set di dati pubblici e ambienti di alta qualità e condivisi per l’addestramento e il testing dell’IA.
- Misurare e valutare l’intelligenza artificiale con standard e benchmark, arrivando a una vasta gamma di tecniche di valutazione, “sostenendo lo sviluppo di standard tecnici dell’intelligenza artificiale e dei relativi strumenti”.
- Comprendere meglio le esigenze di forza lavoro dei ricercatori e sviluppatori di intelligenza artificiale a livello nazionale, e lavorare strategicamente per promuovere una forza lavoro pronta ad affrontare le sfide che l’IA comporta.
- Espandere le partnership pubblico-privato esistenti e crearne di nuove per accelerare i progressi nell’intelligenza artificiale.
Cosa rende l’IA applicabile anche alla vita quotidiana?
I campi di applicazione dell’intelligenza artificiale sono i più svariati, come abbiamo visto. Diventa imprescindibile, quindi, comprendere i profili etici e regolatori di questo nuovo fenomeno. L’IA è la prima tecnologia che può sostituirci, o supportarci in maniera innovativa, nell’adozione di decisioni razionali che hanno un impatto nelle nostre vite.
Gli approcci delle potenze mondiali che stanno partecipando alla “corsa per l’intelligenza artificiale” sono profondamente diversi. A tali approcci corrispondono anche differenti modi di riflettere sulle implicazioni etiche e regolatorie che però nel mondo occidentale tendono a convergere. Per esempio, la Cina ha tentato di implementare un sistema di controllo massivo della popolazione tramite l’applicazione di un Social Credit System applicato ai vari comportamenti (acquisti, posizioni di credito, amicizie, relazioni, etc.) dei propri cittadini e si baserà anche su sistemi di identificazione diffusi di riconoscimento facciale. L’intelligenza artificiale non è più una disciplina legata solo ai laboratori di ricerca, ma si applica ampiamente in diversi ambiti della vita quotidiana.
I due elementi che stanno rendono possibile la diffusione di applicazioni dell’intelligenza artificiale nel mondo del business in tempo reale sono il cloud computing e l’edge computing. Il ruolo del cloud computing è quello di rendere possibile l’utilizzo di applicazioni dell’IA su vasta scala in ambito economico; esso, inoltre, rende l’accesso possibile anche a realtà medio piccole e non solo alle grandi multinazionali. L’applicazione dell’IA da parte dei più diffusi cloud pubblici, nei quali avviene la potente massa elaborativa necessaria per eseguire applicazioni di IA, apre le porte anche a chi non ha grandi possibilità di investimento.
Il secondo elemento fondamentale è l’edge computing. Nelle applicazioni dove è necessario avere una risposta immediata a problematiche risolvibili con applicazioni di intelligenza artificiale, queste devono essere eseguite là dove il dato viene raccolto, con un’elaborazione periferica.
L’IA nella sanità
Data la facilità della trasmissione del COVID-19 attraverso il contatto umano o le superfici esposte al virus, l’utilizzo dei robot e l’IA nell’ambito della sanità può aiutare a ridurre di molto la potenziale trasmissione del virus. Riducendo il contatto umano, si protegge lo staff medico in prima linea, ma anche lo staff amministrativo e i pazienti in generale.
Nella sanità, il potenziale di applicazione dell’IA è ampio. Il machine learning può fare di tutti con l’analisi dei big data e della storia clinica dei pazienti. Una delle applicazioni può essere il miglioramento della diagnosi così come la possibilità di somministrare cure personalizzate in base al corredo genetico dell’individuo.
L’IA ha importanti applicazioni nella sanità anche per quanto riguarda previsione e prevenzione di malattie o epidemie su larga scala. Per esempio, il monitoraggio in remoto delle condizioni di salute grazie ai wearable device o i test di routine senza l’intervento del medico, fino al calcolo delle probabilità che un paziente sia affetto da una malattia. I vantaggi dell’applicazione dell’IA alla sanità possono essere vantaggiosi non solo per le strutture ospedaliere, ma anche per il sistema sanitario dei Paesi grazie alla riduzione dei costi di ospedalizzazione.
Un’indagine di mercato realizzata da Accenture nel 2018 stima che la sanità americana entro il 2026 potrebbe risparmiare 150 miliardi di dollari grazie ad applicazioni di intelligenza artificiale sia in ambiti strettamente legati all’attività medica (dalla medicina generale alla chirurgia, alla somministrazione di farmaci) sia per quanto riguarda la sicurezza informatica in ambito ospedaliero.
Le soluzioni basate sull’intelligenza artificiale per affrontare il COVID-19
In ambito sanitario, l’IA è spesso utilizzata per ridurre il tempo dei processi amministrativi e le mansioni operative. Il tempo dello staff sanitario viene così utilizzato per migliorare le cure del paziente.
Lo studio denominato Curial AI, pubblicato da «The Lancet Digital Health», ha dimostrato che un dispositivo basato sull’intelligenza artificiale è capace di controllare velocemente i pazienti che arrivano nelle aree di emergenza per il COVID-19 usando le informazioni cliniche disponibili.
In cosa consiste il CURIAL study esattamente? Il dispositivo basato sull’IA ha correttamente predetto lo stato di COVID-19 del 92,3% dei pazienti che sono arrivati al John Radcliffe Hospital a Oxford e all’Horton General Hospital a Banbury durante uno spanno di due settimane. In particolare, Curial AI ha correttamente predetto la negatività al COVID-19 dei pazienti il 97,6% delle volte. I risultati sono stati successivamente comparati con i tamponi eseguiti in laboratorio per confermare la veridicità dei controlli basati sull’IA.
Un altro aspetto positivo dello studio Curial AI è la riduzione del tempo. Difatti, mentre i tamponi ci impiegano solitamente ventiquattro ore per dare i risultati, i controlli con l’IA offrono risultati veloci (in un’ora) perché utilizzano dati già presenti nei database o si basano sui dati presi di routine. In effetti, i ricercatori hanno sviluppato i test del CURIAL AI utilizzando gli esami del sangue e i segni vitali presi dalle cartelle cliniche di 115.394 pazienti. Una volta sviluppato, il modello per il controllo medico è stato applicato a tutti i pazienti che si sono presentati o sono stati assistiti ai due ospedali di Oxford e Banbury.
Quindi, i test di controllo CURIAL AI sono ottimizzati per dare velocemente risultati negativi con molta sicurezza. I ricercatori hanno affermato che un altro punto di forza dei test CURIAL AI è la facilità del ridimensionamento a grande scala dovuto al fatto che lo studio si basa su informazioni sanitarie di routine e funziona utilizzando attrezzi di ricerca già esistenti.
Abbiamo visto che l’intelligenza artificiale può essere applicata nel campo medico-sanitario, ma non finisce qui. In ambito letterario, esistono testi scritti da dispositivi basati sull’IA e il prossimo articolo analizzerà le modalità e i risultati di questi elaborati.