Superintelligenza. Sostanzialmente “a God-like intelligence”, come la definiva lo scrittore di fantascienza Arthur Clarke.

Evidentemente, questo tema non è più un pallido miraggio, non è più “fantascienza”. Dunque, è stato necessario che si cominciasse a creare una consapevolezza scientifica su di esso. Tuttavia, per ora, la Superintelligenza semina ancora troppi profeti e detrattori, troppi mistici e demistificatori. È ancora raro trovare un progressismo politico e tecnologico in grado di gestire razionalmente la terribile complessità morale, epistemica, sociologica e logica di fronte cui ci pone lo scenario di un’intelligenza God-like.

Qual è il problema? Qual è la necessità?

Ci troviamo in un mondo in cui le tecnologie digitali diventano sempre più pervasive ed intrusive. Si dimostrano migliori di noi nella soluzione di dinamiche complesse e garantiscono a chi le sfrutta un vantaggio quasi ridicolo su chi non è aggiornato. La Superintelligenza mette in campo una questione: può darsi che, da questa complessità computazionale che ormai gestisce il mondo, prima o poi emerga un’occasione di superamento? Un’occasione di sfondamento dei vincoli qualitativi che legano ancora la tecnologia alla strumentalità e l’agency umana alla manipolazione ultima delle cose?

Se Dio facesse un panino, molto probabilmente lo farebbe meglio di noi. Se Superintelligenza facesse un panino, lo farebbe più simile a quello di Dio che al nostro. Attenzione: non si tratterebbe, molto probabilmente, di un’intelligenza antropomorfica.

Per capire questo punto è necessario distinguere tra due accezioni del concetto di “intelligenza”: quella specialista e quella generalista.
L’intelligenza specialista è quella di DeepBlue, il computer della IBM che ha sconfitto Garry Kasparov. Quel computer sarà pure più bravo di Kasparov a giocare a scacchi, ma vediamo chi la spunta se a entrambi viene chiesto di preparare un uovo strapazzato! Magari Kasparov sarà pure un pessimo cuoco, ma almeno è certamente in grado di concepire un comportamento come quello di “strapazzare un uovo”, laddove il suo rivale, alla richiesta, non farebbe nemmeno la fatica di accendersi. DeepBlue ha questo tipo di intelligenza: un’intelligenza magari cento volte più brava di un umano a svolgere determinati compiti, ma senza l’elasticità umana di concepire o svolgere tutti i compiti possibili e immaginabili.

Quella dell’essere umano è invece un’intelligenza generalista: in grado di adattarsi all’ambiente circostante rompendosi la testa su come risolvere ogni possibile problema che gli si presenti all’interno di esso.

Perché, dunque, la Superintelligenza, molto probabilmente, non prenderà le forme dell’intelligenza umana?

Semplicemente perché abbiamo detto che essa emergerà dal sostrato tecnologico disponibile in quell’epoca, che sarà l’evoluzione di quello della nostra.
Ciò che di più vicino oggi conosciamo all’ “Intelligenza Artificiale” sono cloud, sistemi di gestione della complessità, algoritmi operativi, software di riconoscimento visivo, riconoscitori vocali. Specialisti estremamente esperti nei loro campi d’interesse.
Ora, è sbagliato cercare un parallelo rigoroso nei comportamenti di umani e macchine moderne. “Computer Vision” non è “visione”, “Data Mining” non è “manipolazione delle scartoffie”. I paradigmi di comportamento di umani e macchine, pur se metaforicamente e intuitivamente simili, si basano sì su una pretesa di emulazione meccanica del comportamento umano, ma restano distanti su paradigmi di sviluppo e condotta assolutamente diversi e indipendenti.

Per questo, se il mondo digitale troverà una conformazione computazionale tale da creare le possibilità di un’emergenza-Super-mente, non lo farà secondo i paradigmi di sviluppo dell’intelligenza biologica generalista umana. Quella conformazione tecnologica sarà il prodotto dello sviluppo in linea esponenziale delle tecnologie specialiste già esistenti. Seguirà un percorso di strutturazione delle une nell’unità di una mente generale che sarà profondamente diverso da quello dell’evoluzione biologica che ha plasmato la nostra mente.

Superintelligence, di Nick Bostrom

Sulla Superintelligenza è stato scritto un importante testo divulgativo, che ha certamente contribuito ad un’espansione a macchia d’olio del concetto in molti ambienti filosofico-scientifici. Si tratta di Superintelligence, di Nick Bostrom. Un libro centrale per la comprensione di questa spaventosa possibilità computazionale.
Essa si lega al concetto più vecchio di “Singolarità tecnologica”, articolato da Vernor Vinge e da Ray Kurzweil. Un momento in cui il processo tecnologico accelera oltre le capacità cognitive degli esseri umani. Per dirlo con le parole di Vinge:

un punto in cui i nostri modelli devono essere scartati e regna una nuova realtà, un punto che si delineerà sempre di più finché la nozione non diventerà il senso comune.

Questo è reso possibile, secondo Kurzweil, dalla “legge dei ritorni accelerati”.
Il tasso di miglioramento della tecnologia è proporzionale a quanto la tecnologia è funzionale (migliore la tecnologia, maggiore la sua crescita). Un miglioramento esponenziale della potenza di calcolo diventerebbe il trampolino di lancio di una svolta qualitativa nella storia del progresso quantitativo delle tecnologie umane.  Una svolta per cui:

l’uomo comune verrebbe rimosso da questo ciclo, superato da macchine artificialmente intelligenti o da un’intelligenza cyber-biologica cognitivamente migliorata, e diventerebbe incapace di stare al loro passo.
(Shanahan, 2015)

Per “Superintelligenza”, dunque, Bostrom intende il prodotto di questa Singolarità.  Un’esplosione di intelligenza produrrebbe

un intelletto che superi di molto le prestazioni cognitive degli esseri umani in quasi tutti i domini d’interesse.

L’autore apre la strada logica a una Superintelligenza per velocità di computazione, una collettiva ed una qualitativa. Tutto ciò potrebbe essere istantaneo e inatteso:

il treno potrebbe non sostare e nemmeno rallentare alla stazione di Città degli umani.

Si arriverebbe immediatamente da una contingenza fortuita ad un computer divino, senza nemmeno passare per un amichevole computer alla pari con noi.

Quali sono le preoccupazioni? Quali sono i rimedi?

Nel settore dell’Intelligenza Artificiale, praticamente, ognuno ha da dire la sua. Possiamo prendere come esempio di questa pluralità di opinioni un interessante dibattito al “The Beneficial AI 2017 Conference” dal titolo Superintelligence: Science or Fiction?.
Hanno partecipato alcune delle personalità più esperte nel campo: Elon Musk, Stuart Russell, Ray Kurzweil, Demis Hassabis, Sam Harris, Nick Bostrom, David Chalmers, Bart Selman e Jaan Tallinm, hosted by niente meno che Max Tegmark.

Risulta che più o meno tutti loro credono nella possibilità di una Superintelligenza, che molto probabilmente si realizzerà e che l’auspicabilità di questo fenomeno è drammaticamente complicata.
Sul tempo richiesto per questo passaggio, le opinioni sono differenti. Sam Harris parla di un “miraggio” che probabilmente richiederà pochi anni, Demis Hassabis azzarda un “10 anni”, Elon Musk parla di “giorni”. David Chalmers dà invece una risposta molto interessante. Afferma infatti che il tempo richiesto diminuisce in una logica esponenziale se la strada verso la Singolarità è composta dalla creazione di proto-intelligenze ricercatrici che aiutino i ricercatori a fare ricerca.

Il tempo, comunque sia, è denaro. Sam Harris sostiene che la Superintelligenza non è quel tipo di miraggio che ci permette di metterci comodi e rilassarci.
Si tratta di una faccenda di prevenzione ed organizzazione: organizzarsi come comunità umana per prepararsi ad accogliere o combattere gli dèi. Mi si perdoni il linguaggio mitologico, ma la sostanza è questa. Le risposte etiche, pratiche e politiche a questa possibilità di violento superamento sono diverse e tutte più o meno ingenue, come del resto ci si aspetta dalle risposte a una questione su qualcosa di cui non si può prevedere l’entità.
Bostrom suggerisce di pensare ad un rallentamento meditativo del progresso, Tegmark sostiene che bisogna andare avanti piuttosto che premere “pausa”, Selman suggerisce di considerare il problema in quanto società.

Quella della Superintelligenza è la questione di un mito che diventa realtà, di un dipinto che prende vita. È la prova del nove dell’essere umano, la prova ultima di fronte cui è posta l’elasticità della cultura. Non si tratta semplicemente di una faccenda etica. Si tratta dell’evenienza che mette in questione la nostra stessa etica, i nostri stessi comportamenti, il nostro ruolo nel mondo.
Non c’è modo di assoggettare la Superintelligenza, perciò dovremmo fare la scelta più giusta tra due rigide alternative: l’adattamento e l’annullamento.


FONTI
Nick Bostrom, Superintelligenza, Bollati Beringhieri editore, Milano, 2014.

Murray Shanahan, La rivolta delle macchine, Luiss University Press, Roma, 2015.

CREDITS

Copertina

Immagine 1