Ma l’Intelligenza Artificiale ha bisogno di dati o teorie?

Non tutte le leggende sulla creazione del mondo sono uguali. Spesso cosmogonia e antropogenesi coincidono, come nella Bibbia cristiana, mentre in altri casi si tratta di momenti differenti. Per certe tradizioni mistico-religiose l’universo si sarebbe generato autonomamente, mentre in altri casi sarebbe intervenuta un’entità esterna. Ma tra tutte le alternative proposte dalla tradizione rispetto alle dinamiche della genesi del mondo, ce n’è una particolarmente rilevante nello sviluppo storico del pensiero culturale e filosofico: la creazione è stata il lavoro di un Demiurgo platonico, che ha dato forma, attraverso le idee, ad una materia grezza ma già esistente; oppure è stata un’opera totale, dalla tabula rasa all’universo, come suggerisce invece la versione ebraico-cristiana?

In larga parte entrambe le ragioni di queste tradizioni opposte si traducono efficacemente in un altro problema legato alla creazione, un problema che tuttavia, lontano dall’esoterismo religioso, caratterizza il mondo moderno nelle sue pratiche più empiriche: creare un’Intelligenza Artificiale, giungere alla Singolarità tecnologica, è un problema che va risolto ex nihilo, creando un algoritmo del tutto nuovo che gestisca dati del sistema-mondo finora rimasti nascosti? Oppure si tratta di dare ai nostri computer la giusta potenza di calcolo e una quantità incredibile di dati, trovando insomma un modello funzionale d’intelligenza usando metodi già esistenti e dati già noti? È insomma un problema qualitativo o quantitativo, quello della singolarità?

L’IA ha bisogno di una nuova matematica che cambi la nostra visione scientifica delle cose, mettendo al mondo un algoritmo nuovo che ridisegni lo spazio del problema (quindi, secondo la teoria dell’intelligenza artificiale generale (AGI), che sia in grado di risolvere ogni tipo di problema), proprio come il Dio ebraico? Oppure ha già la sue chiavi inglesi e i suoi bulloni, come il Demiurgo, dovendo solo trovare tra i tanti l’operaio più capace e i bulloni più resistenti?

Questo problema è in realtà analizzabile nei termini dell’equilibrio/conflitto tra i due metodi filosofici che caratterizzano il discorso scientifico moderno sull’analisi ed elaborazione dell’informazione: la prospettiva top-down e quella bottom-up. Proprio come altre coppie astratte appartenenti al linguaggio meta-scientifico moderno (hardware/software, lineare/complesso, analogico/digitale…) questa opposizione non impone una rigida alternativa, ma una duplice prospettiva da estremi opposti sullo stesso problema: l’interpretazione e progettazione di fenomeni. Dalla prospettiva top-down, dall’alto verso il basso, si giunge alla soluzione di un problema applicando al data set principi già esistenti, pattern a priori: “vedere un canarino” nell’informazione sensibile fornita agli occhi deriva in certa misura dal fatto che si ha già impressa nella mente “l’immagine di com’è fatto (genericamente) un canarino”. Dalla prospettiva bottom-up, dal basso verso l’alto, la soluzione di un problema si trova a posteriori, ad esperienza già avvenuta, traendo conclusioni dal data-set senza l’applicazione esterna di un principio preesistente: “vedere un canarino” nell’informazione sensibile fornita dagli occhi deriva in certa misura dal fatto che quegli occhi e la corteccia visiva più superficiale siano in grado di percepire certe costanti negli oggetti dell’esperienza che, con l’abitudine, lasciano che l’esperienza visiva di quel canarino si associ all’esperienza visiva di altri canarini.

Insomma, risolvere un problema “dall’alto” significa essere attivi, vedere il mondo in maniera diversa, e quindi vedere cose nuove, per trarre le conclusioni su ogni esperienza futura in virtù del “modo di vedere” più ottimale; risolverlo “dal basso” significa accumulare dal mondo, con totale passività, tanti dati d’esperienza quanti ne sono sufficienti per assumere la confidenza induttiva di poter trarre conclusioni su ogni esperienza futura. Il nostro cervello, trattandosi di alternative sempre compresenti, contempla sia soluzioni top-down che bottom-up: se gli esperimenti della scuola psicologica della Gestalt dimostrano che tendiamo a ricondurre le immagini percepite ad immagini ideali già presenti nella nostra mente, i recenti studi sui percorsi sinaptici della corteccia visiva dimostrano che certi stati rappresentazionali sono ottenibili solo mediante i giusti input sensoriali (indotti o spontanei).

La ricerca sull’Intelligenza Artificiale, in molti casi, tende ad emulare le strutture e le funzioni presenti nel cervello, soprattutto nella corteccia. Le “reti neurali artificiali” altro non sono se non tentativi di riprodurre ingegneristicamente e matematicamente quelle funzioni di “apprendimento profondo” (deep learning), ossia attraverso molteplici strati (layers) di classificazione, che caratterizzano le reti neurali naturali. È quindi immediato capire come il binomio top-down/bottom-up stia anche a fondamento della logica dell’apprendimento automatico delle macchine (machine learning).

Ma quello delle reti neurali artificiali è solo un esempio. Esistono svariati tipi di algoritmi diversi ma similmente efficaci che tentano di emulare l’intelligenza umana nel suo capire e progettare i suoi oggetti d’esperienza: se l’algoritmo a k vicini (K-nearest neighbors) classifica e prevede oggetti sulla base del comportamento di oggetti simili (vicini) nello stesso spazio (ad esempio su un piano cartesiano), e quindi, non applicando nessun modello arbitrario di lettura (se non la misurazione già presente nelle coordinate del diagramma), potremmo definirlo tendenzialmente bottom-up; qualunque altro algoritmo (non-machine-learning) tradizionale, del tipo “se… allora…”, come quello del computer della pompa di benzina automatica che permette al macchinario di erogare liquido, è un preciso esempio di funzionamento top-down. Ovviamente il k-NN e la pompa di benzina sono esempi estremi, ma il gioco della soluzione all’IA si svolge interamente tra le loro vie di mezzo. Quali pregiudizi (bias) innati deve avere una macchina, prima di gettarsi nel mondo dell’esperienza, per comprendere il mondo in maniera intelligente? Di quanti dati e di che tipo ha bisogno la macchina, nel suo essere-nel-mondo, per ottenere abbastanza confidenza induttiva su ciò che il mondo è e su ciò che su di esso si può prevedere?

Attenzione: è vero che il machine learning, quella branca dell’IA che tenta d’insegnare alle macchine ad imparare in modo autonomo, si differenzia dalla programmazione tradizionale per il fatto che, mentre questa ha bisogno di regole per operare, quello le regole le produce da sé a partire dall’allenamento su un insieme di dati (training set) interpretati in maniera autonoma. È vero che nel ML “prima di tutto vengono i dati!”, come da adagio, e bisogna fare a meno dei modelli umani introdotti dall’esterno dal programmatore (lerner). Ma questo non implica, come pure pensano molti, che dal terreno dello sviluppo tecnologico, data la contingenza di un eccezionale quantitativo di Big Data (la materia grezza del Demiurgo) e di un’inarrestabile potenza di calcolo associata a tecniche ottimali (le idee del Demiurgo), emerga spontaneamente un sistema intelligente. Non solo idee, non solo materia grezza: l’intelligenza la crea il Demiurgo, che nel caso dell’IA oscilla tra progettazione dall’alto e concessione dal basso. Lo sviluppo dell’IA, storicamente, non è sempre contiguo allo sviluppo tecnologico generale: ci sono stati molti “inverni dell’IA”, in cui nessuno sapeva più che algoritmi inventare e che dati usare, come molte e recentissime “primavere”. Le tecniche e i dati sono tecnologia, ma l’IA ha bisogno di un indefinibile Altro Concettuale. Per questo è più ragionevole pensare che ad una giusta contingenza tecnologica vadano affiancati dei modelli e dei programmi umani ad hoc, sulla base dei quali costruire le macchine, che solo in seguito potranno imparare a modo loro. Parafrasando Garry Kasparov, il grande scacchista sconfitto da DeepBlue: l’essere più intelligente del mondo non è né umano né artificiale, ma il connubio tra i due.

Certo è che esisterà sempre un Essere più intelligente di esseri umani e macchine (seppur intelligenti): la Natura, quella Supersuperintelligenza – o meglio, quell’Intelligenza Suprema – che è stata effettivamente in grado di creare spontaneamente molte intelligenze e che riesce ad adattare alle sue leggi ogni intelligenza, da quella murina a una “Superintelligenza artificiale” à la Bostrom. Molti, in effetti, ipotizzano di risolvere il problema dell’IA proprio individuando quell’Algoritmo Definitivo che sta contemporaneamente alla base dell’evoluzione darwiniana e del moto dei pianeti, e che quindi fornirebbe il modello perfetto di AGI.

A prescindere dalla diffusa opinione che questo sia matematicamente e materialmente possibile, tuttavia ci sembra più sensato individuare quell’equilibrio tra le oscillazioni tra apprendimento top-down (indotto) e bottom-up (autonomo), piuttosto che aspirare alla lettura delle “carte di Dio”. Se plausibilmente (per ora) non possiamo emulare la teleologia di Madre Natura, che tanto spontaneamente è stata in grado di creare esseri intelligenti (come il Dio ebraico? come il Demiurgo platonico?), almeno cerchiamo di 1) organizzare in maniera umana questo decollo, 2) lasciando poi che l’aeroplano viaggi autonomamente.


FONTI

P. Domingos, L’Algoritmo Definitivo, Bollati Boringhieri, Torino, 2016

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.