IA. Intelligenza Artificiale. Una vera e propria disciplina dibattuta da scienziati ma anche da filosofi, che pone domande difficili e tante paure.

Espressione coniata nel 1956 dal matematico statunitense John McCarthy, durante un seminario interdisciplinare svoltosi nel New Hampshire, indica, quella disciplina il cui scopo sarebbe stato quello di “far fare alle macchine delle cose che richiederebbero l’intelligenza se fossero fatte dagli uomini”.

Sembrerebbe un’idea coniata dall’uomo in epoche recentissime, ma non è così, la costruzione di macchine che potessero aiutare nei calcoli e fungere da cervelli umani nasce già nel XVII secolo, con Blaise Pascal che inventò la cosiddetta Pascalina per aiutare il padre, incaricato dall’amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. In età vittoriana, Charles Babbage creò macchine calcolatrici a rotelle, ma la vera rivoluzione, come ben sapete si ebbe con l’informatica, i computer e il cervello tutto umano di Alan Turing (guardate The Imitation Game se volete saperne di più sul personaggio).

La svolta infatti, la provoca proprio un articolo di Turing sulla rivista Mind nel 1950. Nell’articolo viene indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Il test di Turing – così viene chiamata la condizione che la macchina dovrebbe superare per essere considerata intelligente – è stato più volte superato da programmi (chatterbot) e più volte riformulato, tanto che queste teorie hanno ricevuto diverse confutazioni. Il filosofo Searle ne espose una famosa, chiamata la stanza cinese, dimostrando così, che il lavoro dello scienziato, in questa disciplina, va a pari passo con l’opinione del filosofo.

Nello stesso anno dell’articolo di Turing sull’omonimo test per le macchine pensanti, Arthur Samuel presenta il primo programma capace di giocare a Dama, un risultato molto importante perché dimostra la possibilità di superare i limiti tecnici (il programma era scritto in Assembly e girava su un IBM 704) per realizzare sistemi capaci di risolvere problemi tradizionalmente legati all’intelligenza umana. Per di più, l’abilità di gioco viene appresa dal programma giocando contro avversari umani. Nel 1956, alla conferenza di Dartmouth (la stessa conferenza a cui l’IA deve il suo nome), viene mostrato un programma che segna un’altra importante tappa dello sviluppo dell’IA. Il programma LT di Allen Newell, J. Clifford Shaw e Herbert Simon rappresenta il primo dimostratore automatico di teoremi.

La linea seguita dalla giovane IA (anni ’50) si basa quindi sulla ricerca di un automatismo nella creazione di un’intelligenza meccanica. L’approccio segue essenzialmente un’euristica di ricerca basata su “tentativi ed errori” (trial and error), oltre che investigare su tecniche di apprendimento efficaci. Ma secondo le parole di Minsky, dopo il 1962 l’IA cambia le sue priorità: essa dà minore importanza all’apprendimento, mentre pone l’accento sulla rappresentazione della conoscenza e sul problema a essa connesso del superamento del formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi.

«Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani» (Minsky, 1968).

Si va verso quell’IA che tutti noi conosciamo e che temiamo dopo aver visto una serie infinita di film che ci dicevano, quanto tutta questa faccenda fosse una cattiva idea. Penso, primo tra tutti alla saga di Terminator, d’altro canto il tema è stato ripreso numerosissime volte nelle opere di fantascienza con computer, robot o androidi, tutti legati al classico della ribellione della macchina, in cui un computer si rivolta contro gli esseri umani che l’avevano costruito.

Tra i computer senzienti troviamo anche HAL 9000 del film 2001: Odissea nello spazio di Stanley Kubrick. Invece Pensiero Profondo, nella Guida galattica per autostoppisti, è un’intelligenza artificiale capace di fornire la risposta alla “domanda fondamentale sulla vita, l’universo e tutto quanto”. Nella serie cinematografica di Terminator, il supercomputer Skynet è presentato come un sofisticatissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda, finiranno per divenire un insieme autocosciente ed intraprendere, al comando di un esercito di robot e cyborg, una spietata guerra per lo sterminio della specie umana. In Matrix, invece, le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.

Insomma gli esempi non mancano, del 2001 uscì A.I. – Intelligenza artificiale (A.I. Artificial Intelligence) diretto da Steven Spielberg, e basato proprio su un progetto di Stanley Kubrick. Ma l’ultimo uscito, è certamente Ex Machina, film del 2015 scritto e diretto da Alex Garland, al suo debutto da regista, con protagonisti Domhnall Gleeson, Alicia Vikander ed Oscar Isaac.

Caleb Smith è un giovane eccellente programmatore che si aggiudica la possibilità di trascorrere una settimana nella casa in montagna di Nathan Bateman, l’amministratore delegato della società per cui lavora, BlueBook. Nathan rivela subito che la sua casa non è altro che un grande laboratorio di ricerca dove da solo ha progettato e costruito una macchina umanoide dotata di intelligenza artificiale di nome Ava. Caleb deve collaborare all’esecuzione del test di Turing per capire se l’umanoide abbia una vera intelligenza e coscienza di sé. Il giovane programmatore inizia subito il test, incontrando il robot dalle sembianze femminili e cominciando a parlarci, sorprendendosi di quanto sia intelligente e simile a un essere umano. I test proseguono ogni giorno e, col passare del tempo, Ava appare essere attratta da Caleb, chiedendogli infine di fuggire insieme.

Inutile dire che tutto ciò suscita domande, molti quesiti a cui il dibattito filosofico cerca di dare risposta. Ma la domanda al centro del dibattito è fondamentalmente una sola: “Fino a che punto i computer possono esibire un comportamento intelligente?”. Infatti, nonostante tutti siano d’accordo che gli esseri umani sono intelligenti, non esiste una definizione operativa di intelligenza universalmente riconosciuta; a riflesso di questo dibattito ancora in corso, lo studio dell’IA si divide in due correnti: la prima, detta intelligenza artificiale forte, sostenuta dai funzionalisti, ritiene che un computer correttamente programmato possa essere veramente dotato di una intelligenza pura, non distinguibile in nessun aspetto significativo dall’intelligenza umana. L’idea alla base di questa teoria è il concetto che risale al filosofo empirista inglese Thomas Hobbes, il quale sosteneva che ragionare non è nient’altro che calcolare: la mente umana sarebbe dunque il prodotto di un complesso insieme di calcoli eseguiti dal cervello; la seconda, detta intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di eguagliare la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità.

Ci sono tesi a favore di una corrente e dell’altra, diverse implicazioni in ognuna. Un problema, dunque, non ancora risolto. Ma con la tecnologia che avanza forse la soluzione non è poi così lontana.


CREDITS

Copertina