IA L’Intelligenza Artificiale nella storia e nel cinema

IA. Intelligenza Artificiale. Una vera e propria disciplina dibattuta da scienziati ma anche da filosofi, che pone domande difficili e tante paure.

L’origine del termine

L’espressione, coniata nel 1956 dal matematico statunitense John McCarthy, durante un seminario interdisciplinare svoltosi nel New Hampshire, indica quella disciplina il cui scopo sarebbe quello di “far fare alle macchine delle cose che richiederebbero l’intelligenza se fossero fatte dagli uomini”.

Sembrerebbe un’idea coniata dall’uomo in epoche recentissime, ma non è così, la costruzione di macchine che potessero aiutare nei calcoli e fungere da cervelli umani nasce già nel XVII secolo, con Blaise Pascal che inventò la cosiddetta Pascalina per aiutare il padre, incaricato dall’amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. In età vittoriana, Charles Babbage creò macchine calcolatrici a rotelle, ma la vera rivoluzione, com’è noto, si ebbe con l’informatica, i computer e il cervello tutto umano di Alan Turing (a proposito del quale si segnala The Imitation Game per saperne di più sul personaggio).

Dal “test di Turing” ai primi programmi di IA

La svolta infatti, fu provocata proprio da un articolo di Turing apparso sulla rivista «Mind» nel 1950. Nell’articolo viene indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Il test di Turing – così viene chiamata la condizione che la macchina dovrebbe superare per essere considerata intelligente – è stato più volte superato da programmi (chatterbot) e più volte riformulato, tanto che queste teorie hanno ricevuto diverse confutazioni. Il filosofo Searle ne espose una famosa, chiamata “la stanza cinese”, dimostrando che il lavoro dello scienziato, in questa disciplina, procede di pari passo con l’opinione del filosofo.

Nello stesso anno dell’articolo di Turing sull’omonimo test per le macchine pensanti, Arthur Samuel presenta il primo programma capace di giocare a Dama. Un risultato molto importante perché dimostra la possibilità di superare i limiti tecnici (il programma era scritto in Assembly e girava su un IBM 704) per realizzare sistemi capaci di risolvere problemi tradizionalmente legati all’intelligenza umana. Per di più, l’abilità di gioco viene appresa dal programma giocando contro avversari umani. Nel 1956, alla conferenza di Dartmouth (la stessa conferenza a cui l’IA deve il suo nome), viene mostrato un programma che segna un’altra importante tappa dello sviluppo dell’IA. Il programma LT di Allen Newell, J. Clifford Shaw e Herbert Simon rappresenta il primo dimostratore automatico di teoremi.

La linea seguita dalla giovane IA (anni ’50) si basa quindi sulla ricerca di un automatismo nella creazione di un’intelligenza meccanica. L’approccio segue essenzialmente un’euristica di ricerca basata su “tentativi ed errori” (trial and error), oltre che investigare su tecniche di apprendimento efficaci. Ma secondo le parole di Marvin Minsky, dopo il 1962 l’IA cambia le sue priorità: essa dà minore importanza all’apprendimento, mentre pone l’accento sulla rappresentazione della conoscenza e sul problema a essa connesso del superamento del formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi.

«Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani» (Marvin Minsky, 1968).

L’IA dell’immaginario collettivo rappresentata al cinema:

Si va verso quell’IA a tutti nota e temuta, sopratutto dopo aver visto una serie infinita di film che rappresentanti il “lato oscuro” della questione. Basti pensare, primo tra tutti, alla saga “Terminator”, nella quale il supercomputer Skynet è un sofisticatissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda, finiranno per divenire un insieme autocosciente ed intraprendere, al comando di un esercito di robot e cyborg, una spietata guerra per lo sterminio della specie umana

Anche se, d’altro canto, il tema è stato ripreso innumerevoli volte nelle opere di fantascienza con computer, robot o androidi, tutti legati al classico tema della ribellione della macchina, in cui un computer si rivolta contro gli esseri umani che l’avevano costruito.

Tra i computer senzienti troviamo anche l’indimenticabile “HAL 9000″ del film “2001: Odissea nello spazio” di Stanley Kubrick.

In “Matrix”, invece, le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.

Insomma gli esempi non mancano, del 2001 uscì “A.I. – Intelligenza artificiale” (A.I. Artificial Intelligence) diretto da Steven Spielberg, e basato proprio su un progetto di Stanley Kubrick. Ma l’ultimo uscito, è certamente “Ex Machina”, film del 2015 scritto e diretto da Alex Garland, al suo debutto da regista, con protagonisti Domhnall Gleeson, Alicia Vikander ed Oscar Isaac.

Caleb Smith è un giovane eccellente programmatore che si aggiudica la possibilità di trascorrere una settimana nella casa in montagna di Nathan Bateman, l’amministratore delegato della società per cui lavora, BlueBook. Nathan rivela subito che la sua casa non è altro che un grande laboratorio di ricerca dove da solo ha progettato e costruito una macchina umanoide dotata di intelligenza artificiale di nome Ava. Caleb deve collaborare all’esecuzione del test di Turing per capire se l’umanoide abbia una vera intelligenza e coscienza di sé. Il giovane programmatore inizia subito il test, incontrando il robot dalle sembianze femminili e sorprendendosi di quanto sia intelligente e simile a un essere umano. I test proseguono ogni giorno e, col passare del tempo, Ava appare essere attratta da Caleb, chiedendogli infine di fuggire insieme.

Tra curiosità e questioni etico-morali

Inutile dire che tutto ciò suscita domande, molti quesiti a cui il dibattito filosofico cerca di dare risposta. Ma la domanda al centro del dibattito è fondamentalmente una sola: Fino a che punto i computer possono esibire un comportamento intelligente?. Infatti, nonostante tutti siano d’accordo che gli esseri umani sono intelligenti, non esiste una definizione operativa di intelligenza universalmente riconosciuta; a riflesso di questo dibattito ancora in corso, lo studio dell’IA si divide in due correnti.

La prima, detta intelligenza artificiale forte, sostenuta dai funzionalisti, ritiene che un computer correttamente programmato possa essere veramente dotato di una intelligenza pura, non distinguibile in nessun aspetto significativo dall’intelligenza umana. L’idea alla base di questa teoria è il concetto che risale al filosofo empirista inglese Thomas Hobbes, il quale sosteneva che ragionare non è nient’altro che calcolare: la mente umana sarebbe dunque il prodotto di un complesso insieme di calcoli eseguiti dal cervello.

La seconda corrente, detta intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di eguagliare la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità.

Ci sono tesi a favore di una corrente e dell’altra, diverse implicazioni in ognuna. Un problema, dunque, non ancora risolto. Ma con la tecnologia che avanza forse la soluzione non è poi così lontana.

FONTI

FanPage

CREDITS

Copertina

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.