I rischi dell’Intelligenza Artificiale

Metropolis, Tron, Terminator, Matrix, Io Robot, Ex Machina… sono decine i titoli di film che dagli inizi del Novecento ad oggi sono stati realizzati con attori tutt’altro che tradizionali, dei nuovi protagonisti la cui natura è, letteralmente, soprannaturale, e il cui spirito affatto umano: ciò che hanno in comune questi nuovi personaggi cinematografici è che sono tutti delle intelligenze artificiali.  Lungi dal drammatizzarle come hanno fatto ad Hollywood, è tuttavia necessario riconoscere che quei sistemi tecnologici che nelle pellicole si svelano spietati assassini o marionette incapaci di decisioni proprie, sono meno innocui di quanto si pensi.

Innanzitutto, cos’è un Intelligenza Artificiale? La AI (Artificial Intelligence) è una “wide-ranging branch of computer science concerned with building smart machines capable of performing tasks that typically require human intelligence. AI is an interdisciplinary science with multiple approaches, but advancements in machine learning and deep learning are creating a paradigm shift in virtually every sector of the tech industry”, ossia, un ramo dell’informatica che si occupa di costruire macchine intelligenti capaci di eseguire incarichi che richiederebbero l’intelligenza umana. Cosa le distingue dalla reale intelligenza umana? Secondo Zeynep Tufekci il fattore etico.

Tufekci è una tecno-sociologa che si interessa di come gli algoritmi e la connettività digitale influenzino e plasmino le vite e le società odierne. In questa enorme e complessa rete di comunicazioni e interazioni ha potuto osservare il forte grado di persuasione che molte aziende online possiedono e, non a caso, ha chiamato “architettura persuasiva” la base su cui numerose di queste poggiano.

L’esempio che in primis utilizza per spiegare quest’idea coinvolge il mondo fisico: si pensi ai supermercati e agli scaffali colmi di prodotti ben visibili, si pensi alle corsie, le si percorra e si arrivi davanti alla cassa. È proprio alla fine del “percorso” che chi vende ha l’astuzia di inserire degli espositori alti poco più di un metro con caramelle, dolci e snack. Una casualità? Assolutamente no. Tali prodotti vengono esposti proprio nel punto in cui a un bambino non possono sfuggire, dove questo può buttare l’occhio e implorare la mamma di prendergli giusto un paio di dolci e dove la mamma per la fretta potrà presumibilmente evitare le seccature rifilandogli un bel sì.

Questa secondo Tufekci è la tipica architettura persuasiva di tipo fisico, ma cosa accade quando la realtà viene a mancare e con essa i limiti di spazio che comporta? Si hanno delle impalcature su scala globale, infinite, interconnesse e in continuo sviluppo perché progettate per adattarsi ai desideri, più che ai bisogni, del cliente. I cosiddetti programmi di Machine learning (e cioè di apprendimento automatico) stanno infatti alla base del consumo online e sono progettati per imparare dalla loro esperienza raccogliendo dati e analizzandoli, comparandoli e trasferendoli da soggetto a soggetto in base al bisogno. Gli algoritmi che costituiscono tali sistemi informatici stanno però diventando così avanzati da non necessitare più di alcun programma creato da menti umane: ciò che imparano avviene appreso unicamente da loro stessi.

Si penserà che una pubblicità in più su qualcosa che piace non possa essere poi tanto nociva, si può scorrere ed evitarla e questo è vero, ma cosa accade quando i contenuti che vengono mostrati a chi naviga su siti come YouTube, Google o Facebook non sono ugualmente innocui? L’esperta di tecno-sociologia l’ha dimostrato partendo da una riflessione nata durante l’osservazione dei raduni per la campagna presidenziale di Trump nel 2016. Passando in rassegna i video dei discorsi del candidato repubblicano, ciò che non ha potuto non notare è stato che la piattaforma le forniva di volta in volta tra gli up next (ossia la colonna laterale che mostra contenuti simili che potrebbero interessare e i cui video partono automaticamente dopo la fine di quello in corso) filmati di suprematisti bianchi in ordine crescente di estremismo. Ebbene, secondo Tufekci la strategia alla base di questo sistema sarebbe quella di attrarre lo spettatore con contenuti sempre più radicali in modo da trattenerlo con più probabilità sulla piattaforma e, magari, il più a lungo possibile. Stessa strategia utilizzata anche da Google, Amazon, Facebook, Pinterest e così via.

Il lato negativo, tuttavia, risiede nel fattore etico di tutta la questione e che spesso è quello a venire ingenuamente (si spera) tralasciato: quando si tratta di tracciare i profili e di conseguenza gli interessi degli utenti, questo processo non coinvolge solamente la parte “innocua” del web, ma anche quella pericolosa composta di estremisti e fanatici che vengono così incoraggiati a percorrere una strada già di per sé discutibile e indirizzati verso gruppi che condividono le stesse idee. Una spinta che ProPublica e BuzzFeed hanno già dimostrato essere pericolosamente reale in siti come Facebook e Google.

La maggiore attenzione va quindi rivolta all’uso che di tali siti e relativi algoritmi se ne fa. Ciò che viene mostrato ogni giorno a milioni di utenti condiziona le loro emozioni, le loro decisioni, il loro orientamento politico, sociale, professionale, etc. Perciò, cosa può accadere se le informazioni di base che si ricevono cambiano da individuo a individuo? Cosa può accadere se il punto di vista oggettivo da cui partire non è più così oggettivo, ma manipolato e solo parziale? Cosa succede quando le debolezze di qualcuno vengono sfruttate per fini personali? Sebbene sembri incredibile, le possibilità e il potere che questi meccanismi invisibili offrono sono a dir poco illimitati e per questa ragione devono essere tenuti sotto controllo da quella cosa che ancora manca alle grandi intelligenze artificiali: l’etica umana che ancora permette ad alcuni individui di distinguere tra giusto e sbagliato, benefico e nocivo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.