Tutti dobbiamo chiederci che cosa possiamo fare per aumentare le probabilità di raccogliere i frutti della futura intelligenza artificiale ed evitarne i rischi. Questo è il dibattito più importante del nostro tempo.

Stephen Hawkingda Max Tegmark, Vita 3.0. Esseri umani nell’era dell’intelligenza artificiale, Milano, Raffaello Cortina, 2018

Quale potrebbe essere l’argomento di discussione nel 2019 tra uno storico e una professoressa di computer science? Naturalmente, l’Intelligenza artificiale. A più di qualcuno un’affermazione del genere potrebbe suonare bizzarra, eppure è proprio ciò che è successo al Memorial Auditorium dell’Università di Stanford nell’aprile del 2019, quando è andato in scena un confronto assai interessante e ricco di stimoli sulle potenzialità ed i pericoli connessi allo sviluppo dell’Intelligenza artificiale.

L’incontro – moderato da Nicholas Thompson, attuale caporedattore del noto giornale americano Wired – ha visto protagonisti Yuval Noah Harari e Fei-Fei Li, due dei massimi esperti di Intelligenza artificiale e nuove tecnologie attualmente presenti sul panorama mondiale. Harari, professore presso la Hebrew University di Gerusalemme e vincitore per due volte del Polonsky Prize for Creativity and Originality in the Humanistic Disciplines, è l’autore del bestseller internazionale Homo Deus, selezionato come libro dell’anno nel 2016 dalle più importanti testate anglosassoni. La sua interlocutrice nella conferenza organizzata dal Mc Coy Family Center for Ethics in Society, la ricercatrice Fei-Fei Li, è una delle figure più brillanti nel campo dello sviluppo dei sistemi di Intelligenza artificiale (d’ora in avanti AI) e della computer vision, oltre a detenere attualmente la cattedra di Computer science presso l’Università di Stanford.

Dalla discussione – che ha toccato temi come il futuro della democrazia nell’era dell’AI e le concrete possibilità del divampare di una corsa alle armi autonome – è emerso un punto di importanza strategica per gli sviluppi dell’AI: la necessità di promuovere una maggiore cooperazione tra ricercatori e sviluppatori di AI e figure con differenti background professionali e culturali, per governare al meglio l’impatto che i sistemi di Intelligenza artificiale potrebbero esercitare in futuro nei più diversi ambiti della nostra società.

Questo principio ha rappresentato e rappresenta tutt’ora la ragion d’essere delle attività dell’Institute for Human-Centered Artificial Intelligence (d’ora in avanti HAI), fondato solo un anno fa presso l’Università di Stanford dalla stessa Fei-Fei Li e dal filosofo John Etchemendy. L’istituto si presenta come un laboratorio per lo sviluppo e l’applicazione consapevole delle tecnologie di Intelligenza artificiale, mantenendo come obiettivo principale il miglioramento della condizione umana a tutti i livelli nella convinzione che, se efficacemente guidata, l’AI potrebbe attivamente contribuire alla risoluzione di molte delle sfide di livello globale che riguardano il nostro pianeta.

Per adempiere ad un fine di tale portata, l’HAI adotta un approccio multidisciplinare, inglobando nella sua attività di ricerca policymakers, sociologi, economisti e altre figure professionali, oltre ai programmatori e agli specialisti. Un tale metodo di ricerca trova la sua più limpida spiegazione nelle parole pronunciate dal rettore dell’università di Stanford Marc Tessier-Lavigne in riferimento all’istituto, in seguito all’avvio delle attività:

Now is our opportunity to shape that future by putting humanists and social scientists alongside people who are developing artificial intelligence. […] This approach aligns with Stanford’s founding purpose to produce knowledge for the betterment of humanity.

Marc Tessier-Lavigneda Amy Adams, Stanford University launches the IHCAI, in «Stanford news» (18 marzo 2019)

Il video del dibattito fra Yuval Noah Harari e Fei-Fei Li, moderato da Nicholas Thompson

Il dibattito sull’Intelligenza artificiale: a che punto siamo?

Fortunatamente, negli ultimi anni l’esperienza dell’HAI non è rimasta un caso isolato nel panorama del mondo AI: altri esperti del settore hanno dato vita ad enti ed organizzazioni simili all’istituto di Stanford per principi ispiratori e finalità. E’ il caso del Future of Life Institute (d’ora in avanti FLI), ente no-profit fondato nel 2014 dal fisico del MIT Max Tegmark, e dalla moglie Meia, dottoranda nella medesima università, insieme al fisico Anthony Aguirre, alla ricercatrice Victoria Krakovna e a Jaan Tallinn, fondatore di Skype. Il FLI ha ricevuto fin da subito l’appoggio di personalità del calibro del noto imprenditore e filantropo americano Elon Musk, come del fisico britannico Stephen Hawking.

L’istituto americano si prefigge un obiettivo forse ancora più ambizioso dell’HAI di Stanford, mirando in prospettiva a salvaguardare il futuro stesso della vita sul nostro pianeta, che i ricercatori del FLI ritengono possa essere minacciato dai potenziali straordinari sviluppi della tecnologia nel nostro secolo, come recita la  stessa pagina di presentazione dell’organizzazione di Boston:

We are a charity and outreach organization working to ensure that tomorrow’s most powerful technologies are beneficial for humanity.

Future of Life InstituteDalla presentazione del team nel sito ufficiale

Rispetto alla totalità della comunità scientifica che si occupa di AI, questi enti di recente fondazione possono senza alcun dubbio considerarsi espressione di una maggiore consapevolezza e sensibilità verso gli interrogativi e i rischi che si accompagnano allo sviluppo dell’Intelligenza artificiale. Negli ultimi anni, infatti, all’interno del mondo AI il dibattito sulle questioni di maggior rilevanza strategica inerenti a questa particolare forma di innovazione tecnologica è andato polarizzandosi, dando luogo a due differenti schieramenti in profondo disaccordo sia su questioni di breve periodo, come l’impatto dell’AI nell’attuale sistema economico, sia su tematiche di lungo periodo, come la possibilità di realizzare un’AI generale (in grado di superare le abilità umane in ogni compito cognitivo) entro questo secolo.

Pur rappresentando ancora casi isolati in rapporto alla vastità della comunità scientifica dell’AI, enti come l’HAI e il FLI senza dubbio contribuiscono tutt’ora a realizzare importanti passi in avanti nella divulgazione e sensibilizzazione verso molte delle problematiche collegate allo sviluppo di questa tecnologia rivoluzionaria. Attualmente infatti, forse a causa della scarsa qualità ed accuratezza dell’informazione mainstream su questi temi, sembra che la percezione maggiormente diffusa in relazione all’Intelligenza artificiale sia che essa rappresenti una materia di competenza esclusiva di un’élite di finanziatori e programmatori concentrati nelle segrete stanze dei colossi dell’high tech della Silicon Valley, o nei quartier generali di Baidu o Tencent, e che la sua futura introduzione nel contesto sociale, politico ed economico, come nella nostra vita quotidiana, possa essere tranquillamente paragonata ad una qualsiasi altra conquista o novità tecnologica dei decenni precedenti.

Sfide e pericoli di una tecnologia rivoluzionaria

In realtà, l’impatto dell’AI sulle nostre vite nei prossimi decenni minaccia di essere assai più profondo e sconvolgente di qualsiasi altra nuova tecnologia finora introdotta su ampia scala. In prospettiva, infatti, l’Intelligenza artificiale potrebbe non solo stravolgere il mercato del lavoro in moltissimi ambiti e sollevare problematiche etiche di complessa risoluzione, ma anche generare interrogativi di una radicalità prima sconosciuta su che cosa significherà essere umani nel prossimo futuro. Proprio per questo, la portata dei rischi e delle sfide connesse al progresso dell’AI, che oggi procede ad una velocità impressionante, giustifica l’invito espresso da Fei-Fei Li durante la conversazione con Harari in merito all’instaurarsi di una cooperazione proficua e duratura tra ingegneri informatici, programmatori e figure del mondo umanistico, esperti di diritto, filosofi, analisti politici ed economisti, al fine di cominciare fin da ora ad elaborare un’idea di futuro sostenibile nella quale l’uomo possa rimanere in controllo di strumentazioni tecnologiche intelligenti che potranno anche arrivare a superare le sue stesse abilità cognitive in diversi ambiti e attività, come già accaduto in passato in diverse occasioni.

We're not necessarily going to find a solution today, but we can involve the humanists, the philosophers, the historians, the political scientists, the economists, the ethicists, the legal scholars, the neuroscientists, the psychologists, and many more other disciplines into the study and development of AI in the next chapter.

Fei-Fei LiIn Briana Brownell, Yuval Noah Harari and Fei-Fei Li on Artificial Intelligence: Four Questions that Impact All of Us

Ma qual è precisamente la natura di queste sfide? E perché impongono necessariamente una collaborazione tra figure professionali dai trascorsi formativi così diversi? Al fine di analizzarle con maggiore chiarezza, risulta utile individuare due differenti livelli all’interno della questione relativa all’impatto dell’AI sulle nostre vite. Questi ultimi, pur essendo fortemente interdipendenti, si caratterizzano per la trattazione di aspetti differenti della questione, nonché per il diverso lasso di tempo che ciascuno di essi potrebbe impiegare per divenire di stringente attualità:

  1. livello teorico-astratto (lungo periodo): riguarda l’AI concepita in generale come macchina in grado di replicare sistemi di ragionamento umani, per come potrebbe modificare nei prossimi decenni la nostra percezione di esseri umani ed esseri intelligenti, insieme al significato stesso che oggi associamo a queste espressioni;
  2. livello concreto-applicativo (breve periodo): si riferisce all’AI considerata per le trasformazioni e i dilemmi etici che potrebbe generare nel prossimo futuro nel mercato del lavoro, nel settore militare e nel sistema politico.

Nel prossimo contributo ci dedicheremo ad analizzare il primo dei due livelli, cercando di dare una prima risposta alle domande sollevate nelle righe precedenti.

Leave a Reply