Italian Tech

Intelligenza Artificiale

"L'AI ci ha già superato": nel nuovo documento degli esperti le proposte per arginarla

Immagine generata da Dall-E 3: "Il modo in cui ChatGpt vede la sua interazione con gli esseri umani"
Immagine generata da Dall-E 3: "Il modo in cui ChatGpt vede la sua interazione con gli esseri umani" 
Dopo gli allarmi apocalittici, i maggiori esperti di AI - tra cui i "padri" del deep learning Hinton e Bengio - passano alle proposte concrete per arginare i futuri rischi legati a uno sviluppo oncontrollato dell'intelligenza artificiale
3 minuti di lettura

“Gestire i rischi dell’AI in un’era di rapido progresso”. È questo il titolo del “paper” scientifico firmato da due “padri” dell’intelligenza artificiale moderna, Geoffrey Hinton e Yoshua Bengio, e altri ventidue accademici tra cui lo scrittore Yuval Noah Harari e il Premio Nobel per l’economia Daniel Kahneman, autore del libro bestseller “Thinking, Fast and Slow”.

Rispetto agli allarmi apocalittici dei mesi scorsi, incentrati sui rischi legati a uno sviluppo incontrollato dell’intelligenza artificiale, gli studiosi hanno fatto un passo avanti, proponendo soluzioni concrete per evitare che l’AI si trasformi in una temibile minaccia.


Le proposte più importanti riguardano le aziende che sviluppano intelligenza artificiale e i governi che dovranno controllare i sistemi di AI esistenti e futuri.

Nel “paper” si invitano aziende come OpenAI, che ha creato ChatGpt e Dall-E 3, a “destinare almeno un terzo del loro budget per la ricerca e lo sviluppo dell’AI per garantire la sicurezza e un uso etico”. Ai governi, invece, viene chiesto tra le altre cose di “chiedere urgentemente la registrazione dei modelli [di AI, ndr], la protezione di eventuali informatori, il report di eventuali incidenti, e un controllo sui modelli e sull’uso dei supercomputer”.

Particolare attenzione è rivolta ai meccanismi che regolano l’AI. Sappiamo infatti - come recita una battuta ricorrente nel mondo dei ricercatori - che un’azienda come OpenAI, per esempio, di “open”/”aperto” ha soltanto il nome. ChatGpt, come si dice in gergo, è una “black box”: nessuno può guardarci dentro e nessuno, dunque, sa quali siano i suoi “ingranaggi”. A differenza delle AI “open source” di cui, invece, il codice sorgente è pubblico e accessibile per qualsiasi modifica/sviluppo.

Ebbene il “paper” firmato da Hinton e Bengio, vincitori del prestigioso Turing Award nel 2018, chiede ai governi di legiferare affinché possano “avere accesso ai sistemi avanzati di AI prima del loro sviluppo per valutare potenziali rischi come la capacità di replicarsi autonomamente, di penetrare sistemi informatici o di diffondere patogeni pandemici”.

Nel paper si legge anche che “i governi dovrebbero anche ritenere responsabili legalmente gli sviluppatori e i proprietari della “AI di frontiera” - il termine con cui si definisce l'IA più avanzata - per i danni causati dai loro modelli che possono essere ragionevolmente previsti e prevenuti”. Questa proposta, in particolare, sposa il punto di vista espresso recentemente da Harari.

Yuval Noah Harari, lo storico che ha conquistato il mondo con i suoi libri sul passato e il futuro dell’umanità (da “Sapiens” a “Homo Deus”), è preoccupato da un futuro in cui si potranno creare, con estrema facilità, miliardi di “fake people”.

Harari è arrivato a chiedere “20 anni di prigione” per tutti coloro che creeranno “persone false” usando l’AI.

“Se non puoi distinguere un vero essere umano da uno falso - ha detto Harari durante un convegno organizzato a Ginevra proprio dalle Nazioni Unite - la fiducia crollerà. E con essa la società libera. Forse le dittature riusciranno a cavarsela in qualche modo, ma non le democrazie”.

Il paper “Managing AI Risks in an Era of Rapid Progress” invita inoltre i governi a “essere pronti a concedere licenze per lo sviluppo di determinate intelligenze artificiali e sospendere lo sviluppo in risposta a capacità preoccupanti dei sistemi di AI”.

Nel documento viene spesso sottolineata la necessità di prendere provvedimenti “urgenti”. Questo perché, come afferma il suo titolo, l’intelligenza artificiale cresce e migliora in tempi estremamente rapidi.

“Nel 2019, GPT-2 non poteva contare in modo affidabile fino a dieci - scrivono i firmatari del “paper” -. Solo quattro anni dopo, i sistemi di deep learning possono scrivere software, generare immagini fotorealistiche su richiesta, dare consigli su argomenti intellettuali e combinare l'elaborazione del linguaggio e delle immagini per guidare i robot. Mentre gli sviluppatori di IA scalano questi sistemi, emergono abilità e comportamenti imprevisti che non sono frutto di una programmazione esplicita. Il progresso nell'IA è stato rapido e, per molti, sorprendente”.

“Non esiste motivo di pensare che il progresso dell'IA dovrebbe rallentare o fermarsi al livello umano. Infatti, l'IA ha già superato le capacità umane in ambiti specifici come il ripiegamento delle proteine o i giochi di strategia - si legge inoltre nel documento -. Rispetto agli esseri umani, i sistemi di intelligenza artificiale possono agire più rapidamente, assimilare una quantità maggiore di conoscenze e comunicare a una velocità di trasmissione molto più elevata. Inoltre, possono essere scalati per utilizzare risorse computazionali immense e possono essere replicati in milioni di copie”.

Mentre Hinton e Bengio continuano a sensibilizzare l’opinione pubblica e i governi sull’AI che potrebbe causare danni alle persone o alla società, chiedendo linee guida e leggi che prevengano scenari catastrofici, il loro collega Yann Lecun - premiato anche lui con il Turing Award nel 2018 per il contributo fondamentale nello sviluppo del machine learning - ribadisce che “l’intelligenza artificiale non sarà mai una minaccia per gli esseri umani”.

È quanto ha dichiarato LeCun, capo dell’AI di Meta (l’azienda che controlla Facebook, Instagram e WhatsApp), al Financial Times. La sua intervista è stata pubblicata lo scorso 19 ottobre, pochi giorni prima della diffusione del paper sulla “gestione dei rischi dell’AI” firmato da Hinton e Bengio.