In queste settimane non si fa altro che parlare di ChatGPT. È il nostro nuovo mantra, la parola d’ordine, il lasciapassare per lo stay cool che ci colloca allo stesso livello di chi è avanti perché si compra la Tesla, o è avanti perché mangia (o dice di mangiare) qualunque cosa contenete insetti. ChatGPT è anche il must tecnologico che ha sostituito il nebuloso concetto di Metaverso, ora virtualmente e fisicamente archiviato nella mente dei più come un esperimento del passato.
E come tutto ciò che è di tendenza, a far scalpore sono i successi, ma anche i problemi. Vediamo quindi cos’è successo in questo ultimo periodo al nostro nuovo amichetto virtuale.
LA LETTERA DEGLI ESPERTI CHE INVOCA L’ARMAGEDDON
“Negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’Intelligenza Artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare. Questi sistemi possono comportare gravi rischi per la società e l’umanità e il loro sviluppo dovrebbe essere sospeso per almeno sei mesi”.
Questo è un estratto della lettera firmata da oltre mille esperti del settore tech e pubblicata dal Future of Life Institute, organizzazione no profit creata nel 2014 con lo scopo di lavorare per ridurre i potenziali rischi e le catastrofi per l’umanità, ma con un occhio di attenzione verso le intelligenze artificiali. La lettera ha scosso l’opinione pubblica per le firme di personalità del calibro di Steve Wozniak, (eterno) co-fondatore di Apple e Yoshua Bengio, uno dei fondatori della stessa OpenAI, oltre a molti esperti che lavorano nelle big del settore.
La lettera esprime tutta la preoccupazione di molti esperti verso uno sviluppo incontrollato dell’AI. Una nuova frontiera dell’oro per i maxi investimenti tech e quindi soggetta a un’avanzata potenzialmente esplosiva. La pausa di sei mesi dovrebbe servire per una riflessione più profonda sull’impatto di questa tecnologia a livello globale e per impostare una normativa adeguata alla sua regolamentazione. Lo stop verrebbe imposto a sistemi di sviluppo più potenti di GPT-4 e dovrebbe essere “pubblico, verificabile e includere tutti”, pena la moratoria da parte dei governi.
TROPPI FILM DI FANTASCENZA
La richiesta potrebbe anche sembrare ragionevole ai più (anche se un po’ tardiva), ma pecca di alcune evidenti lacune logiche. Oltre al tono roboante in cui annuncia una moratoria che nemmeno un ipotetico governo planetario avrebbe il potere di attuare, oltre ad alcuni rischi reali si basa, piuttosto, su parecchi rischi del tutto ipotetici. Parlando di quelli reali, il fenomeno del deep fake sta sicuramente ricevendo un grande impulso dall’utilizzo dell’AI, anche se per ora si è limitato a mostrare il Papa in piumino, Putin a cavallo di un alpaca e Macron che balla in mezzo a cassonetti in fiamme. Anche il fenomeno delle fake news non può che uscirne rafforzato, con il tutto che contribuisce ad aumentare i rischi di disinformazione e instabilità sociale.
Passando però ai rischi più ventilati, oltre che teorici, la cosa assomiglia sempre di più a un film di fantascienza low budget. Nella lettera si parla chiaramente del rischio di sviluppare “menti non umane che potrebbero eventualmente superarci di numero, essere più intelligenti di noi, renderci obsoleti e rimpiazzarci”. Considerando che le AI attuali a stento riescono a riportare dati presi da Wikipedia (e a volte si sbagliano pure), siamo giusto qualche passo indietro rispetto a questo sviluppo. È un po’ come prendersela con Tesla per la guida autonoma, temendo che uno sviluppo incontrollato ci potrebbe portare su un altro pianeta invece che al supermercato. Come affermato più volte, ufficialmente, da altri massimi esperti del settore (qui è pieno di esperti), non è per niente chiaro se riusciremo mai a sviluppare un’intelligenza di questo genere e sicuramente non con i mezzi attuali.
COME FUNZIONANO QUESTE PRESUNTE INTELLIGENZE
Inoltre, e qui viene il bello, i meccanismi di deep learning su cui si basano le AI non possono tecnicamente sviluppare una forma di intelligenza. Il sistema non fa altro che usare algoritmi per setacciare, in fretta, tra una marea di dati. In seguito trova una correlazione per rispondere alla richiesta dell’utente. Come quelle sofisticate macchine che, partendo da un sacco dell’immondizia pieno di ogni cosa, alla fine del nastro trasportatore sono in grado di separare i diversi materiali. Vanificando così gli sforzi del complottista che pensa che la raccolta differenziata sia una manovra per alzargli la bolletta.
Insomma, le intelligenze artificiali “simulano” il comportamento umano con il linguaggio, ma senza comprenderlo e limitandosi a copiarlo da quanto trovano scritto in giro. Con buona pace del Boomer che ringrazia Alexa dopo che è riuscita ad accendere la luce del bagno invece di avviare una canzone dei Cugini Di Campagna. In più, guardando proprio alla fonte di questa lettera, il fantomatico Future Of Life Institute, si può notare come l’intera istituzione sia permeata da toni millenaristici e apocalittici tipici di quella corrente denominata “lungotermismo”, nata proprio nella Silicon Valley e ora molto in voga.
SAM ALTMAN, CEO PENTITO?
Non mi soffermerò sul fatto che questa grande capacità di visione non abbia impedito alla loro stessa banca di fallire miseramente, ma su due soggetti che ho volutamente lasciato da parte fino a questo momento: Sam Altman e Elon Musk. Il primo è l’attuale CEO di OpenAI che, pur non firmando la lettera, si è detto “un po’ spaventato” dai possibili sviluppi della sua creatura. Anche Altman è un seguace di questa nuova corrente millenarista, ma questi avvertimenti sono visti da parecchi come un’operazione di marketing. Avvolgere la sua creatura di un’aura messianica, un baluardo tecnologico da tenersi buono e ingrassare i conti.
ELON MUSK CHE SI LASCIA SFUGGIRE UN’ALTRA OCCASIONE
L’altro nome è ovviamente quello del nostro paladino dell’Osservatorio Musk, che da buon imprenditore mette la bocca dappertutto. E non poteva mancare il suo intervento anche in questo ambito, da persona decisamente interessata. Musk, infatti, è advisor del Future Of Life Institute, ma è anche quello che ha tentato senza successo, nel 2018, di acquistare proprio OpenAI. La volete sapere tutta? Nel 2015 Musk promise di donare un miliardo di dollari alla neonata no profit OpenAI, assieme ad altri miliardari (tra cui Sam Altman, l’attuale CEO). Promessa non mantenuta, a causa di contrasti tra il magnate e il consiglio di amministrazione.
Nel 2018 Musk propose ad Altman di rilevare il controllo di OpenAi e gestirla come una sua società, con la motivazione che non sarebbe riuscita a stare al passo con Google. Ricevuto un rifiuto, Musk ridimensionò il cospicuo conquibus dollaroso a 100 milioni di dollari, uscendo subito dopo dalla società. OpenAI, in carenza di liquidità per la mancata donazione, si risolse di creare una società commerciale per mantenersi economicamente, legandosi sempre di più a… Microsoft! Inoltre, ciliegina sulla torta delle previsioni di Musk, non solo ChatGPT sovrasta al momento tutte le altre AI in campo, ma la rivale Bard, creatura di Google, è ancora allo stadio fantozziano, con buona pace della concorrenza. E intanto OpenAI fa soldi a palate, cosa che a Musk non è riuscita con il giocattolino di riparazione, Twitter. Grazie a te, Elon, l’Osservatorio Musk avrà più stagioni di Beautiful.
E L’ITALIA?
L’Italia per una volta tiene il passo con questi lungimiranti allarmi. Dopo neanche una settimana dalla pubblicazione della lettera, ChatGPT non è più navigabile dal nostro Paese, un unicum nel mondo. Una grande dimostrazione di responsabilità? Macché, è una questione di dati personali.
Per una volta, il Garante della Privacy italiano è stato più veloce e draconiano di quello europeo. È stata infatti intimata la sospensione del servizio, con effetto immediato, con la motivazione che Open AI non rispetterebbe il GDPR. Non mi soffermerò sui dettagli di questa decisione, anche perché non sono stati resi completamente noti, ma piuttosto sulle modalità. Una decisione del genere, con le ricadute economiche che comporta e presa senza concerto degli altri partner europei (i garanti UE si riuniranno SOLO a fine mese per decidere dell’operato di quello italiano), sembra molto simile ai 15 punti di penalizzazione comminati all’istante alla Juventus, ma questa è un’altra storia…
Stiamo comunque tranquilli: tra dati personali italiani da tutelare, crociate contro i termini stranieri e accordi mancati con la SIAE, stiamo diventando sempre più un’isola felice. Una piccola isola.