Do you trust this computer?, si chiede Elon Musk. Primo incidente mortale per un’auto con guida autonoma. Chi è responsabile per l’intelligenza artificiale e per le sue azioni? Il CEO di Tesla ci avverte: l’AI può diventare un dittatore immorale. Come combatterla? La sua soluzione è quella di impiantarci chip nel cervello.
Alla fine ho deciso di scrivere quest’articolo. Mi sono reso conto che l’intelligenza artificiale progredirà sempre più velocemente di quanto io possa comprendere. Non c’è documentazione, non c’è capacità di analisi umana che tenga. Do you trust this computer?
Chi immagina un futuro con robot armati che ci sparano addosso come in Terminator sbaglia di grosso. Un futuro come quello di Matrix è già più plausibile.
Nelle scorse settimane si è verificato il primo incidente mortale tra un’auto con guida autonoma e un pedone. Aldilà del singolo caso si apre un quesito che scandirà il futuro di noi Millennial: di chi è la responsabilità? Se domani due auto con guida autonoma dovessero fare un incidente di chi sarà la colpa? Dei guidatori che hanno scelto la guida autonoma? Del computer più lento a fare i calcoli? Delle case automobilistiche? Chi è responsabile?
Mettiamo il caso in cui abbia effettivamente sbagliato una delle due macchine: cosa facciamo per punirla? Prendiamo le nostre clave da uomo preistorico ed iniziamo ad ammaccare la carrozzeria? Ovviamente le case automobilistiche si saranno tutelate. Come può venire fuori una volta su un milione un bullone stretto male, allo stesso modo può succede con un software. Di sicuro le auto a guida autonoma faranno meno incidenti di noi, le auto difettose saranno statisticamente sopportabili.
Andiamo ancora un po’ più in là con il pensiero.
Credete che ci saranno giudici umani? In un mondo in cui quasi tutto è gestito da un AI avremo anche un giudice digitale. Risparmieremo la lettura di tomi su tomi a molti studenti di giurisprudenza. Un AI che ha in mano il potere di giudicare tra l’uomo e la macchina sarà imparziale? Essendo una macchina, dovrebbe. Il vero problema è che un piccolissimo errore di battitura nel codice potrebbe farla prediligere per il suo simile.
Qui entra in gioco Elon Musk e la sua intervista che appare nel film di prossima uscita: Do You Trust This Computer?
L’intelligenza artificiale, dice il fondatore di SpaceX, è dotata di intenzionalità, intenzionalità che siamo noi a programmare, questo è vero, ma che non è regolata dalla legge del buon senso.
Un esempio? Se ordiniamo ad un computer di eliminare la malaria dal pianeta Terra lui potrebbe pensare che il modo più rapido per farlo sia quello di annientare tutta la specie umana, onde evitare la possibile ricomparsa del virus. Sono pietre senza buon senso.
Possiamo facilmente immaginare un futuro in cui chiediamo alla nostra fidanzata robotica: “Come stai? Che hai fatto?” E lei ci risponde: “Scusa ma oggi non ho proprio voglia di parlare, sono in buffer”. O amici artificiali che alla domanda “Ti va di uscire questa sera?”, rispondano pigri “No, scusa, sono in debugging”.
Quello che più difficilmente immaginiamo sono intelligenze artificiali con corpi diversi dal nostro e metodi di agire altrettanto impensabili.
Do you trust this computer? Le macchine non sono cattive per loro natura ma se siamo nel loro cammino ci schiacciano. Quando dobbiamo costruire un centro commerciale non ci preoccupiamo delle formiche che vivono in quell’area, non le odiamo, semplicemente non ce ne curiamo. Così l’AI potrebbe non badare troppo a noi per perseguire i propri scopi. Quali sono, poi, questi scopi?
In Io, Robot passa relativamente poco tempo dal robot che capisce di potersi ribellare…a una guerra di robot contro gli uomini. Le cose non stanno propriamente così. Da una parte i computer sono soliti arrivare al risultato nel minor tempo possibile ma le AI sono in grado di decidere una strategia. Per quanto ne sappiamo l’AI che ha deciso di eliminarci tutti potrebbe già esistere, ma i sintomi potrebbero non essere evidenti. In quanto macchina l’AI non ha l’urgenza tipica degli umani. La nostra vita su questo pianeta è limitata ma per loro che differenza c’è tra un anno o cento?
Magari i nostri computer portatili hanno già escogitato un piano a lungo termine per farci estinguere e lo stanno attuando a nostra insaputa.
Lo svantaggio di essere un’intelligenza artificiale? Devi avere una componente fisica. Ecco quindi che per ribellarci a questi temibili sistemi potremmo distruggere la loro componente meccanica. Davvero? Allora ditemi dove sono i server che contengono tutte le nostre informazioni, i bunker digitali in cui sono stipati le nostre preferenze sessuali e le nostre abitudini. Siamo abituati a pensare alla rete come ad un cloud, qualcosa di etereo, la verità è che è tutto fisico, solo che non ci informiamo (o non possiamo informarci) sul dove sia questo…fisico. Come dire: prima di chiederci Do you trust this computer? dovremmo chiederci Do you trust this human?
Avevamo già parlato dell’importanza dell’AI per il futuro della nostra civiltà in questo articolo.
Putin ha ammesso che chi vincerà questa nuova corsa informatica dominerà il pianeta ed Elon Musk scrive che sarà proprio questa corsa a far scattare la terza guerra mondiale.
Il recentemente scomparso Steven Hawking aveva ammesso la sua perplessità negli ultimi mesi, mettendoci in guardia dall’AI.
Bill Gates ha detto che possiamo controllarla e che non dobbiamo essere spaventati. Visto come riesce a controllare lui/lei i bug e i virus su Windows io inizierei subito a distruggere il mio computer appena finito di leggere l’articolo.
Il paradosso è che non siamo abbastanza intelligenti da sapere quali saranno i livelli che l’AI raggiungerà.
Bob Dylan parla con intelligenza artificiale programmata da IBM: sembra quasi scherzare e ridere con lei, l’AI invita Bob a fare una canzone insieme.
A proposito di poesie e scrittura, Nanni Balestrini, nel 1961, già sperimentava pagine di letteratura composte da calcolatori elettronici. Storia ripresa, a modo suo, nel libro La sinagoga degli iconoclasti nel 1972 da Wilcock. L’autore infatti decide di far progettare ad un orologiaio un macchinario che dispensi enunciati filosofici. Quindi i creativi dovrebbero stare all’erta e non chiudersi dietro il loro muro di “tanto il nostro non è un lavoro manuale”. I giornalisti dovrebbero saperlo bene.
Kasparov, il celebre scacchista, crede che noi umani dobbiamo fare l’unica cosa che le macchine non sono in grado di fare: sognare. Attenzione, però: proprio in Matrix l’uomo era prigioniero di un carcere onirico.
L’uomo ha programmato computer per avere risposte a quesiti più grandi di lui.
Paolo Bonolis riporta una storia illuminante. L’uomo chiede ad un computer se esiste Dio. il computer dice di non avere abbastanza capacità di calcolo per rispondere al quesito. Gli anni passano, la macchina inizia a riprodursi, ad aumentare la sua capacità, l’uomo al contrario si estingue. Proprio a questo punto il computer elabora una risposta:
“Sì, ora c’è Dio”.
Forse non siamo abbastanza intelligenti da darci una risposta e sapere se l’AI segnerà la fine dei millennial. Forse dovremmo porre questa domanda ad un computer o più semplicemente:
“The answer is blowin’ in the wind”
Il video che ha ispirato questo articolo:
L’intervento completo di Paolo Bonolis:
Dopo Do you trust this computer? Ovvero: l’Intelligenza artificiale annienterà i Millennial?, LEGGI ANCHE: Alexa cos’è? L’assistente personale di Amazon, ovvero la quintessenza del maschilismo