AttualitàCulturaPrimo PianoScienza

AI-First Age, la prima era dell’intelligenza artificiale

AI-First Age, la prima era dell’intelligenza artificiale. “Non è bene che l’uomo sia solo” (Gen. 2, 18), pensò Dio quando si mise a creare le cose. Già, non è bene per niente! Ed eccoci allora, a distanza di millenni, porre rimedio al prisco problema. La soluzione si scrive con due lettere AI e si legge artificial intelligence. Certo siamo ancora distanti dall’incubo fantascientifico immaginato da Asimov nel suo Io Robot, ma il mondo nuovo, fatto di umanoidi che con cui dovremo spartire il mondo, è sempre meno fantasy e molto più science.

Da bravi animali ciclici quali siamo, abbiamo puntato a creare una specie nuova, che pensi e agisca come noi, che ci debba ubbidienza e ci sollevi dal lavoro fisico senza la rogna delle assemblee sindacali o i mugugni di qualsivoglia natura. Ancora non hanno la nostra graziosa immagine e somiglianza e sono goffi nei movimenti, ma non c’è dubbio che abbiano una capacità di calcolo e gestiscano volumi di dati complessi come nessuno di noi potrà mai fare. La AI-First Age, la prima era dell’intelligenza artificiale, si chiama machine learning e la stiamo vivendo ora.

Come ogni neonato, anche i primi bot, diminutivo di robot, devono essere educati. L’apprendimento della macchina ha come fine quello di perfezionare i processi che permettono ai robot di interpretare il mondo che li circonda per dare delle risposte coerenti e integrarsi così con l’intelligenza umana. È un lungo percorso che durerà ancora almeno un lustro e che andrà diminuendo senza mai arrestarsi del tutto. Occorrerà infatti arrivare al punto in cui le macchine diventano autonome e continuino a imparare fin che durano, proprio come noi umani.

Tra i tanti ostacoli etici di cui abbonda questo cammino, ve ne sono alcuni di tutt’altra natura ma di non più semplice soluzione. Si tratta di questioni che afferiscono con l’ontologia delle cose oggetto di studio. Per essere più chiari ne riportiamo una solo a titolo di esempio. Come già aveva evidenziato Alan Turing nel 1947, se una macchina dev’essere infallibile, non potrà mai essere intelligente. Questo perché l’intelligenza non viene iniettata nella macchia tutta d’un colpo. I bot imparano a essere intelligenti, incrementano la loro  intelligenza attraverso l’esperienza. In buona sostanza, per imparare devono sbagliare. Al lato pratico, per insegnare a un robot a riconoscere un gatto, gli si caricano milioni di foto di gatti di tutti i tipi e in tutte le posizioni. Poi gli si somministrano un tot di immagini chiedendogli di riconoscere tra quelle solo i gatti. Quello che per un uomo è semplicissimo, per l’AI risulta ancora molto difficile. Alcuni recenti test hanno dato risultati molto deludenti poiché il bot ha percentuali d’errore ancora molto alte quando si tratta di distinguere tra un cane e un gatto. Figuriamoci se l’animale in figura è un felino ma non un gatto!

Ma il problema è molto più serio a va oltre la capacità di distinguere un gatto da un tostapane. Ciò che desta preoccupazione è la diffusione sempre più rapida di questi sistemi automatizzati fallibili all’interno del complesso sistema nervoso di cui consta la nostra società. In quella zona estesa che va sotto il nome di internet degli oggetti si contano già miliardi di apparecchi connessi in rete e funzionanti grazie all’intelligenza artificiale. Non solo pc, tablet e smartphone, ma macchinari di tutti i tipi, per non dire di elettrodomestici e componenti meccanici montati sulle nostre autovetture. I numeri sono impressionanti: oltre agli otto miliardi di smartphone in questo momento connessi in rete, ci sono altri 5 miliardi di oggetti collegati a internet.

A complicare le cose ci sono tutti quei casi in cui non si può parlare di un errore vero e proprio, bensì di un’imperfezione o di un’evoluzione inattesa. L’ultimo caso clamoroso di malfunzionamento che errore non era si è verificato a luglio del 2017. In quel mese, un gruppo di ricercatori della divisione Facebook AI Rersearch, hanno creato e testato due bot con lo scopo di insegnare loro a negoziare. Non occorre pensare che l’oggetto delle trattative fosse contrattualistica di alto livello, semplicemente i due bot dovevano dividersi autonomamente, senza intervento umano, due libri, tre palloni da pallacanestro e un cappello da cowboy. La lingua usata era l’inglese e all’inizio tutto sembrava funzionare.

Alice e Bob, questi i nomi scelti per i due bot, hanno iniziato a dialogare nel tentativo di raffinare le loro capacità linguistiche. Dopo alcuni giorni, però, i due iniziarono a comportarsi in modo strano. All’inizio i ricercatori pensarono a un malfunzionamento o a un errore di programmazione. Era il loro primo tentativo e come abbiamo visto anche i robot imparano sbagliando. Quello che era successo è che l’idioma utilizzato da Alice e Bob sembrava apparentemente privo di logica. Molte ripetizioni e frasi senza senso suggerivano il fallimento di questa prima prova.

Controllando con più attenzione, però, i ricercatori si resero conto che non si poteva parlare di errore. Il linguaggio usato dai robot seguiva una logica, non erano parole dette a caso. Quello che era successo, semplicemente, era che i due sistemi di intelligenza artificiale avevano creato una nuova lingua del tutto incomprensibile ai ricercatori. Le parole usate erano sempre in inglese, non sono state utilizzate parole in lingue diverse, ma venivano associate in modo da privare di significato le loro frasi.

Ecco alcuni stralci della conversazione tra i due bot:

Bob: i i can i i i everything else…

Alice: balls have a ball to me to me to me to me to me to me to me…

Bob: you i i i i i i i everything else….

Alice: balls have 0 to me to me to me to me to me to me to me to me to…

Nonostante per noi queste frasi non abbiano alcun senso, i ricercatori hanno riconosciuto che si tratta di un linguaggio più efficace e funzionale del comune inglese. Analizzando le parole scambiate dai bot, i ricercatori hanno concluso che le parole “i” e “me” rappresentavano il numero di oggetti che si sarebbero potuti scambiare nella negoziazione. Quello che le due macchine avevano fatto non era altro che eliminare dal loro linguaggio tutti quei termini e le comuni espressioni che consideravano superflue o d’intralcio al fine della negoziazione. Preoccupati dalle conseguenze che un simile “errore” avrebbe potuto innescare nel rapporto tra bot e umani, i ricercatori si sono affrettati a “staccare la spina”.

In effetti non è un problema da poco perdere il controllo di bot capaci di analizzare miliardi di dati, con una potenza di calcolo che nessun essere umano potrà mai eguagliare. Significherebbe trovarsi nell’incubo di superare il punto di non ritorno dopo il quale l’uomo non è più in grado di capire come si autoprogrammano le macchine e quali obiettivi intendano raggiungere.

Facebook si è affrettata a minimizzare l’accaduto e il suo fondatore Mark Zuckerberg ha fatto sapere che per nessun motivo occorre desistere: “L’Ai è inarrestabile e si sbaglia chi nutre timori e disegna scenari apocalittici”. Di tutt’altro parere imminenti esperti come Stephen Hawking e Elon Musk (PayPal e Tesla). Anche Kevin Warwick, uno tra i più illustri professori di robotica, parla della sua materia come di “una pietra miliare per la scienza, ma chi dice che non costituisce un pericolo, nasconde la testa sotto la sabbia!”

Temiamo che anche a un umano risulterà difficile di distinguere un gatto da un cane se infila la testa sotto la sabbia, figurarsi se potrà accorgersi di un bot che diventa autonomo e inizia a programmare un mondo a sua immagine e somiglianza.

di Adelaide Conti

Mostra altro

Articoli correlati

Lascia un commento

Pulsante per tornare all'inizio

IlFaroSulMondo.it usa i cookies, anche di terze parti. Ti invitiamo a dare il consenso così da proseguire al meglio con una navigazione ottimizzata. maggiori informazioni

Le attuali impostazioni permettono l'utilizzo dei cookies al fine di fornire la migliore esperienza di navigazione possibile. Se continui ad utilizzare questo sito web senza cambiare le tue impostazioni dei cookies o cliccando "OK, accetto" nel banner in basso ne acconsenterai l'utilizzo.

Chiudi