#7 | Bologna | 12 marzo 2024 Cara lettrice, caro lettore,bentornato in Macina.Dopo il successo de La Scorciatoia (http://www.mulino.it/isbn/9788815299833), siamo felici di annunciarti l?uscita...

Se non visualizzi correttamente il messaggio, vai alla versione online
logo In Macina
La newsletter che ti racconta la casa editrice il Mulino

#7 | Bologna | 12 marzo 2024


Cara lettrice, caro lettore,

bentornato in Macina.

Dopo il successo de La Scorciatoia, siamo felici di annunciarti l’uscita di Machina sapiens, il nuovo libro di Nello Cristianini.

Lo troverai in tutte le librerie e store on line da venerdì 15 marzo, e puoi già preordinarlo qui
 


Leggendo il primo libro di Cristianini abbiamo capito che le macchine hanno preso una scorciatoia: non sono una replica dell’essere umano. Ma questo non toglie nulla al fatto che apprendono oltre le aspettative dei loro stessi creatori.

Machina sapiens parte dalla constatazione ulteriore che il segreto della conoscenza non appartiene più solamente a noi: non siamo più «gli unici». E se non lo siamo, che cosa siamo? 

Cristianini insegna Intelligenza Artificiale nell’Università di Bath: è uno studioso che «sa come funziona». Ma al pari nostro non sa come andrà a finire. In questi anni abbiamo discusso con lui a tutto campo, dalla tecnica all’esistenziale. Trovandoci sempre su un punto fondamentale: sul come scrivere un libro sull’IA senza cedere ai cliché della fantascienza e sul perché è importante provarci, a prescindere e in un certo senso rimanendo fuori dalle tendenze culturali.

In attesa di incontrare Nello Cristianini il 20 marzo alla libreria Giunti Odeon di Firenze per la prima data del suo tour in Italia (di cui vi daremo notizia con la newsletter in Agenda), con questa intervista speriamo di metterti in contatto con l’autore e le sue motivazioni.

Partiamo da ciò che diamo per scontato, ma scontato non è. Perché negli ultimi anni si parla così tanto di intelligenza artificiale?

Non è (solo) una moda, c’è una vera rivoluzione tecnica in corso. Anche se lavoriamo in questa direzione da decenni, qualcosa sta accelerando negli ultimi tempi. Nel 2017 una scoperta apparentemente di nicchia ha aperto la strada a un nuovo metodo, che stiamo ancora imparando a conoscere: quello dei Large Language Models, i modelli di linguaggio.

In questo metodo un algoritmo in grado di apprendere viene addestrato utilizzando quantità immense di testo, e da queste impara il significato delle parole e delle frasi. È questa la base di ChatGPT, con cui tutti abbiamo conversato lo scorso anno.

Quello che si sta scoprendo è che ci sono altre abilità che emergono spontaneamente allo stesso tempo: tradurre, riassumere, rispondere, completare sillogismi. Si chiamano abilità emergenti e sembrano dipendere dalla quantità di dati usati per l’addestramento. Ecco perché c’è una corsa verso modelli sempre più grandi.

Le versioni più recenti possono superare esami a livello universitario, e quelle ancora più nuove riescono a combinare visione con capacità linguistiche e a ragionare su cosa posso fare con i contenuti del mio frigorifero solamente guardando una foto.

Tutto questo era impossibile dieci anni fa e può avere applicazioni in campi diversi, da quello medico a quello militare.

Che cosa ha distinto l’ultimo anno dai cinque precedenti?

Il 2023 verrà probabilmente ricordato come l’anno in cui abbiamo superato il Test di Turing. Nel 1950 Alan Turing aveva proposto un criterio per decidere se dobbiamo trattare una macchina come pensante, cioè se è in grado di sostenere una conversazione con una persona senza farsi riconoscere. E siccome lo abbiamo sperimentato di persona, questo fatto ci ha cambiati per sempre.


In che modo l’adozione dell’intelligenza artificiale influenzerà la nostra percezione e comprensione del mondo? 

Penso che il nostro linguaggio cambierà lentamente per incorporare questa nuova realtà. Il verbo «volare» non era nato per descrivere dirigibili ed elicotteri, ma lo abbiamo lentamente adattato, e probabilmente così sarà per altri verbi, come «comprendere». E a sua volta questo influenzerà il modo in cui percepiamo la realtà, ma sottilmente e lentamente. È così che avvengono le transizioni culturali. Quando un bambino trova normale che una macchina possa comprendere i suoi compiti a casa, trovare gli errori, dare suggerimenti, la sua percezione della realtà è un po’ diversa da quella dei nostri antenati.

Secondo lei qual è la preoccupazione etica più significativa sullo sviluppo dell’intelligenza artificiale e come possiamo garantire un’implementazione responsabile e sicura di questa tecnologia?

Questo momento storico ci pone di fronte a dilemmi etici, consideriamone uno abbastanza semplice: quando le macchine a guida autonoma sono più sicure di quelle guidate dalle persone, è immorale ostinarsi a guidare. Vero? Falso? Un dilemma etico ci pone di fronte a una scelta in cui ciascuna opzione è problematica, e dobbiamo decidere quale delle due si allinea meglio ai nostri valori. Autonomia del conducente? Sicurezza del pedone? 

Gli stessi metodi possono informare e ingannare, educare e opprimere, guarire e combattere, competere e cooperare. Alla fine saranno i parlamenti a dover decidere quali valori devono avere la precedenza e il nostro dovere è di spiegare loro le opzioni. Non tutte sono possibili, solo alcune sono compatibili tra loro, e le scelte saranno difficili.
 


Man mano che l’intelligenza artificiale diventa più sofisticata alcuni esperti avvertono potenziali rischi esistenziali. Condivide queste preoccupazioni e, in caso affermativo, come possiamo mitigarle?

La questione del rischio esistenziale è stata sollevata spesso, da quando nel 2023 diversi scienziati e imprenditori hanno firmato una petizione chiedendo che si evitasse questo tipo di rischio. Nessuno però ha mai descritto realisticamente in quale modo l’esistenza stessa della nostra specie sia posta a rischio dall’AI nella sua forma esistente, e l’onere di descriverlo cade su coloro che lanciano l’allarme.

Abbiamo il dovere di considerare seriamente tutti i rischi, ma anche quello di essere realistici. Meglio forse concentrarci sui problemi più concreti: occupazione, privacy, persuasione, equità delle decisioni. È su questi che le leggi europee si stanno concentrando, penso con buoni motivi.

L’intelligenza artificiale potrà mai essere veramente creativa? Può generare opere darte, letteratura o musica originali, al pari di un ingegno umano?

La creatività è probabilmente una serie di abilità diverse, alcune delle quali sono accessibili alle macchine. Ad esempio, in un gioco come Go l’obiettivo è vincere. Nella scienza l’obiettivo potrebbe essere scoprire leggi che possano aiutarci a predire il mondo. In questi casi la macchina può semplicemente essere messa alla prova: è in grado di creare nuovi modi di giocare a Go, o nuove conoscenze scientifiche? Sappiamo già che questo è possibile e penso che sarà considerato ovvio tra poco tempo. Ci potrebbero addirittura essere cose che non sono comprensibili da noi umani, ma da meccanismi più grandi sì.

Per quanto riguarda l’arte la questione è ben diversa: qui non abbiamo una chiara definizione. Se pensiamo che l’obiettivo dell’arte sia evocare emozioni nello spettatore abbiamo già preso una posizione a favore delle macchine, perché questo già oggi è possibile. Ma se riteniamo che l’arte serva a esprimere le emozioni dell’artista, ovviamente non c’è modo per la macchina di farlo perché essa non ha alcuna emozione.

 


Come si fa a parlare di IA senza cadere nei cliché che derivano dalla letteratura fantascientifica di cui siamo intrisi? Qual è il suo movente quando scrive di IA?

I cliché in questo campo sono una trappola insidiosissima e non derivano solo dalla fantascienza. Ci sono cliché tipici della letteratura filosofica, di quella scientifica, del mondo imprenditoriale. Ma la tecnologia che abbiamo creato non segue quei cliché, e ci troviamo quindi in una fase piena di malintesi. La soluzione è sempre la stessa: partire dai fatti tecnici, tutto ciò che si può dire senza conoscerli è per definizione generico.

A me interessa capire che cosa stiamo costruendo, perché funziona, quali sono i suoi limiti ultimi e i suoi effetti sulla società, e come possiamo controllarlo in modo da trarne beneficio. Siccome le decisioni importanti non le prenderanno gli scienziati, a me interessa anche trovare un linguaggio semplice per comunicare questi fatti ai decisori e al pubblico.

Perché il suo nuovo libro si chiama Machina sapiens?

Il libro descrive la storia di come siamo giunti a questo punto, e del perché lo abbiamo fatto così velocemente. Alla fine mi chiedo come reagiremo a questo incontro, noi che vogliamo chiamarci Homo sapiens. La nostra mitologia parte da un momento in cui rubiamo il segreto della conoscenza agli dei: come cambierà la nostra immagine di noi di fronte a una macchina in grado di comprendere il mondo – seppure a modo suo?
 


Per oggi è tutto, a martedì prossimo!
 



Se la Macina del Mulino ti piace, inoltrala a chi potrebbe apprezzarla e invitalo a iscriversi.
 


Per darci la tua opinione scrivi a inmacina@mulino.it
 

Questa newsletter viene inviata solo a chi ne abbia fatto esplicita richiesta.

ANNULLA ISCRIZIONE | INFORMATIVA PRIVACY

Per esercitare gli altri diritti previsti dalla normativa privacy,
puoi contattarci all'indirizzo privacy@mulino.it.

il Mulino

Società editrice il Mulino S.p.A.
Strada Maggiore 37, 40125 Bologna BO
diffusione@mulino.it +39 051 256011