14 febbraio 2016

Stanze cinesi e intelligenze artificiali


Advertising signs that con you
Into thinking you're the one
That can do what's never been done
That can win what's never been won
Meantime life outside goes on...

It's Alright, Ma (I'm Only Bleeding) 


In un recente spot della IBM, niente meno che Bob Dylan dialoga con il nuovo sistema di intelligenza artificiale Watson, che gli dice che dopo aver letto i testi di tutte le sue canzoni (all'invidiabile velocità di 800 milioni di pagine al secondo) ha concluso che i temi principali della poetica di Dylan sono che il tempo passa e l'amore svanisce. Bob risponde che gli "sembra più o meno giusto", rilasciando con queste parole il più lungo commento personale alla sua opera dai tempi delle note di copertina di The Freewheelin'.

Ora per quanto questi nuovi sistemi informatici capaci di interagire (limitatamente) in linguaggio naturale possano essere interessanti e divertenti, è chiaro che non si tratta di vera intelligenza artificiale, e  non possono essere considerati sistemi intelligenti nel senso che normalmente diamo a questa parola, e ancor meno coscienti.

La domanda se una macchina potrà mai pensare è stata posta quando le possibilità di costruire una macchina in grado di apparire anche vagamente intelligente erano assolutamente remote. Nel 1950 in un celebre articolo, il grande Alan Turing rispondeva semplicemente che la domanda era mal posta e troppo soggetta ad interpretazioni contrastanti, e proponeva invece un semplice test (il famoso gioco dell'imitazione che è diventato anche il titolo di un recente film di successo) che una macchina dovrebbe superare per essere considerata intelligente. Il test in pratica prevede un interlocutore umano  che dialoga attraverso un terminale (una telescrivente si diceva allora) con un umano e con un computer opportunamente programmato per imitare il comportamento umano, e debba cercare di indovinare chi dei due sia il computer. Se in media l'interrogante individua correttamente la macchina con la stessa percentuale in cui distingue in un analogo gioco quale dei due interlocutori sia un uomo che imita una donna e quale veramente una donna, si potrà dire che la macchina ha superato il test. Turing si preoccupava anche di prevenire e rispondere alle obiezioni, comprese quelle più improbabili fondati sull'esistenza della percezione extrasensoriale (telepatia...).

L'articolo presenta infatti una lunga lista di cose che secondo molte persone una macchina non potrà mai riuscire a fare. Ecco alcuni esempi: essere gentile, avere iniziativa, avere il senso dell'umorismo, distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna, fare innamorare qualcuno, essere l'oggetto dei propri pensieri, fare qualcosa di realmente nuovo. L'obiezione più interessante è quella dell'essere oggetto dei propri pensieri, cioè di avere una vera e propria coscienza di se stessi. Di solito ci si riferisce alle due posizioni filosofiche sulla intelligenza artificiale come forte e debole. Chi sostiene l'IA debole pensa che sarà prima o poi possibile programmare macchine che siano pari o anche superiori all'uomo nel risolvere problemi particolari normalmente difficili per le macchine, come giocare a scacchi (già fatto...), riconoscere immagini, imparare dall'esperienza, parlare una lingua naturale eccetera e anche di passare il test di Turing ma che comunque queste macchine non avranno nessuna coscienza  e non potranno essere considerate intelligenti in senso proprio. Secondo i sostenitori dell'IA forte, invece, niente impedirà prima o poi di costruire una macchina che possa essere considerata intelligente e cosciente alla stregua di un essere umano.

Questa questione della coscienza è in effetti complessa. Per default siamo portati naturalmente a pensare che ogni essere umano sia cosciente di se stesso e del mondo che lo circonda. E' qualcosa che concediamo e diamo per scontato per tutti (persino per i sostenitori di Salvini) a meno di non credere a un universo tipo Matrix in cui tutto ciò che vediamo e di cui abbiamo esperienza sia in realtà fittizio...

Si tratta di un tipico esempio dei processi mentali che caratterizzano la mente umana. Ognuno di noi, grazie all'esperienza di essere cosciente e essere capace di pensare se stesso pensante è portato per induzione a estendere questa capacità a tutti gli altri esseri umani. Fin qui siamo tutti d'accordo. Ma proviamo ad allargare un po' il campo. I cani sono coscienti di se stessi? perché no? i delfini? sicuramente... secondo qualcuno sono la seconda se non la prima forma di vita intelligente sulla Terra. Ma una mosca? certamente no. Un coniglio? un neonato di due giorni? a quale stadio dell'evoluzione animale (e della crescita dell'individuo) appare questa caratteristica della coscienza? è certo una domanda legittima, a meno di non voler credere all'anima che ci viene iniettata da un essere soprannaturale non si sa bene se al momento del concepimento o più tardi...

Anche questa domanda spinosa è stata riformulata, in una maniera più accessibile, dal filosofo John Searle che ha ideato l'esperimento mentale della stanza cinese. E' interessante che Searle abbia ideato l'esperimento per confutare l'ipotesi dell'IA forte, ma in realtà lo stesso ragionamento possa essere utilizzato per sostenere questa ipotesi!

L'idea della stanza cinese è di costruire un sistema che passa il test di Turing ma che altrettanto chiaramente (almeno secondo Searle) non ha consapevolezza del significato di ciò che comunica, della semantica, ma soltanto della sintassi.
Chiuso in una stanza senza altra possibilità di comunicare con l'esterno altro che attraverso dei fogli scritti, si trova Searle, il quale non parla cinese ma soltanto inglese. Egli ha a disposizione un enorme libro con dettagliate istruzioni scritte in inglese sul cosa fare, una pila enorme di carta e una penna. All'esterno, una persona che parla e scrive fluentemente cinese inizia a conversare con chi sta dentro attraverso dei fogli scritti in ideogrammi cinesi. La persona all'interno non ha nessuna idea di cosa significhino i segni sulla carta, ma seguendo le complesse istruzioni scritte (in inglese) nel libro, che possono prevedere di fare complesse operazioni utilizzando le pile di carta disponibili nella stanza, riesce infine a rispondere con opportuni ideogrammi in modo che all'osservatore cinese esterno sembra che dentro ci sia una persona che parla cinese e dà delle risposte sensate alle sue domande. Naturalmente, si tratta di un esperimento mentale, si dà per scontato che la persona all'interno della scatola sia velocissima a seguire le istruzioni e a rispondere (cosa in effetti impossibile per una persona ma possibile in principio per un computer super potente).
L'analogia è chiara. La persona all'interno della stanza è il processore, il libro di istruzioni è il programma e la carta ausiliaria è la memoria. La conclusione alla quale ci vuole fare arrivare Searle è che come gli elementi che costituiscono la stanza cinese (la persona inglese, il libro e la carta) ovviamente non hanno nessuna conoscenza del cinese, così un computer che anche riuscisse ad interagire in modo da far apparire di avere una coscienza in realtà non la potrebbe avere perché i suoi elementi costitutivi, l'hardware, in realtà non fanno altro che propagare segnali elettrici.

Ma il buon Searle si sbagliava di grosso. Perso in quelli che Hofstadter chiama Strani Anelli non si rende conto che ogni volta che esce di casa per andare a comprare il giornale conversando con i passanti, sta ripetendo un'esperienza simile alla stanza cinese senza che questo gli procuri nessun dubbio. La parte controversa del ragionamento si trova in questa deduzione azzardata che è alla base di tutta la confutazione:
Se  degli oggetti presi singolarmente non sono dotati di coscienza, allora qualsiasi sistema costituito da questi oggetti non può essere dotato di coscienza.
Ebbene se non apparteniamo al partito che crede all'esistenza di un'anima soprannaturale in una dimensione parallela che governa il nostro corpo in maniera metafisica, saremo più o meno portati a credere, come tutte le moderne ricerche di neurobiologia dimostrano, che quel che chiamiamo coscienza risieda da qualche parte nel nostro cervello e sia il risultato dell'interazione di circa 100 miliardi di neuroni. Ora ovviamente un singolo neurone non ha nessuna coscienza individuale (e men che meno le molecole che lo costituiscono), eppure non abbiamo nessun problema ad ammettere che il sistema costituito da questo numero impressionante di neuroni abbia tra le altre la proprietà quelle di pensare, di essere l'oggetto dei propri pensieri, e di interagire con altri sistemi simili in una maniera che chiamiamo umana e che comprende ogni genere di interazione, dall'amore all'amicizia, alla volontà  (nel caso dei neuroni sostenitori di Salvini) di annientare tutti quelli che credono a un prodotto particolare della coscienza neuronale collettiva indicato comunemente come religione islamica...

Il risultato più interessante a cui gli studi del cervello sono arrivati è l'ipotesi che la coscienza sia apparsa a un certo stadio dell'evoluzione come proprietà emergente (cioè un comportamento del sistema apparentemente inspiegabile sulla base delle proprietà delle sue componenti) non perché il possedere una coscienza presenti un particolare vantaggio evolutivo diretto, ma semplicemente perché la coscienza è una proprietà che appare spontaneamente in un cervello abbastanza complesso. Si potrebbe pensare quindi che lo stesso succederà per le macchine, senza che i ricercatori stiano coscientemente progettando una macchina che abbia coscienza di sé: la coscienza apparirebbe spontaneamente in macchine costruite per risolvere problemi estremamente complessi. Fantascienza?


In realtà se oggi siamo ancora lontani dall'aver creato delle macchine dotate di coscienza non possiamo neanche essere sicuri che macchine coscienti non saranno mai costruite, tanto che secondo Stuart Russel, l'autore di un testo fondamentale sulla IA - Artificial Intelligence: A Modern Approach,  dobbiamo già da ora cominciare a preoccuparci dei possibili rischi e conseguenze etiche legate alla costruzione di macchine dotate di coscienza e di volontà propria. In un'interessante conferenza sull'argomento, Russel propone una domanda che aveva già posto nella prima edizione del suo libro: E se ci riusciamo? cioè cosa può succedere se riusciamo veramente a creare una intelligenza artificiale? Questa potrebbe essere la più grande scoperta nella storia dell'umanità. Cosa fare perché non sia anche l'ultima?