14 febbraio 2016

Stanze cinesi e intelligenze artificiali


Advertising signs that con you
Into thinking you're the one
That can do what's never been done
That can win what's never been won
Meantime life outside goes on...

It's Alright, Ma (I'm Only Bleeding) 


In un recente spot della IBM, niente meno che Bob Dylan dialoga con il nuovo sistema di intelligenza artificiale Watson, che gli dice che dopo aver letto i testi di tutte le sue canzoni (all'invidiabile velocità di 800 milioni di pagine al secondo) ha concluso che i temi principali della poetica di Dylan sono che il tempo passa e l'amore svanisce. Bob risponde che gli "sembra più o meno giusto", rilasciando con queste parole il più lungo commento personale alla sua opera dai tempi delle note di copertina di The Freewheelin'.

Ora per quanto questi nuovi sistemi informatici capaci di interagire (limitatamente) in linguaggio naturale possano essere interessanti e divertenti, è chiaro che non si tratta di vera intelligenza artificiale, e  non possono essere considerati sistemi intelligenti nel senso che normalmente diamo a questa parola, e ancor meno coscienti.

La domanda se una macchina potrà mai pensare è stata posta quando le possibilità di costruire una macchina in grado di apparire anche vagamente intelligente erano assolutamente remote. Nel 1950 in un celebre articolo, il grande Alan Turing rispondeva semplicemente che la domanda era mal posta e troppo soggetta ad interpretazioni contrastanti, e proponeva invece un semplice test (il famoso gioco dell'imitazione che è diventato anche il titolo di un recente film di successo) che una macchina dovrebbe superare per essere considerata intelligente. Il test in pratica prevede un interlocutore umano  che dialoga attraverso un terminale (una telescrivente si diceva allora) con un umano e con un computer opportunamente programmato per imitare il comportamento umano, e debba cercare di indovinare chi dei due sia il computer. Se in media l'interrogante individua correttamente la macchina con la stessa percentuale in cui distingue in un analogo gioco quale dei due interlocutori sia un uomo che imita una donna e quale veramente una donna, si potrà dire che la macchina ha superato il test. Turing si preoccupava anche di prevenire e rispondere alle obiezioni, comprese quelle più improbabili fondati sull'esistenza della percezione extrasensoriale (telepatia...).

L'articolo presenta infatti una lunga lista di cose che secondo molte persone una macchina non potrà mai riuscire a fare. Ecco alcuni esempi: essere gentile, avere iniziativa, avere il senso dell'umorismo, distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna, fare innamorare qualcuno, essere l'oggetto dei propri pensieri, fare qualcosa di realmente nuovo. L'obiezione più interessante è quella dell'essere oggetto dei propri pensieri, cioè di avere una vera e propria coscienza di se stessi. Di solito ci si riferisce alle due posizioni filosofiche sulla intelligenza artificiale come forte e debole. Chi sostiene l'IA debole pensa che sarà prima o poi possibile programmare macchine che siano pari o anche superiori all'uomo nel risolvere problemi particolari normalmente difficili per le macchine, come giocare a scacchi (già fatto...), riconoscere immagini, imparare dall'esperienza, parlare una lingua naturale eccetera e anche di passare il test di Turing ma che comunque queste macchine non avranno nessuna coscienza  e non potranno essere considerate intelligenti in senso proprio. Secondo i sostenitori dell'IA forte, invece, niente impedirà prima o poi di costruire una macchina che possa essere considerata intelligente e cosciente alla stregua di un essere umano.

Questa questione della coscienza è in effetti complessa. Per default siamo portati naturalmente a pensare che ogni essere umano sia cosciente di se stesso e del mondo che lo circonda. E' qualcosa che concediamo e diamo per scontato per tutti (persino per i sostenitori di Salvini) a meno di non credere a un universo tipo Matrix in cui tutto ciò che vediamo e di cui abbiamo esperienza sia in realtà fittizio...

Si tratta di un tipico esempio dei processi mentali che caratterizzano la mente umana. Ognuno di noi, grazie all'esperienza di essere cosciente e essere capace di pensare se stesso pensante è portato per induzione a estendere questa capacità a tutti gli altri esseri umani. Fin qui siamo tutti d'accordo. Ma proviamo ad allargare un po' il campo. I cani sono coscienti di se stessi? perché no? i delfini? sicuramente... secondo qualcuno sono la seconda se non la prima forma di vita intelligente sulla Terra. Ma una mosca? certamente no. Un coniglio? un neonato di due giorni? a quale stadio dell'evoluzione animale (e della crescita dell'individuo) appare questa caratteristica della coscienza? è certo una domanda legittima, a meno di non voler credere all'anima che ci viene iniettata da un essere soprannaturale non si sa bene se al momento del concepimento o più tardi...

Anche questa domanda spinosa è stata riformulata, in una maniera più accessibile, dal filosofo John Searle che ha ideato l'esperimento mentale della stanza cinese. E' interessante che Searle abbia ideato l'esperimento per confutare l'ipotesi dell'IA forte, ma in realtà lo stesso ragionamento possa essere utilizzato per sostenere questa ipotesi!

L'idea della stanza cinese è di costruire un sistema che passa il test di Turing ma che altrettanto chiaramente (almeno secondo Searle) non ha consapevolezza del significato di ciò che comunica, della semantica, ma soltanto della sintassi.
Chiuso in una stanza senza altra possibilità di comunicare con l'esterno altro che attraverso dei fogli scritti, si trova Searle, il quale non parla cinese ma soltanto inglese. Egli ha a disposizione un enorme libro con dettagliate istruzioni scritte in inglese sul cosa fare, una pila enorme di carta e una penna. All'esterno, una persona che parla e scrive fluentemente cinese inizia a conversare con chi sta dentro attraverso dei fogli scritti in ideogrammi cinesi. La persona all'interno non ha nessuna idea di cosa significhino i segni sulla carta, ma seguendo le complesse istruzioni scritte (in inglese) nel libro, che possono prevedere di fare complesse operazioni utilizzando le pile di carta disponibili nella stanza, riesce infine a rispondere con opportuni ideogrammi in modo che all'osservatore cinese esterno sembra che dentro ci sia una persona che parla cinese e dà delle risposte sensate alle sue domande. Naturalmente, si tratta di un esperimento mentale, si dà per scontato che la persona all'interno della scatola sia velocissima a seguire le istruzioni e a rispondere (cosa in effetti impossibile per una persona ma possibile in principio per un computer super potente).
L'analogia è chiara. La persona all'interno della stanza è il processore, il libro di istruzioni è il programma e la carta ausiliaria è la memoria. La conclusione alla quale ci vuole fare arrivare Searle è che come gli elementi che costituiscono la stanza cinese (la persona inglese, il libro e la carta) ovviamente non hanno nessuna conoscenza del cinese, così un computer che anche riuscisse ad interagire in modo da far apparire di avere una coscienza in realtà non la potrebbe avere perché i suoi elementi costitutivi, l'hardware, in realtà non fanno altro che propagare segnali elettrici.

Ma il buon Searle si sbagliava di grosso. Perso in quelli che Hofstadter chiama Strani Anelli non si rende conto che ogni volta che esce di casa per andare a comprare il giornale conversando con i passanti, sta ripetendo un'esperienza simile alla stanza cinese senza che questo gli procuri nessun dubbio. La parte controversa del ragionamento si trova in questa deduzione azzardata che è alla base di tutta la confutazione:
Se  degli oggetti presi singolarmente non sono dotati di coscienza, allora qualsiasi sistema costituito da questi oggetti non può essere dotato di coscienza.
Ebbene se non apparteniamo al partito che crede all'esistenza di un'anima soprannaturale in una dimensione parallela che governa il nostro corpo in maniera metafisica, saremo più o meno portati a credere, come tutte le moderne ricerche di neurobiologia dimostrano, che quel che chiamiamo coscienza risieda da qualche parte nel nostro cervello e sia il risultato dell'interazione di circa 100 miliardi di neuroni. Ora ovviamente un singolo neurone non ha nessuna coscienza individuale (e men che meno le molecole che lo costituiscono), eppure non abbiamo nessun problema ad ammettere che il sistema costituito da questo numero impressionante di neuroni abbia tra le altre la proprietà quelle di pensare, di essere l'oggetto dei propri pensieri, e di interagire con altri sistemi simili in una maniera che chiamiamo umana e che comprende ogni genere di interazione, dall'amore all'amicizia, alla volontà  (nel caso dei neuroni sostenitori di Salvini) di annientare tutti quelli che credono a un prodotto particolare della coscienza neuronale collettiva indicato comunemente come religione islamica...

Il risultato più interessante a cui gli studi del cervello sono arrivati è l'ipotesi che la coscienza sia apparsa a un certo stadio dell'evoluzione come proprietà emergente (cioè un comportamento del sistema apparentemente inspiegabile sulla base delle proprietà delle sue componenti) non perché il possedere una coscienza presenti un particolare vantaggio evolutivo diretto, ma semplicemente perché la coscienza è una proprietà che appare spontaneamente in un cervello abbastanza complesso. Si potrebbe pensare quindi che lo stesso succederà per le macchine, senza che i ricercatori stiano coscientemente progettando una macchina che abbia coscienza di sé: la coscienza apparirebbe spontaneamente in macchine costruite per risolvere problemi estremamente complessi. Fantascienza?


In realtà se oggi siamo ancora lontani dall'aver creato delle macchine dotate di coscienza non possiamo neanche essere sicuri che macchine coscienti non saranno mai costruite, tanto che secondo Stuart Russel, l'autore di un testo fondamentale sulla IA - Artificial Intelligence: A Modern Approach,  dobbiamo già da ora cominciare a preoccuparci dei possibili rischi e conseguenze etiche legate alla costruzione di macchine dotate di coscienza e di volontà propria. In un'interessante conferenza sull'argomento, Russel propone una domanda che aveva già posto nella prima edizione del suo libro: E se ci riusciamo? cioè cosa può succedere se riusciamo veramente a creare una intelligenza artificiale? Questa potrebbe essere la più grande scoperta nella storia dell'umanità. Cosa fare perché non sia anche l'ultima?

5 commenti:

Marco Fenici ha detto...

Mi sento chiamato in causa! Proverò a fare alcune osservazioni importanti per contestualizzare la questione trattata nel post. [A posteriori, posso dire di essere partito con il giusto livello di scrittura divulgativa, e di aver quindi sbrodolato nell'accademico; me ne scuso, è una deviazione professionale]

In una prospettiva di realismo della coscienza (che sia ingenuo o filosoficamente fondato) il possesso della coscienza indica il possesso di una proprietà sostanziale. Da questo punto di vista, se qualcosa sia o meno dotata di coscienza dipende da un fatto metafisico (dal fatto che possieda o meno tale proprietà sostanziale). I dubbi che possiamo avere sul fatto che qualcosa sia dotata o meno di coscienza possono dipendere soltanto da una difficoltà empirica che possiamo avere per valutare se quel qualcosa sia dotata o meno di tale proprietà sostanziale (per esempio, se crediamo che la coscienza emerga da una particolare attività di 10 alla X neuroni, può essere difficile valutare se un dato cervello esibisca o meno tale complessa attività).

Una volta abbracciata una concezione realistica della coscienza, le questioni importanti sono quelle di valutare cosa possiede una coscienza (QUESTIONE 1), e dunque di capire in virtù del possesso di quale proprietà tale cosa possieda una coscienza (QUESTIONE 2). Risolta la QUESTIONE 2 e scoperta tale proprietà --- presumibilmente, per mezzo dell'indagine scientifica --- potremo dire di aver ricondotto la coscienza alla sua base naturale. Questo è lo scopo del programma di naturalizzazione della coscienza, che mira cioè a descrivere la coscienza all'interno del quadro delle scienze naturali.

Un'osservazione riguardo a tale programma di naturalizzazione della coscienza: anche una volta scoperto il correlato naturale della coscienza, in che relazione esso si pone rispetto alla coscienza stessa? Nella prospettiva del riduzionismo (non eliminativista) della coscienza alle sue proprietà naturali, tale correlato va identificato con la coscienza stessa. Diversa è invece la posizione di riduzionismo eliminativista. Tale correlato sarà infatti descritto nei termini di un linguaggio scientifico (p.e., neurobiologico, o neurofunzionale). Per alcuni, questo dovrebbe portare a dire che la coscienza effettivamente non esiste, ma che esistono soltanto le sue proprietà descritte nei termini previsti dalle scienze naturali. Diversa ancora è la posizione emergentista, per la quale non si può altro che descrivere le proprietà dei correlati naturali della coscienza, mantenendo tuttavia l'autonomia (ontologica) della coscienza rispetto ai correlati stessi.

Molta della discussione in filosofia della mente sulla coscienza è stata svolta esplicitamente all'interno di questo dibattito: comprendere esattamente la relazione tra la coscienza e i suoi correlati naturali (e così sembra condotta la discussione all'interno del post, che propone una soluzione emergentista al problema della stanza cinese di Searle).

Marco Fenici ha detto...

Tale dibattito, tuttavia, presuppone una risposta affermativa alla QUESTIONE 1: che cos'è che possiede una coscienza? E, viceversa, che cosa non la possiede? Di fronte a questa domanda, una concezione di realismo della coscienza porta a ritenere che debba essere possibile dare una risposta certa. Quindi, ci potremmo ritrovare a azzardare: "Hanno certamente coscienza gli umani adulti; certamente non ce l'hanno le mosche e le formiche. La risposta è forse sì, forse no nel caso di delfini, scimpanzé, bambini piccoli, computer... in ogni caso si tratterà di valutare empiricamente la questione, osservando la complessità della loro organizzazione neurale."

Chi voglia dubitare della concezione sostanzialista, a questo punto chiederà: "Come sai che gli umani adulti hanno la coscienza, e le mosche no?". La domanda non è banale, perché una risposta empirica ("perché le mosche non hanno una determinata organizzazione neurale e gli umani sì") porta inevitabilmente a cadere in una spiegazione circolare. Individuare gli esseri coscienti (QUESTIONE 1) è infatti la base della naturalizzazione della coscienza (QUESTIONE 2), cosicché non è possibile rispondere alla prima questione sulla base della nostra risposta alla seconda.

Porre in primo piano la questione significa sottolineare che non abbiamo un punto di vista chiaro su osservazioni che, dal punto di vista del senso comune, sembrano avere risposte banali, e che vengono proposte anche nel post:
"[riguardo ai nuovi sistemi di intelligenza artificiali] non si tratta di vera intelligenza artificiale, e non possono essere considerati sistemi intelligenti nel senso che normalmente diamo a questa parola, e ancor meno coscienti."

Viene da domandarsi: perché non possono essere considerati intelligenti? qual è il senso che normalmente diamo a questa parola, se veramente ce ne è uno? E similmente:

"Ognuno di noi, grazie all'esperienza di essere cosciente e essere capace di pensare se stesso pensante è portato per induzione a estendere questa capacità a tutti gli altri esseri umani. Fin qui siamo tutti d'accordo."

Ma lo siamo veramente? qual è questa esperienza di essere cosciente? Per alcuni filosofi (Hume), e in alcune tradizioni di pensiero come quella orientale, tale esperienza è un'illusione. In base a quali criteri dovremmo poter dire con certezza che sappiamo di essere coscienti?

Marco Fenici ha detto...

La discussione mostra come comprendere in base a quali criteri consideriamo un essere cosciente (QUESTIONE 1) è altrettanto importante, serio e fondamentale del problema di capire in virtù del possesso di quali proprietà fisiche una creatura può essere detta cosciente (QUESTIONE 2). Se si dà per scontata la risposta a tale problema, si tenderà a credere la questione seria sia la QUESTIONE 2 --- e allora si penserà di aver svolto facilmente il proprio compito filosofico, e poter quindi passare la palla rovente al (neuro-)scienzato.

Questa sembra la linea di argomentazione abbracciata nel post:
"se non apparteniamo al partito che crede all'esistenza di un'anima soprannaturale in una dimensione parallela che governa il nostro corpo in maniera metafisica, saremo più o meno portati a credere, come tutte le moderne ricerche di neurobiologia dimostrano, che quel che chiamiamo coscienza risieda da qualche parte nel nostro cervello e sia il risultato dell'interazione di circa 100 miliardi di neuroni."

Il dilemma è tuttavia mal posto (né le moderne ricerche di neurobilogia hanno dimostrato alcunché sulla natura della coscienza). Abbracciare l'emergentismo non è l'alternativa obbligata per rispondere alla credenza nell'esistenza di un'anima soprannaturale. La vera alternativa è chiedere: "come possiamo sapere di avere un'anima?" (e, similmente, "che cosa significa, di un comportamento, dire che è intelligente?", che è la domanda teorica alla quale il test di Turing suggerisce una risposta operativa "intelligente è ciò che appare intelligente"). Se si comprende la rilevanza della QUESTIONE 1, la QUESTIONE 2 diventerà di importanza secondaria.

In questa discussione ho quindi messo in luce l'importanza di riflettere sulle nostre concezioni ingenue legate all'uso di determinati termini nel linguaggio di tutti i giorni, prima di porsi questioni empiriche sulla natura delle cose di cui siamo soliti parlare. Non apro tuttavia il capitolo su come rispondere alla QUESTIONE 1 (del resto, sono possibili diverse analisi della questione). Ci tento tuttavia a spiegare perché è secondo me importante tenere a mente questo quadro più completo dell'analisi della domanda "Cosa possiede una coscienza?".

Sento queste considerazioni fondamentali di fronte a un rischio collettivo enorme che stiamo fronteggiando ai nostri giorni. Un riduzionismo ingenuo diffuso tra gli scienziati, e un corrispondente atteggiamento naturalista reverenziale tra i filosofi, sta mettendo gli scienziati in posizione di determinarsi come gli arbitri ultimi delle decisioni su categorie pragmatiche essenziali che orientano la nostra vita individuale e collettiva (responsabilità personale, inizio e fine vita). Ma l'autorità della scienza, conquistata sulle sue conquiste pratiche, non può oscurare la validità teorica di certe domande (p.e., la QUESTIONE 1) che tra gli scienziati trovano spesso risposte pre-teoriche e ingenue. Sarebbe grave, in questo contesto, permettere a tali concezioni ingenue di costituire le premesse di decisioni importanti sul tipo di società e di umanità che vogliamo essere.

Lorenzo Masetti ha detto...

Mi inchino davanti a queste interessanti dissertazioni e chiedo scusa della mia ingenuità filosofica :) A questo punto mi viene da chiedere se esiste un corrispettivo del test di Turing non per l'intelligenza ma per la coscienza. Cioè e' stato proposto un test empirico mirato a sostituire la domanda se qualcosa abbia coscienza o meno con un'altra operativamente più abbordabile?

PS qua sotto c'e' un bel test di turing automatico quando si clicca "Non sono un robot". Mi chiedo quanto ci metteranno a progettare un algoritmo in grado di simulare un movimento del mouse simile a quello di un umano...

Anonimo ha detto...

Turing ha proposto il test così com'è, proprio perché sapeva che i filosofi, quando parlano di metafisica, fanno un casino mostruoso e si perdono in ragionamenti circolari: è il lavoro dei filosofi, da quando esiste la scienza moderna.
Turing aveva dannatamente ragione, i filosofi oggi non risolvono i problemi, li abitano (e non ci pagano l'IMU), e quando parlano di metafisica diventano più pallosi del solito (lo so perché purtroppo in filosofia mi ci sono laureato pure io) perché non essendo una cosa che esiste davvero, è molto difficile da definire. un po' come dio. Va a finire che ogni posizione è legittima e rispettabile.
Il punto di Turing è proprio quello, finché resta tutto metafisico, è maledettamente impossibile trovare un accordo.
Invece, stranamente, con la fisica è più facile trovare un accordo fra gli addetti ai lavori, è una cosa davvero inspiegabile.

Il test di Turing per la coscienza, è facilissimo.
Incontri una cosa, gli tiri un pugno: se reagisce (scappa, tenta di strozzarti, mangiarti o ti insulta la mamma, vale praticamente tutto) ha una coscienza.
Corollario: se reagisce nel senso che ti si apre una porta, arriva un ascensore, esplode una bomba o robe del genere, non hai a che fare con una coscienza. Hai semplicemente picchiato un bottone

eddie