Kasparhauser





Rivista di cultura filosofica

2018


Home


Monografie


Culture Desk


Ateliers


Chi siamo


Info


Macchine calcolatrici e intelligenza artificiale
di Leonardo Tonini

16 giugno 2018



Nel 1950 uscì un articolo che ha generato un dibattito che negli anni invece di scemare è cresciuto di importanza ed è oggi considerato una pietra miliare nella riflessione sul tema. È scritto da un matematico, ma non contiene nessun tecnicismo o simbolo algebrico, è invece un articolo di filosofia. In 26 pagine, limpidamente scritte e in cui si sente l’influsso del Wittgenstein delle Ricerche, si mettono le fondamenta per una nuova riflessione filosofica: l’intelligenza artificiale. La domanda che si pone questo articolo e a cui cerca di dare risposta è molto semplice: possono le macchine pensare?

L’autore [1] è Alan Turing che a 24 anni aveva già fatto parlare di sé l’ambiente specialistico con un articolo, questa volta decisamente tecnico [2], che risolveva un problema di logica formale sollevato da quello che allora era considerato uno dei più grandi matematici viventi, David Hilbert. Il grande matematico tedesco chiedeva se un enunciato può essere o meno deducibile all’interno di un sistema formale [3]. E la risposta di Turing era che no, non era sempre possibile.

Qualche anno dopo, Turing fu inserito nel programma militare di massima segretezza conosciuto oggi come progetto X a Bletchley Park, nei pressi di Londra. Fu messo a capo del gruppo di tecnici e scienziati che riuscirono a decifrare la famosa Macchina Enigma, e avere così accesso alle comunicazioni segrete della Wehrmacht e della marina del Terzo Reich. Aveva allora 28 anni.

Nell’articolo del 1950, Turing prende in esame le argomentazioni passate, presenti e future che negano la possibilità stessa dell’intelligenza artificiale: le macchine fanno solo quello per cui sono programmate, sono specializzate, non hanno né gusti né capricci, non possono soffrire, ecc. Dopo averle giudicate tutte insoddisfacenti, propone di attenersi a un unico criterio per decidere se una macchina può pensare come un uomo: è capace o no di far credere a un uomo che pensa come lui?

Alla base di questa domanda c'è l’idea che il fenomeno della coscienza possa essere osservato solo dall’interno. Il punto di vista è esistenzialista, non abbiamo prove che esista un’altra coscienza oltre alla nostra. Per la nostra coscienza, gli altri sono ciò che io non sono, sono altro da me. E io posso solo intuire dalle azioni degli altri che anche gli altri uomini sono dotati di coscienza. E questo perché emettono segnali analoghi ai nostri, soprattutto mimici e verbali.

Ora, sostiene Turing, ammettendo che in un futuro prossimo o lontano una macchina possa essere programmata in modo da emettere, in risposta a qualsiasi stimolo, segnali altrettanto convincenti, non si capisce in nome di quale principio dovremmo rifiutarle il brevetto di essere pensante.

Nell’articolo compare la prima formulazione di quello che è oggi universalmente conosciuto come Test di Turing. Prendiamo un esaminatore in una stanza chiusa e un uomo (o una donna) e una macchina in altre stanze chiuse. Il candidato umano e il candidato macchina devono rispondere alle domande dell’esaminatore e questi deve capire chi dei due non è umano in base alle risposte che gli vengono fornite. Può chiedere qualsiasi cosa, che sapore ha una torta di mele, qual è il loro primo ricordo, cosa ne pensano della situazione politica e anche complessi calcoli matematici.

Il candidato umano risponderà come può, mentre la macchina sarà programmata per convincere l’esaminatore di essere un essere umano, divagando, rispondendo con un’altra domanda, cercando la risposta nella domanda stessa e secondo un prontuario di risposte contenute nella sua memoria. Anche, se è il caso, dando una risposta sbagliata a un calcolo — come farebbe il candidato umano.

Alla fine del test, l’esaminatore dovrà dire in quale stanza si trova il candidato umano. Se sbaglia, si dovrà ammettere che la macchina è riuscita nell’intento di farsi passare per essere umano e che di conseguenza la sua intelligenza è indistinguibile da quella umana. Se non si accetta questa cosa, si dovrà spiegare perché non dovremmo definire intelligente una macchina che ha superato il Test di Turing.

Il più convincente tentativo di confutare il test fu fatto nel 1980 dal filosofo statunitense John R. Searle e prende il nome di Esperimento della stanza cinese [4].

In questo esperimento mentale un uomo è all’interno di una stanza e riceve domande scritte in cinese. Quest’uomo non sa il cinese, però ha con sé un grosso libro di istruzioni che gli dice come rispondere a ogni tipo di domanda con altri ideogrammi cinesi. Avviene così che dalla stanza usciranno risposte corrette, ma l’uomo all’interno di essa non sa cosa gli è stato chiesto e cosa ha risposto. Searle afferma che questa è la differenza tra l’intelligenza umana e una macchina che esegue meccanicamente le istruzioni senza sapere ciò che fa.

Questo ingegnoso esperimento ha ricevuto diverse critiche. Qualcuno per esempio ha sostenuto che l’uomo non capisce il cinese, ma che il sistema, composto dall’uomo e dalla stanza insieme, lo comprende. Altri potrebbero sostenere che il cinese stesso, come qualsiasi lingua, sia una capacità emergente della mente umana e che nel profondo non c'è nessuna lingua inserita nel cervello, che infatti deve essere appresa attraverso un lento ed elaborato processo. Altri si sono spinti anche a un livello più sottile, domandandosi se la comprensione di simboli sia ciò che è richiesto all’intelligenza e che cosa si intenda, in definitiva, per comprensione.

Un programma per il gioco degli scacchi per esempio ha battuto l’uomo grazie a una superiore capacità di calcolo, e quindi di previsione delle mosse [5]. Ci si può chiedere se questa macchina sia effettivamente intelligente, se abbia coscienza di ciò che fa. Sa cosa sono gli scacchi? Ma ci si può anche chiedere quanto possa essere interessante ai fini del gioco degli scacchi sapere cosa siano gli scacchi e cosa vuol dire avere coscienza di ciò che si sta facendo. Ci si può chiedere se il campione di scacchi alla fine sappia che cosa sta facendo e se saperlo gli serva effettivamente per prevedere le mosse dell’avversario. O se anche per lui tutto si riduce a un calcolo di previsione delle mosse secondo schemi precisi e non del tutto cosciente — che lui stesso chiama intuizione.

Nel 1968 lo scrittore statunitense Philip K. Dick pubblica il romanzo Ma gli androidi sognano pecore elettriche? [6] Dick scrisse il libro proprio sull’entusiasmo che gli derivò dalla lettura dell’articolo di Turing del 1950. In questo romanzo immagina un lontano futuro post apocalittico dove i robot androidi, detti replicanti, sono così simili all’uomo da essere quasi indistinguibili. Il protagonista è un cacciatore di taglie e cerca appunto questi androidi per eliminarli, secondo come vuole la legge. Due problemi gli si presentano. Verrà sicuramente pagato se elimina un androide, ma se sbaglia avrà commesso un omicidio. Gli androidi stessi hanno ricordi sintetici e non hanno coscienza di essere dei robot. A un certo punto il protagonista incontra una ragazza che è la nipote del suo capo, lui per gioco la sottopone al test di riconoscimento e sorprendentemente lei non lo supera. Il suo capo gli dice quindi che la ragazza, sua nipote, è sicuramente umana, ma che ha subito un trauma infantile che potrebbe aver alterato il risultato del test.

Questa cosa della fantascienza è interessante. Secondo alcuni, è la nuova filosofia [7], o per dire meglio è il nuovo modo in cui la filosofia si esprime. Film come Arrival [8] e Interstellar [9] sono stati letti da molti come veri e propri trattati di filosofia, e così le opere di Philp K. Dick o un romanzo come Solaris [10] del polacco Stanislaw Lem. Una filosofia che non si muove più sulla bocca dei filosofi come ai tempi di Socrate, o sulle pagine di un libro come in Tommaso d’Aquino, ma su un nuovi supporti tecnologici. Che non si sviluppa attraverso argomentazioni, ma tramite narrazioni e immagini. Una filosofia che cerca di risolvere i problemi dell’oggi ponendoli in un futuro possibile.

Searle dal canto suo fondò insieme ad altri una scuola di pensiero detta dell’Intelligenza Artificiale Forte che si distingue dal cosiddetto Gioco dell’Imitazione di Turing (la macchina che imita l’uomo) proprio per la sua ricerca di macchine che abbiano coscienza di ciò che stanno facendo. Il problema teorico è appunto stabilire che cosa voglia dire avere coscienza e come sia possibile tradurla poi in una macchina. Questa scuola aveva perso di intensità con gli anni, mentre la via turinghiana ha visto aumentare sempre di più il dibattito intorno a essa. Tuttavia, ultimamente è tornata alla ribalta perché un noto imprenditore americano dalle enormi possibilità finanziarie, Elon Musk, ha fondato una start up [11] per ricercare proprio questa Intelligenza Artificiale dotata di consapevolezza di sé.

Per tornare alla domanda iniziale dell’articolo di Turing, si potrebbe anche prendere in esame la risposta data dal filosofo Emanuele Severino. In un recente dibattito con Roger Penrose [12], egli afferma che l’intelligenza è sempre artificiale perché, in definitiva, è un artificio inventato dall’uomo per rispondere alla domanda: Come posso sopravvivere?

Alla luce di questa intuizione, possiamo chiederci perché l’uomo abbia così interesse nell’intelligenza artificiale. Se non è certo che una macchina possa pensare, non possiamo dubitare dell’interesse che una tale domanda suscita e ha suscitato da quell’articolo del lontano 1950.


***

NOTA: Nel febbraio del 1952, Alan Turing denunciò un furto avvenuto nel suo appartamento e rivelò che i suoi sospetti cadevano sul suo compagno con il quale aveva litigato la sera prima. Così facendo dichiarò implicitamente la propria omosessualità, pratica allora illegale nel Regno Unito. Il 31 marzo del 1952 fu arrestato e portato dal giudice davanti al quale disse di non trovare nulla di male in quello che aveva fatto, essendo quella la sua natura. Fu condannato a una pena detentiva di 2 anni o, in alternativa, alla castrazione chimica. Per evitare il carcere scelse la seconda pena, ma la depressione che seguì al trattamento e l’umiliazione subita lo portarono al suicidio il 7 giugno del 1954. A 42 anni. Il 10 settembre 2009, il primo ministro britannico Gordon Brown in un discorso ufficiale chiese scusa a Turing pronunciando le parole: “ci dispiace, avresti meritato di meglio”.


[1] Alan M. Turing, Computing machinery and intelligence, in Mind, 59, pp. 433-460, 1950.
[2] Alan M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, in Proceedings of the London Mathematical Society, ser. 2, vol. 42, 12 novembre 1936, pp. 230-265.
[3] Sapere insomma se ogni problema matematico è sempre risolvibile con procedimenti automatici, i logaritmi.
[4] In italiano vedi: John R. Searle, La mente è un programma?, “Le Scienze” n. 259, marzo 1990.
[5] La celebre Deep Blue - Kasparov, 1996, partita 1, giocata a Philadelphia in condizioni normali di torneo.
[6] Philip K. Dick, Do Androids Dream of Electric Sheep?, New York, 1968.
[7] Cfr. per es. l’articolo di Luca Pellegrini “Fantascienza nuova filosofia”, mercoledì 5 novembre 2014.
[8] 2016, diretto da Denis Villeneuve.
[9] 2014, diretto da Christopher Nolan.
[10] Stanislaw Lem, Solaris, Varsavia, Wydawnictwo Ministerstwa Obrony Narodowej, 1961.
[11] La OpenAI. La motivazione che ha fornito Elon Musk è data dalle preoccupazioni sul rischio derivante dall’intelligenza artificiale che, secondo il noto imprenditore, potrebbe presto superare le capacità umane e portare quindi all’estinzione del genere umano.
[12] All’interno dell’incontro “Intelligenza artificiale vs. intelligenza naturale” che ha avuto luogo presso il centro congressi fondazione Cariplo a Milano il 12 maggio 2018.




A Vincent van Gogh inspired Google Deep Dream painting. Photo: courtesy Google.

Home » Ateliers » Saperi

© 2014-2018 kasparhauser.net