Il pensiero di Searle

Gli algoritmi sono infinitamente superiori all’uomo nella manipolazione simbolica. Ma come può un programma informatico esprimere un significato attraverso una semplice (e banale) manipolazione simbolica? E che differenza c’è tra le idee che ti passano per la testa e i byte che sfrecciano in un computer?

Il celebre matematico Alan Turing nel suo saggio computing machinery and intelligence, non si è limitato a proporre un banale “esame di ammissione” utile a determinare se le macchine fossero ormai mature e intelligenti, bensì egli speculava, in realtà, sul fatto che il nostro uso comune del termine “pensare” si sarebbe alla fine esteso fino ad essere applicato, in maniera appropriata, a certe macchine o programmi di capacità adeguata. Egli stimava che ciò sarebbe avvenuto attorno alla fine del ventesimo secolo, una supposizione notevolmente accurata se pensiamo che oggi il dibattito più acceso riguarda l’ipotesi secondo cui “i computer possano pensare”.

Potremmo considerare “il pensare” come l’attività di manipolare simboli per ragionare su ipotesi iniziali e giungere a delle conclusioni. Da questo punto di vista, non dovrebbero esserci dubbi a proposito del fatto che i programmi informatici, così come li interpretiamo oggi, sono capaci di simili manipolazioni e dunque, di pensare.

Mettere assieme un po’ di simboli, però, è insufficiente: deve significare qualcosa o fare qualcosa, altrimenti non c’è nulla che possa giustificare la distinzione tra un programma e l’altro, e qualsiasi programma che, nella nostra visione, stia interpretando simboli, per quanto rozzamente si qualificherebbe a buon diritto come pensante, ambisca al “ragionamento”. Ma come può un programma informatico esprimere un significato o fare qualcosa?

La branca della filosofia e della linguistica che si occupa di questo tipo di problema, la semiotica, studia l’uso dei simboli per ragionare e comunicare. Tipicamente viene fatta una distinzione tra la sintassi, il complesso di regole secondo le quali i simboli sono organizzati e manipolati, e la semantica, che riguarda il significato dei simboli e delle regole. Se la sintassi è molto semplice da capire, la semantica non lo è affatto, e gli stessi esperti sono in disaccordo sul significato di “significato”. La maggior parte delle teorie propone che il significato richieda un qualche tipo di relazione tra i simboli stessi e le cose che denotano nel mondo reale.

Vi propongo un piccolo esempio che può aiutarci a chiarire le cose. Se pensate che i numeri abbiano significato in sé, potremmo dedurre che in realtà non è proprio così. Per visualizzare perché, considerate i simboli @, !, #, e $ come connessi da un operatore somma (+) che può essere utilizzato per unire qualsiasi coppia del set:

! + ! = @
! + @ = #
@ + ! = #
! + # = $
# + ! = $
@ + @ = $

Proviamo ad osservarli e capire se ci sono delle relazioni tra le varie equazioni e quindi se “generano” significato. Sembra un bel modo per tenere occupato il bambino di cinque anni che è in voi, sebbene non sembri contenere alcuna verità fondamentale sulla struttura dell’universo, finché non utilizzate simboli diversi, lasciando tutto il resto invariato:

1 + 1 = 2
1 + 2 = 3
2 + 1 = 3
1 + 3 = 4

D’improvviso, tutto sembra assumere senso. Sappiamo tutti cosa significano 1, 2, 3 e 4, con il piccolo inconveniente che, in realtà, essi non significano niente più e niente meno di quanto non facciano con @, !, # e $.

Il loro significato deriva dal modo in cui li connettiamo tra di loro, ad altri concetti o ad oggetti del mondo reale. Se connettiamo $ con qualsiasi gruppo di quattro elementi, un set espanso delle regole sopra esposte è di grande utilità per risolvere certi problemi di grande significato pratico.

Potreste starvene lì a manipolare simboli tutto il giorno e la cosa in sé non avrebbe significato. In altre parole, e parlando in senso lato, non conta ciò che pensate, finché non fate effettivamente qualcosa, e fare qualcosa implica un certo grado di connessione tra l’attore che manipola il sistema di simboli e qualcosa di esterno all’attore stesso.

Nel caso dei programmi informatici, potrebbe trattarsi ad esempio del calcolare quanto devi alla compagnia telefonica questo mese, i movimenti di una pedina degli scacchi — reale o virtuale che sia — o un robot che raccoglie una matita. Solo in questo contesto si può effettivamente dire che la manipolazione simbolica ha significato.

Ora, è necessario dire che l’aritmetica comune è una cosa, ma pressoché qualsiasi programma informatico di un certo livello potrebbe essere descritto in maniera accettabile come un concetto molto più ampio di simboli e regole, per quanto è possibile interpretare diversamente quegli stessi programmi.

Molti studenti di computer science rimangono a bocca aperta quando scoprono per la prima volta che tutta la matematica appresa al liceo non è altro che il caso particolare di un insieme di regole più generali molto semplici da capire.

Alcuni pensatori dell’AI, in particolare John Searle, professore di filosofia a Berkeley, osservano correttamente che i computer, di per sé, non possono affatto “pensare” in questo senso, dal momento che non intendono effettivamente dire o fare alcunché; nella migliore delle ipotesi, si occupano di manipolazione simbolica.

Siamo noi che associamo le loro computazioni al mondo reale. Ma Searle va ancora oltre, e sottolinea che anche affermare che i computer eseguano manipolazione di simboli sia un’esagerazione. Gli elettroni si spostano nei circuiti, eppure, siamo noi che interpretiamo questa attività come manipolazione simbolica.

Gli algoritmi di machine learning hanno lo stesso limite concettuale (ma non pratico): riflettono la complessità del mondo reale ma senza connessioni con esso, rimangono una struttura “isolata”.

Le argomentazioni di Searle, e di altri insieme a lui, sono tutti di immediata comprensione, finché non li si applicano alle persone. Diamo per scontato che le persone pensino, ma che differenza c’è tra le idee che ti passano per la testa e i byte che sfrecciano in un computer?

In entrambi i casi, si tratta di informazioni che entrano sotto qualche forma che potremmo definire simbolica (i piccoli segnali nervosi che arrivano dagli occhi), vengono processate ed escono (i segnali nervosi inviati alle dita che digitano sulla tastiera la password di accesso).

Searle sostiene che, in effetti, deve trattarsi di qualcosa di diverso ma che semplicemente non capiamo ancora cosa fa il cervello. Saggiamente, si astiene dallo speculare su quale differenza ci sia effettivamente.

Searle postula che nel nostro cervello accade qualcosa che non comprendiamo ancora e che, quando ci riusciremo (cosa che egli ritiene probabile), avremo la strada spianata per capire in modo convincente quelli che egli ritiene fenomeni squisitamente umani: non solo il pensare, ma anche la coscienza, la sensazione di provare gioia e dolore (quello che i filosofi chiamano “qualia”), la consapevolezza di esistere, e così via.

Inoltre, Searle non sostiene che un programma non riuscirà mai ad eseguire un determinato compito, sia che si tratti di dipingere splendidi quadri, scoprire leggi di natura o offrire consolazione dopo la perdita di una persona cara. Egli crede che il programma stia simulando il pensiero, e non duplicando i processi che avvengono nelle menti delle persone mentre svolgono tali attività.

Ritiene, inoltre, che un programma che suona il pianoforte non sia paragonabile a un musicista che esegue un concerto live, sebbene l’effetto sia lo stesso. In breve, Searle dice che, i computer, almeno nella forma attuale, sono “zucche vuote”.

Malgrado gli sforzi continui da parte di generazioni di ricercatori nel campo dell’IA di confutare le osservazioni di Searle, ritengono che egli abbia essenzialmente ragione. I programmi per computer, presi di per sè, non concordano affatto con quello che comunemente intendiamo per “pensare”.

I programmi si limitano “semplicemente” a svolgere sequenze di azioni logiche e deterministiche, per quanto complesse, cambiando la loro configurazione interna da uno stato all’altro. Ma ecco dov’è il problema: se pensate che il nostro cervello non sia altro che un manipolatore di simboli fatto di materiale biologico, allora non potete che giungere alla conclusione che neanche il vostro cervello, di per sé, sappia pensare.

Disconnettetelo dal mondo esterno e non farà niente di più di quello che fa un computer. Questo tuttavia stride con la nostra percezione comune secondo la quale, se ci mettiamo seduti in una stanza tranquilla e in penombra, senza alcun input o output, siamo ancora in grado di stare lì a riflettere.

Bisogna trovare un accordo: se la manipolazione simbolica è la base dell’intelligenza, allora o sia le persone sia le macchine sono in grado di pensare (per principio, non in pratica, a oggi), oppure, né le une né le altre lo sono.

Se invece preferiamo attenerci all’idea che siamo speciali, diversi dalle macchine per una qualche ragione fondamentale ancora da determinare (quel che pensa Searle), o che siamo intrisi di qualche mistica qualità ben distinta dal resto del mondo naturale, allora possiamo aggrapparci alla nozione che pensare sia un’attività unicamente umana, e che le macchine sono solo dei simulatori delle nostre abilità cognitive.

Dipende da cosa scegliamo. Ma prima che prendiate una decisione, tenete bene a mente che tutt’ora non siamo ancora riusciti a capire da cosa scaturiscano e, ancora prima, cosa siano alcune nostre abilità strettamente umane – come ad esempio, il libero arbitrio.

LINK UTILI:

Brain, Mind and Consciousness: A Connversation with Philosopher J.Searle

John Searle reflects on various philosophical questions in light of new research on the brain

Rubrica: “Il Pensiero Artificiale

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *