Il pensiero del robot

Di Samuele Vinanzi

«Se hai creato una macchina cosciente non si tratta della storia dell’uomo, questa è la storia degli dei.» – Domhnall Gleeson nel film “Ex Machina”

Ciò che segue è il resoconto di ciò di cui si è discusso al secondo incontro del ciclo “L’uomo e la tecnologia: capire il presente, pensare il futuro” promosso dalla Residenza Universitaria Segesta e dal gruppo Scienze e Non Solo a cui ho avuto la fortuna di partecipare come spettatore. Il titolo del seminario è stato: “Io penso e tu, robot, che fai?”. I relatori di tale discussione sono stati i professori Salvatore Gaglio, Antonio Chella e Gianluigi Oliveri, rispettivamente docenti di Intelligenza Artificiale, Robotica e Logica presso l’Università degli Studi di Palermo.

Nel maggio del 2010, la prestigiosa rivista Scientific American pubblicò una lista destinata a diventare famosa: si tratta dell’elenco dei 12 possibili eventi futuri che, semmai dovessero verificarsi, cambierebbero per sempre il nostro mondo. Dando un’occhiata a quella lista, troviamo di tutto: dall’impatto di un’asteroide ad una guerra nucleare, dallo scioglimento dei poli alla scoperta di vita extraterrestre. In mezzo alle altre voci se ne trova una che per noi appassionati di scienza e tecnologia spicca tra le altre: la creazione di macchine autocoscienti. Su questo tema scottante, l’opinione si è sempre divisa tra chi crede che l’intelligenza artificiale possa costituire un pericolo terribile e chi, invece, snobba queste considerazioni apocalittiche affermando che ciò che accade nel cervello dei robot è solo mera logica di programmazione. Per far sì che anche il lettore meno esperto riesca a formulare una propria opinione in merito (e con la scusa di voler riepilogare quanto discusso nel corso della conferenza da cui questo articolo prende vita), illustreremo per vie molto generali ciò di cui si parla quando si nomina l’intelligenza artificiale e la confronteremo con l’intelligenza umana.

Questa materia scientifica è la più giovane branca della più giovane scienza, ossia l’informatica. In parole povere, si tratta di quel campo di ricerca che mira a realizzare software in grado di svolgere funzioni che normalmente verrebbero attribuite alla mente umana. Una macchina intelligente è di norma in grado di pianificare, ragionare e apprendere o che comunque possiede una qualsiasi combinazione di queste capacità. Uno dei problemi che si trovano alla base è che esistono notevoli difficoltà anche solo nel concordare una definizione formale dei concetti di “intelligenza” e “pensiero”: come possiamo usare questi termini se non riusciamo neanche a comprenderli del tutto?
La prima risposta venne da Alan Turing, pioniere dell’informatica, che nel 1950 progettò un test che prende il suo nome. Ecco in cosa consiste: tre soggetti, tra cui una persona, un’intelligenza artificiale e un esaminatore (il quale non conosce la vera natura degli altri due), sono separati visivamente tra di loro. La persona e la macchina sono in collegamento con l’esaminatore attraverso un’interfaccia testuale tramite la quale possono rispondere a delle domande che quest’ultimo pone loro. Se l’esaminatore non dovesse riuscire a distinguere quale dei suoi due interlocutori è il computer, allora questo, secondo il test, potrà essere definito intelligente. In realtà, nel corso degli anni si è dimostrata l’inaccuratezza di questo metodo e oggigiorno è facile che un chatbot ben progettato possa superare il test, ma questo non è di certo indice della sua intelligenza, bensì solo della sua raffinatezza nell’elaborazione della grammatica del linguaggio.
Per capire come funzioni l’intelligenza artificiale reale al livello pratico, è necessario lavorare un po’ di fantasia. Immaginiamo di costruire un mondo, quello all’interno del quale lavorerà la nostra macchina intelligente: questa landa astratta sarà costituita da piccoli blocchi fondamentali che prendono il nome di simboli. I simboli sono generalmente coinvolti in vari tipi di relazione tra di loro e possono essere manipolati per creare strutture più complesse. Un’entità o un processo che agisca all’interno di questo mondo deve possedere la capacità di creare, modellare e distruggere queste strutture. Possiamo immaginare, dunque, che l’intelligenza artificiale non sia altro che un programma che riesca a creare un tale mondo e a manipolarlo a suo piacere, producendo nel tempo un insieme di strutture simboliche in evoluzione. Risulta evidente che questa tecnica venga utilizzata per costruire un modello astratto del mondo reale, operare in esso e poi, eventualmente, riproporre i risultati all’esterno tramite attuatori robotici. Esistono anche altri tipi di approcci all’IA noti come “sub-simbolici”, ovvero che non utilizzano la manipolazione di simboli astratti bensì lavorano direttamente con i segnali fisici. Un esempio ne sono le reti neurali, strutture matematiche atte a simulare il funzionamento dei neuroni biologici. Tuttavia non ci addentreremo oltre nell’esposizione, sinora superficiale, delle tematiche che stanno alla base dell’intelligenza artificiale, poiché esuleremmo completamente dallo scopo di questo articolo.

A questo punto il lettore dovrebbe avere perlomeno un’idea di cosa vi sia all’interno di un cervello elettronico e potrebbe iniziare a domandarsi in che rapporto stiano l’intelligenza artificiale e la robotica. La risposta è molto intuitiva: se l’una rappresenta la mente, l’altra è il corpo. Entrambe le parti portrebbero vivere senza l’altra, come accade nel caso di IA che operano dentro internet oppure di bracci robotici industriali, ma la loro unione può creare qualcosa di molto interessante. Infatti, in molti casi il corpo può essere considerato un’estensione dell’intelligenza. Prendiamo ad esempio i robot sociali, ovvero quelli che si pongono come obbiettivo quello dell’interazione e integrazione all’interno di un contesto sociale umano. Non è evidente come la loro intelligenza complessiva venga definita non solo dalle meccaniche “cerebrali”, ma anche dalle movenze all’interno del mondo, dalle espressioni, dal loro modo di condividere lo spazio con noi? L’intelligenza artificiale orientata alla robotica, infatti, il più delle volte è organizzata in strati, la cui unione forma il cosiddetto “comportamento emergente”, ovvero il risultato dell’interconnessione di tutti i suoi processi funzionali, per quanto diversamente complessi e diversificati.

Abbiamo così concluso una breve panoramica tecnica sulla scienza che sta dietro i robot. Tuttavia, una materia complessa quanto l’intelligenza artificiale è così innovativa e rivoluzionaria da sfociare oltre il campo del sapere scientifico, giungendo sino a quello umanistico e ponendosi a confronto con l’intelligenza naturale. In tal senso, poniamoci una domanda ed esaminiamola sotto diversi punti di vista filosofici: può l’uomo essere considerato una macchina? Può una macchina raggiungere il livello dell’intelletto umano?
È Cartesio a fornire una prima risposta. Nella sua filosofia, egli divideva la realtà in due parti, la res cogitans e la res extensa. La prima riguarda la realtà psichica libera e consapevole, mentre la seconda rappresenta la realtà fisica, limitata e inconsapevole. La sua idea era la seguente: se un dato fenomeno è descrivibile tramite un modello meccanico, allora quel modello è sufficiente a spiegare il fenomeno. Alcuni di questi ultimi, tuttavia, come il linguaggio e il pensiero, non possono essere spiegati in questo modo e dunque devono necessariamente appartenere ad un altro dominio, dove si applica un altro tipo di scienza che non sia la meccanica. Seguendo questa corrente di pensiero, la res cogitans è ciò che definisce un uomo, mentre la macchina per antonomasia ricadrebbe nella res extensa. I due insiemi, quindi, vengono divisi in maniera molto netta.
Kant aveva un’opinione simile, che possiamo estrapolare da una delle sue frasi più celebri: «il cielo stellato sopra di me, la legge morale in me». Secondo il suo pensiero, esistono due dimensioni: la natura e la moralità. È quest’ultima, e non la mera intelligenza, ciò che costituisce una persona e che differenzia l’uomo dagli animali. Secondo questa corrente filosofica, non sono nè la capacità di pianificazione, nè di apprendimento e neanche di ragionamento ciò che contano, bensì quella di assumersi coscienziosamente una responsabilità morale. Un robot si muove nello spazio delle azioni, dettato da regole che ha appreso o che gli sono state imposte, ma senza una cognizione di causa di ciò che sta facendo che non sia meramente matematica. Una persona, invece, non si limita a manipolare simboli e non agisce solo per fini utilitaristici, dettati dall’istinto di sopravvivenza, ma anche per fini morali: un’azione può essere giusta o sbagliata, indipendentemente dalla sua utilità. Si deve riconoscere, quindi, una differenza tra un principio morale e la sua esecuzione: il fatto che un robot segua delle regole non implica che le comprenda. Per chiarificare subito questo concetto, facciamo un esempio: una persona comune è generalmente stata educata con la regola morale che afferma: “non si uccidono gli esseri umani”. Potrebbe, volendo, andar contro questo principio, ma in genere non accade perché egli riconosce il valore che detiene e lo trova in linea con la sua condotta morale. Un robot, mancando di semantica, non potrebbe nenache prendere in considerazione l’idea di violare questo comandamento. Questa discrepanza è dovuta al fatto che le nostre regole sono estrapolate dalla realtà, mentre le regole sono la realtà di un robot. La regola formalizza la realtà, ma la realtà non può essere formalizzata dalle regole.
C’è da aggiungere un’altra osservazione. Nella scienza dell’intelligenza artificiale esiste un importante teorema empirico noto come la tesi di Church-Turing che afferma che, all’interno di una macchina, un qualunque problema è risolvibile se e solo se è calcolabile. Dunque, dato che tutto ciò che è calcolabile da una macchina è calcolabile da una persona, ne deduciamo che non esistono problemi risolvibili da un’IA ma non da un umano (dato il tempo necessario). È tuttavia la situazione inversa quella che ci interessa particolarmente: esistono problemi risolvibili da un umano ma non calcolabili e ciò di fatto limita l’insieme dei problemi risolvibili dai computer a un sottoinsime di quelli risolvibili dagli umani.

Al termine di questa lunga (per quanto superficiale) dissertazione, è d’obbligo una riflessione. Da ciò di cui si è appena discusso emerge chiaramente che, allo stato attuale dell’arte, le macchine sono ben al di sotto delle potenzialità della mente umana. La chiave di volta che manca nell’erezione di questa struttura è la cognizione della semantica. I robot, e in generale le intelligenze artificiali, hanno una limitatissima capacità di comprendere cosa stanno facendo o perché lo stanno facendo. Il problema è arginabile ma, almeno al momento, solo in parte. Forse, nel momento in cui dovessimo riuscire ad inserire la semantica all’interno di questi complessi software, le IA inizierebbero ad acquisire un senso morale, una cognizione di sè, una coscienza, insomma tutte quelle qualità della mente umana che, al momento, sembrano mancare ai nostri corrispettivi di silicio, metallo e plastica. Ma sarà questa la strada giusta da percorrere? Finora l’intelligenza artificiale si è evoluta tentando di imitare i processi naturali già esistenti in natura, ma è possibile che questa via conduca presto o tardi ad un vicolo cieco. Forse non tutti i processi biologici possono essere ricreati in un computer, proprio a causa delle differenze strutturali e funzionali con il mondo naturale. A riprova di ciò, quelle che seguono sono le parole prounciate dall’attore Benedict Cumberbatch nei panni di Alan Turing, nel film The Imitation Game:

"Può una macchina pensare come un essere umano? Molti dicono di no. Il problema è che è una domanda stupida. È ovvio che le macchine non possono pensare come le persone. Una macchina è diversa da una persona e pensa in modo diverso. La domanda interessante è poiché qualcosa pensa diversamente da noi vuol forse dire che non sta pensando? Noi ammettiamo che gli esseri umani abbiano divergenze gli uni dagli altri. Lei ama le fragole, io odio pattinare, lei piange ai film tristi, io invece sono allergico al polline. Qual è il punto di avere gusti diversi, diverse preferenze se non mostrare che i cervelli lavorano diversamente e che pensiamo diversamente. E se diciamo questo delle persone non possiamo dire lo stesso di cervelli fatti di rame e acciaio e cavi?"

Advertisements

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...