Cosa si prova ad essere un robot?

Di Samuele Vinanzi

«Mio padre ha provato ad insegnarmi le emozioni umane. Sono… difficili.»
«Le emozioni non sembrano essere una simulazione molto utile per un robot: non vorrei che il mio tostapane o l’aspirapolvere fossero così emotivi.» – Dialogo tra il robot Sonny e Will Smith nel film “Io, Robot”

Quel che segue è il resoconto di ciò di cui si è discusso al quarto incontro del ciclo “L’uomo e la tecnologia: capire il presente, pensare il futuro” promosso dalla Residenza Universitaria Segesta e dal gruppo Scienze e Non Solo a cui ho avuto la fortuna di partecipare come spettatore. Il titolo del seminario è stato: “Un robot può amare? È capace di emozioni?”. Il relatore di tale discussione è stato il professore Luciano Sesta.

Thomas Nagel è un filosofo americano, affiliato alla New York Univeristy, che nel 1974 scrisse un articolo intitolato: “Cosa si prova ad essere un pipistrello?”. In quel trattato, egli tenta di illustrare un punto di vista molto interessante riguardo alla ricerca scientifica, prendendo come esempio la neurofisiologia dei pipistrelli. In particolar modo, egli afferma che siamo perfettamente in grado di spiegare come funzioni, a livello biologico e fisico, il suo sistema percettivo costituito dall’emissione e ricezione di onde ad ultrasuoni (quel meccanismo che definiamo “sonar”). Tuttavia, nonostante la completezza della nostra descrizione, vi è un enorme gap esplicativo, come lo definisce Nagel stesso: non possiamo in alcun modo cosa si provi ad essere il pipistrello e ad interagire con il mondo attraverso quel particolare sistema percettivo, avendo la facoltà di emettere ultrasuoni e distinguere le nostre stesse onde di ritorno da quelle degli altri. Possiamo simularlo nelle macchine, ma ciò non ci dà un’idea di cosa si provi nella realtà.
Secondo alcuni pensatori, quali i transumanisti (di cui abbiamo già parlato qui), noi esseri umani non siamo arrivati allo stadio definitivo della nostra evoluzione ed è giunta l’ora di superare noi stessi attraverso la tecnologia. Qual è, tuttavia, la strada da intraprendere? Robotizzare l’uomo o umanizzare i robot? Mentre la prima opzione sta ricevendo impulsi sempre più forti da parte dell’ingegneria cibernetica e dai dispositivi smart (auto, telefoni e case, solo per citarne alcuni), la seconda mostra ancora pesanti incertezze e tentenna mentre attraversa un campo irto di ostacoli, il maggiore dei quali è rappresentato dallo scottante argomento delle emozioni.

Un tempo l’emozione era vista come un’interferenza, qualcosa che oscurava la nostra capacità di giudizio, plagiando la nostra razionalità. Tuttavia, i tempi sono cambiati e abbiamo imparato ad attribuirgli una valenza razionale, in quanto spesso può essere sfruttata come ausilio per comprendere meglio il mondo che abbiamo intorno. È chiaro, quindi, che potrebbe avere una valenza molto interessante sul punto di vista dell’intelligenza artificiale, in quanto potrebbe rivelarsi uno strumento per una migliore simulazione della cognizione. Tuttavia, possiamo definire le emozioni nei robot solo se siamo in grado di definirle in noi stessi, riducendo il sistema umano ad un’insieme di funzioni più o meno complesse. Cerchiamo dunque di operare questa semplificazione, tentando di descrivere cosa esse siano per noi: sono mere alterazioni biochimiche simulabili in termini elettronici e informatici o c’è dell’altro? Le sensazioni corporee sono ciehe, legate esclusivamente ai bisogni che evincono dalla nostra rappresentazione dell’oggetto del bisogno: la fame o il freddo, ad esempio. Al contrario, le emozioni sorgono dal loro oggetto, di cui dobbiamo dunque essere consapevoli. Emerge così un’intreccio tra il piano sentimentale e quello cognitivo. In poche parole: senza una semantica di ciò che sta succedendo nel mondo, se non esiste l’intenzionalità (a dispetto della mera logica di programmazione che vincola i passi dell’automa lungo binari predefiniti), non possono esistere vere e proprie emozioni a livello artificiale. Inoltre, come sarà chiaro sin dalle premesse che abbiamo dovuto formulare per giungere a questo punto, l’ipotesi riduzionistica che pone l’essere umano come una banale macchina che accetta input e fornisce output è errato: nella nostra mente, infatti, si instaurano dei meccanismi che ancora non riusciamo completamente a spiegare e che strabordano dalla pura biologia.
Facciamo un esempio, che si ricollega ancora una volta all’articolo di Nagel sui pipistrelli: dovendo descrivere la sensazione che si prova nel mangiare una tavoletta di cioccolato, riusciremmo certamente a descrivere le percezioni generali e comuni, ma sicuramente oltre a quelle si instaurerebbero in noi delle sensazioni prettamente soggettive che non saremmo mai in grado di spiegare a qualcun altro in modo che riesca a capire perfettamente cosa si provi ad essere noi mentre mangiamo il cioccolato. Certamente potremmo produrre una descrizione neurologica dell’insieme di impulsi elettrici che si verificano nel cervello, ma una rappresentazione prettamente matematica sarebbe sufficiente? Se riuscissi ad indurre in un’altra persona le stesse variazioni elettriche cerebrali, percepirebbe lui e lei lo stesso gusto di cioccolato che provo io? Tutto questo ci fa comprendere che deve esistere una componente aggiuntiva che ha a che fare con le emozioni e che influenza il nostro modo di recepire la realtà che ci circonda, una componente che allo stato attuale dell’arte manca alle nostre controparti robotiche.

Ancora una volta, ci ritroviamo di fronte al problema della semantica, questo scoglio contro cui si infrangono le promesse dell’evoluzione futura della robotica. Un’ostacolo che, tuttavia, può essere aggirato: come disse a suo tempo Alan Turing, una macchina pensante non deve necessariamente pensare nel modo in cui lo fanno gli esseri umani, anzi è più realistico che possa avere un suo modo di farlo, che incarna meglio la sua natura. Hilary Putnam, un altro filosofo statunitense dei nostri tempi, formula lo stesso concetto con parole diverse quando dice che l’intelligenza artificiale dovrebbe solamente mirare a simulare l’intelletto umano, anziché tentare di duplicarlo. Seguendo proprio questa linea di pensiero sono stati sviluppati robot come Pepper, creato dall’Aldebaran, l’azienda francese famosa per i suoi robot Nao: questo automa è in grado di riconoscere visivamente le emozioni sui volti delle persone che interagiscono con lui e rispondere con un comportamento appropriato, mettendo in pratica una simulazione basata su un principio molto simile a quello dei neuroni specchio. Possiamo allora giungere ad una riflessione molto importante: nella robotica sociale, il trucco è quello di mostrare emozioni, anziché provarle per davvero. Ancora una volta ritorna in mente una frase già citata tra le pagine di questo blog: “l’intelligenza sta negli occhi di chi osserva”. È questo tipo di comportamento artificiale, infatti, il fattore che riesce più di ogni altra cosa a creare un legame emotivo tra noi e il robot (non, come si potrebbe diversamente credere, l’aspetto esteriore antropomorfo della macchina).
Per averne una prova, basti pensare al robot di fantasia protagonista del film d’animazione Wall-E: è chiaramente quanto più di diverso possa esserci da una persona, eppure a causa dei suoi occhioni tristi e delle sue azioni palesemente guidate dalle emozioni (curiosità, paura, amore e via discorrendo), instauriamo subito un certo tipo di affetto nei suoi riguardi. Per confermare quest’idea ad un livello più profondo, consideriamo la seguente scena tratta dal film “A.I. – Artificial Intelligence” di Steven Spielberg, ambientato in un futuro in cui una donna in lutto decide di acquistare un robot dotato dell’identico aspetto del figlio scomparso prematuramente.

È immediatamente chiaro che ciò che rende questa scena così drammatica non è l’aspetto umano di David, bensì la sua feroce e disperata manifestazione di emozioni e sentimenti verso la “madre”. Al di là della fantascienza, tuttavia, la cruda realtà è che nella vita reale, con robot reali che possono solo imitare una sfera emotiva, siamo soltanto noi ad avere una relazione con loro e mai viceversa.

Tutti questi argomenti portano in luce un altro dilemma che dovrà anch’esso venire affrontato nel futuro prossimo: se i robot potranno iniziare a simulare emozioni e quindi a creare legami affettivi in noi, sembra logico che il passo successivo possa essere quello dell’acquisizione da parte loro di diritti civili. Al momento tutto ciò può sembrare esagerato e magari avrà strappato un sorriso ai più, ma vi invito a riflettere che in passato quegli stessi sorrisi sardonici si sarebbero sollevati anche al pensiero di attribuire dei diritti alle persone di colore, oppure ai pellerossa. Al giorno d’oggi, anche gli animali godono di diritti: perché allora l’ipotesi che ciò possa accadere anche ai robot sembra così fantasiosa? Questo, tuttavia, aprirebbe nuove argomentazioni di cui ci riserviamo di parlare in futuro. Al momento ci basta convenire sul fatto che la sfera emotiva di un robot potrebbe avere un’importanza cruciale nelle future applicazioni nell’ambito dell’intelligenza artificiale e ci chiediamo quali saranno i passi che i ricercatori di tutto il mondo compiranno in questa direzione.

Advertisements

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...