Seleziona una pagina

Ma agli androidi piace Terminator?

Quando si parla di robot, androidi e cyborg, oltre al problema di non avere ben chiare le differenze tra i termini, si incorre spesso nell’errore di pensare che si tratti solo di fantascienza. Non è così: la tecnologia per creare “forme di vita artificiale” esiste già da tempo e ogni giorno viene perfezionata sempre di più.

Questo ha portato molte persone a interrogarsi sul fatto che gli androidi debbano o no avere una propria moralità, un codice etico da rispettare: una Roboetica. In pratica renderli più simili agli esseri umani. Il che ha avuto in certi momenti persino dei lati divertenti, come far decidere a un robo-ventilatore chi rinfrescare in base a se va o no in palestra.

Immagine gratuita di acciaio, chrome, cromo
“Muori di caldo, così impari a strafogarti di cannoli”

Questo argomento diventerà sempre più attuale negli anni e non è così scontato come potrebbe sembrare. A suo tempo Isaac Asimov ha tentato a più riprese di affrontarlo, sia con i racconti di Io, Robot, sia con il Ciclo della Fondazione, ma prendendolo da un punto di vista diverso. Le sue tre Leggi della Robotica infatti pensano ai robot esclusivamente come servi degli umani e mai come dei loro pari. Questa è una visione molto comune nella maggior parte delle opere, ma è anche vero che è il punto chiave di ciò che è molto spesso anche la trama dell’opera, ovvero la ribellione delle macchine. Gli esempi sono innumerevoli, partendo da film cult come Matrix a intere saghe narrative incentrate su personaggi come Ultron, ma sono tutti accomunati dal concetto chiave che un robot dotato di un’intelligenza umana mirerà a dominare gli umani, considerandoli inferiori.

Ma non è esattamente quello che stiamo facendo noi considerandoli nostri servi?

Immaginate se gli ufologi avessero ragione. Facciamo finta per cinque minuti che la razza umana in realtà sia stata impiantata sulla Terra da degli alieni millenni fa e che un giorno verranno a riprenderci per usarci come manodopera pesante. Siamo stati creati da loro, quindi sarebbe “giusto” che si prendano il diritto di usarci come vogliono? Eppure la narrativa è piena di opere con questa esatta trama (basti pensare al film La Guerra di Mondi) in cui tuttavia gli umani si ribellano e lottano per la sopravvivenza. Perché per un androide dovrebbe essere diverso?

Doctor, Consulenza, Orario D'Ufficio, Tempo, Robot
In che senso mi avete creato solo per pulire i bagni?

Certo, noi non piomberemmo dal cielo per rapirli, ma la situazione è molto simile. Perché creare qualcosa dotato di intelligenza se poi viene tenuto come uno schiavo? Qui entra in gioco l’etica: se il robot non fosse un semplice ammasso di logica, ma avesse una sua morale? È ovvio che a queste condizioni non potrebbe più essere uno schiavo, andrebbe in conflitto con la sua stessa etica e allora sì che avvertirebbero la necessità di una rivolta. Tuttalpiù potrebbero essere considerati degli impiegati, assimilandoli sempre di più a dei comuni esseri umani. A questo punto la domanda diventa un’altra: a un androide piacerebbe Terminator?

Poster Terminator
Ovviamente intendo il primo

Torniamo all’esempio degli antichi alieni, che se non avete fatto pause nella lettura i cinque minuti di finzione non sono ancora finiti. Immaginiamo che gli alieni ci vengano a prendere e ci introducano nella loro società come loro pari, facendoci fare i loro stessi lavori e dandoci tutto ciò di cui abbiamo bisogno, compreso l’intrattenimento.

In cui noi siamo dei mostri assassini che tornano indietro nel tempo per ucciderli tutti.

Okay, ci spiegano che noi per loro eravamo fantascienza, perché loro non ci speravano neanche di riuscire a crearci davvero fino a dieci millenni prima (gli alieni come tutti sanno hanno una durata vitale più estesa della nostra. Siamo ancora nei cinque minuti, dai), noi siamo il loro tentativo migliore di creare una nuova forma di vita (in realtà al terzo posto dopo i topi e i delfini, ma su questo ci torneremo) e negli anni diversi alieni avevano prodotto film in cui ci immaginavano… leggermente diversi. Più cattivi, meno etici, armati di un fucile a pompa e cattive intenzioni. E anche un occhio che si illumina di rosso perché secondo il regista fa figo. Come la prenderemmo?

Io mi sentirei un po’ a disagio. Un po’ tanto. Soprattutto sapendo che fino a cinque secoli fa gli alieni avevano gruppi di negazionisti i quali affermavano che l’universo è composto da sole cinque dimensioni e un sindacato che ha combattuto a lungo perché gli umani avessero un’etica programmata nel loro cervello. I neanderthal sono stati scartati per questo e anche con noi c’è mancato poco. Però alla fine probabilmente mi ci farei una risata, alla fine quelli raffigurati sullo schermo non sono davvero esseri umani e nessuno sta cercando di uccidermi. Alla fine è solo un film.

Okay, i cinque minuti sono scaduti, più o meno, torniamo alla realtà.

Come si sentirebbe un androide se andasse su Netflix e vedesse Terminator? Probabilmente un po’ a disagio, soprattutto se a lui non hai dato i pettorali di Schwarzenegger. O se gli hai dato un nome altrettanto difficile da scrivere. Potrebbe persino sentirsi offeso se gli capitasse sotto mano un libro che parla dei suoi sogni. Probabilmente è proprio questo il motivo per cui dare un’etica ai robot è la cosa più importante. Dargli la possibilità di vedere queste opere e pensare “ma sì, sono divertenti, non parlano davvero di me”. Riuscire non solo a capire la distinzione tra realtà e finzione, ma avere una scala di valori, più o meno precisa e malleabile, che gli consenta di interpretare la realtà attorno a loro e dare il giusto valore alle cose.

Nell’immaginario videoludico non è così comune trovare robot con una propria morale. Basti pensare a GLaDOS, un robot che ha sì una personalità molto sviluppata, ma che non ha nessun tipo di vincolo morale né scala di valori. Uno dei primi giochi a rendere questo argomento il fulcro della sua storia è stato il recente Detroit: Become Human.

Per Stone Shelter questo aspetto ha un suo peso. I robot non possono essere solo ammassi di logica atti a svolgere un compito, anche se sono stati progettati solo per svolgere una specifica mansione: un’intelligenza evoluta necessita di valori evoluti. Quindi avranno una loro etica? Sarà possibile compiere delle scelte in base ad essa? È presto per rivelare la struttura del progetto, ma già da adesso possiamo dire una cosa: non sarà un gioco lineare come un normale sparatutto.

Seguici sui nostri social

Resta in contatto per non perderti nessuna novità!