La legge del robot soldato
A quale crocevia l’evoluzione in noi umani ha imboccato la strada sbagliata, al punto che abbiamo associato il soddisfacimento del piacere alla spinta alla distruzione?
(Christa Wolf, Guasto)
Secondo me non ci siamo arrivati: è innato nella nostra specie. Il desiderio di distruzione è così radicato in noi che nessuno riesce ad estirparlo. Fa parte della costituzione di ognuno, giacché il fondo dell’essere stesso è certamente demoniaco. Il saggio è un distruttore placato, in pensione. Gli altri sono distruttori in servizio.
(E.M. Cioran, Dell’inconveniente di essere nati)
Abbiamo visto come la presenza tra noi di robot sempre più raffinati e intelligenti apra una serie di problemi etici, che nel loro complesso costituiscono un settore di indagine nuovo e importante, la roboetica. Un esempio già attuale di problema roboetico è rappresentato dall’uso in guerra dei “robot soldato”, cioè di robot costruiti, addestrati e impiegati in azioni belliche, con lo scopo precipuo di uccidere i nemici (uomini).
Precedentemente si è elencato le Leggi della robotica di Asimov. Ora la Prima Legge (Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno) impedirebbe ai robot di partecipare ad azioni di guerra contro esseri umani, mentre oggi molte ricerche mirano proprio alla costruzione di robot soldato.
Il comportamento distruttivo di questi robot sembrerebbe trovare qualche giustificazione nella Legge Zero (Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno), che li autorizzerebbe a recare un danno limitato (a uccidere alcuni umani) a chi vuole provocare danni gravi, o addirittura ultimi e irreversibili (uccidere tutti gli umani). Naturalmente, in questo contesto, ha una grande importanza la distinzione tra umani amici (che valgono moltissimo) e umani nemici (che valgono poco o zero). S’intravvede qui una scala quantitativa dei danni, che relativizza il carattere in apparenza assoluto delle prime Tre Leggi e conferma la difficoltà della loro applicazione.
Un robot soldato montato su cingoli |
Le ricerche sui robot da guerra s’inseriscono nel quadro del combattimento a distanza, che da sempre ottunde la pietà nei confronti del nemico e aumenta l’efficienza bellica (le due cose vanno di pari passo). Infatti l’inserimento tra me e il nemico di un robot soldato aggiunge alla distanza fisica un distanza psicologica che colora la battaglia di indifferenza, di cinismo e di irresponsabilità. Quest’ultimo punto è forse il più importante: delegando al robot l’uccisione del nemico, l’uomo si scaricherebbe in buona parte della responsabilità del sangue versato. Ma fino a che punto la responsabilità di un’azione criminosa può ricadere sulla “macchina” robot che, almeno per il momento, non ha statuto giuridico?
Solo nell’ipotesi che il robot possegga una piena volontà autonoma e magari una coscienza riflessiva, capace di attribuire valore etico alle azioni che compie, si può pensare di attribuirgli una qualche responsabilità. Altrimenti essa continua a ripartirsi tra progettisti, costruttori, militari e politici. È evidente che si tratta di un problema etico che coinvolge sia i rapporti tra gli uomini sia il comportamento dei robot nei confronti degli uomini. Infatti la battaglia è un’impresa voluta da umani contro umani, ma è mediata e condotta da robot, che sono macchine (in prospettiva sempre più) autonome.
Osserviamo di passaggio che un robot soldato, benché votato ad azioni di morte, potrebbe conservare un residuo di eticità: anche se svincolato dalla Prima Legge, il robot dovrebbe poter riconoscere quando un nemico si arrende o non è più in condizioni di combattere, in modo da farlo prigioniero invece di ucciderlo.
Col tempo, e con le guerre innumerevoli, gli umani hanno sviluppato, nei confronti dei nemici o dei prigionieri, codici di comportamento che aprono isole di misericordia nell’oceano della crudeltà bellica. Si apre qui un problema analogo per i robot: come indurre in essi, nei confronti degli umani, comportamenti improntati alla pietas o in genere all’etica guerresca temperata? La domanda rivela il conflitto tra la natura macchinica dei robot, che dovrebbe renderli obbedienti alla nostra programmazione, e la loro (parziale) autonomia che, in linea di principio, potrebbe spingerli a decisioni arbitrarie, per esempio nocive nei confronti degli uomini al di là delle regole stabilite dalle convenzioni belliche, oppure, all’opposto, alla disobbedienza a qualunque ordine di uccisione in nome di una compassione generalizzata.
Il tentativo di far condurre le operazioni militari alle macchine non è certo nuovo, anche se in passato le macchine belliche erano semplici prolungamenti o potenziamenti del corpo umano. Lo scopo primario è quello di infliggere perdite al nemico risparmiando i propri combattenti, almeno finché il nemico non si dota degli stessi dispositivi. Per esempio, già nella seconda guerra mondiale i tedeschi usarono i Goliath, piccoli carri armati telecomandati; i missili Cruise non hanno pilota e si dirigono con buona precisione sul bersaglio.
Oggi gli Stati Uniti costruiscono robot con funzione di spionaggio e di combattimento, i cosiddetti SWORDS (letteralmente Spade, ovvero Special Weapon Observation Reconnaissance Detection Systems), dispositivi con mitragliatrice telecomandati fino a un chilometro di distanza. Gli SWORDS sono un primo passo, per quanto modesto, verso i Future Combat Systems (FCS), complessi di sorveglianza e attacco a distanza con missili e cannoni. I robot soldato si muovono su cingoli, ruote o gambe snodate e possono essere impiegati anche per il salvataggio di feriti e il recupero di materiale. Altri settori in cui si prospetta l’impiego dei robot soldato sono quelli della lotta al terrorismo e della repressione delle insurrezioni civili. La Francia sta costruendo un robot antisommossa e a Singapore si stanno sviluppando robot soldato per combattere la criminalità urbana riducendo le perdite tra le forze dell’ordine.
Come si vede, un giorno potrebbe essere un robot a ucciderci: come se non bastassero gli incidenti, le malattie e i nostri congeneri… Il robot soldato è un segno concreto della nostra natura violenta e malvagia che, nonostante i progressi fatti nel corso dei secoli, è rimasta sostanzialmente intatta e si rivela anche nella progettazione di questi manufatti micidiali.
Commento all'articolo