Mondo

Killer Robot: presto potremmo perderne il controllo

La strage di Orlando ha suscitato sgomento e inevitabili polemiche sulla diffusione delle armi negli Stati Uniti e riacceso il dibattito generale sul disarmo. Un'altra questione, però, si sta affacciando sulla scena: quello dei robot assassini. Non è fantascienza. La comunità scientifica cerca da tempo di richiamare l'attenzione su questo problema: se deleghiamo alle macchine la facoltà di scegliere, che ne sarà della prerogativa esclusivamente umana di resistere al male?

di Marco Dotti

Davanti alla sfida della tecnologia, di fronte a scenari di nuove prossimità fra uomo e macchine, il filosofo Hans Jonas invitava a riformulare l'imperativo morale fondamentale in questi termini:

Agisci in modo che le conseguenze della tua azione siano compatibili con la permanenza di un'autentica vita umana sulla terra. (…) Agisci in modo che le conseguenze della tua azione non distruggano la possibilità futura di tale vita. (…) Includi nella tua scelta attuale l'integrità futura dell'uomo come oggetto della tua volontà

Hans Jonas

Un principio che molti scienziati prendono sul serio, ben consci che il tecno-entusiasmo non è né scientifico, né coerente con l'obiettivo umano. Con una non piccola conseguenza che Hans Jonas, l'autore del fondamentale Principio di responsabilità, aveva compreso a fondo: la comunità umana si trova oramai immersa in un tale contesto di rischio per cui, una volta innestati alcuni processi, è impossibile tornare indietro. Con conseguenze catastrofiche.

Stop Killer Robots

Per questo, la responsabilità morale che nei dibattiti di contorno viene in vario modo ascritta a produttori, acquirenti, governi e – in ultima ribattuta – anche all'assassino che si è trovato a maneggiare un'arma acquistata in un supermercato, potrebbe rivelarsi ben presto tragica archeologia. Quale responsabilità ascrivere, ad esempio, a un robot sicario, un killer robot? Che sia dalla parte del "bene" o sia, come in certi racconti di P. K. Dick, a servizio di qualche corporation, del narcotraffico o persino di ribelli insorti contro il sistema poco cambia. Le macchine non hanno anima, né cuore, né carne. O sono eterodirette o non sono. Con la conseguenza che, se cessano di essere eterodirette, a non essere più è l'umano in sé e per sé.

Eppure – come da tempo denunciano gli scienziati della campagna "Stop the Killer Robots" – messi a tutela dell'ordine pubblico e della sicurezza, i nuovi terminator potrebbero essere dotati di simulatori di scelta e chiamati a svolgere non solo il ruolo di banali esecutori, ma di decisori. Prendere decisioni complesse in situazione complesse è diventato complicatissimo, soprattutto quando a un dilemma etico si sovrappone la fragilità umana e la compassione. Un robot decide e agisce. L'abbiamo visto in Robocop, lo vedremo presto nelle nostre strade.

Nel 2015, più di 3000 esperti di cibernetica e robotica e oltre 20mila firmatari qualificati hanno chiesto di fermare i progetti, prima che sia troppo tardi. In una lettera aperta firmata, tra gli altri, dal fisico Stephen Hawking e dal responsabile di Tesla Motors, già inventore di PayPal Elon Musk (qui la lista completa degli endorsement) la richiesta era semplice: fermare la specifica applicazione militare dei robot, applicazione che avrebbe conseguenze non solo pratiche ma anche etiche devastanti.

L'uso della tecnologia, soprattutto in ambito militare, non è neutrale e prevede una scelta di campo fondamentale che stravolgerebbe i pilastri del diritto internazionale. Senza parlare del diritto interno, qualora si ricorresse all'automazione nelle pratiche di controllo sociale. Nulla vieta che in un futuro imminente prodotti come la sentinella automa SGR-A1, capace di individuare un essere umano a 3km di distanza e messa a presidio della zona demilitarizzata fra Corea del Sud e Corea del Nord, possa essere impiegata in piazze, stadi, luoghi di aggregazione civile, ma anche di potenziale conflitto.

Delega etica

D'altronde, il Dipartimento della Difesa statunitense ha indivduato una apposita categoria di "armi autonome". Lo ha fatto nella Direttiva “3000.09 – “Autonomy in Weapons Systems”, dove si parla di sistemi d’arma capaci di “selezionare e attaccare gli obiettivi senza ulteriori interventi da parte di operatori umani.”

Proprio qui sta il tema: consegnare le armi ai robot comporta una delega etica, non solo pratica e cognitiva alle macchine. Per cielo e per mare (pensiamo al Sea Hunter della DARPA – l'agenzia per i progetti di ricerca avanzata della Difesa americana – progettato per la caccia da remoto a sommergibili e imbarcazioni) è già realtà, ma presto diventerà realtà anche l'operatività via terra.

Togliere all'umano la responsabilità di decisioni cruciali avrebbe conseguenze disastrose, perché cancellerebbe la responsabilità dai sistemi giuridici e morali, come hanno spiegato in un recente report i ricercatori della Harvard Law School International Human Rights Clinic. Il controllo umano sulle armi è dunque fondamentale per mantenere il principio-responsabilità evocato da Jonas. Certo, meglio sarebbe togliere di torno tutte le armi. Ma c'è arma e arma. E quest'arma non prevede scelta: è già, in nuce, fuori controllo Un robot è inoltre un soggetto non umano, quindi un non soggetto, non è persona e non è giuridicamente imputabile.

Si tratta, per i più critici sul fronte di Stop Killer Robot, di una sorta di maschera di immunità per progettisti, decisori e apparati tecnico-militari che, in questo modo, si troverebbero garantiti rispetto a Corti, Tribunali e processi. Con quali conseguenze è facile immaginarlo.

La libertà non è un algoritmo

La dignità umana non è un algoritmo e le macchine possono simulare emozioni, ma non provarle. Paradossalmente, proprio la presenza del male mostra la possibilità di un'altra scelta, quella del bene. Là dove non c'è scelta, c'è solo disumanizzazione e irresponsabilità.

Per questo, la parte più sensibile della comunità scientifica mondiale ha chiesto una moratoria sulle armi autonome, ritenendo che "diritto fondamentale di ogni essere umano è quello di non essere ucciso" e, in particolare, non esserlo "in modo arbitrario". Degli effetti negativi di questa situazione cominciano a accorgersi anche i militari, dopo il disastro dei droni in Afghanistan e Irak. Basterà per fermare tutto?

Nel frattempo, 94 Paesi hanno avviato un dibattito all'Onu: per i sistemi autonomi di offesa e attacco valgono le regole che proibiscono l'uso di armi non convenzionali? Armi chimiche, batteriologiche e mine antiuomo sono state di fatto bandite non solo in ragione della loro intrinseca disumanità ma proprio perché il controllo umano sulle conseguenze a breve, medio e lungo termine era di fatto molto ristretto. Nel caso dei robot questo ragionamento vale o la macchina abita oramai una zona franca dove non conta più l'umano volere? In sede di Conferenza Onu sul disarmo, ecco una questione aperta.

Nel frattempo, la Knighscope, una start-up californiana, ha già sguinzagliato per le strade attorno ad alcuni centri commerciali i suoi robot-poliziotto. "Senza capacità di offesa", spiegano. Anche se lo scopo, dichiarano apertamente, è quello di "abbattere il crimine del 50%". Lo stesso stanno facendo in Cina, con Anbot: sembra un bidone aspiratutto, ma è un poliziotto efficientissimo. Pesa 78kg ed è alto 1 metro e 48cm,

Questi robot non dormono mai, si ricaricano con energia solare, sono puliti, green, non sporcano e non avanzano alcuna pretesa sindacale. Ma quella della ricaduta non certo positiva sul mondo del lavoro è un'altra parte della storia.

Cosa fa VITA?

Da 30 anni VITA è la testata di riferimento dell’innovazione sociale, dell’attivismo civico e del Terzo settore. Siamo un’impresa sociale senza scopo di lucro: raccontiamo storie, promuoviamo campagne, interpelliamo le imprese, la politica e le istituzioni per promuovere i valori dell’interesse generale e del bene comune. Se riusciamo a farlo è  grazie a chi decide di sostenerci.