Il robot che uccide solo quando veramente necessario

fonte [ZEUS News - 29-11-2008]

I soldati umani sono soggetti a stress, rabbia, vendetta: tutte emozioni che li portano a causare vittime anche tra i civili, e dalle quali un robot sarebbe al riparo.

Secondo un rapporto stilato nel 2006 e basato sulle risposte dei membri dell'esercito statunitense, meno della metà dei soldati che hanno servito in Iraq sostiene che chi non combatte vada trattato con dignità e rispetto; anzi, il 17% è convinto che tutti i civili debbano essere considerati dei rivoltosi.

Portando questi risultati a sostegno delle proprie tesi, il dottor Ronald C. Arkin del Georgia Institute of Technology, ha avanzato la proposta di iniziare a creare un esercito di robot intelligenti e autonomi, in grado di"comportarsi in modo più etico di quanto facciano attualmente gli umani".

I vantaggi sarebbero molti. Per esempio gli automi non attaccherebbero selvaggiamente, spinti dalla paura: basterebbe programmarli senza istinto di autoconservazione.

Sarebbero privi di rabbia e di avventatezza, non sarebbero soggetti a problemi psicologici, non prenderebbero decisioni dettate dallo stress e non sarebbero selettivi nell'apprendere nuove informazioni, prestando orecchio solo a quelle che si accordano con le idee che già possiedono, come invece fanno gli umani.

Niente più truppe stressata, arrabbiate, ansiose o vendicative; niente più rischi di violenze sui civili; nessuna possibilità di fare vittime innocenti per colpa di uno stato d'animo alterato.

Naturalmente la realizzazione pratica resta un problema, perché dotare un robot di considerazioni morali aggiunge sfide nuove a un compito già difficile di per sé, cioè la realizzazione di "sistemi affidabili, efficienti e sicuri".

Il dottor Colin Allen, autore del libro "Moral Machines: Teaching Robots Right From Wrong" ("Macchine Morali: insegnare ai robot a distinguere ciò che è giusto da ciò che è sbagliato"), pensa che sia possibile spiegare a un sistema come riconoscere ciò che è importante dal punto di vista etico.

Il problema, infatti, è insegnare a decidere se la distruzione di un obiettivo militare sia possibile senza causare vittime innocenti o se sia meglio rimandare, nonché far sì che sia in grado di distinguere le persone che rappresentano una minaccia dai semplici abitanti delle zone di guerra.

In ogni caso, il dottor Arkin è convinto che la creazione dei soldati robotici garantirà il rispetto delle Convenzioni di Ginevra; ora si tratta solo di fare in modo che gli automi diventino "sempre più consapevoli delle situazioni" e possano così decidere da soli per il meglio.

D'altra parte, l'idea di macchine che non possono fare del male agli esseri umani non è nuova: a chi, leggendo le affermazioni di Arkin e Allen non è venuto in mente il Ciclo dei Robot di Isaac Asimov? Certo, Asimov non ha mai pensato a un uso bellico dei robot, ma ora la tecnica sembra essere vicina alla possibilità di creare non cervelli positronici ma almeno robot capaci di comprendere le situazioni.

Mar, 02/12/2008 – 15:18
tutti i contenuti del sito sono no-copyright e ne incentiviamo la diffusione