Gli ingegneri sono legalmente responsabili per i robot assassini?

$config[ads_kvadrat] not found

LEGAL TEAM LIVE GUEST. Act of God. Lo stato dei contratti - Covid-19 (30.3.2020)

LEGAL TEAM LIVE GUEST. Act of God. Lo stato dei contratti - Covid-19 (30.3.2020)
Anonim

Gli automi e gli androidi hanno massacrato umani immaginari fin da quando lo scrittore ceco Karel Čapek ha reso popolare il termine "robot" nel suo film di fantascienza del 1920 Rossum's Universal Robots. Čapek ha esplorato una questione al centro di molti dibattiti moderni: chi è responsabile di un robot che uccide? Lo scrittore ceco sembrava accusare Rossum, il suo ingegnere Frankensteiniano, ma la realtà legale è un po 'più complicata.

La tecnologia cambia, ma l'intenzione è ancora tutto.

Se un ingegnere crea un esercito di deathbots con il preciso scopo di uccidere (pensa: le orde di Ultron), allora lui o lei è responsabile di ciò che accade quando diventano forti. Secondo il 18 Codice U.S. § 1111, l'omicidio è:

L'uccisione illegale di un essere umano con premeditazione. Ogni omicidio perpetrato da veleno, in agguato o qualsiasi altro tipo di omicidio intenzionale, deliberato, malevolo e premeditato … o perpetrato da un disegno premeditato illecito e malizioso per provocare la morte di qualsiasi essere umano diverso da colui che viene ucciso, è omicidio di primo grado.

"Qualsiasi altro tipo" di morte lascia la finestra spalancata per i robot assassini, che sono una sorta di veleno meccanico.

Anche se l'ipotetico costruttore di robot che programma un pericoloso - anche se no espressamente killer - machine, c'è un precedente che è responsabile per qualsiasi risultato letale. Quando i cani da guardia attaccano fatalmente i passanti, le giurie hanno giudicato i proprietari dei cani colpevoli di omicidio. E cosa, oltre al fatto che un metodo coinvolge i codici di comando e gli altri comandi vocali, è la differenza tra addestrare un robot e addestrare un cane?

Se i robot armati capita di essere un po 'più intelligente di un pastore tedesco - diciamo un robot completamente autonomo - Rossum non è ancora fuori dai guai. Gruppi come Human Rights Watch prevedono che "comandanti o operatori potrebbero essere giudicati colpevoli se hanno dispiegato intenzionalmente un'arma completamente autonoma per commettere un crimine". Questi gruppi - e le organizzazioni per i diritti umani in generale - possono avere una visione irrealistica del sistema giudiziario, ma uno dei motivi convincenti per mantenere i Predator Drones sotto controllo remoto è quello di assicurarsi che gli attacchi vengano dagli Stati Uniti Esercito ", così gli scienziati militari non finiscono le loro vacanze europee con un tour a pagamento a spese dell'Aia.

Il problema diventa un po 'più oscuro quando i robot assemblati per un compito formano un perno sanguinante. Nella storia di Čapek, Rossum ha assemblato i suoi robot per il lavoro manuale, non per l'omicidio. Ma è successo l'omicidio (non il verbo non transitivo). Se Rossum fosse processato in un tribunale, la sua mancanza di aderenza al taglio di qualità, le leggi di Asimov lo avrebbero messo nei guai. Quando un prodotto difettoso uccide civili, paga il produttore, che è ciò che i pronostici dicono che succederà a Google se le loro macchine automatizzate violassero la legge. Inutile dire che un certo numero di aziende di tecnologia hanno avvocati che considerano la loro esposizione di responsabilità.

Il fatto che i robot non possano essere caricati presenta l'opportunità di molti lanci sotto il bus. La domanda che le nostre migliori menti legali stanno cercando di rispondere? Chi dovrebbe finire aggrovigliato su quegli assi.

$config[ads_kvadrat] not found