U.N. Raccoglie gli esperti per discutere delle LEGGI e la nostra potenziale distruzione di robot autonomo

$config[ads_kvadrat] not found

LA SVOLTA | Rivelati i 3 più grandi trend del mondo online

LA SVOLTA | Rivelati i 3 più grandi trend del mondo online
Anonim

Questa settimana, le Nazioni Unite stanno organizzando un "incontro di esperti" per discutere se gli U.N. dovrebbero bandire i Lethal Autonomous Weapon Systems (LAWS) prima ancora che esistano. Se non sei ancora intimidito, considera una di queste armi autonome: armate robot artificialmente intelligenti.

Oppure considera una definizione recitativa di LEGGI:

"La piattaforma di consegna di un LAWS sarebbe in grado di muoversi, adattarsi alla sua terra, agli ambienti marini o aerei e bersagliare e sparare a un effettore letale (proiettile, missile, bomba, ecc.) Senza alcun tipo di intervento o convalida umana".

Esiste già uno di questi sistemi già in uso nella Zona Demilitarizzata tra Corea del Nord e Corea del Sud.

Parte della preoccupazione qui, oltre a lasciare liberi bersagli e assassini umani automatici, è che ci sarà una nuova corsa agli armamenti per sviluppare e liberare le LEGGI. Se questa corsa agli armamenti decolla, allora - l'argomento corre - non ci sarà modo di fermarlo. È la versione della nostra generazione di distruzione mutuamente assicurata, tranne che sarà fuori dalle mani dell'umanità. Invece di aspettare di reagire alla devastazione provocata da LAWS, l'U.N. spera di intraprendere azioni preliminari per assicurare che tale disastro non possa mai verificarsi.

Con tale convocazione, l'U.N. sta dando legittimità a ciò che altrimenti sarebbe rimasto un dibattito marginale. Altri nomi potenti, tuttavia, condividono la preoccupazione. L'anno scorso, il Future of Life Institute ha riunito A.I. e ricercatori di robotica per scrivere una lettera aperta sollecitando un tale divieto sui sistemi d'arma autonomi.

La tecnologia di Intelligenza Artificiale (AI) ha raggiunto un punto in cui il dispiegamento di tali sistemi è - praticamente se non legalmente - fattibile in anni, non in decenni, e la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione nella guerra, dopo la polvere da sparo e armi nucleari.

Stephen Hawking, Elon Musk, Noam Chomsky e Steve Wozniak, insieme ad altri potenti nomi, firmarono per approvare la lettera. Elon Musk ha anche donato $ 10 milioni al FLI, ed è verosimilmente preoccupato per un'apocalisse indotta da LEGGE. Ecco il post-donazione di Musk:

L'incontro informale dell'U.N. attraversa il venerdì. Anche se non si tradurrà in un divieto di LEGGE, è il primo passo necessario.

$config[ads_kvadrat] not found