LA SVOLTA | Rivelati i 3 più grandi trend del mondo online
Questa settimana, le Nazioni Unite stanno organizzando un "incontro di esperti" per discutere se gli U.N. dovrebbero bandire i Lethal Autonomous Weapon Systems (LAWS) prima ancora che esistano. Se non sei ancora intimidito, considera una di queste armi autonome: armate robot artificialmente intelligenti.
Oppure considera una definizione recitativa di LEGGI:
"La piattaforma di consegna di un LAWS sarebbe in grado di muoversi, adattarsi alla sua terra, agli ambienti marini o aerei e bersagliare e sparare a un effettore letale (proiettile, missile, bomba, ecc.) Senza alcun tipo di intervento o convalida umana".
Esiste già uno di questi sistemi già in uso nella Zona Demilitarizzata tra Corea del Nord e Corea del Sud.
Parte della preoccupazione qui, oltre a lasciare liberi bersagli e assassini umani automatici, è che ci sarà una nuova corsa agli armamenti per sviluppare e liberare le LEGGI. Se questa corsa agli armamenti decolla, allora - l'argomento corre - non ci sarà modo di fermarlo. È la versione della nostra generazione di distruzione mutuamente assicurata, tranne che sarà fuori dalle mani dell'umanità. Invece di aspettare di reagire alla devastazione provocata da LAWS, l'U.N. spera di intraprendere azioni preliminari per assicurare che tale disastro non possa mai verificarsi.
Con tale convocazione, l'U.N. sta dando legittimità a ciò che altrimenti sarebbe rimasto un dibattito marginale. Altri nomi potenti, tuttavia, condividono la preoccupazione. L'anno scorso, il Future of Life Institute ha riunito A.I. e ricercatori di robotica per scrivere una lettera aperta sollecitando un tale divieto sui sistemi d'arma autonomi.
La tecnologia di Intelligenza Artificiale (AI) ha raggiunto un punto in cui il dispiegamento di tali sistemi è - praticamente se non legalmente - fattibile in anni, non in decenni, e la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione nella guerra, dopo la polvere da sparo e armi nucleari.
Stephen Hawking, Elon Musk, Noam Chomsky e Steve Wozniak, insieme ad altri potenti nomi, firmarono per approvare la lettera. Elon Musk ha anche donato $ 10 milioni al FLI, ed è verosimilmente preoccupato per un'apocalisse indotta da LEGGE. Ecco il post-donazione di Musk:
L'incontro informale dell'U.N. attraversa il venerdì. Anche se non si tradurrà in un divieto di LEGGE, è il primo passo necessario.
Cosa sarebbe successo se le leggi sulle armi fossero uguali alle leggi sull'aborto?
Immagina: Preferiresti non essere in questa stanza, ma ti sei angosciato per la decisione e non ti sentirai sicuro nel tuo futuro altrimenti. Così trovi un esperto che può aiutarti, qualcuno con l'attrezzatura giusta di cui puoi fidarti sa come usarlo. Qualcuno che renderà la tua sicurezza una priorità. Ma prima che tu stia per andare ...
Gli studenti sono troppo giovani per discutere della riforma della pistola? Lo studio di saggezza dice no
Alcuni critici hanno detto che agli studenti mancano gli anni e la saggezza per discutere giustamente del divieto delle armi. Tuttavia, gli studi dimostrano che l'età non è ciò che guida la saggezza.
NASA, Roscosmos si incontrerà il 10 ottobre per discutere delle voci "Sabotage" dell'ISS
Funzionari russi hanno intrattenuto voci di sabotaggio sulla Stazione Spaziale Internazionale, al punto che la NASA e l'agenzia spaziale russa Roscosmos hanno ritenuto necessario rilasciare una dichiarazione congiunta giovedì annunciando piani per i massimi amministratori di incontrarsi faccia a faccia per arrivare a una comprensione .