Muschio, Wozniak, Hawking, Altri Geni sono avversi alle armi autonome

Musk, Wozniak, and Hawking Push to Stop AI Warfare

Musk, Wozniak, and Hawking Push to Stop AI Warfare
Anonim

Per decenni, l'AK-47 è stata la macchina da presa preferita in molti angoli polverosi del mondo perché è economica, resistente e onnipresente. Questi stessi fattori, sostengono i firmatari di una lettera aperta rilasciata lunedì dal Future of Life Institute, sono la ragione per cui le armi autonome sono piene di pericoli. Ma ciò che distingue le armi di intelligenza artificiale dai Kalashnikov è che la macchina autonoma può "selezionare e ingaggiare bersagli senza l'intervento umano" - il che, nelle mani sbagliate, potrebbe perpetrare atrocità molto più grandi di qualsiasi fucile uncalcolabile.

I firmatari hanno il loro lavoro tagliato fuori per loro. Come esseri umani, siamo, nel complesso, molto più bravi a reagire che a pensare. I giocatori più importanti sono stati lenti nell'abbassare le nostre armi nucleari (e la costruzione di droni autonomi, secondo il pensiero, richiederebbe una frazione del macchinario che va nella creazione di un'arma nucleare); altrove, le mine terrestri ancora punteggiano campi di battaglia vecchi di decenni. Quando una tecnologia ha funzionato per rivoluzionare la guerra - sia polvere da sparo o corazzate navali o uranio arricchito - non c'è quasi mai non è stata una corsa agli armamenti.

La FLI fa una distinzione tra i droni che abbiamo ora, pilotati a distanza da mani umane, e un robot acceso e lasciato ai propri dispositivi assassini. La creazione di quest'ultimo innescherebbe una corsa globale agli armamenti di IA che il FLI sostiene e, come dimostra la storia del Kalashnikov, non andrebbe a buon fine:

Sarà solo questione di tempo prima che compaiano sul mercato nero e nelle mani di terroristi, dittatori che desiderano controllare meglio la loro popolazione, signori della guerra che desiderano perpetrare la pulizia etnica, ecc. Le armi autonome sono l'ideale per compiti come assassinii, destabilizzanti nazioni, sottomettendo popolazioni e uccidendo selettivamente un particolare gruppo etnico. Riteniamo pertanto che una corsa agli armamenti militari contro l'intelligenza artificiale non sarebbe vantaggiosa per l'umanità. Ci sono molti modi in cui l'intelligenza artificiale può rendere i campi di battaglia più sicuri per gli umani, in particolare i civili, senza creare nuovi strumenti per uccidere le persone.

Questa è una merda pesante. E i nomi dietro questo avvertimento non sono i tuoi scricchiolii alla Skynet: sono creatori, ingegneri, scienziati e filosofi che hanno contribuito a plasmare la nostra tecnologia oggi. Una fetta dei nomi include: Steve Wozniak di Apple, Jaan Tallinn di Skype, la fisica di Harvard Lisa Randall, una che è quella di ricercatori e robotici dell'intelligenza artificiale - tra cui Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - l'attrice Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking ha morso un po 'di inclinazione pessimistica ultimamente, ribadendo anche le sue previsioni sui pericoli dell'incontro con la vita extraterrestre. Risponderà anche a domande su questa lettera e sul futuro della tecnologia su Reddit questa settimana: potremmo non essere in grado di controllare gli alieni ostili, ma possiamo mettere "l'onere degli scienziati in prima linea su questa tecnologia per mantenere il fattore umano" fronte e centro delle loro innovazioni."

Puoi anche aggiungere il tuo nome alla lettera.