L'Apprendimento delle Macchine Armonizzanti contro ISIS aggroviglierà le catene di comando militari

$config[ads_kvadrat] not found

Top Crush Things with Car Tire l Crush Things Compilation l test ex

Top Crush Things with Car Tire l Crush Things Compilation l test ex
Anonim

Tutti su Internet si sono divertiti molto con Tay, il robot Twitter di Microsoft che è diventato un negazionista dell'olocausto nel giro di poche ore (poi è tornato e l'ha fatto di nuovo). La società aveva creato un lembo di pubbliche relazioni - più incidente di un disastro - dando al pubblico una lezione oggettiva sui vantaggi e gli svantaggi dell'apprendimento automatico: l'automazione può imbrigliare i modelli con effetti affascinanti alla velocità, ma i risultati saranno prevedibilmente difficili da prevedere.

Come spesso accade, l'esercito è uno dei primi ad adottare la tecnologia dell'automazione. È - un tempo - a guidare l'accusa sull'apprendimento automatico e anche a cercare disperatamente di tenere il passo. Una delle principali aree di interesse del Pentagono sono i robot autonomi e il modo in cui collaboreranno con gli umani: ad esempio un wingman di robot in stile R2D2. Ma questa settimana, il vice segretario alla Difesa Robert Work ha delineato un altro compito per A.I.: elaborazione dei dati open source.

"Siamo assolutamente certi che l'uso di macchine per l'apprendimento profondo ci permetterà di avere una migliore comprensione dell'ISIL come rete e una migliore comprensione su come individuarlo con precisione e portare alla sua sconfitta", ha dichiarato il Segretario del Lavoro, secondo Il sito web di DoD. Secondo tale account, Work, che stava parlando ad un evento organizzato dal Washington Post, ha avuto la sua epifania mentre guardava una compagnia tecnologica della Silicon Valley dimostrare "una macchina che ha raccolto dati da Twitter, Instagram e molte altre fonti pubbliche per mostrare il volo 17 del Malaysia Airlines del 17 luglio in tempo reale".

Le compagnie private e le forze dell'ordine hanno tentato di dare un senso ai "big data" per lungo tempo. Ma i militari hanno un vantaggio: risorsa. Inoltre, hanno accesso ai materiali classificati.

Il governo degli Stati Uniti sembra pronto a scommettere che gli algoritmi software possono ordinare l'enorme quantità di dati là fuori al fine di identificare gli obiettivi ISIS che altrimenti li avrebbero elusi e rilevare e interrompere i complotti prima che i pianificatori siano in grado di eseguirli. Il governo sta già cercando di studiare i social media per prevedere le dimensioni delle proteste online. Non c'è dubbio che l'apprendimento automatico darà agli analisti dell'intelligence un potere crescente per dare un senso alla ricchezza delle informazioni disponibili nel mondo. Ma quando quell'intelligence diventa la base su cui viene preso uno sciopero letale, le questioni etiche diventano più complesse, anche se sembrano dirette.

Anche se il lavoro è stato rapido per affermare che il Pentagono non "delegherà l'autorità letale a una macchina", rimane il gioco finale. Nel frattempo, gli umani rimarranno "nel giro", come dice il gergo. Ma come sa chiunque abbia guardato un iPhone per un bollettino meteorologico quando si è in piedi vicino a una finestra, le relazioni che abbiamo con i nostri dispositivi e software non sono semplici. Siamo problematicamente creduloni e facilmente distratti dai problemi dell'interfaccia utente.

Il "bias dell'automazione", la tendenza per gli umani a differire alle macchine, presenta un pericolo chiaro e sempre più presente. L'esempio per illustrare questo fenomeno è quando il telefono ti dice di prendere una rotta di viaggio che sai essere sbagliata, ma lo fai comunque, presumendo che il telefono debba sapere qualcosa che tu non conosci. Questo è un problema comune in contesti non militari. Ciò che sembra essere avvicinato dal Pentagono, però, è costituito da rapporti sulle minacce composti da intelligenza artificiale. Non sappiamo nulla della potenziale efficacia di questo programma se non che sarà difficile da implementare per gli umani.

In un documento del 2001 che esamina i piloti degli studenti e dei professionisti e il bias dell'automazione, i ricercatori hanno scoperto che "in scenari in cui erano disponibili informazioni corrette per controllare e rilevare le anomalie dell'automazione, sono stati documentati tassi di errore prossimi al 55% tra le due popolazioni". che l'aggiunta di un compagno di squadra umano aggiuntivo non attenuava il problema.

Allo stesso modo, uno studio del MIT dello scorso anno ha rilevato in modo un po 'inquietante che i giocatori di computer e videogiochi hanno una "maggiore propensione all'automobilizzazione eccessiva". Ciò potrebbe significare che più tempo passiamo a fissare i nostri schermi, più ci fidiamo di ciò che vediamo. Di nuovo, il problema non è con i sistemi che usiamo, ma con il modo in cui li usiamo. La colpa non è nelle nostre stelle, ma in noi stessi.

I grandi dati rimangono promettenti. L'apprendimento automatico rimane promettente. Ma quando le macchine consigliano gli umani, i risultati sono prevedibilmente imprevedibili. La trasformazione di Tay in un misogino neo-nazista significa che Twitter odia gli ebrei e le donne? È difficile sapere, ma abbastanza improbabile. Quando non capiamo il processo attraverso il modo in cui gli input diventano output, facciamo fatica ad affrontare i risultati in modo razionale. Il che pone il Pentagono in una posizione interessante. Le persone che programmano il software di apprendimento automatico dei militari saranno quelle che ordineranno i raid aerei? Non è così che funziona la catena di comando, ma le catene di comando si ingarbugliano quando la tecnologia viene coinvolta.

$config[ads_kvadrat] not found