Ecco come possiamo fermare Future Rogue A.I. da Imitare HAL 9000

$config[ads_kvadrat] not found

Can you solve the rogue AI riddle? - Dan Finkel

Can you solve the rogue AI riddle? - Dan Finkel
Anonim

Come fermiamo un futuro A.I. dal disobbedire agli ordini e scegliere di andare per la sua strada? Potrebbe sembrare la trama di 2001: Odissea nello spazio, ma un esperto sostiene che è qualcosa che potremmo già dover iniziare a pensare. Certo, potremmo disattivare l'algoritmo di ricerca di Google se mai è diventato un ladro, ma di fronte a conseguenze finanziarie e legali, può essere più facile a dirsi che a farsi. In futuro, dal momento che dipendiamo dalla più avanzata A.I., potrebbe rivelarsi impossibile.

"Questo algoritmo non ha deliberatamente progettato si essere impossibile da riavviare o spegnere, ma è co-evoluto per essere così ", ha detto Stuart Armstrong, ricercatore presso il Future of Humanity Institute, al Pirate Summit 2016 di mercoledì. Ciò significa che un cambiamento con risultati involontari potrebbe essere difficile da rettificare e potrebbe non essere il primo A.I. per trovarsi in quella situazione.

La soluzione di Isaac Asimov erano le tre leggi della robotica, che codifica in modo rigido idee che non causano danni agli esseri umani. Il problema è che il danno è piuttosto soggettivo e aperto all'interpretazione. Gli umani lavorano più su valori, come capire che è male causare danni e interpretare la situazione, piuttosto che lavorare su qualche regola difficile che non dovrebbero mai danneggiare.

"È a causa di questo tipo di problema che le persone sono molto più entusiaste ora di utilizzare l'apprendimento automatico per ottenere valori piuttosto che tentare di codificarli in questo modo tradizionale", ha affermato Armstrong. "I valori sono stabili in un modo che altre cose non sono in A.I. I valori si difendono intrinsecamente."

Ma anche in queste situazioni, è importante progettare A.I. per renderli interrompibili mentre stanno correndo. L'interruzione sicura consente modifiche sicure delle policy, che possono evitare conseguenze indesiderate dai valori appresi. Se HAL 9000 ha mai provato a impedire l'apertura delle porte del vano pod, è importante poter identificare che i valori di A.I. sono incasinati e intervenire senza portare il sistema offline.

$config[ads_kvadrat] not found