Prevenire l'Apocalisse dei Robot per Contemplare questo A.I. Domanda di moralità

$config[ads_kvadrat] not found

"Il mio Medico" - Curare e prevenire l'obesità

"Il mio Medico" - Curare e prevenire l'obesità
Anonim

C'è una domanda e uno scenario di robotica morale a cui è necessario rispondere affinché l'intelligenza artificiale possa avanzare.

Immagina che ci sia un robot in controllo di un pozzo minerario e si rende conto che c'è un carrello pieno di quattro minatori umani che scendono dalle piste senza controllo. Il robot può scegliere di spostare le tracce e uccidere un minatore ignaro, salvando così i quattro nel carrello, o mantenere le tracce come sono e consentire ai quattro minatori di imbattersi in un muro e morire. Quale sceglieresti? La tua risposta cambierebbe se l'unico minatore fosse un bambino? Se non possiamo rispondere a questo, come possiamo programmare i robot per prendere questa decisione?

Quelle erano le domande poste ai partecipanti e al pubblico al World Science Festival di New York City intitolato "Morale matematica dei robot: le decisioni sulla vita e sulla morte possono essere codificate?" La maggior parte ha scelto di dirigere il carro verso l'unico minatore e cambiare la persona per un bambino non ha cambiato la mente di molti rispondenti, ma non è stato unanime e le decisioni morali umane spesso non lo sono.

È stato un esempio commovente delle lotte che l'umanità dovrà affrontare mentre l'intelligenza artificiale continua ad avanzare e affrontiamo la possibilità di programmare i robot con moralità.

"Un concetto come il danno è difficile da programmare", ha detto il panelista Gary Marcus, professore di psicologia e scienza neuronale alla NYU e CEO e co-fondatore di Geometric Intelligence, Inc. Ha detto che concetti come la giustizia non hanno un taglio rispondere al programma e al momento non disponiamo di un buon insieme di principi morali per i robot oltre alle leggi di Asimov, che erano presenti in film come Io Robot.

Ha detto che era il punto su cui si è unito al gruppo, per iniziare una conversazione su come dovremmo affrontare la moralità dei robot.

Elon Musk questa settimana ha discusso la sua preoccupazione per l'intelligenza artificiale, arrivando a suggerire che viviamo tutti in una specie di simulazione La matrice e che gli umani dovrebbero investire nel merletto neurale che si attaccherà al cervello e aumenterà le capacità cognitive umane. Altri futuristi come Stephen Hawking hanno avvertito dei pericoli di A.I. e questa settimana Matt Damon ha ammonito lo stesso durante il suo discorso di inizio al MIT.

Altri scenari includevano sistemi d'arma autonomi militarizzati e come affronteremo moralmente e filosoficamente queste decisioni umane sul campo di battaglia e quali decisioni potrebbero prendere le auto autonome in un futuro non troppo lontano.

I partecipanti al panel non hanno raggiunto un consenso su cosa fare, ma hanno detto che ci sono enormi benefici per A.I. questo non dovrebbe essere buttato fuori dalla finestra solo perché queste domande sono difficili. Hanno suggerito di parlare più apertamente di questo tipo di domande morali sulle mine e forse ci avvicineremo a prevenire l'apocalisse dei robot.

$config[ads_kvadrat] not found