Questo robot ha imparato a dire "no" alle richieste dell'uomo

$config[ads_kvadrat] not found

Rigatoni cavoli olive e capperi, Parmigiana di alici, zuppetta di fave, Alici e fave, Filosc con i c

Rigatoni cavoli olive e capperi, Parmigiana di alici, zuppetta di fave, Alici e fave, Filosc con i c
Anonim

I robot, proprio come gli umani, devono imparare a dire "no". Se una richiesta è impossibile, causerebbe danni o li distraggerebbe dal compito in corso, allora è nell'interesse di un 'bot e del suo essere umano allo stesso modo per un diplomatico No grazie essere parte della conversazione.

Ma quando dovrebbe rispondere una macchina? E a quali condizioni? Gli ingegneri stanno cercando di capire come instillare questo senso di come e quando sfidare gli ordini in umanoidi.

Guarda questo robot Nao che si rifiuta di camminare in avanti, sapendo che così facendo lo farebbe cadere dal bordo di un tavolo:

Cose semplici, ma certamente essenziali per agire come un controllo dell'errore umano. I ricercatori Gordon Briggs e Matthias Scheutz della Tufts University hanno sviluppato un algoritmo complesso che consente al robot di valutare ciò che un umano gli ha chiesto di fare, decidere se farlo o meno, e rispondere in modo appropriato. La ricerca è stata presentata in una recente riunione dell'Associazione per l'Avanzamento dell'Intelligenza Artificiale.

Il robot si pone una serie di domande relative al fatto che il compito sia fattibile. So come farlo? Sono fisicamente in grado di farlo ora? Sono normalmente in grado di farlo fisicamente? Sono in grado di farlo adesso? Sono obbligato in base al mio ruolo sociale di farlo? Violenta qualsiasi principio normativo per farlo?

Il risultato è un robot che sembra non solo sensibile ma, un giorno, anche saggio.

Notate come Nao cambi idea su come avanzare dopo che l'umano promette di catturarlo. Sarebbe facile immaginare uno scenario diverso, in cui il robot dice "Assolutamente no, perché dovrei fidarmi di te?"

Ma Nao è una creatura sociale, dal design. Per compiacere gli umani è nel suo DNA, così, data l'informazione che l'umano intende catturarlo, si avanza ciecamente verso l'abisso. Certo, se l'umano dovesse ingannare la sua fiducia, sarebbe stato incastrato, ma si fida comunque. È la via di Nao.

Man mano che i compagni robot diventano più sofisticati, gli ingegneri robot dovranno affrontare queste domande. I robot dovranno prendere decisioni non solo per preservare la propria sicurezza, ma per questioni etiche più grandi. Cosa succede se un essere umano chiede ad un robot di uccidere? Per commettere frodi? Per distruggere un altro robot?

L'idea dell'etica della macchina non può essere separata dall'intelligenza artificiale: anche le nostre auto senza conducente del futuro dovranno essere progettate per fare scelte di vita o di morte per nostro conto. Quella conversazione sarà necessariamente più complessa della semplice consegna di ordini di marcia.

$config[ads_kvadrat] not found