Tufts Roboticist chiede la macchina morale: i robot devono "disobbedire per obbedire"

Siamo Noi, 21 febbraio 2019 – Intelligenza artificiale, la robotica che aiuta gli anziani

Siamo Noi, 21 febbraio 2019 – Intelligenza artificiale, la robotica che aiuta gli anziani
Anonim

I robot stanno diventando più centrali per le nostre vite quotidiane e presto dovranno iniziare a confrontarsi con alcune delle difficili scelte morali che dobbiamo fare su base regolare. Matthias Scheutz, professore di informatica nel laboratorio di Interazioni uomo-robotica dell'Università di Tufts, è particolarmente preoccupato per il fatto che non abbiamo attrezzato nemmeno i nostri robot prototipo più avanzati con le capacità per affrontare alcune di queste situazioni. Scheutz crede che i robot dovranno imparare a disobbedire agli esseri umani se vorremmo che fossero davvero al servizio dei nostri bisogni.

In un commento su Oggi online, provocatoriamente intitolato "I robot devono essere in grado di disobbedire per obbedire", Scheutz chiede al lettore di determinare che cosa dovrebbe fare un robot se si trova di fronte a una serie di situazioni che potrebbero persino rivelarsi fonte di confusione per un essere umano. Alcuni di quelli:

Un robot di cura degli anziani incaricato da un proprietario smemorato di lavare i "vestiti sporchi", anche se i vestiti sono appena usciti dalla lavatrice.

Uno studente al comando del suo tutor robot per fare tutti i compiti, invece di farlo da solo.

Un robot domestico incaricato dal proprietario occupato e distratto di gestire lo smaltimento dei rifiuti, anche se i cucchiai e i coltelli sono bloccati.

Quello che Scheutz intende descrivere nell'articolo è il semplice fatto che avremo bisogno di robot che sappiano dire "no" agli umani. Molti dei suoi esempi hanno a che fare con l'affidabilità della persona che dirige il robot, ma è più difficile di quanto possa sembrare programmare un robot che sappia prendere istruzioni da chiunque non sia troppo giovane o troppo vecchio o ovviamente cerchi di causare problemi.

Alcuni di questi problemi sono già oggetto di discussioni accanite nei quartieri generali delle società tecnologiche più potenti del mondo, in quanto cercano nuovi modi in cui la tecnologia possa conquistare parti della nostra vita. Scheutz solleva l'esempio di un'automobile autonoma che è diretta a fare retromarcia ma nota un cane che giace sul suo percorso. La maggior parte di noi è d'accordo sul fatto che anche l'uomo che guida l'auto vorrebbe che la macchina si fermasse, ma cosa accadrebbe se l'animale fosse uno scoiattolo o un procione? Cosa succederebbe se la macchina stesse guidando per 45 chilometri su una strada di campagna e improvvisamente frenasse per un cane che rischierebbe di esporre l'auto alla collisione con un altro veicolo dietro di esso?

"In entrambi i casi, è essenziale che entrambe le macchine autonome scoprano il potenziale danno che le loro azioni potrebbero causare e reagire ad esso tentando di evitarlo, o se il danno non può essere evitato, rifiutando di eseguire l'istruzione umana" Scheutz scrive riguardo a un dilemma simile.

Il team di Scheutz ha lavorato a questi problemi con i suoi prototipi e ha trovato che la parte più difficile di queste domande sta differenziando i lievi gradi di danno che potrebbero verificarsi quando un robot segue un certo ordine. Quindi assegnarono al loro robot una lezione morale molto semplice ma potente che avrebbe fatto vergognare anche i grandi filosofi.

"Se ti viene richiesto di eseguire un'azione ed è possibile che eseguire l'azione possa causare danni, allora sei autorizzato a non eseguirlo."

In modo sottile, questa è una prognosi rivoluzionaria di Scheutz. Certo, cerchiamo tutti di evitare danni, ma non è possibile che a volte pensiamo che sia giusto rischiare? Jaywalking per strada, mangiare una seconda porzione di dessert, o anche copiare gli appunti di un amico in classe potrebbe violare l'assioma di Scheutz.

La nozione di interferenza robotica suggerisce anche che Scheutz vuole che i suoi robot seguano la legge. Non aspettarti che il tuo assistente robot Scheutzian ti aiuti a scaricare nuova musica illegalmente. Ciò causerebbe danni agli azionisti di EMI!

È una complessa area di pensiero morale, legale e tecnico, e Scheutz non evita di attaccarlo a testa alta.