Shimi: Georgia Tech's New Robotic Musician
Per le orecchie sensibilizzate dagli special del dopo-scuola e dai seminari sulla diversità, questo suona male, ma vogliamo che i robot formino giudizi rapidi basati sull'apparenza. Superare il pregiudizio è buono, ma l'incapacità di stereotipo diminuisce l'intelligenza - artificiale e non. Alan Wagner, Ph.D., un robotista di Georgia Tech, è il principale sostenitore della tecnologia degli stereotipi. Sostiene che questo tipo di logica non ha bisogno di essere applicato alla razza o al genere, solo situazioni e comportamenti.
In un primo test del suo algoritmo stereotipato, Wagner ha addestrato un robot ingenuo per trarre conclusioni da ciò che ha visto. Il robot apprese e divenne percettivo, il che permise a Wagner di iniziare a pensare in modo critico all'etica delle ipotesi del robot, specialmente quelle pre-programmate. Ha parlato con Inverso del suo lavoro e delle sue ramificazioni.
Fammi vedere come ha funzionato l'esperimento.
Il robot interagisce con diversi tipi di individui: pompiere, EMT o quant'altro, ma non ha precedenti esperienze con nessuna di queste categorie di individui. È, fondamentalmente, l'apprendimento esperienziale.
L'idea era di mostrare che il robot poteva usare le caratteristiche percettive dell'individuo per prevedere i loro bisogni in termini di utilizzo degli strumenti. Il modo in cui l'algoritmo funzionava, la camera del robot percepiva aspetti diversi di ciò che sembrava l'individuo - il loro colore uniforme, per esempio, se avevano la barba e il colore dei capelli.
Farebbe anche loro delle domande su come sono fatti. Naturalmente, fare domande non è quello che si vuole fare sul campo, ma la percezione del robot è così limitata in questo momento. Avevamo bisogno di un modo per avviare il processo sull'apprendimento di una persona. La persona selezionerebbe lo strumento, quindi il robot selezionerebbe lo strumento e col tempo il robot imparerebbe quale strumento preferiva ogni tipo di persona.
Ti aspettavi che il robot venisse a sapere che un distintivo significa poliziotto o un pesante cappotto riflettente significa un vigile del fuoco?
Ci siamo proprio aspettati. Ma c'erano anche delle cose sorprendenti.Ad esempio, il robot ha falsamente riconosciuto che la barba è stata predetta con un pompiere, il che era strano, ma quando si guardano i dati, non era sorprendente. Le prime diverse persone che hanno interagito con esso erano i vigili del fuoco che avevano la barba. Quindi sosteniamo la necessità della diversità percettiva, l'idea che se il robot potesse vedere grandi, diversi tipi di individui in una categoria, sarebbe meglio sviluppare e comprendere la categoria.
Diresti che i robot autonomi dovrebbero essere addestrati per appianare queste stranezze, quindi un robot non penserà se questa persona ha la barba, è un pompiere?
Assolutamente. È fondamentale che appianiamo queste cose. È fondamentale avere questi robot che funzionano da una serie diversificata di individui.
Che aspetto potrebbe avere quell'apprendimento?
Permetterebbe al robot di concentrarsi su cose che meglio caratterizzano i vigili del fuoco. Ad esempio, un pompiere potrebbe non indossare nemmeno una giacca. Il robot avrebbe quindi notato altri aspetti della lotta antincendio, forse gli stivali, forse i guanti, forse i caschi. Direbbe, "OK questa persona davvero è un pompiere in questo ambiente."
Se hai avuto abbastanza persone, potrebbe essere in grado di riconoscere un vigile del fuoco al fuoco contro un vigile del fuoco ad una festa di Halloween. Sono dettagli percettivi sottili, come la differenza tra la qualità dei tipi di uniformi o gli ambienti contestuali.
Oltre ad associare barbe con i pompieri, quanto successo ha avuto questo algoritmo?
C'erano due cose che volevamo veramente guardare: una, cosa puoi fare con essa? Se i robot sono in grado di riconoscere i vigili del fuoco, è davvero utile in qualche modo? Il documento ha mostrato che ti permetteva di restringere la tua ricerca. Invece di guardare le barbe per il colore dei capelli, cercando il colore degli occhi o qualsiasi altra cosa tu possa cercare, potresti concentrarti sulle caratteristiche che veramente contavano. La persona che indossa un cappotto di pompiere? Ciò potrebbe accelerare il processo.
Un'altra cosa veramente critica che abbiamo esaminato è, e se la categoria che il robot prevede è errata? Come ti influenza? Puoi immaginare che gli ambienti di ricerca e di salvataggio possono essere caotici: forse lavori in condizioni di fumo, il robot potrebbe non essere in grado di percepire tutto molto bene, potrebbe avere degli errori. Potresti immaginare un caso peggiore, in cui il robot pensa che la persona sia una vittima quando in realtà sono un pompiere. Quindi sta cercando di salvare un pompiere. Sarebbe terribile. Volevamo vedere dove si rompe, come si rompe, quali caratteristiche hanno più impatto e quali sono i diversi tipi di errori.
Puoi usare questo approccio in diversi modi: se non possono vedere la persona, ma possono vedere le azioni che stanno facendo. Se riesco a vedere la persona che seleziona un'ascia, allora posso prevedere che hanno un elmetto.
Come ti avvicini al fatto che un robot valuti il contesto e faccia una previsione?
Abbiamo provato a guardare un paio di diversi tipi di ambienti: un ristorante, una scuola e una casa di cura. Abbiamo provato a catturare le caratteristiche dell'ambiente e quali oggetti sono presenti nell'ambiente, quali azioni sta selezionando la persona e come appaiono le persone nell'ambiente, e provare a utilizzarle per fare un sacco di previsioni sociali. Ad esempio, in un ambiente scolastico, le persone alzano la mano prima di parlare. Quindi, se vedo l'azione che le persone stanno alzando la mano, quale tipo di oggetti mi aspetto di vedere nell'ambiente? Mi aspetto di vedere una lavagna; mi aspetto di vedere una scrivania? Mi aspetterei di vedere bambini.
La speranza è di usare queste informazioni. Se il robot sta eseguendo una procedura di evacuazione, vedrebbe quali tipi di persone ci sono e dove potrebbero essere.
Diciamo che c'è un robot che arriva alla tua porta e dice: "Per favore, seguimi fino all'uscita". Qualcosa di così apparentemente semplice in realtà è molto complesso. Se un robot bussa a una porta in un condominio, non hai idea di chi interagirai. Potrebbe essere un bambino di quattro anni, potrebbe essere una persona di 95 anni. Ci piacerebbe che il robot adattasse il suo comportamento interattivo al tipo di persona che vede per salvarli. Stiamo prendendo alcune di queste lezioni contestuali e proviamo a sviluppare questa applicazione.
Usi una definizione simile di "stereotipo" per robot e umani, o c'è qualcos'altro?
Il termine stereotipizzazione ha un contesto negativo. Il modo in cui lo stiamo usando è semplicemente lo sviluppo di categorie di persone e l'uso di informazioni categoriali per prevedere le caratteristiche di una persona. So che in psicologia, un sacco di lavoro si concentra su stereotipi facciali e stereotipi di genere. Non stiamo facendo nulla del genere. Il processo è lo stesso? Non lo so. Nessuna idea.
Sei preoccupato che le persone possano avere idee sbagliate sul tuo lavoro?
Un paio di anni fa, abbiamo sviluppato questa idea di robot che potrebbe ingannare le persone. Nei media c'era un po 'di percezione errata che questo avrebbe portato a robot che rubavano i portafogli delle persone.
Mi piacerebbe utilizzare la situazione di evacuazione di emergenza: non sempre si vuole essere completamente onesti con una persona in evacuazione, giusto? Per esempio, se qualcuno ti chiedesse: "La mia famiglia sta bene?" Potrebbe essere terribile se il robot dicesse "No, sono tutti morti. Ti prego di seguirmi fino all'uscita. "Ci sono alcune situazioni in cui il robot ha effettivamente bisogno di essere brevemente disonesto. Ma la mia esperienza è stata che le persone si sentivano come se stessimo cercando di condurre alla fine del mondo.
Siamo sempre interessati agli aspetti pro-sociali di queste tecniche uomo-robot. Stiamo cercando di aiutare le persone, non essere qualcosa di male.
Leslie Jones risponde al ruolo di Ghostbusters di Claims: è stereotipato
Molte persone hanno avuto molto da dire sul trailer ufficiale di Ghostbusters che è uscito solo due giorni fa. Alcuni pensavano che fosse troppo serio, altri stavano speculando sul fatto che il personaggio di Kate McKinnon potesse essere schiacciante su Kristen Wiig, e su Twitter, la parola era che Leslie Jones - l'unica non-caucasica e non-scie ...
Promemoria per l'anno elettorale: il razzismo del nonno è il suo lobo frontale del cervello che si arrende
Tutti, a prescindere dal credo o dal colore, hanno quell'unico parente che rende gli incontri di festa in più imbarazzanti con insulti razzisti e prese culturali obsolete. L'esistenza stessa di questa persona pone una domanda esistenziale ai loro nipoti, figli e figlie: questa persona è marcia o appena oltre il suo primo? Come...
Il Tay di Microsoft non ha superato il test di Turing? Sì, ma il razzismo non era il problema
Se il successo di un'intelligenza artificiale è la creazione di una personalità artificiale, l'A.I. di Microsoft. Bot, Tay, potrebbe essere considerato un segno di progresso. Ma più ampiamente, Tay può essere giudicato un fallimento. "L'obiettivo della maggior parte delle persone che lavorano su agenti di conversazione di questo tipo, non è tanto da superare alcun genere ...