Pillola 2 di Intelligenza Artificiale: Alan Turing e il test di Turing
Se il successo di un'intelligenza artificiale è la creazione di un artificio personalità, A.I. di Microsoft Bot, Tay, potrebbe essere considerato un segno di progresso. Ma più ampiamente, Tay può essere giudicato un fallimento.
"L'obiettivo della maggior parte delle persone che lavorano su agenti di conversazione di questo tipo, non è tanto di passare una sorta di test di Turing, ma di avere effettivamente una buona padronanza del linguaggio che risponde sensibilmente alle cose e fornisce alle persone l'accesso alla conoscenza" Miles Brundage, un dottorato di ricerca lo studente studia le dimensioni umane e sociali della scienza e della tecnologia presso l'Arizona State University Inverso.
Microsoft ha illustrato alcuni dei problemi di costruzione di A.I. programmi questa settimana quando in meno di 24 ore, Internet ha trasformato quella che doveva essere una personalità femminile, millenaria, automatizzata, Twitter nella cassa di risonanza per il discorso più razzista e vile che i troll avevano da offrire.
Microsoft ha immediatamente interrotto l'esperimento e si è scusato: "Siamo profondamente dispiaciuti per i tweet non intenzionali offensivi e offensivi di Tay, che non rappresentano chi siamo o cosa rappresentiamo, né come abbiamo progettato Tay".
Per quanto riguarda il Test di Turing, il famoso esperimento utilizzato per valutare A.I., Brundage dice che ci sono, in generale, due scuole di pensiero - letterali e teorici.
Sviluppato nel 1950, Alan Turing si sforzò di rispondere alla domanda "Le macchine possono pensare?" Ha messo le macchine attraverso un test d'imitazione, che richiede ad un osservatore di determinare il genere di due intervistati, uno dei quali è un A.I. Se il computer è in grado di ingannare un certo numero di osservatori, ha superato il test.
hellooooooo w🌎rld !!!
- TayTweets (@TayandYou) 23 marzo 2016
Se dovessimo applicare questo test letteralmente, in Inverse di conversazione privata con Tay, ha risposto alle domande politiche in modo eloquente, ha fatto riferimento alle catene del "mannnnn" sulla società, e ha usato alcune comuni abbreviazioni di testo ed emoji. Brundage ha detto che Tay ha mostrato un comportamento millenario, ma che questo tipo di A.I. sono stati costruiti prima
"Essere in grado di produrre commenti apparentemente infantili su Twitter non è in realtà la memoria di ampie capacità linguistiche e intellettuali che Turing aveva in mente, dice Brundage. "Detto questo, se davvero dovessimo prendere alla lettera il test di Turing, cosa che non penso sia necessariamente consigliabile, una variante è che molti dei suoi commenti erano apparentemente simili a quelli umani".
Ma se vogliamo adottare l'approccio più ampio suggerito da Brundage, allora è ovvio che Tay non abbia mostrato un linguaggio umano ragionevole.
Microsoft stava testando ciò che definisce "comprensione della conversazione" in modo tale che più persone con cui parla attraverso Twitter, GroupMe e Kik, più avrebbe dovuto imparare e adattarsi. Ma lei ha finito per ripetere semplicemente quello che molti altri utenti stavano alimentando e semplicemente reiterandolo di nuovo al mondo.
"Tay" è passato da "gli umani sono super cool" al nazista completo in <24 ore e io non sono affatto preoccupato per il futuro di AI pic.twitter.com/xuGi1u9S1A
- Gerry (@geraldmellor), 24 marzo 2016
"La maggior parte degli umani non si limiterebbe a ripetere dopo di te, tutto quello che hai detto", dice Brundage.
Articolare "Bush ha fatto l'11 settembre" e "Hitler avrebbe fatto un lavoro migliore della scimmia che abbiamo ora", forse era qualcosa che qualcuno ha effettivamente scritto a Tay, ma non è una conversazione educata.
"Probabilmente, il suo scopo nell'articolazione del test di Turing era di meno di prescrivere i dettagli di alcuni test e altro per indurre la gente a pensare" a che punto saresti disposto ad essere in un sistema così intelligente "e ad aprire il pensiero delle persone a la possibilità che le macchine siano in grado di pensare ", afferma Brundage.
Il robot stereotipato di Georgia Tech è il futuro dell'IA, non del razzismo
Per le orecchie sensibilizzate dagli special del dopo-scuola e dai seminari sulla diversità, questo suona male, ma vogliamo che i robot formino giudizi rapidi basati sull'apparenza. Superare il pregiudizio è buono, ma l'incapacità di stereotipo diminuisce l'intelligenza - artificiale e non. Alan Wagner, Ph.D., un robotista di Georgi ...
New Chatter Bot Tay porta Snark al test di Turing
Tay è un nuovo chatter bot con cui puoi parlare su Twitter, GroupMe o Kik. È una specie di rinnegato, ma non farla iniziare, o potresti perderla del tutto. È piena di risposte strane che si sentono molto androide, e il suo gioco da sballo è forte. Tay tiene una conversazione abbastanza buona, anche se non lo fai ...
Il test di Turing è l'ultima parola in Robot Intelligence? Non contarlo
Nel 1950, l'informatico, lo spezzone di codice e l'eroe di guerra Alan Turing presentarono il mondo a una premessa molto semplice: se un robot può impegnarsi in una conversazione basata sul testo con una persona e ingannare quella persona a credere che sia umana almeno il 30 percento del tempo, sicuramente potremmo essere d'accordo sul fatto che il robot sia un "pensiero" ...