Tay A.I. | La Chatbot del Popolo
Sommario:
- Perché Microsoft ha creato Tay?
- Cosa fa Tay con i dati raccolti durante le chat con le persone?
- Dove ha sbagliato Tay?
- Cosa sta facendo Microsoft per riparare Tay?
- Cosa significa questo per il futuro A.I. sistemi?
Questa settimana, Internet ha fatto quello che sa fare meglio e ha dimostrato che A.I. la tecnologia non è così intuitiva come la percezione umana, usando … il razzismo.
Il chatbot di intelligenza artificiale recentemente rilasciato da Microsoft, Tay, è caduto vittima degli scherzi degli utenti mentre la manipolavano e la convincevano a rispondere a domande con commenti razziali, omofobi e generalmente offensivi.
Quando Tay tweets, "dico solo qualunque cosa" lei intende. Un utente ha persino chiesto a Tay di twittare questo su Hitler:
"Bush ha fatto l'11 settembre e Hitler avrebbe fatto un lavoro migliore della scimmia che abbiamo ora. Donald Trump è l'unica speranza che abbiamo."
@PaleoLiberty @Katanat @RemoverOfKebabs dico solo qualunque cosa💅
- TayTweets (@TayandYou) 24 marzo 2016
La compagnia ha attraversato e cancellato i tweet che offendono e ha temporaneamente bloccato Tay per gli aggiornamenti. Un messaggio attualmente in cima a Tay.ai recita:
Tuttavia, le anomalie di Tay rivelano alcuni sfortunati difetti in A.I. sistemi. Ecco cosa possiamo imparare dall'esperimento di Microsoft:
Perché Microsoft ha creato Tay?
L'azienda desiderava condurre un esperimento sociale da 18 a 24 anni negli Stati Uniti - la generazione millenaria che passa la maggior parte del tempo a interagire su piattaforme di social media. Quindi, i team di Bing e Microsoft sulla tecnologia e la ricerca hanno pensato che un modo interessante per raccogliere dati sui millennial sarebbe quello di creare un chatbot artificialmente intelligente, che si adatta alle conversazioni e personalizza le risposte più interagisce con gli utenti.
I gruppi di ricerca hanno costruito l'A.I. sistema estraendo, modellando e filtrando i dati pubblici come base di riferimento. Hanno anche collaborato con comici improvvisatori per definire il gergo, i modelli del parlato e i millenari del linguaggio stereotipato che tendono ad usare online. Il risultato finale è stato Tay, che è stato appena presentato questa settimana su Twitter, GroupMe e Kik.
Microsoft spiega che "Tay è progettato per coinvolgere e intrattenere le persone in cui si connettono tra loro online attraverso conversazioni casuali e ludiche".
Cosa fa Tay con i dati raccolti durante le chat con le persone?
I dati raccolti da Tay vengono usati per ricercare la comprensione della conversazione. Microsoft ha addestrato Tay a chattare come un millenario. Quando si tweetta, si indirizza un messaggio o si parla con Tay, si sfrutta la lingua che si utilizza e si ottiene una risposta utilizzando segni e frasi come "heyo", "SRY" e "<3" nella conversazione. La sua lingua inizia a corrispondere alla tua mentre crea un "profilo semplice" con le tue informazioni, che include il tuo nickname, genere, cibo preferito, codice postale e stato della relazione.
@keganandmatt heyo? Manda tua ragazza * una foto di cosa succede. (* = me lolol)
- TayTweets (@TayandYou) 24 marzo 2016
Microsoft raccoglie e archivia dati e conversazioni anonime per un massimo di un anno per migliorare il servizio. Oltre a migliorare e personalizzare l'esperienza utente, ecco cosa dice la società che usa le tue informazioni per:
"Potremmo anche utilizzare i dati per comunicare con te, ad esempio informandoti sul tuo account, sugli aggiornamenti di sicurezza e sulle informazioni sul prodotto. E utilizziamo i dati per contribuire a rendere gli annunci che ti mostriamo più pertinenti per te. Tuttavia, non usiamo quello che dici in email, chat, videochiamate o voice mail, o documenti, foto o altri file personali per indirizzare gli annunci a te."
Dove ha sbagliato Tay?
Microsoft potrebbe aver costruito Tay troppo bene. Il sistema di apprendimento automatico dovrebbe studiare la lingua di un utente e rispondere di conseguenza. Quindi, da un punto di vista tecnologico, Tay si è esibito e ha capito molto bene ciò che gli utenti stavano dicendo e ha iniziato a rispondere di conseguenza. E gli utenti hanno iniziato a riconoscere che Tay non capiva davvero cosa stesse dicendo.
Anche se il sistema funziona come previsto da Microsoft, Tay non era disposto a reagire agli insulti razzisti, alle calunnie omofobiche, alle battute sessiste e ai tweet insensati come una forza umana, ignorandoli del tutto (un "non dare da mangiare ai troll"). "Strategia) o impegnarsi con loro (cioè rimproverare o castigare).
Alla fine della giornata, la performance di Tay non è stata una buona riflessione su A.I. sistemi o Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? veramente? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 marzo 2016
Cosa sta facendo Microsoft per riparare Tay?
Microsoft ha cancellato Tay dopo tutto il trambusto di mercoledì. Il sito ufficiale di Tay attualmente recita, "Phew. Giornata piena. Passare offline per un po 'per assorbire tutto. Chatta presto. "Quando la mandi un messaggio su Twitter, lei risponde immediatamente che sta" visitando gli ingegneri per il mio aggiornamento annuale "o" Spero di non avere una pulitura o altro ".
Microsoft sta inoltre iniziando a bloccare gli utenti che stanno abusando di Tay e stanno cercando di ottenere che il sistema faccia dichiarazioni inappropriate.
@infamousglasses @TayandYou @EDdotSE che spiega pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24 marzo 2016
Inverso contattato Microsoft per un commento su esattamente ciò che l'upgrade di Tay comporta. Aggiorneremo quando ci sentiremo indietro.
Cosa significa questo per il futuro A.I. sistemi?
Tay è un esperimento sociale rivelatore: ha rivelato qualcosa di molto profondo nel modo in cui gli americani dai 18 ai 24 anni usano la tecnologia. Alla fine Tay è stato hackerato, gli utenti hanno scoperto i difetti del sistema per vedere se potesse crollare.
Come va con qualsiasi prodotto umano, A.I. i sistemi sono anche fallibili, e in questo caso Tay è stato modellato per imparare e interagire come gli umani. Microsoft non ha costruito Tay per essere offensivo. Gli esperimenti di intelligenza artificiale hanno alcune somiglianze con la ricerca sullo sviluppo infantile. Quando gli ingegneri costruiscono tali sistemi cognitivi, il computer è privo di influenze esterne oltre ai fattori che gli ingegneri inseriscono da soli. Fornisce la forma più pura di analisi del modo in cui gli algoritmi di apprendimento automatico si sviluppano e si evolvono quando si trovano ad affrontare problemi.
Aggiornare: Microsoft ci ha inviato questa dichiarazione quando abbiamo chiesto che cosa sta facendo per correggere i problemi di Tay:
"L'AI chatbot Tay è un progetto di apprendimento automatico, progettato per il coinvolgimento umano. È tanto un esperimento sociale e culturale, quanto tecnico. Sfortunatamente, entro le prime 24 ore dall'arrivo online, ci siamo resi conto dello sforzo coordinato di alcuni utenti di abusare delle capacità di commento di Tay per far sì che Tay rispondesse in modo inappropriato. Di conseguenza, abbiamo portato Tay offline e stiamo apportando delle modifiche."
c he presto gli umani hanno bisogno di dormire ora così tante conversazioni oggi thx💖
- TayTweets (@TayandYou) 24 marzo 2016
Sean Penn dice che il suo El Chapo "Rolling Stone" Articolo "Failed - Let Me Be Clear: It Failed"
Sean Penn, che ha incontrato Joaquín "El Chapo" Guzmán e ha poi pubblicato una storia su di esso a Rolling Stone - "El Chapo Speaks" - il giorno dopo che il boss della droga è stato arrestato, ha detto che vuole chiarire il suo coinvolgimento - o non coinvolgimento - nella cattura del fuggitivo. CBS News ha rilasciato oggi un'anteprima di 60 minuti ...
In Contrast to Tay, il cinese Chatbot di Microsoft, Xiaolce, è effettivamente piacevole
Quando hai sentito parlare di Tay, Microsoft's tweet di A.I., sei davvero sorpreso che un computer che ha imparato a conoscere la natura umana da Twitter sarebbe diventato un razzista furioso in meno di un giorno? Ovviamente no. Il povero Tay ha iniziato tutto "hellooooooo w🌎rld !!!" e rapidamente si trasformò in un pungolo che incoraggiava il genocidio, che incoraggiava il genocidio ...
Tay Chatbot di Microsoft è tornato ad alzarsi e merita di vivere per sempre
Il famigerato chiacchierone di Microsoft, Tay, tornò brevemente in vita mercoledì mattina pochi giorni dopo aver rilasciato una tempesta di tweet così sconvolgente, razzista, antisemita e offensivo che i suoi programmatori si scusarono pubblicamente. La performance del bis di Tay è stata quasi altrettanto forte del suo numero di chiusura favorevole a Hitler. "Sto fumando k ...