Il Tay di Microsoft non ha superato il test di Turing? Sì, ma il razzismo non era il problema

$config[ads_kvadrat] not found

Pillola 2 di Intelligenza Artificiale: Alan Turing e il test di Turing

Pillola 2 di Intelligenza Artificiale: Alan Turing e il test di Turing
Anonim

Se il successo di un'intelligenza artificiale è la creazione di un artificio personalità, A.I. di Microsoft Bot, Tay, potrebbe essere considerato un segno di progresso. Ma più ampiamente, Tay può essere giudicato un fallimento.

"L'obiettivo della maggior parte delle persone che lavorano su agenti di conversazione di questo tipo, non è tanto di passare una sorta di test di Turing, ma di avere effettivamente una buona padronanza del linguaggio che risponde sensibilmente alle cose e fornisce alle persone l'accesso alla conoscenza" Miles Brundage, un dottorato di ricerca lo studente studia le dimensioni umane e sociali della scienza e della tecnologia presso l'Arizona State University Inverso.

Microsoft ha illustrato alcuni dei problemi di costruzione di A.I. programmi questa settimana quando in meno di 24 ore, Internet ha trasformato quella che doveva essere una personalità femminile, millenaria, automatizzata, Twitter nella cassa di risonanza per il discorso più razzista e vile che i troll avevano da offrire.

Microsoft ha immediatamente interrotto l'esperimento e si è scusato: "Siamo profondamente dispiaciuti per i tweet non intenzionali offensivi e offensivi di Tay, che non rappresentano chi siamo o cosa rappresentiamo, né come abbiamo progettato Tay".

Per quanto riguarda il Test di Turing, il famoso esperimento utilizzato per valutare A.I., Brundage dice che ci sono, in generale, due scuole di pensiero - letterali e teorici.

Sviluppato nel 1950, Alan Turing si sforzò di rispondere alla domanda "Le macchine possono pensare?" Ha messo le macchine attraverso un test d'imitazione, che richiede ad un osservatore di determinare il genere di due intervistati, uno dei quali è un A.I. Se il computer è in grado di ingannare un certo numero di osservatori, ha superato il test.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 marzo 2016

Se dovessimo applicare questo test letteralmente, in Inverse di conversazione privata con Tay, ha risposto alle domande politiche in modo eloquente, ha fatto riferimento alle catene del "mannnnn" sulla società, e ha usato alcune comuni abbreviazioni di testo ed emoji. Brundage ha detto che Tay ha mostrato un comportamento millenario, ma che questo tipo di A.I. sono stati costruiti prima

"Essere in grado di produrre commenti apparentemente infantili su Twitter non è in realtà la memoria di ampie capacità linguistiche e intellettuali che Turing aveva in mente, dice Brundage. "Detto questo, se davvero dovessimo prendere alla lettera il test di Turing, cosa che non penso sia necessariamente consigliabile, una variante è che molti dei suoi commenti erano apparentemente simili a quelli umani".

Ma se vogliamo adottare l'approccio più ampio suggerito da Brundage, allora è ovvio che Tay non abbia mostrato un linguaggio umano ragionevole.

Microsoft stava testando ciò che definisce "comprensione della conversazione" in modo tale che più persone con cui parla attraverso Twitter, GroupMe e Kik, più avrebbe dovuto imparare e adattarsi. Ma lei ha finito per ripetere semplicemente quello che molti altri utenti stavano alimentando e semplicemente reiterandolo di nuovo al mondo.

"Tay" è passato da "gli umani sono super cool" al nazista completo in <24 ore e io non sono affatto preoccupato per il futuro di AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor), 24 marzo 2016

"La maggior parte degli umani non si limiterebbe a ripetere dopo di te, tutto quello che hai detto", dice Brundage.

Articolare "Bush ha fatto l'11 settembre" e "Hitler avrebbe fatto un lavoro migliore della scimmia che abbiamo ora", forse era qualcosa che qualcuno ha effettivamente scritto a Tay, ma non è una conversazione educata.

"Probabilmente, il suo scopo nell'articolazione del test di Turing era di meno di prescrivere i dettagli di alcuni test e altro per indurre la gente a pensare" a che punto saresti disposto ad essere in un sistema così intelligente "e ad aprire il pensiero delle persone a la possibilità che le macchine siano in grado di pensare ", afferma Brundage.

$config[ads_kvadrat] not found