A.I .: I ricercatori mostrano come le macchine possono fingere attraverso le conversazioni

$config[ads_kvadrat] not found

Disinfettante per mani: i ricercatori Unical mostrano come prepararlo senza rischi

Disinfettante per mani: i ricercatori Unical mostrano come prepararlo senza rischi
Anonim

Se non altro, puoi fare questo per l'intelligenza artificiale: raramente hanno paura di sembrare stupidi. Se un apprendimento A.I. incontra qualcosa al di fuori della sua conoscenza pre-programmata, in genere non è timido nel chiedere alla persona con cui sta parlando di chiarire.

Questo, tuttavia, può comportare conversazioni piuttosto monotone per l'umano coinvolto nel parlare con il chatbot, l'assistente vocale o il robot generalmente in grado di conversare: "Cos'è una mela?" "Che cos'è il tiramisù?" "Che cos'è il salume?" "Che cosa sai letteralmente niente riguardo al cibo, stupida ricetta, chatbot?"

L'idea è stata presa e, come i ricercatori della Osaka University di Giappone hanno sottolineato in un recente lavoro i loro lavori, quest'ultima riga è indicativa del vero problema che deve affrontare l'AI: porre domande potrebbe essere il modo migliore per imparare, ma ciò non significa Contiamo molto se la raffica di domande è così irritante o noiosa che l'umano vaga. Non è abbastanza per l'A.I. per sapere cosa non sa. Deve anche sapere come mantenere gli uomini impegnati abbastanza da colmare le lacune nella sua conoscenza.

Il loro metodo di nuova concezione usa ciò che è noto come acquisizione lessicale attraverso la conferma implicita, che è fondamentalmente un modo elegante per dire che l'intelligenza artificiale può ora cavarsela attraverso le conversazioni proprio come possono fare gli umani. Questo trucco non viene risolto chiedendo agli umani di confermare ciò che è qualcosa, ma piuttosto dicendo qualcos'altro che indirettamente induce il partner di conversazione a confermare o negare che l'istinto di A.I. sia corretto.

Diamo un'occhiata a un esempio.

L'A.I. sa abbastanza per indovinare le origini della frase "nasi goreng", a giudicare sembra indonesiana. Il fatto che l'umano ha detto che proverà a cucinare questo piatto suggerisce che è un cibo di qualche tipo, e così l'A.I. genera questa affermazione, non una domanda, benché sia ​​nascosta al suo interno, sulla qualità dei ristoranti indonesiani della zona.

L'A.I. Potremmo presumibilmente utilizzare i dati di base sulle recenti aperture dei ristoranti e le loro recensioni online per capire se questa affermazione ha un senso in realtà, forse altrimenti dire qualcosa come "C'è davvero bisogno di più buoni ristoranti indonesiani qui intorno" se non trovi molte opzioni.

Ma questo è solo per ridurre la confusione, in quanto anche l'essere umano in disaccordo con l'affermazione risponderebbe comunque alla domanda di fondo sul fatto che il nasi goreng sia indonesiano. È solo se la persona chiede che cosa l'A.I. Sta dicendo che è chiaro che la macchina ha fatto un errore.

Quindi, se pensavi che fingere di farsi strada attraverso le conversazioni alle feste fosse qualcosa che solo gli umani potrebbero mai fare … scusa, l'automazione arriva davvero per tutti noi.

$config[ads_kvadrat] not found