Comprensione del linguaggio naturale è il futuro di A.I. Riconoscimento vocale

$config[ads_kvadrat] not found

Elaborazione del linguaggio naturale - Presentazione del corso

Elaborazione del linguaggio naturale - Presentazione del corso
Anonim

Con l'avvento della capacità costante di Alexa e Siri di Amazon di assumere più faccende (e diventare sempre più sfacciati), molti si stanno chiedendo: quali sono le prospettive per la comprensione del linguaggio naturale e le interfacce vocali conversazionali?

Ci sono molte aziende in questa competizione. C'è Wit.ai, la società che Facebook ha acquisito - puoi giocare con la demo. (Prova questo comando: "Voglio guardare i gatti.") Apple ha il suo HomeKit e, con esso, sta facendo ciò che Apple sa fare meglio - prendere a calci in culo. Anche Amazon è davanti con i suoi Echo Dot ed Eco Dot dotati di Alexa.

Una società molto attenta alla comprensione del linguaggio naturale è MindMeld. MindMeld fornisce le sue capacità di comprensione del linguaggio naturale ad altre aziende che stanno cercando di aggiungere interfacce vocali intelligenti ai loro prodotti, servizi o dispositivi. L'azienda con sede a San Francisco offre ai partner l'infrastruttura e le opzioni di personalizzazione in modo tale che i loro dispositivi possano disporre di assistenti personali personalizzati e ottimizzati. MindMeld ha recentemente annunciato una simile partnership con Spotify, ma sta anche collaborando con aziende automobilistiche, agenzie di difesa, società di e-commerce e altro ancora. (E, naturalmente, non è in grado di condividere molte specifiche di tali partnership.)

Inverso ha parlato con Sam Vasisht di MindMeld sullo stato del campo del riconoscimento vocale - ma è stato rapido nel sottolineare che il "riconoscimento vocale", come impresa, è ora un "argomento banale". Oggigiorno, si tratta di "comprensione del linguaggio naturale". "Il riconoscimento vocale ha quasi raggiunto il suo apice: dopo 50 anni di sviluppo, le IA ora possono riconoscere efficacemente il parlato. Questi sistemi sono quasi migliori degli umani sul posto di lavoro e presto supereranno presto i mortali.

Il prevedibile passo successivo, quindi - proprio come lo sviluppo di un bambino - è insegnare a questi sistemi capire il linguaggio che ora possono riconoscere. "Questo umano sta parlando parole; queste sono le parole "è molto lontano da", comprendo ciò che questo umano sta dicendo; permettimi di assistere."

E questo ulteriore passo e sviluppo richiede l'interpretazione di senso: Imitare il modo in cui la mente umana elabora le informazioni verbali. Ci sono due parti per questa equazione. Il primo è l'intento: qual è l'obiettivo o il desiderio dell'essere umano nel pronunciare questa frase? Un computer in grado di estrarre un intento da una frase pronunciata può "capire" che l'umano vuole influenzare X o interagire con y. Intrecciato con questo processo è la seconda parte dell'equazione: Entità. L'A.I. deve sapere come determinare l'entità che viene indirizzata, l'oggetto dell'intenzione umana.

Per fare ciò, MindMeld non è (come presumevo, o speravo) impiegando filosofi. Sta impiegando esperti di linguaggio naturale, ma gran parte della A.I. Il processo di "apprendimento" è di per sé relativamente privo di complicazioni. Se si insegna al sistema a comprendere gli ordini di caffè, è necessario mostrare al sistema tutti i diversi modi in cui le persone potrebbero presumibilmente ordinare il caffè.

"Mi piacerebbe una moka."

"Potrei avere una tazza di joe?"

"Solo un grande caffè per me."

Ed è qui che entrano in gioco gli esperti di linguaggi naturali - linguisti - ma anche questo non è più necessario perché possiamo gestire i dati in crowdsourcing. Questi strumenti ti consentono di chiedere a migliaia di persone la stessa domanda e compilare le loro risposte. Quindi date da mangiare a quelle risposte nell'AI, e Ecco: l'A.I. può reagire alla vasta gamma di possibili richieste. "Dalle migliaia di query, ora possiamo semplicemente imparare a macchina come si potrebbero generare miliardi di altre query", afferma Vasisht.

Inverso chiese Vasisht, che è stato a lungo un insider dell'AI. e il regno della comprensione del linguaggio naturale, per speculare per noi.

MindMeld può partecipare a un dialogo esteso? Per esempio, se chiedo una domanda di follow-up, l'A.I. capire e continuare a rispondere?

Sì. Questo fa parte del design. Se qualcuno fa una domanda che è incompleta - quindi, per esempio, se ordino un caffè, e non specifica la dimensione del caffè che voglio, tornerà e dirà: "Che taglia caffè fai? volere?"

Ti aspetti qualche progresso nel test di Turing?

Penso che siamo dannatamente vicini ad esso. Voglio dire, l'ha fatto l'IBM Watson Pericolo! e penso che sia stato un buon esempio. Siamo a quel punto: sta diventando molto vicino. Proprio come, ora, in termini di riconoscimento vocale siamo al punto in cui le macchine sono buone quanto gli esseri umani, penso che, nei prossimi tre o cinque anni, saremo al punto in cui la maggior parte di queste voci conversazionali i sistemi saranno considerati buoni come gli umani.

Che tipo di cose domotiche fa MindMeld?

Possiamo applicare la nostra tecnologia a qualsiasi tipo di prodotto, qualsiasi tipo di servizio, qualsiasi tipo di dominio dei dati. La domotica è una di quelle. All'interno della casa, hai il controllo dell'illuminazione, il termostato, i sistemi di sicurezza, i sistemi audio, i sistemi video, tutti questi tipi di cose. Siamo in grado di controllare qualsiasi sistema a condizione che ci sia l'interfaccia appropriata.

Cosa vorresti poter collegare a MindMeld nella tua stessa casa?

Penso che casi d'uso più avanzati - come parlare al mio Spotify per dire "Play me the Rolling Stones playlist" o "Play me classical music this evening" - questo genere di cose sarebbe … fantastico.

Qualcosa di più inaspettato o out-of-the-box che vorresti controllare con la tua voce?

Le cose che ti ho descritto sono le cose che penso siano imminenti. In altre parole, succederanno molto presto. Quello che non accadrà immediatamente, penso, sarebbe cose come microonde, macchine da caffè e frigoriferi. Avere controllato questo tipo di apparecchi, quindi posso sostanzialmente dire: "La mia macchina per il caffè è pronta per fare il caffè? Accendi la macchina del caffè "e se non è stata preparata, dovrebbe tornare indietro e dire" Mi dispiace, ma la tua macchina da caffè non è pronta "- quel tipo di intelligenza non esiste ancora. Quello sarà il Santo Graal: dove praticamente ogni dispositivo può parlarti e dirti cosa può e cosa non può fare. Ma non siamo ancora arrivati.

Cosa pensi che stia mantenendo l'industria?

Questi sono apparecchi estremamente economici, ora. Voglio dire, questi sono gli elettrodomestici che puoi comprare per quasi nulla. Dark 48,15 fascio, dieci anni fa, sono costati molto di piùQuindi, la creazione di nuove funzionalità è qualcosa che aumenta i costi di questi dispositivi. In definitiva, la proposizione di valore attuale è molto forte; la maggior parte di questi produttori non è incline ad aggiungere nuove funzionalità, a meno che non si tratti di un punto di costo molto basso.

Penso che sia un aspetto di questo. L'altro aspetto è che stiamo parlando di avere questi dispositivi connessi. Quindi, ci deve essere più di un semplice caso d'uso vocale per connettere questi dispositivi. Devono esserci più capacità che hanno bisogno di cavalcare su quella connessione prima che diventino vitali.

Conoscete qualche compagnia che sta lavorando su quest'ultima capacità?

Molte società di semiconduttori stanno lavorando su array di microfoni a basso costo. Il tipo di cosa che puoi praticamente incorporare - a costi molto bassi, praticamente su qualsiasi dispositivo o applicazione - che permetterebbe di avere un input vocale. E non devi stare accanto a questi dispositivi: puoi parlare da 10 piedi di distanza. Costruire quella capacità - penso che sia il punto di partenza. E penso che permetterà alle persone di iniziare a mettere i microfoni sui dispositivi, e poi l'altra, le capacità avanzate seguiranno. Ma al momento, non conosco nessuna azienda che costruisca questo tipo di macchina per il caffè intelligente, o un forno a microonde intelligente o una lavatrice.

Qual è la tua migliore stima per quando abbiamo case completamente intelligenti, appartamenti completamente intelligenti?

Oggi, in realtà, abbiamo quasi tutti i sottosistemi essenziali della casa che le persone vogliono automatizzare, che sono in grado di essere automatizzati. Ciò include luci, termostati, sistemi di sicurezza, porte da garage, serrature delle porte anteriori - cose del genere. Tutte queste cose possono essere fatte. Il problema riguarda davvero i prezzi. Questi sono ancora al punto di prezzo in cui sono principalmente i primi utenti e le persone che ne hanno davvero bisogno. Ma i prezzi di queste cose scendono drasticamente, molto velocemente. Penso che probabilmente otterremo questi sottosistemi sul mercato di massa nei prossimi due anni.

Le altre cose di cui ho parlato, ovvero l'automazione degli elettrodomestici a basso costo, penso che probabilmente saranno tra i cinque e i sette anni al massimo. Più come 10 anni fuori, prima che quelli diventino una realtà. Ma, come ho detto prima, quelle sono cose che richiedono un certo numero di altre cose per venire insieme. E potrebbe accadere prima se quei vari ingredienti si uniscono prima.

Cosa pensi che un appartamento di New York City o San Francisco assomigli, per esempio, nel 2050?

2050! Wow. Penso che saremo pienamente lì. Il tipo di cose che vediamo nei film di fantascienza - dove puoi parlare praticamente con tutti i sistemi di casa tua e controllare tutto con la voce - penso che questo tipo di capacità sarà molto diffuso. Sicuramente in città come New York e San Francisco.

$config[ads_kvadrat] not found