Populære Innlegg

Redaksjonens - 2018

Få TVen din til å forstå deg bedre

Anonim

Ny forskning ut av University of Waterloo har funnet en måte å forbedre stemmeforespørsmålskapasiteten til hjemmeunderholdningsplattformer.

annonse


Forskningen, i samarbeid med University of Maryland og Comcast Applied AI Research Lab, bruker kunstig intelligens (AI) teknologi for å oppnå de mest naturlige talebaserte samspill med TV til dags dato.

"I dag har vi blitt vant til å snakke med intelligente agenter som gjør vår budgivning - fra Siri på mobiltelefon til Alexa hjemme. Hvorfor skulle vi ikke være i stand til å gjøre det samme med TV? spurte Jimmy Lin, professor ved University of Waterloo og David R. Cheriton Chair i David R. Cheriton School of Computer Science.

"Comcasts Xfinity X1 tar sikte på å gjøre akkurat det - plattformen kommer med en" fjernkontroll "som aksepterer talte spørringer. Ditt ønske er sin kommando - fortell TVen din for å bytte kanaler, spørre om gratis barnas filmer, og til og med om værmeldingen."

Ved å takle det komplekse problemet med å forstå stemmeforespørsler, hadde forskerne ideen om å benytte seg av den nyeste AI-teknologien - en teknikk som kalles hierarkisk tilbakevendende nevrale nettverk - for å bedre modellens kontekst og forbedre systemets nøyaktighet.

I januar 2018 ble forskerne nye neurale nettverksmodeller distribuert i produksjon for å svare på spørsmål fra virkelige brukere. I motsetning til det forrige systemet, som ble forvirret av omtrent åtte prosent av spørringene, håndterer den nye modellen de fleste av de svært kompliserte spørringene på riktig måte, og forbedrer brukeropplevelsen sterkt.

"Hvis en seer ber om 'Chicago Fire', som refererer til både en dramaserie og et fotballag, kan systemet dechifere det du virkelig vil, sier Lin. "Det som er spesielt med denne tilnærmingen er at vi utnytter kontekst - for eksempel tidligere sett viser og favorittkanaler - for å tilpasse resultater, og dermed øke nøyaktigheten."

Forskerne har begynt å jobbe med å utvikle en enda rikere modell. Intuisjonen er at ved å analysere spørringer fra flere perspektiver, kan systemet bedre forstå hva seeren sier.

Papiret, Multi-Task Learning with Neural Networks for Voice Query Understanding Entertainment Platform, ble presentert på den 24. ACM SIGKDD International Conference on Knowledge Discovery & Data Mining holdt nylig i Storbritannia. Forskningen ble gjennomført av Jinfeng Rao, doktorgradsstudent fra University of Maryland, hans rådgiver Lin, og mentor Ferhan Ture, en forsker ved Comcast Applied AI Research Lab.

annonse



Historie Kilde:

Materialer levert av University of Waterloo . Merk: Innholdet kan redigeres for stil og lengde.


Legg Igjen Din Kommentar