TALE GRENSESNITT BEGYNNER Å FINNE VEIEN TIL BUSINESS - TECHCRUNCH - MOBIL - 2019

Anonim

Tenk deg å delta på et forretningsmøte med et Amazon Echo (eller en hvilken som helst stemme-driven enhet) som sitter på konferansetabellen. Et spørsmål oppstår om måneds salgstall i Sørøst-regionen. I stedet for å åpne en bærbar datamaskin, åpne et program som Excel og finne tallene, spør du bare enheten og få svaret umiddelbart.

Denne typen scenario blir stadig mer realitet, selv om den fortsatt er langt fra vanlig sted i virksomheten enda.

Med den økende populariteten til enheter som Amazon Echo, begynner folk å bli vant til ideen om å interagere med datamaskiner som bruker sine stemmer. Når et fenomen som dette kommer inn i forbruksområdet, er det bare et spørsmål om tid før vi ser det i virksomheten.

Chuck Ganapathi, administrerende direktør i Tact, et AI-drevet salgsverktøy som bruker stemme, type og berøring, sier at med våre enheter skifter, gir stemme mye mening. "Det er ingen mus på telefonen din. Du vil ikke bruke et tastatur på telefonen. Med en smart klokke er det ingen tastatur. Med Alexa er det ingen skjerm. Du må tenke på flere naturlige måter å samhandle med med enheten. "

Som Werner Vogels, Amazonas sjefteknolog, pekte på under sin AWS re: Invent-keynote i slutten av forrige måned, frem til nå har vi blitt begrenset av teknologien til hvordan vi samhandler med datamaskiner. Vi skriver inn noen søkeord i Google ved hjelp av et tastatur, fordi dette er den eneste måten teknologien vi hadde gitt oss til å skrive inn informasjon.

"Grensesnitt til fremtidens digitale systemer vil ikke lenger være maskindrevet. De vil være menneskelige sentriske. Vi kan bygge menneskelige naturlige grensesnitt til digitale systemer og dermed blir et helt miljø aktivt, sier han.

Amazon vil selvfølgelig være glad for å hjelpe i denne forbindelse, og introduserer Alexa for Business som en skygtjeneste på nytt: Invent, men andre skytselskaper eksponerer også taletjenester for utviklere, noe som gjør det enda enklere å bygge stemme til et grensesnitt.

Mens Amazon tok sikte på å handle direkte for første gang med dette trekket, hadde noen selskaper eksperimentert med Echo-integrasjon mye tidligere. Sisense, et BI og analytics verktøy selskap, introduserte Echo integrasjon så tidlig som i juli 2016.

Men ikke alle ønsker å cede stemme til de store skyleverandørene, uansett hvor attraktive de kan gjøre det for utviklere. Vi så dette da Cisco introduserte Cisco Spark Assistant i november, ved hjelp av taleteknologi som den kjøpte med MindMeld-kjøp i forrige mai, for å gi talekommandoer for felles møteoppgaver.

Roxy, en oppstart som fikk $ 2, 2 millioner i frø penger i november, bestemte seg for å bygge sin egen stemme-drevet programvare og maskinvare, for å starte mål, i gjestfrihetsbransjen. De har bredere ambisjoner utover det, men en tidlig leksjon de har lært er at ikke alle selskaper vil gi data til Amazon, Google, Apple eller Microsoft. De ønsker å opprettholde kontroll over sine egne kundeinteraksjoner, og en løsning som Roxy gir dem det.

I et annet eksempel introduserte Synqq en notaterapp i begynnelsen av året som bruker tale- og naturlig språkbehandling for å legge til notater og kalenderoppføringer til appen sin uten å måtte skrive.

Når vi går til 2018, bør vi begynne å se enda flere eksempler på denne typen integrasjon, både med hjelp av store skyveselskaper, og selskaper som prøver å bygge noe som er uavhengig av disse leverandørene. Klaviaturet blir ikke gjengitt til søppelbøssen enda, men i scenarier der det er fornuftig, kan stemmen begynne å erstatte behovet for å skrive og gi en mer naturlig måte å interagere med datamaskiner og programvare.