En af mine yndlingskonferencer i år er denne uges Oracle Openworld, primært fordi Oracle er et firma, der konkurrerer i en række forskellige erhvervskategorier. Og de har apps til den højere ende af SMB-rummet. Desværre var jeg ikke i stand til at deltage i dette år, men meget heldig at tale med Suhas Uliyar, Oracle's VP for Bots, AI og Mobile Strategy.
Conversational Interface Technologies
Med kunstig intelligens, bots og voice-first-enheder er tre af de hotteste emner i dag, var jeg glad for, at Suhas tog lidt tid til at dele sine tanker om, hvordan kundeengagement bliver formet i realtid af disse teknologier. Nedenfor er et redigeret transkript af vores samtale. For at høre hele interviewet, klik venligst på den indlejrede afspiller nedenfor.
$config[code] not found* * * * *
Small Business Trends: Måske kunne du give os en lille smule af din personlige baggrund.Suhas Uliyar: Jeg har været i mobilindustrien i de sidste 21 år, og hvert år har været et fremragende og interessant år. Mobile fortsætter med at ændre sig hvert år, men jeg har været med Oracle nu i fire år. Før Oracle var jeg ledende VP hos SAP for deres Internet af Ting, og før det var jeg med Motorola Solutions som Chief Solutions Architect for Enterprise Applications.
Så jeg har været i denne industri i 20 plus år, og det har været en rigtig spændende tid det sidste årti plus. Kigger på udviklingen af mobil og nu Tech Bots og conversational AI.
Small Business Trends: Jeg havde en samtale lidt over et år siden med CTO og medstifter af Hubspot. Han sagde noget, der virkelig fascinerede mig. Han tænkte bots og conversational interfaces kan være den vigtigste teknologi i de sidste par årtier. Siden du har været omkring og været involveret i dette, er det så vigtigt? Er det vi ser med bots og voice-first devices … Er det på dette niveau af betydning i dit sind?
Suhas Uliyar: Absolut, Brent. Jeg beskriver det som næste gang i browseren. Faktisk vil chatbots og AI gøre for alle vores applikationer, og hvordan vi interagerer med data, hvilke browsere gjorde det til klienter eller apps, hvis du kan huske denne transformation.
Det kommer til at være det næste, jeg vil sige, at det næste årti handler om en samtale AI-første tilgang, der er en meget højere størrelse end det, vi så fra mobil-første tilgang.
Small Business Trends: Så vi hører meget om AI og med rette. Der foregår så meget i området. Men hvilken indvirkning har konversationsgrænseflader på AI?
Suhas Uliyar: Så AI er et bredt emne, Brent. Jeg synes, at der er flere smagsstoffer af AI, og den måde, vi plejer at kategorisere AI på, er disse fem spande. Først handler det om maskinindlæring, dyb indlæringsteknologi. En bestemt sproglig forståelse er absolut kritisk og afgørende for succesen af chatbots.
De andre kategorier er lige så vigtige. Den næste er dialog og kontekst. Den tredje er vidensydelser. Den fjerde er data og indsigt. En jeg mangler … kognitive tjenester omkring tale- og billedgenkendelse osv.
Hvorfor er naturlige sprogforståelser meget vigtige? Hvad kører virkelig vedtagelsen af denne enorme momentum, vi ser i samtaleinterface. Det er en kendsgerning, at vi kan tale om et sprog, der er mest naturligt for os og det, vi er mest komfortable i. Og når du ser på ting som Facebook Messenger eller ReachOut, WhatsApp, Telegram, Skype - alle de forskellige chatbaserede messaging. Det andet aspekt ved kommunikation er, at vi forventer og nærmer os øjeblikkelig øjeblikkelig respons fra den anden side. I dag var det meget menneskeligt for mennesker, men de to aspekter af en naturlig samtale og øjeblikkelige svar har gjort denne kanal meget attraktiv i forhold til at bruge e-mail eller en anden kommunikationskanal, hvor den er "ild og glemme" og vente, om Anden person reagerer eller ej.
For at det skal kunne skala for en virksomhed og være i stand til at bruge chatbots for virkelig at muliggøre denne vedtagelse, har du brug for noget, et computerprogram, dvs. en chatbot til at håndtere denne skala. Og at håndtere denne skala betyder at kunne behandle det naturlige sprog, der kommer ind fra slutbrugeren og derefter kunne udtrække relevant information fra den pågældende kommunikation og derefter integrere til alle registreringssystemer og kunne få information tilbage. Hvorvidt det er for eksempel en finansiel institution, hvor du forsøger at kontrollere balancen på dine konti eller dit flyselskab, hvor du finder ud af om der er et gangesæde til rådighed for dig til at reservere osv. Osv.
For at lette dette er naturlig sprogforståelse, dyb læring, maskinindlæringsalgoritmer meget kritiske, om det er neuralt netværk baseret eller spektrum baseret. Så uden AI og specifikt ville naturlig sprogforståelse, chatbots, efter min mening ikke engang tage afsted. Det er nummer et.
Det andet aspekt er det, jeg nævnte som dialog og kontekst. Hvilket er evnen til at gifte en samtale med slutbrugeren. Du vil sikre dig, at boten ikke er menneskelig, men samtidig vil du have en anstændig samtale med en slutbruger. Og vi ved alle, som mennesker, tror vi ikke ret lineært. Vi har tendens til at gå ud på forskellige tangenter og baseret på en række spørgsmål.
Lad os f.eks. Sige, at jeg søgte at overføre penge fra en konto til en anden, eller jeg vil betale, sende penge til nogen. Jeg siger, "Send penge til mor.", For eksempel. Og boten svarer med, "Ja, det er godt. Hvilken konto vil du have penge til at overføre? "Og jeg siger," checkkonto. "Og det siger:" Hvor meget vil du sende mor? "Og pludselig indser jeg faktisk, jeg er ikke sikker på, at jeg har nok penge i min kontrol konto. Jeg skal bare stille bot et spørgsmål, som er "Hvad er min balance?". Og jeg vil ikke give nogen anden sammenhæng end at sige "Hvad er min balance?" Og boten skal være smart, og konversationskontekstdesigneren skal være smart nok til at erkende, at du skifter kontekst nu, og du ' gå ned ad en anden vej spørger om saldi, måske følger opfølgende spørgsmål, hvad er transaktionerne, hvad er de indskud eller checks, der har ryddet. Og så kan du komme tilbage til den oprindelige transaktion, du havde. Så det er hvad jeg mener ved at være ikke-lineær.
Og dialogen og konteksten skal også fra et maskinlæringsperspektiv være smart nok til at forstå det og arbejde sammen med din naturlige sprogkundskab for at kunne behandle det.
En endelig kommentar, jeg vil gøre om dette - jeg nævnte ordet 'udvinding'. Når jeg som slutbruger får oplysninger som hvad var mine sidste fem indskud i min checkkonto, skal maskinindlæringen være smart nok til at forstå de sidste fem, og jeg behøver ikke at citere alt det. Maskininlæringsalgoritmen er smart nok til at udtrække al den information, uddrage oplysningerne som min checkkonto, ved hvem jeg er, hvad jeg beder om og konstruere integrationslaget for at få al information fra bagsiden.
Så langt svar, men AI er absolut kritisk for succesen med chatbots.
Small Business Trends: Fantastisk, og der har været så meget dykning i, og virksomhederne begynder virkelig deres konversationsgrænseflader, ser på chatbots og ser på, hvordan du kan integrere i ting som Facebook Messenger, fordi det er her, hvor alle mennesker er, og det er her hvor mange samtaler finder sted.
Men hvor ser du de stemme-første enheder begynder at komme ind? Er det noget, der virkelig er for langt for mange virksomheder at bekymre sig om eller kommer det hurtigere end nogle mennesker tror det er?
Suhas Uliyar: Jeg vil sige, at det kommer hurtigere … Du ser fra Alexa, men jeg er ikke sikker på, om du har hentet Google Home nu, har evnen til at have multi-user-godkendelse på tale. Så hvis for eksempel min datter siger "Call Mom.", Vil det ringe til min kone, i modsætning til at ringe til min mor. Og hvis jeg skulle sige, "Ring mor.", Ville det sige, "Du har ikke en mor."
Så jeg tror, at sofistikeret er allerede der, og der er mange sikkerheds sikkerhedsfunktioner, der tilføjes til det, så jeg vil sige, at stemmen kommer hurtigt.
$config[code] not foundMen før vi kommer ind i disse, hvad jeg kalder, VPA'er som Alexa eller Amazon Dot Echo, Google Home, Apple Pod. Brent, voice-first har været der gennem Siri, og Cortana og Google Voice. Hvad jeg vil sige er, især i erhvervslivets verden, især i CRM og service osv., Vil mange kunder gerne udvide deres eksisterende mobilapp eller deres eksisterende web-interface til at inkludere stemme i den.
Så hvis du f.eks. Bruger Internet Explorer eller Chrome eller din yndlingsbrowser, kan du udvide det på din MacBook eller på dine Surface-enheder og være i stand til at bruge enten Siri eller Cortana til at interfere med chatbot. Jeg tror ikke, du skal vente, indtil alle omfatter Amazon Dot, Echo, Google Home. Vi har set det for det sidste år plus hvor mobile enheder allerede har interageret ved hjælp af Siri, Cortana, Google Voice osv. Og så har det været en del af vores vedtagelse, der er sket i løbet af det sidste år. Hvor der er mobilenheder, der havde mobilapps, har du nu udvidelser til chat-applikationer inden for mobilappen eller i selve browseren. Inden for det selv kan du bruge disse talekanaler.
Så de vedtages allerede, og vi ser en meget naturlig vedtagelse af disse talekanaler, fordi folk igen kan lide at tale og bruge tale. Det eneste, der er, vil jeg sige, hæmmer væksten eller vedtagelsen af enheder som Dot Echo, er Google Home i virksomheden det sikkerhedslag af det, som jeg tror er ved at blive fikset meget hurtigt. I dag kan du f.eks. Bruge Alexa til en hjemmebank eller integration med din bank, hvilket nok er den mest sikre ting, som alle er bekymrede over. Så jeg ser denne progression meget hurtigt og meget hurtigt ser vi dette niveau.
Nu er det eneste, der stopper stemmen ved at blive vedtaget, generelt privatlivet, ikke nødvendigvis at gøre godkendelsen, tilladelse til det, men hvad folk kan lytte til. Så helt sikkert, du går ikke i dit hus med en flok gæster og spørger din bot, Alexa eller Google Home, hvad er din balance. Du vil gøre det i privatlivets fred. Problemet med det er, hvis du er i et offentligt miljø, uanset hvor du er, kan svaret tilbage i stemme blive hørt af de fleste mennesker. Så jeg tror, det kommer bare ned til brugen tilfælde omgivelserne hvor du er.
Derfor er et af de områder, vi har meget fokuseret på, indsamlet indsigt i vedtagelsen af disse kanaler. Det er ikke så enkelt at sige: "Folk vil ikke bruge stemme mod chat i forhold til det." Det er også i stand til at forstå, hvad der er de specifikke brugssager, hvor visse kanaler er bedre end de andre. Er der visse miljøer, er der visse tider, hvor disse kanaler anvendes eller vedtages mere end de andre kanaler?
Small Business Trends: En af folkene over på Amazon sagde: "Nu er det tid til at begynde at designe oplevelser for øret." Har din kundebase at morph den måde, de traditionelt gør ting på for at drage fuld fordel af at levere erfaringer, som kunderne begynder at Forvent med disse grænseflader? Hvad er nogle af de største udfordringer for virksomhederne, når de søger at implementere disse strategier?
Suhas Uliyar: Brent, helt. For omkring et årti siden forvandlede de digitale agenturer sig alle til at skabe dejlige mobilappoplevelser. Hvis du spurgte mig dette spørgsmål for 14 år siden, ville jeg have sagt: "Ja, virksomheder skal virkelig se på at bringe designere, UI / UX-designere til dine mobilapps." Og nu er vi på samme tid et årti senere til konversationsdesigneren. Og vi begynder at se visse virksomheder bringe på folk eller starte med forskningskapacitet. På Oracle har vi et konversationsdesigner, der hjælper vores kunder med at forstå, hvordan du bedst konfigurerer dette, så det giver den endelige oplevelse til slutbrugeren.
Så risici er faktisk i præcis den tilstand, som har det rigtige design for at få de rigtige oplevelser. Og også forstå kanalen. Hvis du for eksempel designer til Facebook Messenger, er en mere visuel kanal lidt lettere at håndtere, så når du sender information tilbage og sender billeder eller videoer tilbage, er det lettere at forbruge i Messenger, Line, Skype osv.. Men du vil ikke se det i Alexa eller Google Home eller andre typer kanaler. Og så skal du virkelig forstå, hvilke kanaler dine kunder kommer ind og har det rigtige design.
Small Business Trends: Hvis vi kigger ud et år eller to fra nu, hvor skal vi være med konversationsgrænseflade? Hvor skal vi være med de første grænseflader, tror du?
Suhas Uliyar: Jeg tror, vi vil se en konvergens af immersive teknologier og konversationsgrænseflader.Så ting som forstørret virkelighed, virtuel virkelighed … En af udfordringerne i den virtuelle virkelighed i dag er, at typen af enheder begrænser, hvad du kan og ikke kan gøre. Men jeg ser det åbne. Google Briller var et eksperiment, som viste, at det kunne potentielt arbejde - det havde brug for noget arbejde. Men forestil dig en dag, hvor du ikke nødvendigvis skal se på dine mobile enhedsvariabler i sig selv er konversationsledet. Så nu kan du være meget - i en meget naturlig tilstand - være i stand til at se verden på en tredimensionel måde og være i stand til at skelne mellem de oplysninger, du har brug for ved hjælp af samtaleinterfaces.
$config[code] not foundDer er meget ud over det. I lige i verden af AI, for eksempel billedgenkendelse, sentimentanalyse, Q og A-analyse. Vi har fået kendingsgrafer, så jeg kan … CRM, for eksempel forestille de data, sælgeren spørger CRM-databasen, "Hej, det er et nyt kvartal. Fortæl mig de 10 salgsmuligheder, der hjælper mig med at gøre min kvote. "Og bagenden, botten og AI-motoren tager ikke kun de kundeemner, de har, men de kan også gifte sig med informationer fra andre kilder, uanset om det er LinkedIn eller Reuters eller andre ting, der beregner kundens tilbøjelighed til at købe dit produkt og fremhæver det for dig på baggrund af det spørgsmål du stillede. Og disse oplysninger kunne sendes til dig på den måde du vil. Enhederne kan være som for eksempel HoloLens, som Microsoft arbejder på. Så jeg vil sige, at vi går ind i de næste par år, hvor enhederne vil tage en meget interessant form gennem 3D virtuel virkelighed, men interaktionen med det hele kommer til at være voice-based.
Dette er en del af One-on-One Interview-serien med tankeledere. Transkriptet er redigeret til offentliggørelse. Hvis det er et lyd- eller videointerview, skal du klikke på den indlejrede afspiller ovenfor eller abonnere via iTunes eller via Stitcher.