Suhas Uliyar di Oracle: AI, Immersive Tech e interfacce di conversazione convergono all'esperienza del cliente

Sommario:

Anonim

Una delle mie conferenze preferite dell'anno è Oracle Openworld di questa settimana, principalmente perché Oracle è una società che compete in una varietà di categorie di applicazioni aziendali. E hanno app per la parte più alta dello spazio SMB. Sfortunatamente non sono stato in grado di partecipare quest'anno, ma ho avuto la fortuna di parlare con Suhas Uliyar, VP di Bot di Bots, IA e Mobile Strategy di Oracle.

Tecnologie dell'interfaccia conversazionale

Con l'intelligenza artificiale, i robot e i primi dispositivi vocali sono tre dei temi più caldi di oggi, sono stato contento che Suhas abbia avuto un po 'di tempo per condividere le sue riflessioni sul modo in cui il coinvolgimento del cliente viene modellato in tempo reale da queste tecnologie. Di seguito è riportata una trascrizione modificata della nostra conversazione. Per ascoltare l'intervista completa, fai clic sul player incorporato di seguito.

$config[code] not found

* * * * *

Tendenze delle piccole imprese: Forse potresti darci un po 'del tuo background personale.

Suhas Uliyar: Sono stato nel settore della telefonia mobile negli ultimi 21 anni e ogni anno è stato un anno eccellente e interessante. Il mobile continua a cambiare ogni anno, ma sono con Oracle da quattro anni. Prima di Oracle, ero VP di SAP per il loro Internet of Things e, prima, ero con Motorola Solutions come Chief Solutions Architect for Enterprise Applications.

Quindi sono stato in questo settore per oltre 20 anni, ed è stato un momento davvero emozionante nell'ultimo decennio. Guardando all'evoluzione del mobile e ora dei Tech Bots e dell'IA conversazionale.

Tendenze delle piccole imprese: Ho avuto una conversazione un po 'più di un anno fa con il CTO e co-fondatore di Hubspot. Ha detto qualcosa che mi ha davvero affascinato. Pensò i robot e le interfacce di conversazione possono essere la tecnologia più importante negli ultimi due decenni. Dal momento che sei stato in giro ed è stato coinvolto in questo, è così importante? È quello che stiamo vedendo con i robot e i dispositivi vocali … È a quel livello di importanza nella tua mente?

Suhas Uliyar: Assolutamente, Brent. Lo descrivo come la prossima venuta del browser. Infatti, i chatbot e l'intelligenza artificiale stanno per fare tutte le nostre applicazioni e il modo in cui interagiamo con i dati, quali browser hanno fatto per i client o le app se è possibile ricordare quella trasformazione.

Sarà il prossimo, direi, nel prossimo decennio si tratta di un approccio conversazionale AI-First che è molto più grande di quello che abbiamo visto dall'approccio mobile-first.

$config[code] not found

Tendenze delle piccole imprese: quindi stiamo ascoltando un sacco di discorsi sull'IA e giustamente. C'è così tanto da fare nella zona. Ma quale impatto hanno le interfacce conversazionali sull'intelligenza artificiale?

Suhas Uliyar: Quindi l'intelligenza artificiale è un argomento ampio, Brent. Penso che ci siano diversi tipi di intelligenza artificiale e il modo in cui tendiamo a categorizzare l'intelligenza artificiale sono questi cinque secchi. Innanzitutto, si tratta di apprendimento automatico, tecnologie di deep learning. Una particolare comprensione del linguaggio naturale è assolutamente fondamentale e vitale per il successo dei chatbot.

Le altre categorie sono ugualmente importanti. Il prossimo è dialogo e contesto. Il terzo è servizi di conoscenza. Il quarto è dati e intuizione. Uno mi manca … i servizi cognitivi intorno al riconoscimento di immagini e di parlato, così via e così via.

Ora, perché la comprensione del linguaggio naturale è molto importante? Ciò che sta veramente guidando l'adozione di questo enorme slancio che stiamo vedendo nell'interfaccia delle conversazioni. È un fatto che possiamo conversare in una lingua che è più naturale per noi e quella in cui siamo più a nostro agio. E quando guardi cose come Facebook Messenger o ReachOut, WhatsApp, Telegram, Skype, tutte quelle diverse chat basate messaggistica. L'altro aspetto della comunicazione è che ci aspettiamo e ci avviciniamo alla risposta istantanea in tempo reale dall'altra parte. Oggi, molto di ciò era umano per l'uomo, ma i due aspetti di una conversazione naturale e ottenere risposte istantanee hanno reso quel canale molto attraente rispetto all'utilizzo di e-mail o di qualsiasi altro canale di comunicazione in cui è "fuoco e dimentica" e aspetta se il l'altra persona risponde o no.

$config[code] not found

Affinché ciò sia scalabile per un'azienda e sia in grado di utilizzare i chatbot per abilitare realmente tale adozione, è necessario qualcosa, un programma per computer, cioè un chatbot per gestire tale scala. E gestire questa scala significa essere in grado di elaborare quel linguaggio naturale che arriva dall'utilizzatore finale ed essere in grado di estrarre le informazioni rilevanti da quella comunicazione, e quindi integrarsi in tutti i sistemi di registrazione ed essere in grado di ottenere informazioni indietro. Che si tratti, ad esempio, di un istituto finanziario in cui stai cercando di verificare il saldo dei tuoi conti o della tua compagnia aerea dove scopri se c'è un posto per il corridoio disponibile per la tua prenotazione, ecc. Ecc.

Per facilitare questo, la comprensione del linguaggio naturale, l'apprendimento approfondito, gli algoritmi di apprendimento automatico sono molto critici, sia che si tratti di una rete neurale o di uno spettro. Quindi, senza l'intelligenza artificiale e, nello specifico, la comprensione del linguaggio naturale, i chatbot, a mio parere, non sarebbero nemmeno decollati. Questo è il numero uno.

Il secondo aspetto è quello che ho citato come dialogo e contesto. Qual è la capacità di divinare una conversazione con l'utente finale. Vuoi assicurarti che il bot non sia umano, ma, allo stesso tempo, vuoi avere una conversazione decente con un utente finale. E sappiamo tutti, come esseri umani, che non pensiamo in modo lineare. Tendiamo ad andare su diverse tangenti e sulla base di alcune domande.

Ad esempio, diciamo che stavo cercando di trasferire denaro da un account a un altro o che voglio pagare, inviare denaro a qualcuno. Dico "Invia denaro alla mamma", per esempio. E il bot risponde, "Sì, è grandioso. Quale account vuoi trasferire? "E io dico" conto corrente ". E dice" Quanto vuoi mandare mamma? "E all'improvviso mi rendo conto che in realtà non sono sicuro di avere abbastanza soldi per controllare account. Chiederò al bot una domanda che è: "Qual è il mio equilibrio?". E non voglio dare altri contesti che dire "Qual è il mio equilibrio?" E il robot deve essere intelligente, e il contest designer deve essere abbastanza intelligente da riconoscere che stai cambiando contesto adesso, e tu? scendendo su un altro percorso per chiedere bilanci, forse le domande di follow-up potrebbero essere in giro, quali sono le transazioni, quali sono i depositi o gli assegni che sono stati cancellati. E poi puoi tornare alla transazione originale che avevi. Quindi questo è ciò che intendo per essere non lineare.

E anche il dialogo e il contesto, dal punto di vista dell'apprendimento automatico, devono essere abbastanza intelligenti per capirlo, e lavorare in collaborazione con la comprensione del linguaggio naturale per essere in grado di elaborarlo.

Un ultimo commento farò su questo - ho menzionato la parola "estrazione". Quando io, come utente finale, ottengo informazioni come quelle che erano i miei ultimi cinque depositi nel mio conto corrente, l'apprendimento automatico dovrebbe essere abbastanza intelligente da comprendere gli "ultimi cinque", e non ho bisogno di citare tutto ciò. L'algoritmo di apprendimento automatico è abbastanza intelligente da estrarre tutte le informazioni, estrarre tali informazioni come il mio conto corrente, sapere chi sono, cosa sto chiedendo e costruire il livello di integrazione per ottenere tutte le informazioni dal back-end.

Quindi, risposta lunga, ma l'intelligenza artificiale è assolutamente fondamentale per il successo dei chatbot.

Tendenze delle piccole imprese: Grande, e ci sono state tante immersioni e le aziende stanno davvero iniziando le loro interfacce di conversazione, guardando i chatbot e guardando come puoi integrarti in cose come Facebook Messenger perché è lì che sono tutte le persone ed è qui che si svolgono molte conversazioni.

Ma dove vedi i primi dispositivi vocali che iniziano a entrare? È qualcosa che è davvero troppo lontano per un sacco di aziende di cui preoccuparsi o è più veloce di quanto qualcuno pensi che sia?

Suhas Uliyar: Direi che sta arrivando più velocemente … Vedi Alexa, ma non sono sicuro che se hai ripreso Google Home ora ha la possibilità di avere l'autenticazione multiutente sulla voce. Quindi, per esempio, se mia figlia dice "Chiama mamma", chiamerà mia moglie, invece di chiamare mia madre. E se dovessi dire "Chiama mamma", direbbe "Non hai una madre".

Quindi penso che la sofisticazione sia già presente e che vi siano aggiunte molte funzionalità di sicurezza aziendale, quindi direi che la voce sta arrivando velocemente.

$config[code] not found

Ma prima di entrare in questi, quelli che io chiamo, VPA come Alexa o Amazon Dot Echo, Google Home, Apple Pod. Brent, la prima voce è stata presente attraverso Siri, Cortana e Google Voice. Quello che vorrei dire è, in particolare nel mondo delle imprese, in particolare nel CRM e nel servizio e così via, molti clienti vogliono essere in grado di estendere la loro app mobile esistente o la loro interfaccia web esistente per includere la voce in esso.

Ad esempio, se utilizzi Internet Explorer o Chrome o il tuo browser preferito, puoi estenderlo su MacBook o sui tuoi dispositivi Surface e poter utilizzare Siri o Cortana per interfacciarti con il chatbot. Non penso che dovrai aspettare che tutti abbracciano Amazon Dot, Echo, Google Home. Lo abbiamo visto per l'ultimo anno e in cui i dispositivi mobili hanno già interagito con Siri, Cortana, Google Voice, ecc. E così è stata una parte della nostra adozione avvenuta nell'ultimo anno. Laddove sono presenti dispositivi mobili dotati di app mobili, sono ora disponibili estensioni per le applicazioni di chat all'interno dell'app mobile o all'interno del browser stesso. All'interno di quello stesso, è possibile utilizzare quei canali vocali.

Quindi, questi sono già stati adottati e stiamo assistendo ad un'adozione molto naturale di questi canali vocali perché le persone, ancora una volta, amano conversare e usare la voce. L'unica cosa che direi, inibendo la crescita o l'adozione di dispositivi come Dot Echo, Google Home nell'azienda è il livello di sicurezza di esso, che, credo, si risolve molto rapidamente. Oggi puoi usare Alexa, ad esempio, per una banca locale o l'integrazione con la tua banca, che è probabilmente la cosa più sicura di cui tutti sono preoccupati. Quindi, vedo questa progressione molto velocemente e molto rapidamente vedremo questo livello.

Ora, l'unica cosa che ferma la voce che viene adottata, in generale, è la privacy, non necessariamente per fare l'autenticazione, l'autorizzazione, ma ciò che le persone possono ascoltare. Quindi, certamente, non hai intenzione di camminare nella tua casa con un gruppo di ospiti e chiedere al tuo robot, Alexa o Google Home, qual è il tuo equilibrio. Vuoi farlo in privato. Il problema è che se sei in un ambiente pubblico, non importa dove ti trovi, la risposta di ritorno in voce potrebbe essere ascoltata dalla maggior parte delle persone. Quindi penso che si tratti solo del caso d'uso degli ambienti in cui ti trovi.

Ecco perché una delle aree su cui abbiamo fortemente focalizzato l'attenzione è la raccolta di approfondimenti sull'adozione di questi canali. Non è semplice come dire: "Le persone non vogliono usare la voce contro la chat contro quella". È anche in grado di capire quali sono i casi d'uso specifici in cui alcuni canali sono migliori degli altri. Ci sono alcuni ambienti, ci sono certe volte in cui questi canali vengono utilizzati o adottati più degli altri canali?

Tendenze delle piccole imprese: Una delle persone su Amazon ha dichiarato: "Ora è il momento di iniziare a progettare esperienze per l'orecchio." La base di clienti deve trasformarsi nel modo in cui fanno tradizionalmente le cose per trarre il massimo vantaggio dall'erogazione di esperienze che i clienti stanno iniziando a aspettati con queste interfacce? Quali sono alcune delle maggiori sfide che devono affrontare le aziende quando cercano di implementare queste strategie?

Suhas Uliyar: Brent, totalmente. Circa un decennio fa, le agenzie digitali si stavano trasformando per creare deliziose esperienze di app per dispositivi mobili. Se mi avessi fatto questa domanda 14 anni fa, avrei detto: "Sì, le aziende devono davvero guardare ai designer, ai progettisti UI / UX per le tue app mobili". E ora siamo nello stesso identico palcoscenico dieci anni dopo per il designer conversazionale. E stiamo cominciando a vedere alcune aziende portare gente o iniziare con capacità di ricerca. In Oracle, abbiamo un team di designer conversazionali che aiuta i nostri clienti a capire veramente come si configura meglio questo in modo da offrire un'esperienza piacevole all'utente finale.

Quindi i rischi in realtà sono esattamente in quella modalità, che sta avendo il giusto design per avere le esperienze giuste. E capisci anche il canale. Ad esempio, se stai progettando per Facebook Messenger, un canale più visivo è un po 'più facile da gestire in modo che quando si inviano le informazioni indietro e si possano inviare foto o video, è più facile consumare in Messenger, Line, Skype, ecc. Ma non lo vedrai in Alexa o Google Home o in altri tipi di canali. E quindi devi capire davvero quali canali stanno arrivando i tuoi clienti e avere il design giusto.

Tendenze delle piccole imprese: Se sbirciamo fuori da un anno o due, dove saremo con l'interfaccia di conversazione? Dove saremo con le interfacce voice-first, cosa ne pensi?

Suhas Uliyar: Credo che vedremo una convergenza di tecnologie immersive e interfacce conversazionali.Quindi cose come la realtà aumentata, la realtà virtuale … Una delle sfide della realtà virtuale oggi è che il tipo di dispositivi limita ciò che puoi o non puoi fare. Ma vedo che si apre. Google Glasses è stato un esperimento, che ha dimostrato che poteva funzionare potenzialmente: aveva bisogno di un po 'di lavoro. Ma, immagina un giorno in cui non hai necessariamente bisogno di guardare le variabili del tuo dispositivo mobile di per sé, sono guidate dalla conversazione. Così ora, potresti essere molto - in una modalità molto naturale - essere in grado di guardare il mondo in modo tridimensionale ed essere in grado di discernere le informazioni di cui hai bisogno utilizzando le interfacce di conversazione.

$config[code] not found

C'è molto oltre. Solo nel mondo dell'IA, ad esempio, riconoscimento dell'immagine, analisi del sentimento, analisi Q e A. Abbiamo grafici della conoscenza, quindi sono in grado di … Il CRM, ad esempio, immagina i dati che il venditore chiede al database CRM: "Ehi, è un nuovo trimestre. Dimmi le 10 opportunità di vendita che mi aiutano a fare la mia quota. "E il back-end, il bot e il motore di intelligenza artificiale non solo prendono i contatti che hanno, ma sono anche in grado di sposarli con informazioni provenienti da altre fonti, Sia che si tratti di LinkedIn o di Reuters o di altre cose che calcolano la propensione del cliente ad acquistare il tuo prodotto e te lo mette in evidenza in base alla domanda che hai posto. E quell'informazione potrebbe essere inviata a te in qualsiasi modo tu voglia. I dispositivi potrebbero essere come, ad esempio, HoloLens su cui Microsoft sta lavorando. Quindi direi che stiamo entrando nei prossimi anni in cui i dispositivi assumeranno una forma molto interessante attraverso la realtà virtuale in 3D, ma l'interazione con questo sarà tutta basata sulla voce.

$config[code] not found

Questo fa parte della serie di interviste One-on-One con i leader del pensiero. La trascrizione è stata modificata per la pubblicazione. Se si tratta di un'intervista audio o video, fai clic sul player incorporato in alto o iscriviti tramite iTunes o tramite Stitcher.