Alexa, a famosa assistente de voz virtual inteligente desenvolvida pela Amazon, finalmente está chegando ao Brasil e alguns usuários já foram selecionados para testar a versão em português. Por conta disso, a AWS anunciou o Alexa Skills Kit, uma coleção de APIs para os desenvolvedores brasileiros irem se preparando.

Atualmente, a Alexa, o Google Home e o HomePod são os principais smart speakers do mercado – pequenas caixas de som que operam sob comando de voz, executando pedidos variados, como tocar música, acionar o alarme ou buscar alguma informação na internet, reforçando cada vez mais o conceito de Internet das Coisas. Muita gente pode não ter se dado conta, mas já estamos rodeados por aparelhos eletrônicos que possibilitam a automação, interligando as tecnologias presentes em casa e no trabalho – desde lembrar que você tem uma reunião hoje até apagar as luzes da sala de maneira remota.

É fato que a comunicação com o cliente mudou e será cada vez mais automatizada, levando para o atendimento humano apenas situações específicas e de alta complexidade. Com a chegada da Alexa, muitas empresas esperam se utilizar da aplicação nos negócios, especialmente no atendimento ao cliente. Só que, para isso, será necessário uma base de conhecimento para o assistente consultar, além da tecnologia por trás, para a integração. Com isso, as empresas terão que criar “skills” na Amazon, ou “actions” no Google. Para encurtar esse processo, é possível plugar bases de conhecimentos já prontas e utilizadas em outros canais aos smart speakers, principalmente quando já se trabalha com solução de Processamento de Linguagem Natural (PLN), podendo aproveitar-se do aprendizado já construído até então.

Muitos desenvolvedores brasileiros já contam com essa expertise, entendendo e processando as solicitações das aplicações dos assistentes da Google e Amazon para obter respostas a partir do entendimento das intenções dos usuários. Isso significa que, nesse cenário, a base de conhecimento está localizada em plataformas de chatbot, programas de computador capazes de simular uma conversa humana, por meio de interações em um chat entre humano e robô, bem populares no país. A Inbenta, por exemplo, ao entender o desejo do usuário a partir de texto ou voz, retorna com a resposta correta para o aplicativo, permitindo que o smart speaker se comunique com o cliente. O assistente é responsável pelo reconhecimento de fala e pela conversão em texto, enquanto os bots pela correspondência entre pergunta e respostas, transformando em um diálogo fluído através de PLN.

Um aplicativo de smart speaker se assemelha a um chatbot, com a única diferença de que pode usar um canal de voz e não apenas uma interface de texto. A base de scripts corporativa utilizada nos smart speakers pode e deve ser alimentada pela mesma inteligência que alimenta os bots nos outros canais. Por isso é importante utilizar uma base de conhecimento única e coerente em todos os canais (web, whatsapp, messenger etc ).

Quando a Alexa se consolidar, inúmeras empresas irão querer surfar nesta onda e adotá-la para a comunicação com os clientes. Isso será mais fácil e rápido se contar com um bom fornecedor de tecnologia de PNL, que irá alimentar o smart speaker, juntamente com o chatbot e, consequentemente, incentivar ainda mais o autoatendimento, com interfaces atraentes aos consumidores, de fácil usabilidade e respostas rápidas.