Estamos chegando a uma encruzilhada interessante na estrada da IA para telecomunicações. Duas das tendências previstas para esse ano estão caminhando em direções opostas.

Primeiro, haverá uma crescente aceitação pelo uso da IA e machine learning pelos reguladores. Isso já está acontecendo – órgãos reguladores que pareciam ser um obstáculo, há apenas dois ou três anos viram a luz. Uma razão para essa aceitação é a ameaça à segurança cibernética – se os criminosos estão usando AI contra nós, precisamos responder com todo o poder de fogo técnico que temos.

Em 2019, os reguladores também aprenderão a aceitar o lado mais difícil de machine learning, os modelos não supervisionados. Esses são modelos de aprendizado de máquina que descobrem padrões preditivos por conta própria e são especialmente benéficos quando você não tem dados históricos de desempenho para usar na modelagem.

Assim, as empresas de telecomunicações verão um caminho mais fácil para usar a inteligência artificial, e não serão apenas os inovadores que fazem isso. As estruturas em torno da aceitação de modelos não supervisionados serão mais amplamente utilizadas.

A segunda tendência é a explicabilidade, que parece contradizer a crescente aceitação de modelos não supervisionados. A AI explicável é um dos campos mais quentes da ciência de dados, porque regulamentações como GDPR – para não mencionar o bom e velho atendimento ao cliente – exigirão que as empresas expliquem por que uma decisão foi tomada e qual comportamento ativou o algoritmo para uma determinada classificação ou pontuação.

Os cientistas de dados falam que o deep learning é uma tecnologia revolucionária, as perguntas sobre os detalhes dos padrões aprendidos em uma rede neural profunda ou superficial são geralmente respondidas com um silêncio inquisitivo, mesmo nas maiores empresas. Isso é completamente inaceitável para qualquer pessoa que tenha que falar com um cliente sobre o modelo ou apresentá-lo para um órgão regulador.

Como vamos reconciliar a crescente necessidade de modelos complexos e não supervisionados de aprendizado de máquina com a necessidade de explicabilidade? Isso nos leva à conversa em torno da IA ética, que será o tema de 2019. 

O workshop de inovação do Fed em 2018 foi um bom exemplo do que é necessário para unir essas áreas: um diálogo de três vias entre a indústria, os reguladores e a academia. Essas três partes são importantes para o uso ético da IA. É preciso muita educação cruzada, porque os conceitos são complexos demais para serem compreendidos simplesmente pegando um livro para entender (ou, na linguagem de hoje, “dando um Google”). 

Teremos que seguir os dois caminhos – maior uso de modelos não supervisionados e maior explicabilidade dos modelos – para acompanhar as preferências do cliente e o poder sem precedentes do dispositivo móvel em nossas vidas. Até porque cada vez mais nossos telefones se tornarão nossos assistentes pessoais.  

Quanto mais poderosos nossos smartphones se tornam, mais segurança precisaremos, mesmo quando nossa segurança digital parece cada vez mais frágil. A dependência do celular já existe e em 2019 vai aumentar. Precisamos ter certeza que ele é seguro e que as redes são confiáveis e ativas. Logo, é possível prever o ressurgimento do monitoramento de segurança de rede usando IA. 

Como cientista de dados e membro da comunidade global de análise, a criação de tecnologia analítica ética é muito importante para mim. Eu vejo 2019 como um momento emocionante para este trabalho, ainda mais no segmento das telecomunicações.