Google cria 5 regras para garantir que a inteligência artificial seja segura

Redação23/06/2016 09h40

20151223103211

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Sistemas de inteligência artificial estão se espalhando com rapidez e, sendo dono de um dos robôs que mais chamaram atenção recentemente (aquele que venceu um campeonato de Go), o Google quer deixar claro que está levando em consideração a possibilidade de que as máquinas fiquem espertas demais.

Em comunicado divulgado nessa quarta-feira, 22, a companhia afirma que embora os riscos relacionados a inteligência artificial venham recebendo muita atenção pública, a maior parte da discussão tem girado em torno de hipóteses e especulações.

Por isso o Google fechou parcerias com pesquisadores de Stanford, Berkeley e da OpenAI para desenvolver um estudo técnico que mergulha fundo na questão. “Nós listamos cinco problemas que achamos que serão muito importantes à medida que aplicamos IA em mais circunstâncias gerais”, explica a companhia.

Os cinco tópicos são:

  • Evitar efeitos colaterais negativos: como podemos assegurar que um sistema de IA não causará distúrbios em seu ambiente de forma negativa enquanto persegue seus objetivos, por exemplo, um robô de limpeza que derruba um vaso porque ele pode limpar mais rapidamente se fizer isso?
  • Evitar prêmios por trapaças: como podemos evitar o jogo da função por recompensas? Por exemplo, não queremos este robô de limpeza simplesmente cobrindo sujeira com materiais através dos quais ele não consegue ver.
  • Supervisão escalonável: como podemos assegurar eficientemente que um sistema de IA respeite os aspectos do objetivo que são muito caros para serem frequentemente avaliados durante o treinamento? Por exemplo, se um sistema de IA recebe avaliação enquanto realiza uma tarefa, ele precisa usar essa avaliação eficientemente, porque pedir com muita frequência seria irritante.
  • Exploração segura: como asseguramos que um sistema de IA não faça movimentos exploratórios com repercussões muito negativas? Por exemplo, talvez um robô de limpeza devesse fazer experimentos com estratégias envolvendo esfregão, mas ele claramente não deveria tentar colocar um esfregão molhado numa tomada.
  • Robustez em mudanças de turnos: como asseguramos que um sistema de IA reconheça e se comporte com robustez quando ele estiver em um ambiente muito diferente do seu ambiente de treinamento? Por exemplo, aprendizados heurísticos de um chão de fábrica talvez não sejam seguros o bastante para um escritório.
Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital