Recentemente, o medo tomou conta da internet ao descobrir que uma inteligência artificial do Facebook criou um idioma próprio que nem mesmo os seus desenvolvedores seriam capazes de entender. Apesar de essa parte ser um fato, as consequências foram mal interpretadas.
O Facebook não desativou a inteligência artificial porque ela se tornou inteligente demais. Essa interpretação, que acabou saindo do controle nesta semana, foi desmentida pelo professor Dhruv Batra, da Georgia Tech, autor do estudo que serviu como base para todo o caso.
Segundo ele, embora a ideia de que uma inteligência artificial possa criar uma linguagem pareça alarmante para pessoas fora do campo, “trata-se de uma subdivisão bastante estabelecida de IA, com publicações datando de décadas atrás”.
A justificativa para isso, segundo ele, é que os agentes envolvidos na ação às vezes encontram formas não intuitivas para o pensamento humano para maximizar sua recompensa. Neste momento, o pesquisador poderá analisar e alterar os parâmetros do experimento para aproximar a inteligência artificial novamente da forma como o pensamento humano funciona. Isso não tem nada a ver com desligar ou desativar uma inteligência artificial, afirmou Batra.
Esse desvio acontece porque a IA, por mais que tente se aproximar da forma humana de raciocinar, não funciona do mesmo jeito que um cérebro humano. Ocasionalmente, o algoritmo pode encontrar atalhos que não necessariamente são produtivos para realizar a tarefa que deveriam realizar, mas que dão resultados dentro do sistema em que estão.
Assim, o site QZ explica que não se tratava de medo ou suspeita de que as máquinas estivessem se tornando inteligentes demais; na verdade, é o oposto. A inteligência artificial estava burra demais, desviando do comportamento previsto, forçando o Facebook a modificar seus testes para colocá-la novamente nos trilhos e recomeçar os experimentos.