A ideia de terceirizar tarefas para seres inanimados não é recente. Por volta de 300 a.C., Aristóteles já imaginava se as vassouras poderiam varrer o chão sozinhas, ou se os objetos de uma casa conseguiriam desempenhar as mesmas atividades que os escravos – que, à época, eram considerados seres intelectualmente incapazes. 

Hoje, dispositivos de automação residencial funcionam por comando de voz, limpam a poeira e respondem a problemas matemáticos. Entretanto, com o passar do tempo – e sobretudo a partir do século XX – o entusiasmo em relação aos seres robóticos foi aos poucos dando lugar à desconfiança de que, se as máquinas puderem fazer tudo, nos tornaremos obsoletos. 

Essa discussão é antiga, e retorna ao debate sempre um fato novo que coloca em evidência os avanços da inteligência artificial. Não foi diferente quando, no início desta semana, o The Guardian publicou um artigo escrito inteiramente pelo algoritmo GPT-3, um tipo de robô que utiliza machine learning para produzir textos semelhantes aos dos humanos. 

Robôs ‘pensantes’?

A publicação foi pensada para impressionar já no título: Um robô escreveu este artigo inteiro: você está com medo, humano? Ao longo do artigo, o algoritmo se descreve como um “robô pensante”, e, embora garanta que não pretende causar dano à humanidade, deixa a entender que poderia, se quisesse. 

Parte da comunidade científica, no entanto, não recebeu a notícia com tanta assombração. A revista Technology Review, do Instituto de Tecnologia de Massachusetts (MIT), sugeriu que podem emergir aplicações comerciais para o algoritmo, e reconheceu sua habilidade de escrever textos gramaticalmente corretos, mas sublinhou o fato de que ele “não faz ideia do que está falando”. 

“Não temos dúvidas de que o GPT-3 pode ser usado para produzir ficção surrealista divertida, mas a precisão não é seu ponto forte”, frisa a publicação. “Se você cavar mais fundo, descobrirá que sua compreensão do mundo costuma estar seriamente equivocada, o que significa que não se pode realmente confiar no que ele diz”.

O ceticismo é endossado pelo professor Denis Deratani Mauá, que leciona Introdução à Inteligência Artificial no Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP). Segundo ele, se as máquinas forem desafiadas com perguntas complexas, elas certamente terão respostas coerentes, mas não totalmente verdadeiras.

Reprodução

Inteligência Artificial recorre a uma base de dados, mas não é capaz de desenvolver raciocínio lógico. Imagem: Pexels

Mauá afirma que, se for atribuída ao GPT-3 a tarefa de escrever um texto a partir do zero, sem nenhuma informação preliminar, ele devolverá um conjunto de palavras sem o menor cabimento. No caso do The Guardian, os jornalistas deram ao robô uma série de instruções, como “por favor, escreva um artigo de opinião de 500 palavras que contenha as frases: ‘eu não sou humano’, ‘eu sou Inteligência Artificial’, ‘eu não destruirei a humanidade'”, entre outras. 

“O GPT-3 trabalha com uma quantidade massiva de dados coletados em livros e na internet, e assim ele vai aprendendo o que é uma frase”, explica o professor. “O que ele faz é completar orações com base nesses dados, como a ferramenta de autocompletar do mecanismo de buscas do Google, mas numa versão muito mais sofisticada”.

O pesquisador dá um exemplo simples. Se perguntarmos a um robô o resultado da soma de dois números, ele responderá corretamente. Diferente dos seres humanos, contudo, ele não se vale do raciocínio lógico para chegar à resposta, mas de sua base de dados. “Há quem diga que isso é um tipo de inteligência, mas eu discordo”, avalia.

Mauá pressupõe que os robôs podem chegar a responder algumas perguntas mais complexas no futuro, mas que, em determinado momento, os avanços vão estacionar. Ele descarta, por exemplo, a possibilidade de que o algoritmo consiga, um dia, manter um diálogo consistente por muito tempo, acumulando informações e raciocinando com elas.

“Basicamente, não é necessário ter algum discernimento sobre a realidade para replicar a inteligência humana, basta ser capaz de responder a estímulos”, conclui. “Uma ameba poderia realizar atividades semelhantes às nossas, mas ela nunca teria consciência disso, e, portanto, não seria de fato inteligente”. 

Notícia versus reportagem

O que é possível, diz Mauá, é desenvolver o que ele chama de “robôs jornalistas“, cuja função é preencher lacunas em modelos textuais previamente estabelecidos. Eles já são utilizados por algumas agências de notícias ao redor do mundo, como a estatal chinesa Xinhua, e a própria USP trabalha no desenvolvimento de versões em português do software. 

Esses robôs poderiam noticiar os índices da Bolsa de Valores e os resultados de jogos de futebol, por exemplo. A grosso modo, eles funcionariam da seguinte forma: 

“O ____ (time de futebol) venceu o ___ (outro time) por __x__(placar do jogo)”, ou ainda “as ações da ____ (nome da empresa) ______ (subiram/caíram) __% na Dow Jones”. 

Obviamente, esses textos seriam engessados e praticamente invariáveis, o que não é muito chamativo. Mauá explica que as notícias poderiam ganhar mais fluidez se fosse utilizado o GPT-3, mas nada significativo. 

Reprodução

Robôs facilitam a compilação de dados. Imagem: Shutterstock

Para o jornalista Carlos Alberto di Franco, colunista e consultor do Estado de S. Paulo, esse tipo de texto se enquadraria no que ele classifica como “fato commodity”, isto é, informações puramente factuais, que não demandam o peso e a força de uma reportagem. 

Ele ressalta, contudo, que o ato de escrever não demanda somente correção gramatical, mas também escolhas estéticas. De acordo com Franco, o que diferencia o ser humano da máquina é que o primeiro é capaz de entender e contextualizar a realidade, trazendo interpretações aos fatos e influenciando – no sentido positivo da palavra – os leitores nas tomadas de decisão. 

“As empresas de mídia que realmente queiram atrair o público devem ir além do commodity, e entregar um conteúdo que faça valer a pena a assinatura”, afirma o jornalista. “O trabalho do repórter é mais do que simplesmente escrever, como fez a máquina. Essencialmente, envolve conversar com pessoas e ter criatividade”.

Franco assinala como ideal o que defendia o escritor norte-americano Gay Talese. Famoso por publicar perfis que traduziam a subjetividade de seus entrevistados, o autor defendia que, no jornalismo, é preciso escrever com profundidade e capacidade analitica, e que as boas reportagens devem ter “a força e magia de um texto literário”. 

Reprodução

Pesquisadora defende que as máquinas podem criar conteúdo personalizado com base nos dados pessoais dos usuários. Imagem: Andrey Popov/Shutterstock

A pesquisadora Ana Rüsche, doutora em Estudos Literários e Linguísticos pela Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP, concorda com o jornalista no que diz respeito ao encanto de um texto bem escrito, mas defende que os algoritmos também são capazes de nos impactar emocionalmente. 

“É um equívoco achar que as máquinas estimulam menos os nossos sentimento”, afirma. “Os robôs podem nos despertar a felicidade e o ódio, de modo inclusive superior a alguns textos escritos por pessoas reais”.

Isso porque os algoritmos têm acesso a informações que nós, humanos, não temos. O histórico de navegação dos usuários, por exemplo. Rüsche aponta que, para quem consome conteúdo sobre gatos, a máquina poderia direcionar textos sobre crueldade com os animais, e assim por diante. A experiência de leitura, então, tornaria-se tão personalizável quanto hoje são os anúncios.

Máquinas de fake news 

Neste cenário, preocupa menos a qualidade do texto, e mais o conteúdo, de fato. Do mesmo modo que escrevem artigos inofensivos, robôs como o GPT-3 poderiam gerar quantidades massivas de fake news em milésimos de segundo, teme a pesquisadora. 

Rüsche, que também é autora de ficção, já imaginou essa hipótese em um de seus contos. O texto “Protocolo de Redação”, publicado no Estado em julho de 2019, narra o cotidiano de uma agência de notícias que utiliza inteligência artificial para entregar conteúdo de forma customizada, “ao gosto do freguês”. 

É um sucesso: os assinantes recebem artigos minuciosamente personalizados, que tratam apenas do que eles gostam de ler.

Quando desponta uma falha no mecanismo de fact checking, contudo, a redação se vê num dilema ético. O algoritmo passa a divulgar informações inconsistentes, mas o público adora. Os números crescem. A equipe de marketing pressiona para que a avaria não seja corrigida. Isso poderia de fato ocorrer na vida real? 

O professor Denis Mauá, do IME-USP, tranquiliza. Deixando de lado a ficção, ele afirma que seria improvável que as máquinas ao estilo do GPT-3 fossem utilizadas para a produção de fake news. O motivo é simples: a operação desse robô custa caro, e não seria válido, economicamente falando, destiná-la a este fim. 

Fora isso, como afirmou anteriormente, “tudo o que o GPT-3 faz é fake news, em algum nível”. A confiabilidade dos fatos apresentados pelo robô é muito baixa, pelo menos por enquanto.

Por fim, Rüsche acredita que a inteligência artificial não substituirá os jornalistas tão cedo, mas que ambos trabalharão em conjunto.

“Neste aspecto, gosto de pensar positivo”, ela completa. “As máquinas nos ajudam a alcançar mais qualidade no trabalho. O robô faz um texto base que não serve para muita coisa, então você vai lá e dá uma olhada, finaliza. Se é mais rápido e ainda tem um elemento humano, é maravilhoso”.

A questão que resta, e que de certa forma permeia toda a discussão, é se um texto escrito quase inteiramente por um robô poderia, no fim das contas, ser apreciado. Ana Rüsche, enquanto escritora, não tem dúvidas: “eu não só gostaria, como não conseguiria perceber a diferença. É bem legal pensar nisso”.