A OpenAI, organização sem fins lucrativos que conduz pesquisas em inteligência artificial, anunciou o desenvolvimento do GPT-3, nova versão do seu sistema de geração de textos baseado em IA.

Segundo a organização, o novo modelo de linguagem foi treinado em um total de quase um trilhão de palavras coletadas na internet, com um total de 175 bilhões de parâmetros, contra 1,5 bilhões do GPT-2.

Com isso, o GPT-3 consegue gerar textos muito mais realistas sobre qualquer tema. Em testes com um grupo de 80 pessoas seus textos foram capazes de enganar os leitores, fazendo-os pensar que foram escritos por um humano, em metade dos casos.

Assim como seu antecessor, o GPT-3 pode ser “treinado” para escrever textos em deteriminado estilo analisando algumas amostras, porém em quantidade radicalmente menor do que o necessário por seu antecessor.

Em janeiro deste ano, a GPT-2 precisou ser treinada com cerca de 5.000 exemplos para gerar scripts para curtos comerciais exibidos nos intervalos do Superbowl, a final de campeonato da liga de futebol americano nos EUA. Mas o GPT-3 precisou de apenas “alguns parágrafos” de amostras para gerar textos no estilo do poeta modernista norte-americano Wallace Stevens.

Reprodução

Exemplos de poemas gerados pelo GPT-3. Fonte: OpenAI.

Os pesquisadores também notaram que o sistema absorveu certas tendências e preconceitos no material usado no treinamento. Referências a negros, por exemplo, eram geralmente mais negativas, e há uma tendência a usar identificadores masculinos ao se referir a profissões.

Mas por melhor que seja, o GPT-3 ainda exibe uma tendência de se desviar do tema do texto e vagar por tópicos não relacionados, ou se repetir. Ainda assim, seus autores alertam para os perigos que sistemas similares podem apresentar quanto à desinformação, spam, phishing, abuso de processos legais e governamentais, autoria fraudulenta de artigos acadêmicos e engenharia social”.

Inicialmente considerado como “perigoso demais para ser colocado ao alcance do público”, o GPT-2 foi liberado aos poucos, dando aos pesquisadores em inteligência artificial tempo suficiente para entender seu comportamento, fraquezas e formas de detectar seu uso. O código-fonte do GPT-3 ainda não está disponível, mas os pesquisadores provavelmente seguirão o mesmo caminho.

Fonte: Adweek