Conforme a tecnologia avança, fica cada vez mais complicado diferenciar se algo foi produzido por um programa ou por um humano. Porém, um site promete tornar essa tarefa mais simples.

Bots x Humanos

Desenvolvedores da OpenAI anunciaram que haviam construído um algoritmo de geração de texto chamado GPT-2, que eles diziam ser perigoso demais para ser lançado no mundo, já que ele poderia ser usado para poluir a web com um infinito material escrito por um bot. Mas agora, uma equipe de cientistas do Laboratório de Inteligência Artificial MIT-IBM Watson e da Universidade de Harvard construiu um algoritmo chamado GLTR que determina a probabilidade de uma determinada passagem de texto ser escrita por uma ferramenta como a GPT-2, criando uma arma poderosa na batalha constante para diminuir o número de spams e fake news circulando na rede mundial.

Batalha de inteligência

Quando o OpenAI revelou o GPT-2, eles mostraram como ele poderia ser usado para escrever artigos de notícias fictícios, mas convincentes, compartilhando um que o algoritmo havia escrito sobre cientistas que descobriram unicórnios. O GLTR usa exatamente os mesmos modelos para ler o resultado final e prever se foi escrito por um ser humano ou um GPT-2. Assim como o GPT-2 escreve frases prevendo quais palavras devem seguir uma a outra, o GLTR determina se uma sentença usa a palavra que o bot falso de redação de notícias teria selecionado.

Descobrindo um texto verdadeiro

Os cientistas da IBM, MIT e Harvard por trás do projeto criaram um site que permite que as pessoas testem o GLTR por si mesmas, que você pode acessar por esse link. A ferramenta destaca palavras em cores diferentes com base na probabilidade de terem sido escritas por um algoritmo como o GPT-2. Infelizmente, o algoritmo do site apenas funciona com texto em inglês até o momento. Nos resultados gerados pelo programa, a cor verde significa que a frase corresponde ao GPT-2, e tons de amarelo, vermelho e especialmente roxo indicam que um ser humano provavelmente escreveu eles. Decidimos testar o sistema com uma frase escrita por nós nesse artigo. Apesar de possuir um grande número de estruturas semânticas identificadas como geradas por um bot, a frase possui elementos que demonstram que houve ação humana na geração desse conteúdo. No entanto, a pesquisadora de Inteligência Artificial com especialização em Aprendizado de Máquina, Janelle Shane, descobriu que o GLTR também não se aplica a algoritmos gerados por texto além do GPT-2 do OpenAI. Testando-o em seu próprio gerador de texto, Shane descobriu que o GLTR determinou incorretamente que o texto resultante era tão imprevisível que um ser humano teve que escrevê-lo. Isso sugere que ainda precisamos de uma ferramenta mais robusta para avançarmos na luta contra desinformação e falsificação de conteúdo na Internet.