O mais recente comunicado de imprensa da OpenAI, uma plataforma de pesquisa co-fundada pelo empresário bilionário Elon Musk, nos assegura que o termo notícias falsas é um fenômeno com o qual todos nós devemos nos preocupar.
A OpenAI disse que não divulgará seu último texto produzindo um algoritmo, temendo que seja bom o suficiente para ser realmente perigoso ou prejudicial.
Texto artificial no seu melhor
O nome deste novo modelo de linguagem natural é o GPT-2, e está programado para prever a próxima palavra de um parágrafo aleatório que ele estuda a partir do banco de dados de texto de 40 gigabytes.
Os cientistas fizeram um excelente trabalho, uma vez que não só previu a próxima palavra, mas desenvolveu-se de uma forma que também pode imitar atributos estilísticos da amostra.
Isso tudo significa que um programa de código aberto, disponível para o público mais amplo, está no nível que vimos antes em operação em filmes de ficção científica de grande sucesso. A OpenAI não está publicando a segunda versão da GPT porque a empresa se preocupa com possíveis “abusos”.
O novo modelo de linguagem parece ser muito convincente; a Inteligência Artificial faz o trabalho tão bem que torna indistinguível o texto criado por humanos e robôs.
Benefícios e perigos
Há muita coisa em jogo com essa nova tecnologia. Por um lado, o uso da IA no reino da linguagem oferece numerosas vantagens.
Isso torna muitas coisas mais rápidas e fáceis para os usuários; os chatbots são cada vez mais capazes de realizar diálogos e reconhecimento de fala, que são extremamente importantes para as pessoas que vivem com deficiências. (Além do fato de quanto mais rápido e mais fácil eles fazem nossas interações on-line diárias.)
Se é fácil entender os profissionais, é ainda mais fácil obter o outro lado mais sombrio de suas possíveis implementações. Desenvolvimentos como esse podem ser usados de uma maneira que eles não apenas contribuam para a produção dessas notícias falsas, mas também se desenvolvam por conta própria, fornecendo informações falsas mais realistas usando o solo textual infinitamente fértil da rede mundial de computadores.
Esta é a razão por trás da decisão da empresa de (pelo menos) adiar a publicação do GPT-2 até um estudo mais aprofundado. Essa atitude mostra responsabilidade do lado dos engenheiros que trabalham nela. Jack Clark, diretor de políticas da OpenAI, chamou a decisão da empresa de “um equilíbrio muito difícil para nós”.
Embora muitas reivindicações que a decisão também vai a montante com a natureza de código aberto da empresa. Assim, é hora de ambos os lados revisitarem as antigas rotinas e criarem um sistema capaz de controlar a segurança, enquanto proporcionam liberdade.
Achou útil essa informação? Compartilhe com seus amigos! xD
Deixe-nos a sua opinião aqui nos comentários.