O mais recente comunicado de imprensa da OpenAI, uma plataforma de pesquisa co-fundada pelo empresário bilionário Elon Musk, nos assegura que o termo notícias falsas é um fenômeno com o qual todos nós devemos nos preocupar.

A OpenAI disse que não divulgará seu último texto produzindo um algoritmo, temendo que seja bom o suficiente para ser realmente perigoso ou prejudicial.

Texto artificial no seu melhor

O nome deste novo modelo de linguagem natural é o GPT-2, e está programado para prever a próxima palavra de um parágrafo aleatório que ele estuda a partir do banco de dados de texto de 40 gigabytes.

Os cientistas fizeram um excelente trabalho, uma vez que não só previu a próxima palavra, mas desenvolveu-se de uma forma que também pode imitar atributos estilísticos da amostra.

Isso tudo significa que um programa de código aberto, disponível para o público mais amplo, está no nível que vimos antes em operação em filmes de ficção científica de grande sucesso. A OpenAI não está publicando a segunda versão da GPT porque a empresa se preocupa com possíveis “abusos”.

O novo modelo de linguagem parece ser muito convincente; a Inteligência Artificial faz o trabalho tão bem que torna indistinguível o texto criado por humanos e robôs.

Benefícios e perigos

Há muita coisa em jogo com essa nova tecnologia. Por um lado, o uso da IA ​​no reino da linguagem oferece numerosas vantagens.

Isso torna muitas coisas mais rápidas e fáceis para os usuários; os chatbots são cada vez mais capazes de realizar diálogos e reconhecimento de fala, que são extremamente importantes para as pessoas que vivem com deficiências. (Além do fato de quanto mais rápido e mais fácil eles fazem nossas interações on-line diárias.)

Se é fácil entender os profissionais, é ainda mais fácil obter o outro lado mais sombrio de suas possíveis implementações. Desenvolvimentos como esse podem ser usados ​​de uma maneira que eles não apenas contribuam para a produção dessas notícias falsas, mas também se desenvolvam por conta própria, fornecendo informações falsas mais realistas usando o solo textual infinitamente fértil da rede mundial de computadores.

Esta é a razão por trás da decisão da empresa de (pelo menos) adiar a publicação do GPT-2 até um estudo mais aprofundado. Essa atitude mostra responsabilidade do lado dos engenheiros que trabalham nela. Jack Clark, diretor de políticas da OpenAI, chamou a decisão da empresa de “um equilíbrio muito difícil para nós”.

Embora muitas reivindicações que a decisão também vai a montante com a natureza de código aberto da empresa. Assim, é hora de ambos os lados revisitarem as antigas rotinas e criarem um sistema capaz de controlar a segurança, enquanto proporcionam liberdade.

Achou útil essa informação? Compartilhe com seus amigos! xD

Deixe-nos a sua opinião aqui nos comentários.

 

Para você que está procurando Bolsa de Estudo, temos bolsas de até 75% em mais de 1.200 faculdades de todo o Brasil. Encontre a sua Bolsa de Estudo clicando aqui.