Dario Amodei, CEO da Anthropic, prevê que a inteligência artificial alcançará um nível de autonomia que possibilitará sua sobrevivência e replicação entre 2025 e 2028. Ele também destaca a importância militar dessa tecnologia, que pode proporcionar vantagens geopolíticas.
Amodei classifica os níveis de segurança da inteligência artificial pela sigla ASL. Atualmente, estamos no nível 2, onde os modelos de linguagem podem fornecer informações perigosas, mas pouco confiáveis. No entanto, o nível 3, previsto para o próximo ano, apresenta um risco muito maior, incluindo o potencial uso em armas biológicas e cibernéticas.
Além disso, Amodei menciona o nível 4, especulativo e ainda não definido, que inclui características como autonomia e capacidade de persuasão. Ele acredita que modelos com essa classificação surgirão entre 2025 e 2028.
O CEO da Anthropic ressalta preocupações com o uso indevido dessas tecnologias por parte de estados, especialmente em relação ao crescimento das capacidades militares de países como Coreia do Norte, China e Rússia. Ele também destaca questões de autonomia, indicando que alguns modelos podem estar se aproximando da capacidade de se reproduzir e sobreviver sem supervisão.
Amodei fundou a Anthropic após deixar a OpenAI, onde ocupou o cargo de vice-presidente de pesquisa e contribuiu para o desenvolvimento do GPT-3. A Anthropic, um laboratório de pesquisa em segurança da IA, recebeu investimentos da Amazon e do Google e já desenvolveu o modelo de linguagem Claude, que busca ser mais ético que seus concorrentes.
Com informações de The New York Times, Futurism e Tecnoblog.
Achou útil essa informação? Compartilhe com seus amigos!
Deixe-nos a sua opinião aqui nos comentários.