Existe a preocupação de que desenvolvedores criem inadvertidamente IAs maléficas para as pessoas e a sociedade. A ideia é que os desenvolvedores prestem atenção (se preocupem) com o desfecho de suas criações, evitando que as mesmas causem o mal ou sejam usadas para tal. Mas, como ensinar uma máquina a ser benéfica a humanidade? O que é ser benéfico às pessoas? Comer menos carboidratos é benéfico? Reservar um tempo para exercícios é benéfico? Não sujar a água é benéfico? Como colocar as coisas nos devidos contextos e exprimir as regras, objetivos e limites de forma clara para as máquinas? Essas perguntas mostram claramente que a falta de cuidado na pesquisa, desenvolvimento e inovação (PD&I) pode levar a situações não benéficas. A falta de contexto pode levar as máquinas a tomarem decisões desalinhadas e cabe a nós cuidarmos para que isso não aconteça. Esse é o motivador para o primeiro princípio proposto na conferência de Asilomar na Califórnia, em Asilomar: “O objetivo da pesquisa em AI não deve ser criar inteligência não direcionada, mas sim inteligência benéfica”.
Perceba como os seres humanos manifestam de forma sutil seus interesses. Muitos estudos mostram que comer menos carboidratos é benéfico à saúde das pessoas. Portanto, se delegamos a uma máquina para que cuide de nossa saúde, ela pode sugerir ou até mesmo obrigar-nos a reduzir o consumo de massas, somente para citar um exemplo. Mas, queremos isso no fundo? Ou temos apenas uma leve intenção, mas não queremos de fato que ela faça isso? Quando entramos no mérito do que é benéfico ou não, nos afastamos do “não ambíguo” e invadimos o campo da linguagem. Por exemplo, podemos facilmente dar um comando de voz e pedir para que um programa ligue ou desligue uma lâmpada. Mas, comandar um programa para que nos torne mais saudáveis é muito mais sútil e dúbio. Depende muito dos meios que forem colocados à disposição da máquina para que ela atue e realize os objetivos traçados. Depende muito da linguagem utilizada. Afinal de contas, a comunicação homem-máquina e vice-versa, utilizará uma linguagem e é nela que as coisas devem ficar claras.
A falta de cuidado pode levar a situações do tipo: cancelei a reunião com o seu chefe marcada para às 8 horas para que tenhas mais tempo de se exercitar. Ou ainda, cortei o pão da suas comprar pois tem muito carboidrato. Mais um exemplo: desliguei o carro X pois estava atrapalhando o fluxo de carros. Nesse caso, a IA poderia usar de atuadores que nem imaginamos para cumprir sua decisão. Por exemplo, frear o carro de forma não desejada. Ou, cortar o combustível. Ela poderia até mesmo chamar a polícia. Esse primeiro princípio de Asilomar defende que sem os devidos cuidados, resultados indesejados e até mesmo não benéficos poderiam emergir da tomada de decisão feita por máquinas.
Embora os exemplos acima ilustrem a problemática, o que mais preocupa muita gente são as IAs armadas, como por exemplo militares ou paramilitares. Ou ainda, IAs que em um futuro incerto venham a nos ameaçarem como um efeito colateral de seus programas, sejam elas conscientes ou não. A preocupação é evitar que ações aconteçam sem a devida responsabilidade. Governos e entidades paramilitares certamente farão uso de IA em seus drones e veículos. Hoje, o uso de drones já é regra em muitas forças armadas. Ao invés de deslocar agentes em solo, países como os Estados Unidos da América fazem uso intensivo de drones remotamente pilotados. Como esse primeiro princípio diz respeito a pesquisa para fins benéficos à humanidade, seria a pesquisa em drones autônomos para fins militares benéfica à humanidade? Essa é uma pergunta que traz para a discussão milhares de contextos e interesses. Respondê-la é arriscado por vários motivos. Assim sendo, meu objetivo nesse texto é muito mais levantar as perguntas que se fazem relevantes, do que respondê-las.
Além da questão óbvia de quão benéfico à humanidade é um armamento dotado de IA, outras questões que emergem nesse cenário são: como prevenir que um armamento autônomo saia de controle? Devem os desenvolvedores se preocupar com o uso de suas invenções? Devem as comunidades open source que desenvolvem soluções de IA se preocuparem com onde seus códigos podem estar sendo usados? Provavelmente, neste exato momento, você deve estar pensando em uma infinidade de outros exemplos de tecnologias cujo invento poderia hoje ser considerado maléfico a humanidade. Um deles pode ter sido a bomba atômica. Deveriam os cientistas cujos artigos alimentaram o projeto Manhattan terem parado suas pesquisas? Percebem como existem muitos interesses e contextos envolvidos nesse primeiro princípio de Asilomar?
Mesmo drones privados ou veículos de transporte autônomos podem causar danos às pessoas, e considerando a escala com que tais invenções podem se espalhar mundo afora, podem criar problemas maiores, não benéficos. Por exemplo, a falta de contexto e cuidado com as ambiguidades (semântica da linguagem) pode levar uma IA a decidir por caminhos inadequados. Isso pode acontecer no caso em que uma colisão é inevitável e a IA deve decidir qual caminho causa menos danos? Considere por exemplo uma esquina movimentada de uma grande cidade. Uma decisão baseada em critérios dúbios pode e será certamente questionada pelas pessoas. Neste contexto, uma das grandes questões é a levantada por Will Knight do MIT Technology Review . Knight argumenta que as IAs utilizadas em carros autônomos hoje não conseguem explicar por que chegaram a uma determinada decisão. Elas simplesmente decidem em função do treinamento que tiveram. Então, a decisão tomada depende fundamentalmente de como elas foram treinadas. Não conseguem argumentar do por que decidiram de uma forma ou outra, tal qual uma pessoa faria.
Knight comenta em seu artigo: “O carro não segue uma única instrução provida por um engenheiro ou programador. Ao invés disso, as decisões seguem inteiramente um algoritmo que aprendeu a dirigir observando um humano dirigindo”. Dois aspectos emergem dessa análise. O primeiro é que no caso de um acidente, a IA não consegue explicar por que privilegiou um dado cenário, em detrimento de outros. O segundo aspecto é que o treinamento não contém situações de acidente em número suficiente. As tecnologias de IA atuais dependem de muitos exemplos para “aprender”. Assim, por mais que aconteçam alguns casos durante o treinamento, eles não serão exaustivos. De fato, muitos dos eventos indesejáveis e críticos, são raros. O que dificulta ainda mais os treinamentos.
Achou útil essa informação? Compartilhe com seus amigos! xD
Deixe-nos a sua opinião aqui nos comentários.