A Inteligência Artificial surgiu com a ideia de construir máquinas pensantes semelhantes aos humanos [1][2][3]. Segundo Ray Kurzweil [2], na década de 80, muitas empresas investiram em IA achando que a hora havia chegado. Que haviam tecnologias maduras para criar IAs capazes de revolucionar o mercado. Entretanto, elas fracassaram porque as tecnologias não estavam maduras e os lucros não se materializaram, dando origem a um período que ficou conhecido como o “inverno da AI” — a IA passou da inteligência de propósito geral para resolver problemas específicos de domínio — o que ficou conhecido como “IA estreita’’ [1][2]. Nas décadas que seguiram, IA amadureceu para aplicações especificas, como jogar xadrez ou reconhecer padrões em imagens. Desde 2004, o interesse pela pesquisa de IA em geral está de volta [1], principalmente porque alguns livros foram lançados discutindo novas abordagens técnicas para criar “inteligência artificial forte” em computadores. Ou seja, Inteligência Artificial Geral (IAGs)(em Inglês, Artificial General Intelligence), semelhante a dos humanos, que consegue aprender e aplicar o que aprendeu em problemas semelhantes.
Em uma recente conferência, Ben Goertzel [4] falou sobre o estado atual de suas pesquisas em IAG e o que ele considera como fundamental para que IAs mais genéricas emerjam. Ele começa comentando que as IAs em carros autônomos não são genéricas. Ou seja, não podem aplicar o que aprenderam em um carro para dirigir um ônibus ou uma motocicleta. As IAs só podem dirigir o veículo para qual foram extensivamente treinadas. Ele comenta que no caso dos humanos, o que aprendemos quando pilotamos um veículo, pode ser usado para aprender como pilotar outros. O software corrente de IA não pode ser adaptado de um veículo para outro. Precisa ser extensivamente treinado do zero novamente. Também não consegue explicar de forma compreensível os ajustes que fez com relação ao que já sabia.
Ao invés de extensivamente treinadas com um conjunto de entradas de teste, as IAGs devem ser educadas. Ou seja, devem ser capazes de utilizar aprendizados anteriores para novos problemas. Como faz uma criança. No futuro, a educação de máquinas será muito mais importante do que o treinamento. Assim, IAGs poderiam em principio aprender sobre qualquer coisa.
Segundo Ben Goertzel, a abordagem do Google DeepMind é bio inspirada e se baseia em redes neurais que representam o córtex visual, o audível e o hipocampo. A ideia é simular o que o cérebro humano faz. Mas, possui a limitação da especificidade. A abordagem de Goertzel, chamada de OpenCog [5], é diferente: é baseada na integração de componentes que sinergicamente cooperam uns com os outros, incluindo muitos componentes distintos, como redes neurais, modelos analíticos, probabilidade, ontologia, dentre muitos outros. O termo exato usado é Cognitive Synergy [6].
OpenCog armazena e manipula conhecimento na forma de grafos complexos. O grafo utilizado é do tipo Weighted Labeled Hypergraph. Um hipergrafo generaliza um grafo, com arestas ligando quaisquer vértices. No OpenCog, redes neurais podem ser subredes desse hipergrafo. Também podem haver expressões lógicas conectadas ao hipergrafo, acionando cálculos matemáticos a partir do mesmo. O hipergrafo fornece uma estrutura de dados para a representação de diversos tipos de conhecimento. Por exemplo, para conhecimento declarativo, o OpenCog usa redes de lógica probabilística. Para conhecimento perceptual, usa Deep Neural Networks (DNNs) [7]. Acrescenta ainda variáveis semânticas que fazem interface com um módulo de lógica. Em resumo, o hipergrafo é uma base de dados comum para vários componentes combinados para criar uma IAG.
Goertzel [4] argumenta ainda que as DNNs são apenas um pedaço pequeno do que é necessário para criar uma IAG. Criar grandes redes neurais com profundas hierárquicas não vai ajudar a criar IAG no nível humano diz ele: “Se quiseres criar IAG é preciso criar algo que aprenda com suas próprias observações e representações de conhecimento”. Essa ideia é conhecida como Observation-Based Semantics. Goertzel [4] defende ainda que: “A IAG deve atribuir significado a todas as suas ideias, abstrações e hipóteses via extrapolação de suas observações”. Em outras palavras, a IAG deve criar modelos do ambiente em que se insere (situation awareness) e de si própria (self-awareness) a partir de extrapolações do que é observado. A semântica de tudo é relacionada para criar modelos da realidade.
O cérebro humano processa uma imagem e a classifica em partes, relacionando-as. O significado de cada parte existe e é correlacionado. DNNs não fazem isso segundo Ben. Um exemplo que ele dá é que imagens com 1% de pixeis aleatórios são consideradas por DNNs como totalmente diferentes do que era de se esperar. Já o cérebro humano entende o que era de se esperar mesmo com uma alta porcentagem de pixeis aleatórios, muito maior que 1%. Segundo Goertzel [4], “o que falta para as redes neurais é criar um modelo semântico do que estão vendo”. Para criar IAGs, Goertzel sugere que devemos integrar de forma sinérgica os algoritmos usados para reconhecimento de padrões com aqueles responsáveis pelo raciocínio e linguagem. Talvez até seja possível fazer isso só com DNNs [7], a final de contas nosso cérebro usa redes neurais para uma infinidade de objetivos. Mas, sem dúvida é preciso relacionar reconhecimento de padrões com os demais processos mentais. Fazendo um parênteses, um artigo legal que modela os processos mentais humanos foi escrito por Yingxu Wang em 2006 [8].
Outro aspecto que Goertzel [4] defende é a importância do embodiment. Ou seja, a importância de embarcarmos as IAGs em corpos físicos, para que elas percebam o mundo como nós o fazemos. Ele tem realizado um trabalho nesse sentido junto com a empresa Hanson Robotics de Hong Kong. Trata-se do robô humanoide Sophia, que é capaz de expressar dezenas de expressões faciais semelhantes aos humanos.
O último aspecto defendido por Goertzel como fundamental para se criar uma IAG é o do guiamento de algoritmos de raciocínio baseado na história e contexto. Ou seja, a tomada de decisão deve levar em conta a história do que já foi feito e os contextos considerados. Segundo Goertzel, esse pilar da IAG tem relação com uma área de pesquisa referenciada como: Prova Automatizada de Teoremas.
Kurt Goedel propôs em 1931 um conjunto de fórmulas auto-referenciadas que ficaram conhecidas como Máquina de Goedel, pois em princípio criariam resolvedores ótimos de problemas universais capazes de se auto melhorar. Inspirado por Goedel, Juergen Schmidhuber [9] apresenta em 2003 resolvedores ótimos e eficientes de problemas gerais, totalmente auto-referenciados e capazes de se auto melhorarem. Entendi que essas máquinas são capazes de validarem teoremas e construir novas formulações em cima disso. Se achou esse assunto interessante, não deixe de conferir a página do Prof. Juergen Schmidhuber sobre a Máquina de Goedel [10]. Alias, o site do Prof. Schmidhuber é na minha humilde opinião um dos melhores sites sobre IA que existe. Ele disponibiliza milhares de recursos com base científica sobre IA e IAG. Vale muito apena conferir e tentar entender suas teorias e comprovações científicas. Mais um parênteses, foi o Schmidhuber que criou o algoritmo Long Short-Term Memory (LSTM) [7] que estão entre as DNNs mais importantes hoje. Certamente, você tem uma no seu celular.
No futuro, educaremos nossas IAGs para que possam aprender por conta própria, provas teoremas e utilizar o conhecimento aprendido em outros desafios. Goertzel estima que veremos IAGs emergirem de fato durante nosso período de vida.
Achou útil essa informação? Compartilhe com seus amigos! xD
Deixe-nos a sua opinião aqui nos comentários.