No momento do nascimento, o ser humano tem aproximadamente 100.000 milhões de neurônios, que dificilmente são relacionados entre si. Graças aos estímulos que recebe na sua fase inicial de crescimento, o bebe irá desenvolver conexões neurais sem fim, cerca de duas vezes o que terá como um adulto, desde a infância e adolescência elimina os que são dispensáveis.
Esse processo, que se desenvolve ao longo de nossas vidas, é o ponto de partida das redes neurais com as quais a inteligência artificial funciona. Essas redes podem ser criadas por meio de um sistema definido como pesquisa de arquitetura neuronal (NAS, por sua sigla em inglês). O problema é que seu processo de treinamento difere muito do de pessoas; esses sistemas exigem uma enorme capacidade de processamento, leva muito tempo para desenvolvê-los e eles não são particularmente baratos.
Um algoritmo desenvolvido recentemente pelo Google levou 48.000 horas para produzir uma rede neural que usa para classificar imagens. A gigante tecnológica tem capacidade para executar centenas de unidades de processamento gráfico (GPUs) ao mesmo tempo e possui hardware que encantaria muitos. Mas há muito poucas empresas que participam ativamente no desenvolvimento da inteligência artificial e possuem recursos dessas dimensões.
Com isso em mente, o MIT desenvolveu um algoritmo capaz de projetar modelos de aprendizado de máquina 200 vezes mais rápido que os métodos tradicionais. Eles defendem que seu modelo é capaz de fazer esse trabalho com apenas 200 horas de GPU quando executados em um conjunto de dados de imagem massivos.
Pesquisadores acreditam que esta nova técnica de treinamento de sistemas de aprendizado de máquina ajudará consideravelmente a democratizar a inteligência artificial. Economizando tempo e custos associados com o seu modelo pode abordar o projeto de redes neurais para empresas e centros de pesquisa.
O avanço deste algoritmo não implica a substituição de engenheiros humanos por máquinas no desenvolvimento de sistemas de aprendizado de máquina. Seu objetivo é, antes, automatizar o trabalho mais repetitivo que afeta o projeto e o refinamento de arquiteturas de redes neurais. Para fazer isso, o MIT procurou maneiras de eliminar componentes desnecessários no projeto de redes neurais, otimizar os tempos de computação e usar uma fração da memória de hardware necessária para executar o algoritmo.
Achou útil essa informação? Compartilhe com seus amigos! xD
Deixe-nos a sua opinião aqui nos comentários.