Imagine potencializar a velocidade de processamento do seu computador, celular ou tablet sem gastar um centavo, utilizando apenas o hardware já presente nesses dispositivos.
Hung-Wei Tseng e Kuan-Chieh Hsu, da Universidade da Califórnia em Riverside, nos EUA, apresentaram recentemente uma técnica que promete revolucionar a arquitetura dos computadores, permitindo exatamente isso.
Os dispositivos computacionais modernos contam cada vez mais com unidades de processamento gráfico (GPUs), aceleradores de hardware para inteligência artificial (IA) e aprendizado de máquina, ou unidades de processamento de sinais digitais como componentes essenciais. No entanto, esses componentes processam informações de forma separada, resultando em um gargalo na transferência contínua de dados entre eles.
Para superar esse obstáculo, Tseng e Hsu propuseram o que chamam de “multitarefa simultânea e heterogênea”. Eles testaram essa estrutura alternativa em uma plataforma de sistema embarcado que utiliza simultaneamente um processador ARM multinúcleos, uma GPU NVIDIA e um acelerador de hardware TPU (Tensor Processing Unit), este último especializado em tarefas de inteligência artificial.
Essa arquitetura permite que os diferentes tipos de processadores trabalhem simultaneamente em tarefas relacionadas na mesma região de código. Para isso, é utilizada uma camada de abstração e um sistema de tempo de execução para dividir a computação em tarefas independentes do hardware e alocá-las nos diferentes processadores disponíveis.
O resultado foi uma aceleração de 1,96 vez no desempenho e uma redução de 51% no consumo de energia.
“Você não precisa adicionar novos processadores porque você já os possui,” explicou Tseng.
Implicações Potenciais
As implicações dessa técnica de multitarefa são vastas. O uso simultâneo de componentes de processamento existentes poderia reduzir os custos de hardware, adiar a necessidade de atualizar completamente parques de computadores e, é claro, aumentar significativamente a velocidade de processamento e reduzir pela metade o consumo de energia.
Além disso, poderia contribuir para a redução das emissões de carbono associadas à energia consumida pelos servidores em centros de processamento de dados e diminuir a demanda por água utilizada para resfriar esses servidores.
No entanto, os pesquisadores ressaltam que são necessárias mais pesquisas para abordar várias questões relacionadas à implementação do sistema, suporte de hardware, otimização de código e quais tipos de aplicações se beneficiariam mais dessa abordagem.
Com informações de ACM.
Achou útil essa informação? Compartilhe com seus amigos! ?
Deixe-nos a sua opinião aqui nos comentários.