No artigo anterior, comentei sobre evolução tecnológica exponencial e hacking de tendências, aspectos relacionados a chamada Disrupção Auto-Similar (Fractal). Sabemos hoje que nossas ferramentas avançam em ritmo exponencial, dobrando de capacidade/poder aproximadamente a cada dois anos.

É a chamada Lei dos Retornos Acelerados, uma versão mais recente da já consagrada Lei de Moore. Segundo essa lei, todas nossas tecnologias avançam dessa forma, da eletrônica a fotônica, engenharia química, mecânica, etc. Já o hacker de tendências é alguém capaz de entender os modelos atuais, sejam do que forem, capturando a sua essência e refletindo sobre disrupções nesse modelo. Por fim, Disrupção Fractal ou Auto-Similar é uma nova teoria proposta por mim e meu amigo Estevan Lopes sobre como a disrupção acontece hoje. Trata-se da disrupção da disrupção acontecendo a todo momento.
Nesse artigo, vou abordar o papel dos programas de computador na engenharia e na disrupção de modelos.

Obviamente, os programas de computador estão em tudo hoje na engenharia. Entretanto, mais recentemente, dois fenômenos estão se intensificando a passos largos: o primeiro diz respeito a substituição de equipamentos físicos por programas de computador (virtualização) e o segundo vai na direção de representar tudo o que é físico através de serviços de software (servitização), incluindo o que já foi virtualizado. Os dois fenômenos podem ser agrupados de forma geral no termo softwarização. Tudo vira software. Tudo que pode virar programa de computador vai para o data center.

Por exemplo, é comum hoje termos computadores genéricos (de baixo custo e grande poder computacional) agrupados em armários nos data centers, criando as chamadas nuvens computacionais (cloud computing). Tive a oportunidade a dois atrás de visitar o data center da LG U+ (o segundo maior da Asia) criado para a olimpíada de inverno de Pyeongchang, na Coréia do Sul. Nele, mais de 150 mil computadores estão alojados em um modernissimo prédio de 7 andares.

Tal transformação está acontecendo com muito vigor nos atuais sistemas de comunicações móveis. Antigamente, na segunda geração de sistemas (2G) – aquela dos celulares anteriores aos smartphones – as estações rádio base ficavam em sites próximos as torres com as antenas. Eram alojadas em um prédio, com muitos equipamentos específicos em armários gigantes. Hoje, na quarta geração (4G), boa parte desses equipamentos saíram do site onde ficam as antenas. Foram para um centro de dados, um data center a quilômetros de distância. Fibra óptica é utilizada para ligar um equipamento de radiofrequência que fica próximo a antena até o data center. As funções desempenhadas pela rádio base agora ficam concentradas em centros de dados. Muitas são desempenhadas por programas de computador em computadores genéricos. O hardware específico está sendo reduzido ao essencial. Isso está acontecendo em muitas áreas da engenharia hoje. Todos os equipamentos específicos tendem a serem decentralizados, com muitas funções migrando para programas de computador em data centers.

Nesse contexto, virtualizar significa emular em software algo que antes era físico. Ou seja, criar um programa que do ponto de vista do cliente se comporta como se fosse um equipamento físico, só que na prática é um programa de computador. Hoje em dia, todos nossos computadores podem suportar a virtualização de outras máquinas, permitindo rodar outros sistemas operacionais em um mesmo computador físico. Por exemplo, uma máquina Linux pode rodar Windows virtualizado. Ou seja, um programa de computador cria uma máquina virtual (como se fosse uma máquina física novinha em folha). O Windows roda como se estive em uma máquina física. Só que está na verdade em uma máquina virtual sobre o Linux. Na quinta geração de comunicações móveis (5G), todos os equipamentos das operadoras que puderem ser virtualizados o serão. Muitas funções da rádio base irão migrar para o data center. Nos sites em campo, ficam apenas torres, antenas, alguns poucos equipamentos de radio e saída de fibra óptica para o data center.

A outra tendência que estamos evidenciado hoje associada a virtualização é a servitização. Trata-se de uma nova forma de criar software. Programas de computador são construídos como serviços, permitindo o paradigma: “tudo como um serviço” (em Inglês, XaaS – Everything as a Service). Microserviços são combinados via Internet para criar grandes aplicações. A Internet e suas evoluções/revoluções conectam esses microserviços permitindo a modularidade de aplicações como nunca antes visto. Qualquer programa de computador pode ser conectado a outros programas dinamicamente. Isso já é amplamente usado hoje na forma de interfaces padrão de programação. Todos os grandes da indústria de software fornecem interfaces para que desenvolvedores criem seus serviços a partir de outros programas desenvolvidos por eles. É o caso de centenas de sistemas no Google, Facebook, Apple, dentre muitos outros.

Tecnicamente falando, tais avanços permitem um novo modelo de combinação de programas para criar aplicações distruídas na Internet (pule esse parágrafo se não quiser entrar mais a fundo na parte técnica). Essas tendências quando combinadas permitem a auto-organização de pequenos serviços distribuídos (microserviços) para formar aplicativos que se espalham pela Internet. Tal organização acontece através de um ciclo de vida de todos os programas que compõem essas aplicações. Considerando que os microserviços já estejam sendo executados, a primeira fase é a exposição do que cada microserviço é capaz de fazer. Para isso são usadas linguagens de exposição de recursos, como XML, JSON, etc. A segunda fase é a busca por possíveis parceiros para realizar a composição dinâmica (agrupamento de programas para formar grandes aplicações). A terceira fase consiste em realizar ofertas (para outros programas) visando encontrar possíveis candidatos a parceiro, candidatos a formar uma aplicação distribuída. Em seguida, é feita uma análise das ofertas recebidas e a aceitação ou negociação dos termos do contrato (acordo de nível de serviço). Toda composição dinâmica se baseia na formação de uma rede de confiança, balizada em contratos. Um controle de admissão permite um serviço avaliar se pode suportar um novo parceiro. Em seguida é feita a admissão dos serviços, com a devida configuração dos mesmos. O monitoramento da qualidade dos serviços prestados a fim de estimar a reputação dos serviços da rede é a próxima fase. Por fim, as reservas não mais necessárias são liberadas quando o contrato se dissolve e a reputação é calculada. Se os microserviços não estiverem sendo executados e o ambiente for de cloud computing, pode ser necessário determinar os melhores recursos físicos ou virtuais onde os microserviços irão rodar. É busca por um hospedeiro físico que atenda as demandas das entidades virtuais. Isso em 5G é muito estratégico: onde cada função virtual de rede irá rodar? Pode haver ainda a mobilidade e clonagem de microserviços para fins de elasticidade. Isso é o que se tem de mais moderno hoje em termos de servitização. Muitas dessas ideias estão sendo empregadas em 5G.

Juntando os paradigmas de virtualização e servitização, novos modelos que convergem tecnologias da informação e comunicações (TIC) são criados. Todas as atuais plataformas de software estão migrando para esses paradigmas disruptivos, permitindo virtualizar muito do que é físico e oferecer como um serviço na Internet. O próximo passo é permitir a monetização desses microserviços. Mas, isso é assunto para outro artigo.
Os impactos desses dois pilares da transição para novos modelos (virtualização e servitização) serão enormes. O primeiro é que o valor está migrando do visível para o intangível (virtual). Os melhores recursos de um sistema não serão mais os visíveis, mas sim os invisíveis a olho nu. Hoje, estamos acostumados a dar valor ao que se enxerga. Isso tende a mudar radicalmente. O que se enxerga é commodity. O valor está nos serviços, informações, conhecimento representado, sabedoria (tendências e tomada de decisão com contexto). Outro impacto enorme diz respeito a generalização do visível. Ele deve servir ao maior número possível de casos de uso, dado que boa parte das arquiteturas de informação terão muitas funções virtuais. Então, o que é físico precisa ser genérico o suficiente. A flexibilidade do software permite evoluir ainda mais rápido nossas tecnologias, pois não é necessário a cada ciclo de melhoria trocar o que é físico. Muitas etapas de melhoria serão feitas apenas trocando-se o software. A contratação dinâmica e elástica de recursos físicos para suportar instâncias (entidades) virtuais traz eficiência no uso dos recursos físicos, dado o ajuste as necessidades. Por exemplo, uma rede 5G pode ter o número de funções virtuais dobrado na hora de pico e reduzido a metade de madrugada. Ainda, recursos não usados por uma indústria podem ser usados por outras. O paradigma “tudo como um serviço” reduz a interferência humana nos sistemas, tornando-os mais autônomos. Também comentarei sobre isso em artigos futuros. Tudo isso quando reunido, torna nossas tecnologias mais dinâmicas, eficientes, flexíveis, auto-organizáveis. Pense como as diversas engenharias são afetadas por um cenário em que tudo o que é físico é exportado como serviços de software, e aquilo que pode ser virtualizado roda na nuvem computacional.

No próximo artigo abordarei a integração do físico ao virtual e a programabilidade do físico (visível) através de serviços.

Achou útil essa informação? Compartilhe com seus amigos! xD

Deixe-nos a sua opinião aqui nos comentários.

Quer ficar por dentro do assunto Smart City, o mais falado no Brasil e no mundo? Deixe seu e-mail e receba em primeira mão! clicando aqui.
Compartilhe:
Publicação anteriorChina realiza a primeira cirurgia cerebral remota
Próxima publicaçãoNorwegian Airlines inaugura voos entre Rio e Londres por R$ 1.000
É engenheiro, professor, coordenador do Information and Communications Technologies (ICT) Laboratory do Inatel e programador C/C++. É doutor em Eletrônica e Telecomunicações pela Unicamp e pós-doutor pelo Electronics and Telecommunications Research Institute (ETRI) da Coréia do Sul. Autor de mais de 100 artigos científicos. Já ministrou mais de 60 palestras sobre tecnologia e suas disrupções, incluindo Hack Town, Futurecom, QCon, TEDxInatel, Pint of Science, Ciência no Boteco, etc. Colunista do Olhar Digital. Pai da arquitetura NovaGenesis. Contribuiu para documento de requisitos para Internet do Futuro na Coréia do Sul e nas discussões iniciais do Plano Nacional de M2M/IoT. Hacker de tendências, consultor e estudante perpétuo. Você pode falar comigo pelo email: [email protected] ;)