Antes do filme de ficção científica “Minority Report” de 2002, o diretor Steven Spielberg convidou 15 especialistas para um hotel em Santa Monica, Califórnia, para de três dias de conversa sobre as tecnologias que seriam usadas até o ano de 2054 no filme.

O grupo incluiu os cientistas da computação Neil Gershenfeld e Jaron Lanier. O diretor Spielberg disse que queria que a interface entre humano e computador fosse como “conduzir uma orquestra”.

O desenhista de produção do filme, Alex McDowell, manteve o que foi chamado de “Bíblia 2054”, um guia de 80 páginas que continha todos os aspectos do mundo futuro. John Underkoffler, o conselheiro de ciência e tecnologia do filme, disse: “Nós trabalhamos muito para fazer a interface gestual no filme real.

Hoje, o reconhecimento de gestos é uma coisa real. Empresas como Intel e Microsoft já criaram casos de uso para essa nova tecnologia. A Intel produziu um white paper sobre autenticação multifator sem toque (MFA) para uso por organizações de saúde para reduzir os riscos de segurança e melhorar a eficiência do médico. A Intel propôs combinar reconhecimento facial com reconhecimento de dispositivo para autenticar usuários.

A Microsoft tem um projeto para explorar o reconhecimento de gestos baseado em câmera dentro de configurações cirúrgicas. Isso permitiria que um cirurgião visualizasse e manipulasse os raios-x ou relatórios de laboratório de um paciente sem ter que “interromper a depuração”.

Com reconhecimento de gestos, a Microsoft entrou em vigor pela primeira vez com seu Kinect para Xbox 360, lançado em novembro de 2010. Ele capturou movimentos de corpo e mão em tempo real, liberando os jogadores dos teclados e joysticks. O Kinect também oferece suporte a vários players em uma pequena sala. Hoje, o Kinect faz parte do serviço baseado em nuvem da Microsoft, o Azure.

A empresa sueca Tobii Rex criou um dispositivo de rastreamento ocular baseado em luz infravermelha que possibilita que pessoas com deficiência usem seus olhos para apontar e interagir com um computador.

A empresa americana Leap Motion produz um sensor que detecta movimentos de mão e dedo como entrada. Além de usá-lo para controlar seu PC, ele também permite o acompanhamento de mãos na realidade virtual.

A start-up italiana Limix usa reconhecimento de gestos para registrar os movimentos das mãos dos surdos em linguagem de sinais. Eles são então traduzidos em palavras, que são tocadas por um sintetizador de voz em um smartphone.

A Gestigon começou a usar dados de profundidade 3D em realidade aumentada para empresas do setor automobilístico, como Audi, Renault e Volkswagen, a partir de 2016. A empresa também está trabalhando em headsets VR, bem como eletrônicos de consumo e dispositivos domésticos inteligentes.

Achou útil essa informação? Compartilhe com seus amigos! xD

Deixe-nos a sua opinião aqui nos comentários.

Quer ficar por dentro do assunto Smart City, o mais falado no Brasil e no mundo? Deixe seu e-mail e receba em primeira mão! clicando aqui.