Gemini agora analisa imagens da tela e da câmera do celular
O Google começou a liberar uma atualização que permite ao Gemini interpretar imagens exibidas na tela do smartphone e capturadas pela câmera em tempo real. Com esse novo recurso, os usuários podem fazer perguntas sobre o que estão vendo e receber respostas imediatas com a ajuda da inteligência artificial.
Atualização já está disponível
Os primeiros relatos sobre a novidade surgiram no Reddit, onde um usuário demonstrou a funcionalidade em um celular Xiaomi. Na manhã desta segunda-feira (24/03), um porta-voz do Google confirmou ao The Verge que a atualização já está sendo distribuída.
Atualmente, o recurso é exclusivo para assinantes do Google One AI Premium, que custa R$ 96,99 por mês no Brasil. Ainda não há informações sobre uma possível ampliação para outros planos. O Tecnoblog entrou em contato com o Google para saber se a ferramenta será disponibilizada no país e atualizará este artigo caso haja resposta.
Como funciona o Gemini com imagens?
O Gemini agora oferece duas formas principais de interação com imagens:
- Análise da tela: O usuário pode solicitar que a IA descreva o que está sendo exibido no display. Em um exemplo compartilhado no Reddit, o assistente identificou notificações, horário e temperatura. Quando perguntado sobre qual launcher estava em uso, o Gemini respondeu que não podia determinar exatamente, mas reconheceu que era altamente personalizado.
- Uso da câmera: O Google demonstrou um caso em que um usuário pediu sugestões de decoração ao Gemini. A IA utilizou a câmera para analisar o ambiente e fez recomendações com base nas imagens capturadas. Vale destacar que o aplicativo não precisa de gravações de vídeo — ele processa as imagens ao vivo, em tempo real.
Tecnologia baseada no Project Astra
A chegada desse recurso já era esperada. Durante a MWC 2024, o Google anunciou que o Gemini ganharia a capacidade de interpretar tanto a tela quanto a câmera do celular, e a distribuição começou ainda em março.
Os primeiros detalhes dessa funcionalidade foram revelados no Google I/O 2024, quando o recurso ainda era conhecido como Project Astra. Agora integrado ao Gemini, ele reforça o avanço da inteligência artificial na análise de imagens e interação com os usuários.
Com informações de Tecnoblog e The Verge.
Achou útil essa informação? Compartilhe com seus amigos!
Deixe-nos a sua opinião aqui nos comentários.