O Google está lançando os recursos de vídeo da AI em tempo real de Gemini

O Google começou a lançar novos recursos de IA para o Gemini Live, que permitem que “veja” sua tela ou através da câmera do smartphone e responda a perguntas sobre o tempo real, o porta-voz do Google, Alex Joseph, confirmou em um email para A beira. Os recursos acontecem quase um ano depois que o Google demonstrou o trabalho “Project Astra” que os alimenta.
UM O usuário do Reddit disse O recurso apareceu em seu telefone Xiaomi, como avistado por 9to5GOOGLE. Hoje, o mesmo usuário postou o vídeo Abaixo, demonstrando a nova capacidade de leitura de tela da Gemini. É um dos dois recursos do Google disse no início de março “começaria a ser lançado para assinantes Avançados de Gemini como parte do Plano Premium AI do Google One AI” no final do mês.
O outro recurso Astra lançado agora é o vídeo ao vivo, o que permite que Gemini interprete o feed da câmera do seu smartphone em tempo real e responda a perguntas sobre isso. No vídeo de demonstração abaixo que o Google publicou este mês, uma pessoa usa o recurso para pedir ajuda a Gemini para decidir sobre uma cor de tinta para usar para sua cerâmica recém-vibrada.