Os óculos Ray-Ban se tornam mais inteligentes para usuários de baixa visão. Aqui está como

Se você não ouviu, a IA agora tem olhos, e a Meta revelou alguns aprimoramentos em seus óculos de meta-baan de Ray-Ban equipados. Os usuários das especificações inteligentes agora podem personalizar meta ai para dar respostas detalhadas com base no que está no ambiente circundante, meta disse Em uma postagem no blog para o Dia Global da Consciência de Acessibilidade.
A inteligência artificial está abrindo um mundo totalmente novo para a acessibilidade, com muitos recursos aparecendo. Gigantes da tecnologia como Google, Apple e Meta estão envolvidos em esforços para criar um mundo onde pessoas com deficiência, como baixa ou nenhuma visão, podem interagir mais facilmente com o mundo ao seu redor.
Embora a IA ao vivo para os meta -óculos tenha sido existente, os aprimoramentos adicionais para usuários de baixa visão serão, sem dúvida, bem -vindo.
Abaixo estão alguns dos outros destaques da postagem do blog focada na acessibilidade da Meta. Para saber, confira o vislumbre dos recursos de acessibilidade cerebral, dirigidos aos dispositivos da Apple.
‘Call a um voluntário’, expandindo -se para 18 países
Embora não esteja focado na IA, a meta e os meus olhos aparecem Chame um voluntário Em breve estará se expandindo para todos os 18 países onde a Meta AI está disponível. Ligue para um voluntário lançado em Novembro de 2024nos EUA, Canadá, Reino Unido, Irlanda e Austrália, e a expansão promete ser um recurso útil (e sem mãos) para usuários de baixa visão.
Uma vez configurado, um usuário do Meta Glasses pode simplesmente pedir à IA que tenha as especificações “Seja meus olhos”. Em seguida, essa pessoa está conectada a um dos mais de 8 milhões de voluntários, que poderão ver o fluxo de câmera ao vivo dos óculos da pessoa e fornecer assistência em tempo real. O recurso está programado para estar disponível para todos os países suportados ainda este mês.
Recursos e pesquisas adicionais de acessibilidade
A Meta também detalhou alguns dos recursos e pesquisas existentes voltados para a expansão da acessibilidade para seus produtos, especialmente no espaço de realidade estendida.
- Recursos como legendas ao vivo e discurso ao vivo estão atualmente disponíveis em dispositivos como The Quest e Meta Horizon, e no Horizon Worlds.
- Também foi mostrado um chatbot do WhatsApp de Falas de sinal Isso usa os modelos API e a LLAMA da Meta da Meta. O chatbot permite que a tradução ao vivo da linguagem de sinais americana seja enviada por texto e vice -versa, para criar uma comunicação mais fácil entre os indivíduos surdos e com dificuldades.
Para mais informações, não perca o punhado de novos recursos de acessibilidade anunciados pela Apple.