O Google explora o potencial de inteligência artificial para incrementar acessibilidade e usabilidade do seu celular no dia a dia. Nesta terça-feira (12), a Gigante das Buscas mostrou como IA incrementa a utilidade do aparelho em várias situações.
Uma das funções apresentadas para os celulares Pixel é o “Guided Frame” (Enquadramento guiado, em tradução livre). A solução foi desenvolvida para que pessoas com deficiência visual ou com baixa visão consigam tirar fotos ou selfies por conta própria.
A solução identifica a figura de mais importância da imagem e fala em voz alta para que o usuário mire a câmera corretamente. O modelo consegue até dar sugestões de poses, recomendando abaixar ou levantar a cabeça, ou ajustar o ângulo da câmera.
Outra novidade é a atualização para o Magnifier, um app exclusivo para celulares Pixel que serve como “olhos artificiais” para deficientes visuais.
A ferramenta detecta palavras específicas nos arredores, exibe informações de conteúdo capturado pela câmera e mais.
Legendas e traduções automáticas
As novas inteligências artificiais generativas também servem para diminuir a barreira do idioma. Também anunciado durante o evento, o “Live Caption” transcreve todo o conteúdo exibido na tela, incluindo publicações em texto, e agora é compatível com português e outros seis idiomas.
A transcrição e tradução automática adapta o conteúdo para o idioma que o usuário consegue entender. (Imagem: Google/Divulgação)Fonte: Google/Divulgação
Nesse mesmo aspecto, também foi adicionado o “Live Transcribe”. A solução capta o discurso ao redor do usuário e registra tudo em texto, visível na tela do celular.
A novidade da vez é o suporte para telas duplas em telas dobráveis — com destaque ao Pixel 9 Pro Fold.
No anúncio, o Google não mencionou quando as novas ferramentas serão lançadas para o público geral, tampouco se chegarão a outros celulares Android.