Em foco

Chrome introduz funcionalidade para cegos “verem” imagens enquanto navegam na internet

Através de IA e machine learning, o browser vai passar a descrever as imagens para ajudar cegos ou pessoas com problemas de visão a navegarem com maior eficácia na internet.

Data: 11.10.2019

Chrome introduz funcionalidade para cegos “verem” imagens enquanto navegam na internet

Considerando que a componente multimédia, sobretudo as imagens, fazem parte de toda a experiência online, quando se navega pela internet, as pessoas com problemas de visão e os cegos passam ao lado dos conteúdos ilustrados. A Google pretende oferecer uma solução baseada em inteligência artificial e machine learning para gerar automaticamente descrições para essas pessoas. Até aqui, as descrições mostradas em Braille dependem sempre dos web designers em obedecer às normas e criar o chamado texto alternativo para as imagens.


A equipa da Google, responsável pela divisão de acessibilidade do Chrome, produziu uma funcionalidade que tira partido do sistema de reconhecimento de imagens, ligando-o a um algoritmo para gerar as tais descrições alternativas das imagens. Isto porque segundo Laura Allen, programadora sénior e gestora da equipa, citada pela Fast Company, existem muitos milhões de imagens online sem qualquer descrição, uma má conduta que a afeta diretamente, visto que tem uma visão reduzida. “Quando se está a navegar e se depara com estas imagens, basicamente ouve-se “imagem” ou “gráfico” ou simplesmente um gigantesco número, referente ao nome do ficheiro da imagem, que são totalmente irrelevantes”.


É explicado que a tecnologia vai permitir oferecer algumas descrições mais detalhadas, nomeadamente explicar que uma imagem com bananas e cocos numa bancada se trata de “uma banca de frutas e vegetais no mercado”. Para tal recorre à sua base de dados do Google Photos, reconhecendo os objetos e aprende a gerar descrições assertivas para os utilizadores com visão reduzida. O importante da tecnologia parece ser a contextualização das imagens, e não uma descrição direta dos elementos que as compõem.


Ao Invés de referir bananas e cocos, a ferramenta pode referir o contexto "frutas e legumes numa banca de venda" aos utilizadores cegos.


Ainda assim, e considerando que o algoritmo não é perfeito, sempre que tenha dúvida do teor da imagem, a decisão é fazer com que não a traduza, de todo, para evitar confundir os utilizadores. E no processo de testes, a Google afirma que a ferramenta já identificou 10 milhões de mensagens em poucos meses.


Para já, o recurso começou a ser disponibilizado aos utilizadores de forma faseada, sobretudo aos que utilizam os tais leitores de ecrã. Esses utilizadores vão poder controlar o sistema, se apenas querem utilizar numa página, ou manter ligado durante a navegação. A Google adianta que neste momento apenas está disponível em inglês, mas em breve vai chegar a outros idiomas.


Fonte: Sapo Tek



Voltar