Capacidade de processar informação visual em áudio teria consequências laborais, permitindo que profissionais com deficiência visual desempenhem funções administrativas e técnicas com autonomia.
Redação |
O ato de caminhar por uma rua, identificar um rosto ou ler uma etiqueta é mais do que um desafio para os 285 milhões de pessoas com deficiência visual no mundo. No entanto, os óculos inteligentes deixaram de ser acessórios de ficção científica para se tornarem capazes de transformar vidas.
A nova geração de óculos inteligentes, utiliza a combinação de Inteligência Artificial, sensores LIDAR – que utilizam a luz laser para medir distâncias e criar representações tridimensionais do mundo real – e câmaras de alta definição que oferecem interpretação de contexto.
Através de pequenos auscultadores de condução óssea — que deixam o canal auditivo livre para que o utilizador continue a ouvir os sons do ambiente — a IA sussurra descrições detalhadas, facilitando a conexão emocional e a segurança.
Um dos maiores avanços reside na mobilidade. Os óculos inteligentes utilizam sensores ultrassónicos para avisar sobre objetos suspensos, como ramos de árvores ou placas de sinalização. Estes dispositivos funcionam como sistemas de navegação em tempo real, integrando-se com o GPS para guiar o utilizador com precisão métrica.
Por sua parte, o Reconhecimento Ótico de Caracteres permite que o utilizador “leia” documentos físicos, ecrãs de computador ou apresentações em conferências de forma instantânea. Esta capacidade de processar informação visual em áudio está a ter consequências laborais, permitindo que profissionais com deficiência visual desempenhem funções administrativas e técnicas com autonomia.
Especialistas defendem que o próximo passo é a integração com as “cidades inteligentes”: óculos que comunicam com os semáforos ou com as redes de transportes públicos, informarão o utilizador exatamente onde está a porta do autocarro que acaba de chegar.
Os óculos inteligentes apresentam um espectro diversificado de funcionalidades, destacando-se inicialmente pela realidade aumentada, que funde elementos digitais ao ambiente físico. Esta vertente permite que o utilizador visualize camadas informativas sobrepostas ao mundo real, como setas de navegação GPS que flutuam sobre o pavimento, ecrãs de trabalho virtuais suspensos no ar ou até legendas automáticas que traduzem diálogos em língua estrangeira em tempo real, transformando a perceção visual numa interface de dados dinâmica.
Outros modelos especializam-se na captura subjetiva de conteúdo e na conectividade social. Dispositivos focados em câmaras, permitem registar fotografias e vídeos de alta fidelidade a partir da perspetiva direta do utilizador, libertando as mãos e preservando a espontaneidade. Esta funcionalidade estende-se ao livestreaming, possibilitando a transmissão em direto de experiências quotidianas para redes sociais.
No campo da interação sonora, estes dispositivos funcionam frequentemente como auscultadores “invisíveis” que utilizam colunas minúsculas nas hastes para projetar som direcional sem obstruir o ouvido. Isto permite gerir chamadas e ouvir música mantendo a consciência do som ambiente, enquanto a integração com assistentes de IA, oferece uma camada de computação cognitiva. O utilizador pode, por exemplo, questionar a IA sobre monumentos ou objetos que está a observar e receber respostas áudio imediatas, otimizando a produtividade através de notificações discretas num pequeno prisma ótico e comandos tácteis simplificados.
Apesar do entusiasmo, o setor enfrenta o desafio do custo. Equipamentos de ponta podem custar entre 2.000€ e 5.000€, um valor proibitivo para a maior parte da população. Contudo, o surgimento de aplicações que transformam óculos convencionais em dispositivos inteligentes, está a baixar a barreira de entrada.

