Cómo Avanzamos en Accesibilidad en Meta

En el marco del Día Global de Conciencia sobre la Accesibilidad, Meta ha revelado sus más recientes desarrollos dirigidos a promover productos más accesibles e inclusivos. Entre las innovaciones destacadas se encuentran las gafas Ray-Ban Meta, que integran tecnología de inteligencia artificial para ofrecer una experiencia manos libres. Estas gafas permiten a los usuarios capturar momentos, enviar mensajes, realizar llamadas y traducir discursos en tiempo real, entre otras funciones. Especialmente útiles para personas ciegas o con visión reducida, estas gafas ahora incluirán una característica que ofrece descripciones detalladas del entorno, que se implementará inicialmente en Estados Unidos y Canadá.

Otra novedad es la función «Llama a un Voluntario», desarrollada en colaboración con Be My Eyes. Esta herramienta conecta en tiempo real a personas con discapacidad visual con voluntarios videntes, facilitando la realización de tareas cotidianas. Estará disponible en los 18 países donde Meta AI tiene soporte.

En cuanto a la interacción humano-computadora, Meta sigue explorando el potencial de los dispositivos para la muñeca equipados con tecnología sEMG (electromiografía de superficie). Estos dispositivos prometen ser una solución para personas con parálisis en las manos o temblores, ofreciendo control de sistemas informáticos incluso cuando existen limitaciones físicas para generar grandes movimientos. Meta ha estado trabajando en colaboración con diversos organismos y universidades para evaluar la efectividad de esta tecnología en personas con trastornos motores.

Meta también busca mejorar la accesibilidad en el metaverso, proporcionando subtítulos en vivo y conversión de texto a audio en sus productos de realidad extendida. Estas características permiten que las palabras habladas se transformen en texto y facilitan la comunicación para aquellos que prefieren no usar su voz. Desde su lanzamiento, estas funciones han experimentado una alta retención y han sido mejoradas con opciones de personalización.

Además, la colección de modelos de IA de código abierto de Meta, llamada Llama, está siendo utilizada por desarrolladores para mejorar la accesibilidad. Un ejemplo es la colaboración con Sign-Speak, que ha permitido crear un chatbot de WhatsApp que traduce el Lenguaje de Señas Americano, facilitando la comunicación entre personas sordas y oyentes.

Meta reafirma su compromiso con la inversión en funciones y productos que faciliten la conexión global, adaptándose continuamente a las necesidades de los usuarios de todo el mundo.
Fuente: Zona de prensa de Meta.

Scroll al inicio