Ojos para los que no pueden ver

Un millón de españoles sufre discapacidad visual. Gafas inteligentes para leer, balizas, y 'software' para traducir al 'braille' acuden en su ayuda

Jerusalén / Madrid 
Hacer que los invidentes se manejen como si vieran es uno de los reto más importantes a los que se enfrentan las nuevas tecnologías. Gafas inteligentes, balizas de Bluetooth, asistentes vocales o aplicaciones para mejorar la movilidad copan las principales investigaciones destinadas a facilitar el día día de quienes se enfrentan a la pérdida de visión, independientemente del origen de esta. Lo último en llegar a España, el dispositivo de lectura y reconocimiento visual diseñado por la firma israelí Orcam.
Ojos para los que no pueden ver
GETTY
El sueño de muchas personas invidentes o con trastornos visuales es lograr ser lo más autónomos posible y poder realizar tareas cotidianas como combinar los colores para vestir, hacer la compra, encontrar una dirección, leer la carta en un restaurante, disfrutar de una película o leer un libro. Cada vez son más las empresas que apuestan por la investigación en este campo y que desarrollan dispositivos destinados a suplir esas carencias. Los más populares son las diferentes aplicaciones diseñadas para los teléfonos móviles inteligentes que, a través de un sistema de voz, permiten, por ejemplo, descargarse audiolibros, o que los usuarios puedan distinguir los colores de la ropa, etiquetada previamente mediante un sistema de caracteres reconocible por la aplicación.
En Estados Unidos, hace años que los ingenieros del proyecto Aira se esfuerzan en mejorar su producto estrella: una aplicación de asistencia remota que permite al usuario recibir información en tiempo real sobre el lugar en el que se encuentra. Su funcionamiento es sencillo. Al ponerlo en marcha, Aira contacta con un agente que será los ojos de la persona. Inicialmente fue concebido para funcionar a través de la cámara del móvil pero la compañía recientemente ha desarrollado unas gafas inteligentes que envían imagen de vídeo al agente conectado y permiten al usuario mantener las manos libres, mientras recibe instrucciones para desplazarse, comprar, o lo que quiera que necesite.
Una línea de trabajo abierta por Google con sus revolucionarias gafas y a la que ahora siguen otras compañías como la israelí Orcam, que ha desarrollado un dispositivo completamente autónomo que bebe del mismo concepto y que ya está disponible en España, un país con casi un millón de personas con discapacidad visual (58.000 de ellas con ceguera total) según recoge la última encuesta realizada por el INE a este respecto, de 2008.

La última revolución

El aparato, diseñado en el parque tecnológico Har Hotzvim, en Jerusalén, cuenta con versiones en inglés, español, francés, alemán, italiano y hebreo. Permite oir lo que no se puede ver, tan solo dirigiendo la mirada hacia una señal o cartel, o apuntando con el dedo sobre la página de un libro o periódico. “Acciones cotidianas como ir al baño en un restaurante o un lugar público pueden resultar muy embarazosas para las personas con defectos visuales que no son capaces de distinguir si se trata del lavabo de señoras o de caballeros. Con Orcam, simplemente colocándose frente al cartel, el dispositivo lo leerá”, explica Rafi Fisher, director de comunicación de la firma israelí.
Así funciona Orcam.
Se trata de una pequeña pinza dotada de una cámara de alta resolución, que se acopla fácilmente a la patilla de la montura de cualquier gafa. La lente, conectada a una petaca del tamaño de un móvil, envía al aparato las imágenes de los textos visualizados donde el software desarrollado por la startup israelí se encarga de transformarlas en una narración que el usuario escucha a través de un auricular. “No solo está pensado para invidentes o gente con problemas severos de visión, también puede ser muy útil a personas con dificultades para leer por vista cansada, dislexia y otros transtornos”, añade Fisher.
Uno de los mayores problemas que presentan otras tecnologías similares, como aplicaciones de móvil que escanean los textos y después los leen, es que el usuario tiene que ser capaz de enfocar en el teléfono lo que quiere leer, algo que muchos no pueden hacer correctamente. “A mí, antes me resultaban muy útiles este tipo de aplicaciones pero la mayoría se basan en tomar una buena fotografía y como cada vez veo menos, me resulta más difícil”, asegura Miguel Montero, un vendedor madrileño de cupones de la ONCE con una enfermedad degenerativa visual. Con Orcam apenas hay que esperar unos segundos para transformar los caracteres que encuentra en su campo de visión.
Rafi Fisher, director de comunicación de Orcam, prueba Orcam My Eye 2.ampliar foto
Rafi Fisher, director de comunicación de Orcam, prueba Orcam My Eye 2. ORCAM
El Brainport V100 también soluciona el problema del enfoque. Se trata de un dispositivo de visión oral, es decir, que envía estímulos para ayudar a sus usuarios a orientarse, desplazarse y reconocer objetos. Wicab, la empresa estadounidense detrás del producto, lo ve como un apoyo a otros métodos como el bastón o el perro guía. Una cámara colocada en las gafas utiliza inteligencia artificial para distinguir objetos y envía un impulso eléctrico al otro extremo del dispositivo, que se coloca en la punta de la lengua y que envía diferentes patrones (con una sensación de burbujas) en función del tipo de elemento que distingue la cámara. Con esos patrones el usuario puede aprender a distinguir la forma, el tamaño, la distancia y el movimiento de objetos de su entorno. Está a la venta en Estados Unidos, Hong Kong y la Unión Europea a un precio que ronda los 10.000 euros.
El manejo de este tipo de dispositivos requiere cierta práctica, por eso algunos de los primeros usuarios de Orcam trabajan a su vez como “entrenadores” para la firma israelí. Enseñan a los nuevos clientes a manejarlo al tiempo que ayudan a la empresa a mejorar el producto. En el caso del Brainport V100, su entrenamiento exige un mínimo de 10 horas con expertos, repartidas en tres días, para aprender a traducir los impulsos que recibe la punta de la lengua.
Uno de los mayores avances de Orcam frente a otros productos  es que además de descifrar los caracteres escritos también está diseñado para reconocer caras. El usuario, al colocarse frente a una persona, puede decir su nombre y almacenar la información en el dispositivo de manera que, la próxima vez que esa persona aparezca en su campo de visión, la voz de Orcam reproducirá su nombre.

Disponible en España

A la venta en Estados Unidos desde 2015 y en algunos países europeos desde el año pasado, la versión en español llega a España de la mano de Essilor y de algunos centros privados especializados en baja visión. “En mayo comenzamos su distribución”, confirma la portavoz del gabinete de prensa de la multinacional francesa que también lo vende en el país vecino.
El alto coste, que en España ronda los 3.500 euros, ha ralentizado su expansión, ya que algunas organizaciones con las que la empresa israelí contactó para exportarlo lo descartaron al considerar que se trata de un precio muy alto para los futuros usuarios. “No es más caro que un buen audífono y mejora notablemente el día a día de la gente con dificultades visuales. ¿Cuánto pagarías por recuperar cierta autonomía?”, responde Fisher a los críticos.
La experiencia de los usuarios con Brainport V100.
La tecnología de Orcam se desarrolla a partir de la diseñada por Mobileye para los coches autónomos. No en vano, ambas compañías fueron fundadas por el empresario Ziv Aviram y el profesor de la Universidad Hebrea de Jerusalén, Amnon Shashua, que el pasado mes de marzo vendieron Mobileye al gigante Intel por 14.000 millones de euros. El futuro prometedor que auguran sus avances en este campo tampoco es ajeno para los investigadores españoles.

Más avances

Desde la Fundación ONCE aseguran que en su particular Silicon Valley, situado en el madrileño barrio de Vallecas, trabajan en varios proyectos destinados a conseguir mayor autonomía, pero a un precio más asequible. De hecho, sus desarrolladores de proyecto llegaron a reunirse con los responsables de Orcam descartándolo por su elevado precio y porque “su utilidad les pareció limitada para la evolución de los tiempos”, dicen desde la organización.
Recientemente la ONCE ha presentado un avanzado sistema de guiado a través de balizas bluetooth que conectadas a una aplicación de móvil facilitan la movilidad de los invidentes en lugares cerrados. Esta tecnología, conocida como “beepcon” resulta muy útil en espacios turísticos y culturales porque permite además localizar e identificar objetos de los que el usuario recibe información sonora a través del móvil.
El MIT (Massachusetts Institute of Technology) también ha trabajado en sistemas que reduzcan la dependencia de las personas con afecciones visuales. Su equipo de estudio de fluidos desarrolló en 2015 un wearable que, colocado en el dedo, ayudaba a leer texto impreso. Basta con desplazar el índice sobre el texto para obtener una traducción simultánea de voz. El usuario recibe información táctil de dónde empiezan y acaban las líneas, y también si se está saliendo de la línea de lectura.
En el mismo MIT, el Team Tactile, un grupo de estudiantes multidisciplinar, multicultural y formado íntegramente por mujeres, ha desarrollado un traductor simultáneo de texto escrito a braille, que llevaría la autonomía de lectura también a los sordociegos, que no pueden escuchar la información que envían la mayoría de dispositivos existentes. Las seis alumnas del MIT ya han obtenido varios premios y ayudas a la investigación por su innovación, que incluso han podido presentar en el marco de la conferencia Microsoft Build, la más importante del año para el gigante tecnológico de Redmond.
El equipo Tactile presenta su dispositivo de traducción instantánea a braille.
Microsoft también trabaja en el diseño de una especie de auriculares inalámbricos que utilizan la locación GPS para dar detalles al usuario sobre dónde se encuentra y hacia dónde desea moverse en las grandes ciudades o superficies comerciales. No es la única gran marca interesada en la dependencia visual. Toyota desarrolla un aparato para conectar en el hombro, con cámara integrada, que también a través de auriculares facilite al usuario información sobre el entorno en el que se mueve o sobre las personas que tiene delante.
Los invidentes también encontrarán en el futuro un gran apoyo en una tecnología que constituye un pilar estratégico en el futuro de todas las grandes tecnológicas: los asistentes virtuales de voz, como Cortana (Microsoft), Alexa (Amazon) o Siri (Apple), que cambiarán la forma de relacionarnos con las máquinas de lo visual a lo auditivo. Serán otro elemento que ayudará a quienes padecen baja visión a salir de una oscuridad que las nuevas tecnologías luchan por iluminar.

TAMBIÉN PARA LOS SORDOCIEGOS

PABLO ALBACETE
Con barreras de acceso a la comunicación y a la información más difíciles de solventar se encuentran las personas sordociegas. Un colectivo que reclama más visibilidad y, en concreto, un censo que determine cuántos sufren esta discapacidad en España. “Algunos mayores pierden visión y audición con el paso de los años y deben formar parte este grupo. Por tanto, nuestra estadística es que en este país hay más de 200.000 personas en esta situación”, declara un portavoz de la Federación de Asociaciones de Personas Sordociegas (Fasocide).
Para paliar esos obstáculos la Universidad Carlos III de Madrid, Telefónica y Fasocide han desarrollado la tecnología PervasiveUSB. Se trata de un software pionero en el mundo que permite a este colectivo recibir y disfrutar de los contenidos de la televisión al mismo tiempo que cualquier persona.
PervasiveSUB recoge todos los subtítulos de las cadenas de televisión y los envía a un servidor central. Se reenvían a smartphones o tabletas y, desde ahí, gracias a la aplicación GoAll, se traducen a líneas de braille interactivas (dispositivos electrónicos similares a teclados convencionales que permiten la conversión de contenido en este código táctil desde otro aparato). Sólo con la yema de los dedos la persona sordociega es capaz de acceder a todos los contenidos televisivos. Además, la app permite modificar la velocidad de lectura.
En la presentación del sistema, este jueves en Madrid, Javier García Pajares, sordociego de 26 años, realizó una demostración. Fue capaz de decir en voz alta los subítulos que aparecían en la televisión que emitía el canal 24 horas. 
El creador de este programa y doctor en Ingeniería Industrial de la institución académica, Ángel García Crespo, ha explicado que dado el éxito de las pruebas, la tecnología ya está disponible de forma gratuita en todos los canales de la TDT nacionales, autonómicos de Madrid y, en breve, en el resto de comunidades autónomas. Los usuarios interesados solo necesitan descargarse GoAll en sus dispositivos iOS o Android.

No hay comentarios

Con la tecnología de Blogger.