PLUMA INVITADA
Tengo que tomar una decisión sobre mi ceguera
Hace poco visité un restaurante mexicano con mi familia. Era la primera vez que salíamos a comer juntos desde el inicio de la pandemia. Mientras miraba los ya conocidos paneles del menú que colgaban detrás del mostrador, me di cuenta con cierta consternación de que ya no podía leerlos.
' Los avances tecnológicos pueden marcar el comienzo de una era de independencia sin precedentes para usuarios discapacitados.
Andrew Leland
Aún podía distinguir los titulares, información que ya conocía, como la oferta de burritos, tacos y bebidas. Sin embargo, todo el texto que había debajo de los titulares era indescifrable. Esto se ha convertido en algo habitual a medida que entro en las últimas fases de la retinosis pigmentaria, una enfermedad degenerativa intratable de la retina que durante décadas ha ido destruyendo mi visión.
En ese momento, tenía que elegir: podía sacar el teléfono e intentar utilizar sus funciones de aumento o de texto a voz para leer el menú, o pedir ayuda a mi familia. Existe una fuerte tensión entre la independencia que facilitan las tecnologías de apoyo y la posibilidad de interdependencia que puede surgir del intercambio entre personas discapacitadas y no discapacitadas. Esta tensión nunca ha sido tan pronunciada como hoy, cuando los avances tecnológicos pueden marcar el comienzo de una era de independencia sin precedentes para los usuarios discapacitados.
En los últimos años ha surgido una nueva categoría de tecnología para ciegos, llamada “intérpretes visuales”. Con la aplicación Be My Eyes, una persona ciega puede apuntar con su teléfono a algo que no puede ver —un pantalón, por ejemplo, que puede combinar o no con su camisa— y conectar la cámara de su teléfono a la pantalla de un voluntario vidente que puede explicarle la situación. Aunque, técnicamente hablando, la persona ciega sigue dependiendo de la ayuda de otra persona, el anonimato y la ausencia de fricción digital de la experiencia de la aplicación crean la sensación de una solución automatizada al problema.
Los avances en visión artificial, como la asombrosa capacidad de reconocimiento de imágenes de la inteligencia artificial moderna, están eliminando incluso a estos actores humanos de la ecuación. Este año, Be My Eyes lanzó una versión beta de un servicio llamado Virtual Volunteer(Voluntario Virtual), que sustituye al humano al otro lado de la línea por una herramienta de inteligencia artificial (impulsada por el modelo GPT-4 de OpenAI). Un usuario de prueba ciego apuntó su cámara a un paquete de comida congelada, y la inteligencia artificial le leyó la descripción del contenido del paquete, incluyendo la fecha de caducidad y el tamaño de la comida.
No obstante, los escollos de la inteligencia artificial están tan presentes en la esfera de la tecnología asistencial como en el resto de la sociedad. Por muy encantados que estuvieran los probadores ciegos de la versión beta del intérprete visual de OpenAI, también cometió algunos errores evidentes: Como Kashmir Hill hace poco lo informó en The New York Times, OpenAI describió con confianza un mando a distancia para un usuario ciego, incluyendo descripciones de botones que no estaban allí. Cuando otro probador beta mostró a la herramienta el contenido de un refrigerador, pidiendo ideas para recetas, recomendó “soda de crema batida” y una “salsa cremosa de jalapeños”. Y OpenAI hace poco decidió hacer borrosos los rostros de la gente que aparecía en las fotos que subían los participantes ciegos en las pruebas beta, lo que limitaba enormemente la utilidad social de Virtual Volunteer para un usuario ciego.
El mundo visual de la información que es inaccesible para las personas ciegas es imposiblemente vasto: pensemos en todas las imágenes, videos y textos que se suben a internet, por no hablar de toda la información que llena nuestro mundo fuera de este. (Según la Unión Mundial de Ciegos, el 95 por ciento del conocimiento publicado en el mundo está “encerrado” en formatos impresos inaccesibles). Este almacén infinitamente refrescante de información, en su mayor parte de difícil, si no imposible, acceso para las personas con discapacidad visual o deficiencia lectora, hace que una solución tecnológica universal parezca el único camino a seguir. Pero, a pesar del poder bien documentado de la tecnología para transformar la vida de las personas con discapacidad, no puede ser la única solución.
Los robots de visión artificial han empezado a describir de manera automática las imágenes en línea, pero los resultados siguen siendo muy variables: en Facebook, cuando mi lector de pantalla encuentra fotos de mis amigos y familiares, invariablemente ofrece errores garrafales como “la imagen puede contener: fruta”. Si la gente escribiera sus propias descripciones de las imágenes, tendría una idea mucho más clara de lo que está pasando, con mucho más contexto. Del mismo modo, empresas como accessiBe y AudioEye han amasado millones de dólares ofreciendo “superposiciones de accesibilidad” y aditamentos que afirman arreglar automáticamente los sitios web que no funcionan para sus usuarios discapacitados (y ayudar así a los sitios a evitar costosas demandas derivadas de la Ley para Personas con Discapacidad, o ADA, por su sigla en inglés) con unas pocas líneas de código generado por la IA. Pero con frecuencia, las superposiciones de accesibilidad han hecho que para los usuarios ciegos sea aún más difícil navegar los sitios web. La solución, sugieren muchos defensores, es confiar menos en la inteligencia artificial y, en su lugar, contratar a expertos en accesibilidad humana para que diseñen los sitios web teniendo en cuenta la discapacidad desde el principio. Una vez más, las personas deben seguir formando parte del proceso.
Este verano, mientras esperaba en la fila para cenar, me sentí incapaz de sacar mi teléfono para utilizar alguna de las soluciones cibernéticas disponibles para ayudarme a descifrar el menú. Decidí pedirle a mi mujer, Lily, que me informara sobre las opciones de tacos. Nuestro hijo Oscar, de 10 años, la interrumpió: ¡Déjame a mí! Me leyó con orgullo las descripciones de los tacos y nos pusimos a discutir sobre cuáles sonaban bien. Depender de Óscar para leer el menú no supuso una pérdida de independencia. Fue un diálogo divertido y afectuoso, una experiencia compartida con un ser querido, que era, más allá del sustento básico, la verdadera razón por la que estábamos allí. Sus ojos, sus oídos y su cerebro tenían sensores muy superiores a los de cualquier dispositivo de asistencia que hubiera por ahí, y es mucho más encantador interactuar con él.
La independencia es esencial para todos, y especialmente para las personas discapacitadas, a las que el mundo tiende a mirar con lástima, repulsión y expectativas excesivamente bajas. Estoy impaciente por ver cómo la tecnología permite esa independencia de maneras totalmente nuevas. Pero la interdependencia también tiene un valor insustituible: el sentimiento de experiencia compartida que surge cuando dos personas interactúan e intercambian ideas y capacidades. Oscar me leyó el menú, pero yo le ayudé a interpretarlo y a decidir qué quería comer también.
Creo que esto es lo que la educadora en materia de discapacidad y justicia Mia Mingus quiere decir cuando habla de una idea que, según ella, “reorienta nuestra actitud, de una en la que se espera que las personas discapacitadas se cuelen en el mundo de las personas sin discapacidad, a otra en la que se pide a las personas sin discapacidad que habiten nuestro mundo”. Sé que la inteligencia artificial me devolverá parte de la independencia que la ceguera amenaza con arrebatarme. Pero espero no perder de vista esta otra experiencia, la de los momentos de intimidad e intercambio que surgen cuando dos personas se reúnen para explorar colectivamente partes del mundo que no podrían haber encontrado, de la misma manera, por cuenta propia.
*c.2023 The New York Times Company