Ecosistema digital escribe Carlos Miguel Ramos Linares
Apple apuesta por convertir su nuevo visor Vision Pro en un “sustituto tecnológico de la vista” para personas con discapacidad visual. Presenta funciones futuristas —desde inteligencia artificial que describe entornos hasta interfaces cerebrales—, pero ¿realmente acercará la inclusión a la vida diaria de la mayoría?
La cámara del Vision Pro, junto con VoiceOver, podrá leer texto en voz alta y describir el entorno físico alrededor del usuario en tiempo real. Esto va en línea con lo que ya ofrecen aplicaciones móviles como Microsoft Seeing AI o Google Lookout, que usan la cámara del teléfono y algoritmos de IA para reconocer textos, objetos e incluso rostros. Estas herramientas amplían la percepción, aunque no sustituyen ayudas tradicionales como el bastón blanco o el perro guía para la navegación segura.
El Vision Pro se controla con la mirada, gestos en el aire y comandos de voz. Además, Apple incorporará soporte para interfaces cerebro-computadora (control mental de dispositivos), algo que ya se está probando mediante implantes cerebrales. Por su parte, el dispositivo OrCam MyEye ofrece también una experiencia manos libres mediante una cámara acoplada a gafas que lee textos y reconoce caras u objetos con solo apuntar con el dedo. La diferencia es que OrCam funciona de forma independiente (sin smartphone ni conexión) pero con funciones más limitadas, mientras Vision Pro es una plataforma más amplia de realidad mixta.
Otra novedad es la asistencia remota. Apple permitirá que apps como Be My Eyes usen la cámara del visor para que un voluntario vea lo que ocurre y guíe al usuario. Integrar esta "videoasistencia" en el Vision Pro extiende una fórmula que esa app ya ofrecía en smartphones. Por otro lado, existen opciones 100% automatizadas: Seeing AI o Lookout describen escenas mediante IA sin mediación humana.
La pregunta clave es quién podrá acceder a estas innovaciones. El Vision Pro costará alrededor de $3,500 dólares y OrCam MyEye supera los $4,000, cifras prohibitivas para la mayoría. En cambio, aplicaciones como Seeing AI, Lookout o Be My Eyes son gratuitas (aunque requieren un teléfono inteligente moderno). Esto crea una brecha digital: quienes puedan costear la última tecnología tendrán ventajas, mientras muchos otros quedarán limitados a soluciones más básicas. Además, no todos los usuarios cuentan con la formación o confianza para aprovechar estas herramientas; de hecho, ha habido casos de dispositivos devueltos por resultar demasiado complejos de usar. La tecnología abre nuevas posibilidades de inclusión, pero convertir estas promesas en realidad cotidiana exige que las soluciones sean asequibles, accesibles y verdaderamente útiles para quienes más las necesitan.
La inclusión tecnológica no se mide por la espectacularidad de sus funciones, sino por su capacidad de integrarse en la vida diaria de quienes más la necesitan. Por eso, mientras Apple presume interfaces cerebro-computadora y visores con realidad mixta, la prioridad debería centrarse en la democratización del acceso, el diseño universal y la capacitación accesible para todos los sectores sociales. Sin políticas públicas que subsidien estos avances o los incluyan en programas de apoyo a personas con discapacidad, seguirán siendo soluciones de lujo para unos pocos. La innovación sin equidad corre el riesgo de reforzar la marginación tecnológica, en lugar de combatirla.
@cm_ramoslinares