
Microsoft ha anunciado una nueva colaboración con Be My Eyes para aportar datos representativos de alta calidad sobre la discapacidad, para ayudar a entrenar los sistemas de IA. Este trabajo con Be My Eyes ayudará a que los modelos de IA de Microsoft sean más inclusivos para los 340 millones de personas ciegas o con baja visión en el mundo, y es el último paso en nuestro compromiso de crear tecnología inclusiva.
La IA requiere grandes cantidades de datos para el entrenamiento y la utilidad, pero con demasiada frecuencia la discapacidad está infrarrepresentada o categorizada de manera incorrecta en los conjuntos de datos. En el artículo más reciente de Microsoft Research sobre el rendimiento de la IA para describir imágenes de personas ciegas o con baja visión, los objetos con discapacidad, como un dispositivo braille, se incluyeron con menos frecuencia en los conjuntos de datos populares de imagen y texto a gran escala, lo que llevó a reconocer esos objetos con ~ 30 por ciento menos de precisión. Este desierto de datos sobre discapacidad puede limitar la utilidad de una tecnología, reforzar los estereotipos existentes y magnificar los prejuicios. A medida que seguimos con el descubrimiento de las oportunidades para la IA y la accesibilidad, los datos inclusivos a través de este tipo de asociaciones y colaboraciones comunitarias son primordiales para construir una IA inclusiva.
La forma en que lo hacemos es importante. La transparencia y el control del usuario son los principios rectores para la privacidad de los datos en este acuerdo. Be My Eyes proporcionará conjuntos de datos de video, que incluyen objetos únicos, iluminación y encuadres que representan de manera realista la experiencia vivida por la comunidad ciega y con baja visión. La información personal será eliminada de los metadatos por Be My Eyes antes de compartirla y la compañía continúa con su trabajo de manera transparente con sus miembros para proporcionar un proceso claro y opciones para optar por no compartir datos. Luego, Microsoft utilizará los datos para mejorar la exactitud y precisión de la comprensión y las descripciones de las escenas con el objetivo de aumentar la utilidad de las aplicaciones de IA para la comunidad ciega y con baja visión.
Esta noticia es el siguiente capítulo en nuestra colaboración con Be My Eyes, que comenzó en 2017 cuando su aplicación se integró a la experiencia de soporte de Disability Answer Desk para brindar a los clientes un soporte técnico más eficiente. El año pasado, Microsoft fue el primero en poner a prueba su nuevo ‘Be My AI’, con IA que ayuda a resolver problemas de soporte técnico. Be My Eyes también desarrolló de manera reciente una aplicación para Windows, disponible en Microsoft Store. Colaboraciones como estas nos permiten mejorar la representación y la diversidad de los datos de IA e impulsar una inclusión más auténtica de la discapacidad en nuestra tecnología.
La IA responsable es una IA inclusiva
En los últimos 18 meses, nos hemos centrado en comprender cómo la IA generativa puede afectar de manera directa a las personas con discapacidad, pero nuestra historia aquí se remonta aún más atrás. Nos basamos en principios en nuestro enfoque para asegurarnos de ampliar esos beneficios y mitigar los posibles daños de la IA. El marco de IA responsable de Microsoft es la forma en que lo hacemos. Incluye la equidad, la fiabilidad y la seguridad, la privacidad y la seguridad, la transparencia, la responsabilidad y la inclusión, incluida la accesibilidad.
Las innovaciones de IA pueden reducir la carga cognitiva a través de resúmenes, automatizar las notas de las reuniones y proporcionar descripciones detalladas de las imágenes. Estas innovaciones tienen muchas implicaciones positivas para las comunidades neurodiversas, sordas y ciegas y más, y con 1+ mil millones de personas en el planeta que experimentan algún tipo de discapacidad, el desierto de datos sobre discapacidad es un problema crucial para abordar.
«El habla es un ejemplo de dónde hemos invertido y, desde 2022, estamos orgullosos de trabajar con la Universidad de Illinois Urbana-Champaign (UIUC, por sus siglas en inglés) junto con Apple, Google, Meta y Amazon en el Proyecto de Accesibilidad al Habla. La UIUC trabaja con organizaciones sin fines de lucro para recopilar datos para mejorar el reconocimiento de voz para personas con diversos patrones de habla, como las que padecen ELA. Estos datos ayudan a los modelos de IA a aprender una comprensión más amplia de la diversidad del habla y amplían los escenarios en los que esta tecnología puede aportar beneficios, incluida la aceleración de la precisión de los datos de voz no estándar en plataformas de voz convencionales, como Azure Speech. El proyecto mejora los sistemas de IA para personas con discapacidad mediante la integración de diversos datos y perspectivas en el proceso de desarrollo».
Por: Jenny Lay-Flurrie, vicepresidenta y directora de accesibilidad de Microsoft.