Facebook mejora su IA para describir fotos a personas con discapacidad visual

Facebook ha anunciado una mejora considerable a sus funciones de accesibilidad, específicamente a una llamada texto alternativo automático (ATT). Esta característica fue introducida originalmente en 2016, y sirve para ayudar a los usuarios con discapacidad visual a reconocer fotos o imágenes mediante una descripción por voz o texto 

No obstante, hasta hace poco se trataba de una función poco desarrollada, prácticamente inútil. En este sentido, los usuarios solo escuchaban la palabra foto seguida de la persona que la publicó al momento de ver su feed. 

Facebook mejora el texto alternativo automático 

Con la última iteración de ATT esto ha cambiado, y la compañía ha logrado expandir el número de conceptos que la inteligencia artificial es capaz de identificar, de manera tal que puede ofrecer descripciones más detalladas de las fotografías. En este sentido, ahora reconoce actividades, ubicaciones, animales, comidas y otros elementos que aportan contexto al usuario. 

Como ejemplo, la compañía aseguró que la inteligencia artificial ahora describirá algo en plan:

“Una selfie de dos personas, en el exterior, Torre Inclinada de Pisa”, en lugar de simplemente “una foto de dos personas”. 

Facebook afirma que el número de conceptos que la tecnología puede reconocer ha incrementado a 1.200, desde una cifra inicial de tan solo 100. Para conseguirlo, la firma ha empleado machine learning con muestras que, según afirma, son “más precisas y cultural y demográficamente inclusivas”. 

Facebook mejora el texto alternativo automático 

Entre los datos utilizados figuran miles de millones de imágenes públicas de Instagram y sus hashtags asociados; algo que seguramente le pondrá los pelos de punta a los defensores de la privacidad en línea. 

Asimismo, los desarrolladores agregaron que, para proporcionar más información sobre la posición y la cantidad, la compañía entrenó su detector de objetos de dos etapas utilizando una plataforma de código abierto desarrollada por Facebook AI Research. 

La empresa también hizo ajustes para que los datos fueran muestreados a partir de imágenes en todas las geografías, utilizando traducciones de hashtags en muchos idiomas. 

Vía | Zdnet 

Nos gustaría tener tu opinión

Deje una respuesta

Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Más información

ACEPTAR
Aviso de cookies
GizLogic
Logo