Un estudio denominado ‘Inequidad predictiva en la detección de objetos’ a cargo del Instituto de Tecnología de Georgia (EE.UU.)’, demuestra que las personas con tonos de piel más oscuros corren más riesgo de sufrir un accidente causado por un vehículo automatizado debido a las deficiencias de sus sistemas de reconocimiento de objetos.

La investigación, que está disponible en Arxiv, se basa en numerosos y recientes ejemplos que evidencian cómo los algoritmos de aprendizaje automático “muestran tasas de error más altas para ciertos grupos demográficos que otros”. Si bien la habilidad de los coches no tripulados a la hora de reconocer “objetos claves”, como peatones o señales de tráfico, desempeña un papel fundamental para evitar víctimas mortales, los sistemas de algunos “vehículos que ya están en carretera” resultaron ser incapaces de mitigar todos los riesgos posibles, reconoce el autor principal, Benjamin Wilson.

El grupo recopiló una gran cantidad de fotografías en las que se ven personas de varios tonos de piel y las mostró a los voluntarios a quienes se les pidió que marquen a los peatones y les asignen una de las cuatro categorías. Una de ellas corresponde al color de piel que no puede ser determinado, la segunda es para los objetos que parecen peatones, pero no lo son, y las dos restantes representan la escala de fototipo de piel de Fitzpatrick (1-3 puntos para los tonos de piel más claros, y 4-6 para los más oscuros).

Estos datos fueron introducidos en ocho algoritmos diferentes  de reconocimiento de imagen con el objetivo de que analizaran con qué frecuencia los sistemas de aprendizaje automático logran identificar la presencia de personas de todos los tonos de piel. Resultó que para el grupo con tono de piel más oscuro (de entre 4 y 6 en la escala de Fitzpatrick), la detección fue menos precisaen, aproximadamente, un 5% de los casos.

Curiosamente, este índice no se vio afectado por objetos que, parcialmente, bloquean a los peatones ni tampoco por la falta de luz natural. No obstante, los fallos del sistema no se deben tanto a la imperfección de propios algoritmos, sino a lainsuficiencia de datos utilizados para diseñarlos y probarlos, sugieren los expertos.

Los modelos que utilizaron los autores del estudio no pertenecen a los desarrolladores de los vehículos en cuestión, ya que los fabricantes no hacen pública ese tipo de información, por lo que ensayaron varios modelos elaborados por los investigadores académicos, lo que no significa que el hallazgo del trabajo no sea fructífero.

“En un mundo ideal, los académicos estarían probando modelos reales y conjuntos de entrenamiento utilizados por los fabricantes de automóviles autónomos”, comenta la académica Kate Crawford, cofundadora del Instituto de Investigación AI Now de Nueva York. “Sin embargo, dado que nunca se ponen a disposición -lo que es un problema en sí mismo-, artículos como estos ofrecen datos sólidos sobre los riesgos reales”, concluye.