Hasta robots salen racistas y sexistas
Los robots se están volviendo sexistas y racistas por culpa de una inteligencia artificial (IA) defectuosa, reportó la Deutsche Welle (DW)
Un estudio de investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington reveló que un robot que funciona con un sistema de IA ampliamente usado en internet prefiere sistemáticamente a los hombres sobre las mujeres, a los blancos sobre las personas de color y saca conclusiones acerca de la profesión o la designación de las personas basándose sólo en una foto de su rostro.
"Hasta donde sabemos, realizamos los primeros experimentos que demuestran que las técnicas de robótica existentes que cargan modelos de aprendizaje automático preentrenados provocan un sesgo de rendimiento en la forma de interactuar con el mundo según los estereotipos de género y raza", refiere el estudio, dirigido por el primer autor e investigador de robótica Andrew Hundt, del Instituto Tecnológico de Georgia.
"El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero la gente y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas".
DW señaló que quienes construyen modelos de IA para reconocer personas y objetos suelen recurrir a vastos conjuntos de datos disponibles gratuitamente en internet.
Pero, según aclararon los investigadores en el estudio, la red también está llena de contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo construido con estos conjuntos de datos podría estar impregnado de los mismos problemas.
Más de la sección
"Para resumir las implicaciones directamente, los sistemas robóticos tienen todos los problemas que tienen los sistemas de software, además de que su encarnación añade el riesgo de causar daños físicos irreversibles", afirmó Hundt.