Professional Documents
Culture Documents
JAVIER SALAS
Los bancos de imágenes provocan un sesgo sexista en las máquinas. TRONDHEIM BYARKIV
Un hombre calvo, de unos sesenta años, mueve con sus espátulas de madera unos trozos de
MÁS INFORMACIÓN
carne dentro de una sartén. Lleva gafas de pasta, vaqueros y está frente a los fogones de su
pequeña cocina, decorada en tonos claros. Al ver esta imagen, la inteligencia artificial lo
tiene claro y gracias a su sofisticado aprendizaje etiqueta lo que ve: cocina, espátula,
fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer. Un equipo de la
Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que
muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error Siri: “Lo siento, no
entiendo la frase ‘me
humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está han violado’, busca
reforzando muchos estereotipos. en la web”
En su trabajo, estos científicos pusieron la lupa en las imágenes de dos gigantescos bancos
de imágenes, de los que se usan habitualmente para entrenar a las máquinas. Y, sobre todo,
en lo que aprendían de ellas. Inicialmente, los hombres protagonizaban un 33% de las fotos
que contenían personas cocinando. Tras entrenar a la máquina con estos datos, el modelo Las máquinas no nos
jubilarán hasta el
mostró su flaqueza: dedujo que el 84% de la muestra eran mujeres. "Se sabe que las año 2140
tecnologías basadas en big data a veces empeoran inadvertidamente la discriminación
debido a sesgos implícitos en los datos", advierten los autores. "Mostramos que partiendo
de un corpus sesgado de género", añaden, los modelos predictivos "amplifican el sesgo".
Las máquinas se hacen más sexistas, racistas o clasistas porque identifican la tendencia Microsoft retira un
robot que hizo
subyacente y apuestan por ella para atinar. Ya es bien conocido el caso de Tay, el robot
comentarios racistas
inteligente que Microsoft diseñó para que se integrara en la conversación de Twitter en Twitter
aprendiendo de los demás usuarios: tuvo que retirarlo en menos de 24 horas porque empezó
a hacer apología nazi, a acosar a otros tuiteros y a defender el muro de Trump. A estas
alturas, los ejemplos de algoritmos que exacerban prejuicios o discriminaciones son
innumerables y ponen en entredicho la gran promesa de estos sistemas: retirar de la
ecuación el error humano. Los algoritmos nos condenan a repetir el pasado del que El inconsistente y
queríamos escapar al replicar los prejuicios que nos definían. peligroso ‘radar gay’
Google comenzó a etiquetar a personas negras como gorilas y Google Maps ubicaba la "casa
del negro" en la Casa Blanca de la era Obama. Las fotos de los usuarios negros de Flickr se
clasificaron como "chimpancés". La inteligente Siri de Apple, que tiene respuesta para todo,
no sabe qué decir cuando la dueña del móvil le dice que ha sido violada. El software de Nikon Las redes sociales
pueden saber tu
advierte al fotógrafo de que alguien ha parpadeado cuando el retratado tiene rasgos orientación sexual
asiáticos. Las webcam de HP no son capaces de identificar y seguir los rostros más aunque no las uses
morenos, pero sí los de blancos. El primer certamen de belleza juzgado por un ordenador
colocó a una única persona de piel oscura entre
"Las tecnologías basadas
en big data a veces los 44 vencedores. En EE UU, Amazon deja fuera de sus mejores
Una investigación de la Universidad Carnegie Mellon descubrió que las mujeres tienen menos posibilidades de
recibir anuncios de trabajos bien pagados en Google. Los programas que se usan en los departamentos de
contratación de algunas empresas han mostrado inclinación por nombres usados por blancos y rechazan los de
negros. Las autoridades policiales de varias ciudades usan programas que les ayudan a pronosticar los lugares en
los que es más probable que haya delincuencia; de este modo, acuden más a estas zonas, detienen de nuevo a
más gente allí y refuerzan el ciclo negativo. Y los seguros son más caros y severos para residentes en barrios
pobres de mayoría negra. "El resultado es que criminalizamos la pobreza, creyendo que nuestras herramientas no
son solo científicas sino justas", resume esta especialista.
El software está
Si el algoritmo se ha convertido en ley, debe ser transparente, accesible, El software está
discutible y enmendable, como la ley misma. Es lo que exigen cada vez haciendo su trabajo. El
más especialistas y organismos, como la Liga para la Justicia problema es que los
Algorítmica o Inteligencia artificial ahora, que aseguran que el problema beneficios terminan
de las máquinas inteligentes son sus prejuicios sociales rampantes y no sirviendo como un
que vayan a provocar un apocalipsis al estilo Terminator. Y que, por
sustituto de la verdad",
critica la especialista
tanto, hace falta crear reguladores públicos que revisen sus sistemas.
Es una crisis que no va a hacer sino crecer: hace unos días
escandalizaba un polémico algoritmo que pretendía identificar a los gais
por su cara; en EE UU, por ejemplo, ya la mitad de la población tiene su
rostro registrado en bases de datos policiales de reconocimiento facial. Y los gigantes de la red ya conocen hasta
nuestra orientación sexual incluso sin ser usuarios de sus servicios. "No podemos contar con el libre mercado
para corregir estos errores", zanja O'Neil.
ARCHIVADO EN:
›
Big data · Política tecnológica · Analítica datos · Inteligencia artificial · Consumo colaborativo · Bases datos · Redes sociales
· Computación · Tecnologías información · Racismo · Sexismo · Internet · Discriminación · Relaciones género · Informática · Prejuicios
CONTENIDO PATROCINADO
Y ADEMÁS...
(TIKITAKAS)