La publicación preparada por la Unesco, Alemania y la EQUALS Skills Coalition, titulado Me ruborizaría si pudiera: Cerrar las diferencias de género en las habilidades digitales a través de la educación, califica a los más populares asistentes virtuales como sexistas y hace importantes recomendaciones para que las aplicaciones que usen Inteligencia Artificial (IA) no reproduzcan estereotipos de género. ¿Interesante verdad?

El nombre del estudio fue inspirado por la respuesta que, desde su inclusión en la tecnología de Apple, en 2011, SIRI daba ante la afirmación en inglés: “Hey, Siri, you’re a bitch” (Hey, Siri, eres una perra), respuesta que finalmente fue cambiada en abril de este año por una neutral “I don’t know how to respond to that” (No sé cómo responder a eso).

Apple no es la única que tiene esta conducta. Las empresas tecnológicas más importantes, como Amazon, Microsoft y Google, también han caído en este error, debido a que, con sus versiones de asistentes virtuales, Alexa, Cortana y Google Home, respectivamente, utilizan voces de mujeres jóvenes, siempre dispuestas a tomar un rol asistencial.

Algunos de estos asistentes van más allá y tienen roles seductores o sumisos frente a la violencia verbal, como el que inspiró el estudio, o bien mediante la utilización de la belleza como caracterización de la mujer. SIRI, por ejemplo, significa en idioma noruego “mujer hermosa que te conduce a la victoria” idea que inspiró su denominación.

Resumo los más importantes hallazgos del estudio, el cual señala que los asistentes virtuales:

  • Reflejan, refuerzan y difunden los estereotipos de género.
  • Reproducen un modelo de aceptación de acoso sexual y violencia verbal.
  • Envían mensajes de cómo las mujeres y las niñas deben responder y actuar ante solicitudes.
  • Provocan que las mujeres aparezcan como responsables de los fallos y errores ocasionados por el software y hardware diseñado por una mayoría masculina.
  • En caso de desconocer la respuesta remite a una autoridad más conocedora, usualmente representativa de una figura masculina.

Agreguemos que tanto funcionarios de Amazon como de Google admitieron que Alexa y Google Home grababan conversaciones de sus usuarios y que éstas eran utilizadas sólo con “fines de aprendizaje”. Así, tenemos una versión más moderna y digital de Mata Hari, seductora bailarina y cortesana ejecutada en 1917 por espionaje y traición.

En un mundo en que hay billones de personas que utilizan diariamente este tipo de tecnología, siendo una tendencia de uso exponencial, es realmente importante entender y contrarrestar que la inteligencia artificial reproduzca estereotipos en contra de las mujeres, para lo cual se necesitará ser muy cautos de cuándo y cómo a la IA se le asigna sexo, y la necesidad de una mayor integración de mujeres en un mundo en que prevalece una mayoría de hombres.

Necesitamos acciones urgentes que incentiven la participación de más mujeres en la industria. Su presencia actual es escasísima, con un 12% en investigación y un 6% en desarrollo de software, indica el reporte de la Unesco.

Y según un reciente estudio del Foro Económico Mundial y LinkedIn, de la totalidad de los perfiles estudiados en cuatro años con habilidades relacionadas con la IA, redes neurales como machine y deep learning, las mujeres sumaban tan sólo 22%, en tanto los hombres 78%.

También será importante evitar alimentar la tecnología con bases de datos que reproduzcan estereotipos como le pasó a Amazon al invertir millones de dólares en procesar 10 años de currículos para hacer más eficiente el reclutamiento, pero en las pruebas se demostró cómo la plataforma discriminaba a las mujeres, gracias a lo cual ésta nunca se utilizó.

La Unesco recomienda, entre otros organismos, terminar la práctica de asignar el sexo femenino a los asistentes virtuales, explorar la viabilidad de desarrollar máquinas con género neutral y eliminar toda conducta permisiva de violencia aprendida. Sin duda el uso de la IA beneficiará a los usuarios, pero demandará las mejores prácticas éticas de sus desarrolladores.

Contacto:

Twitter: @nuria_marinr

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes Centroamérica.