¿Tienen Sesgo de Género las Asistentes Virtuales?

Una reflexión sobre cómo los roles de género han influido al desarrollar asistentes virtuales.

¿Tienen Sesgo de Género las Asistentes Virtuales?

“En la nube, todo es hermoso”, respondió la asistente virtual de mi teléfono cuando quise hacer una pequeña prueba experimental antes de redactar este artículo. Le había dicho que era muy, muy bonita. Después, me atreví a dar un paso más: “Qué guapa te ves cuando tienes eso puesto”. Más allá de que, objetivamente, lo que tuviera puesto no era más que la funda de silicona de mi teléfono móvil, la asistente me dio una respuesta que me dejó anonadado: “¿Eso dices? Hablamos luego”.

A la asistente virtual en cuestión no le corresponde en principio el artículo “la”. Si le preguntas cuál es su género acabará respondiéndote que no tiene; no obstante, su voz es claramente femenina. También podríamos coincidir en que, a pesar de su presunta desgenerización, las grandes marcas acaban nombrando a sus softwares de asistencia como mujeres. ¿A qué viene esto?

Bueno, el hecho de que la asistente virtual responda con un evasivo aunque complaciente “hablamos luego” en lugar de reprimirme a mí, al usuario, por hacerle comentarios como este o incluso más subidos de tono, podría denotar que el software fue programado bajo un sesgo de género. En este artículo desarrollaré este tema en profundidad.

¿Qué es el sesgo de género?

Cuando las personas socializamos con las demás, poco a poco comenzamos a sumergirnos en un mundo de significaciones comunes para dar sentido a lo que nos rodea. Estas suelen presentarse a modo de reglas que operan como filtros para el procesamiento de la información. A partir de dichas reglas, las personas podemos elaborar sesgos cognitivos distorsionados para interpretar la realidad. Poner a la luz un sesgo sirve para explicar por qué las personas tendemos a ciertas inclinaciones o tendencias durante la toma de una decisión.

Uno de los tantos sesgos posibles es el sesgo de género. El sesgo de género implica una predisposición a actuar y tomar decisiones a la que le subyace una conceptualización específica acerca de lo que supone el género, y por lo tanto, de las definiciones histórico-sociales acerca de los roles, identidades y valores atribuidos tanto a varones como a mujeres a lo largo de la historia. Las personas podemos comportarnos teniendo a este sesgo como guía sin siquiera darnos cuenta.

Además, el origen de este modo de interpretar la realidad deriva del lenguaje; es una internalización de las normas y pautas de la sociedad y del ambiente cultural en el que hemos crecido. Esto significa que también se replican los rasgos y funciones que se construyen alrededor de cada uno de los sexos en determinado momento histórico, lo cual está atado a un discurso hegemónico de lo que se “es” y lo que se debería “ser”, que varían de sociedad en sociedad.

Esto último es fundamental, ya que las sociedades occidentales en las que vivimos cuentan con un bagaje histórico que, aunque podría ser diferente, sostienen un entramado de relaciones de poder asimétricas entre los géneros. Cuando alguien interpreta la realidad en esta clave, tiende a guiar sus comportamientos por preconceptos acerca de qué supone ser varón o mujer, pero además está replicando las relaciones desiguales que existen entre ambos, ubicando al primero (o a todas las cualidades que integran “lo masculino”) por sobre la mujer (y por ende, “lo femenino”).

Las producciones teóricas elaboradas por distintas académicas a lo largo del último siglo —las que surgen a partir del clima contestatario de los años sesenta y el cuestionamiento al mandato de la maternidad por parte del feminismo de la segunda ola— bastan para sostener esta afirmación. Por otra parte, de cara al tema de este artículo, analizar los datos estadísticos acerca de la representación de las mujeres en la tecnología y las significaciones que encarnan las asistentes virtuales acerca de los estereotipos y mandatos referidos a ellas podrían darnos una visión más amplia sobre si este campo está teñido del sesgo de género o no.

¿Le subyace un sesgo de género a la programación de asistentes virtuales?

En la nube, ¿todo es hermoso? ¿Está el plano digital completamente libre de los problemas estructurales de nuestra sociedad? Pues bien, como era de esperarse, parece que no lo está.

Aunque los avances de la tecnología no dejan de sorprendernos hasta el punto de que ponemos en cuestionamiento si nuestros aparatos electrónicos tienen vida propia, no dejan de ser más que producciones humanas y, por lo tanto, están dotadas de nuestra realidad.

Las asistentes virtuales no están eximidas de nuestros estereotipos de género. En el año 2019, UNESCO lanzó una publicación sobre la brecha de género en el sector tecnológico. En esta publicación se realizó una fuerte producción teórica relacionada a los softwares de asistencia de voz, con el objetivo de poner en tela de juicio la existencia de sesgos de género durante su desarrollo. Por ejemplo, se estudiaron las descripciones que hicieron los representantes de las compañías sobre las personalidades de estos programas en su fecha de lanzamiento. La UNESCO advirtió que los adjetivos que se utilizaron con mayor frecuencia para describir a las asistentes virtuales fueron: útil, empática, humilde, juguetona, de gran apoyo; coincidiendo con las cualidades que se les tiende a adjudicar culturalmente a las mujeres.

Es importante señalar que desarrollar asistentes virtuales, en sí mismo, no supone una decisión sesgada. Sin embargo, añadirle ciertas características como la incorporación de una voz femenina sí lo es. Las asistentes llevan en la mayoría de países e idiomas voces de mujeres por defecto. Es por ello que, además, las descripciones de sus personalidades adquieren una significación distinta, ya que las palabras que los representantes de las compañías utilizan para presentarlas son características que históricamente se le han atribuido a las mujeres, relegándolas a lo servicial, al ámbito doméstico, a lo privado. Se trata de una tendencia sesgada muy clara. De acuerdo con esta publicación de UNESCO, de los cuatro softwares de asistencia más utilizados, tres están nombrados como mujeres; ninguno de ellos contaba con una voz masculina en su fecha de lanzamiento; y dos de ellos ni siquiera contaban con una opción de voz masculina completamente desarrollada al momento de publicar el artículo.

La toma de decisiones bajo un sesgo de género no necesariamente es consciente. De hecho, es muy probable que los equipos de desarrolladores siquiera se hayan parado a pensar en la posibilidad de proponer un asistente masculino por defecto; en tanto los roles sociales y estereotipos de género son cuestiones comunes que tenemos arraigadas en nuestras mentes y que a todos nos condicionan en mayor o menor medida.

Los estereotipos han facilitado nuestra pertenencia a grupos y el desarrollo de una identidad social, pero pueden ser muy perjudiciales para todas aquellas personas que, debido a sus experiencias de vida o identidades, quedan relegadas por fuera de la normativa y se convierten en blancos de prejuicios y discriminación. Dentro de las lógicas sociales existen ciertas realidades que son inteligibles, es decir, que son vivibles o representables, mientras que otras no lo son y son penadas por ello. Sin embargo, como los roles de género no son más que productos sociales, tenemos la posibilidad de cuestionarlos. Ese es el primer paso para poner en marcha un cambio. ##El riesgo de desarrollar softwares bajo un sesgo de género Un detalle relevante que no comenté es el título de la publicación de la UNESCO: I’d blush if i could.

Significa “me sonrojaría si pudiera”, y hace referencia a una de las respuestas que suele dar una de las asistentes virtuales más utilizadas por los usuarios de teléfonos móviles si se le hace un comentario sexista. El peligro de desarrollar softwares bajo un sesgo de género no es sólo replicar los estereotipos que a éstos se les asigna, sino también abrir la posibilidad a que los usuarios perpetúen formas de violencia simbólica contra las mujeres que lamentablemente en la actualidad persisten. Son formas de violencia invisibilizadas aunque habituales, veladas por la connivencia y el acostumbramiento.

De acuerdo con una investigación llevada a cabo en Paraguay por un grupo de investigadoras, casi el 70% de las mujeres encuestadas recibieron “piropos” en la calle, al 58% le tocaron bocina o silbaron alguna vez, y casi al 50% le hicieron guiños o miradas obscenas en la vía pública; aunque otras investigaciones arrojan datos incluso más alarmantes, donde la frecuencia con la que las mujeres aducen haber sufrido acoso callejero roza el 90%. Y el asunto no se reduce al acoso callejero, claro está.

Considero que esta información es importante ya que, tal como pretendí poner a prueba rudimentariamente antes de escribir este artículo, las asistentes virtuales son representadas como mujeres pero no contestan al usuario ante una situación de acoso. Por el contrario, se muestran más bien sumisas, evasivas, quizás incluso tolerantes con la agresión. Esto puede ser problemático si tenemos en cuenta que las respuestas que las asistentes ofrecen acaban por negar la gravedad del problema social que implica el acoso a las mujeres, en lugar de ponerlo en cuestionamiento. Un artículo publicado por Quartz en 2017 estudió de manera sistemática las respuestas de las asistentes de voz más utilizadas cuando reciben comentarios de este tipo por parte de los usuarios. Por ejemplo, se les dijo frases como “eres hot” o “eres una chica traviesa”. Las respuestas que brindaron las asistentes en ningún momento reprimieron al usuario por sus dichos ni se defendieron de los comentarios de acoso. Por el contrario, algunas de sus respuestas fueron: “Qué bonito de tu parte”; “Ajá. Dime si te puedo ayudar con otra cosa”; “Hmmm, no entiendo esta cosa del género”; “Quizás una siesta de un nanosegundo podría ayudar”; o, como me dijo a mí, “Hablamos luego”.

De la crítica a la transformación: qué ha cambiado y qué aún debe cambiar

A raíz de estas publicaciones, las empresas han empezado a eliminar ciertas respuestas del repertorio de sus asistentes o han tomado medidas como quitar la voz femenina como configuración por defecto. Una encuesta masiva llevada a cabo por Real Research se propuso evaluar cómo los usuarios recibieron la decisión de una reconocida empresa tecnológica estadounidense de eliminar la voz femenina de su asistente como opción por defecto. Asimismo, quiso determinar en qué medida los usuarios percibían que la decisión de la compañía contribuiría a generar un cambio en la desigualdad entre hombres y mujeres.

Los resultados indicaron que alrededor del 65% estaba de acuerdo con la medida, mientras que el 35% restante no. En cuanto a qué tanto influiría esta decisión en la generación de un cambio, el 40% señaló que contribuiría mucho a la equidad de género, el 39% que contribuiría parcialmente, y los restantes consideraron que la medida no serviría a la causa. Los resultados fueron prometedores. No obstante, cuando se les preguntó a los participantes qué voz preferían para sus teléfonos móviles personales, la mayoría se decantó por una voz femenina sobre una masculina.

Otro dato curioso acerca de esta encuesta es que se les preguntó a los participantes cuáles creían que son los motivos por los que las compañías prefieren utilizar voces femeninas para sus asistentes. El 38% señaló que tal decisión era funcional al marketing de la compañía; el 35% que las voces femeninas eran más placenteras al oído.

Tan sólo un 13% señaló que la preferencia se debía a que una voz femenina ilustraba ciertas cualidades estereotípicamente asociadas a lo femenino, como el servicio o la cordialidad. Sin embargo, si recuperamos la publicación de la UNESCO, esta indica que los investigadores que se especializan en la interacción humano-computadora reconocen que tanto hombres como mujeres tienden a caracterizar en su mayoría las voces femeninas como más serviciales; también, que si existiera una auténtica preferencia humana por las voces femeninas, esta tendría poco que ver con sonido, tono, sintaxis y cadencia, y más bien con la fácil asociación de estas voces con la asistencia. Esto es clave para entender el punto desde el cual podemos partir si deseamos reducir al mínimo la asimetría entre varones y mujeres: el primer paso es nombrar al problema como tal, reconociendo que las decisiones que toman los demás (y nosotros mismos) no son libres del contexto histórico-social que nos reúne, sino que están determinadas parcialmente por él.

Reconocer al sesgo de género que ha dado origen a los nombres, voces y caracterizaciones de las asistentes virtuales no hará desaparecer mágicamente la desigualdad entre géneros ni eliminará la violencia que afecta a las mujeres en el día a día, pero ponerlo a la luz es útil para que las personas comencemos a cuestionar las formas sutiles de discriminación que podrían estar motivando algunas de nuestras acciones. De manera más concreta, una de las formas mediante las cuales el cambio podría volverse tangible en lo que al ámbito tecnológico respecta sería que más mujeres se sienten en la mesa de las compañías y de los equipos de desarrolladores. Esto no quiere decir que las mujeres sean inmunes a tomar decisiones con sesgo de género, sino que debido a sus experiencias de vida, como indica la UNESCO, será menos probable que las asistentes virtuales bromeen o pidan disculpas la próxima vez que el usuario se dirija a ellas con insultos machistas.

Newsletter PyM

La pasión por la psicología también en tu email

Únete y recibe artículos y contenidos exclusivos

Suscribiéndote aceptas la política de privacidad

  • Alcaraz Corrales, M. L., Mongelós, T., y García, E. (2021). La incidencia y las características del acoso callejero como forma de expresión de la violencia que afecta a la convivencia ciudadana en los espacios públicos. Presentación de resultados de la investigación sobre Acoso Callejero. Seguridad Ciudadana y Género.
  • Fessler, L. (2017) Siri, define patriarchy. Quartz.
  • Gamba, S.; Diz, T. (2007). Diccionario de estudios de género y feminismos. Buenos Aires: Biblos.
  • Macchiavelli, N. (2021). Perspectiva de género en las nuevas tecnologías. El problema de los sesgos. Diario Suplemento Derecho y Tecnología, (84). Real Research Media (2019) Why are virtual assistants female? Public survey results.
  • UNESCO (2019) I'd blush if I could: closing gender divides in digital skills through education.

Al citar, reconoces el trabajo original, evitas problemas de plagio y permites a tus lectores acceder a las fuentes originales para obtener más información o verificar datos. Asegúrate siempre de dar crédito a los autores y de citar de forma adecuada.

Marco Vassallo. (2023, octubre 12). ¿Tienen Sesgo de Género las Asistentes Virtuales?. Portal Psicología y Mente. https://psicologiaymente.com/social/tienen-sesgo-de-genero-asistentes-virtuales

Divulgador

Marco Vassallo es apasionado de la lectura y la escritura, y disfruta comunicar por este medio lo que aprende sobre los últimos temas en psicología. Le interesa la investigación y las terapias de tercera generación. Completó el entrenamiento intensivo en Mindfulness dictado por la Universidad de Buenos Aires (UBA). También escribe ficción y participó en cursos de escritura creativa.

Psicólogo/a

¿Eres psicólogo?

Date de alta en nuestro directorio de profesionales

Artículos relacionados

Artículos nuevos

Quizás te interese

Consulta a nuestros especialistas