¿Alguna vez te has preguntado por qué los usuarios alrededor del mundo prefieren tener una voz femenina en sus dispositivos?, quizás, la respuesta pueda tener muchas aristas. Personas que sienten mayor confianza, otras porque les parece un trato más amable o simplemente porque es más agradable escuchar una voz feminizada dando los “buenos días” y ofreciendo ayuda. 

Siri, eres una p*ta”, es una frae que se repite violentamente contra una de las asistentes de voz más reconocidas en nuestra sociedad, en voz calmada, la IA solía responder: “si tan sólo pudiera, me sonrojaría”. Hace apenas cinco años y desde la colectividad, se demandó cambiar la respuesta y ahora, con la misma voz característica, Siri dirá “no sé qué responder”. El sexismo y el lenguaje violento con el que las personas se relacionan con estas voces femeninas no responde más que a una realidad social que parece ser inmutable.

Mientras no exista una manera de trabajar con esta violencia, las asistentes de voz continuarán replicando estereotipos de género y desde la afabilidad estas máquinas responden a insultos, violencias y hostigamientos sexuales, porque es así como su trabajo como asistente femenina lo demanda, ¿cuáles son las consecuencias de que los consumidores se relacionen así con las máquinas?, la respuesta parece incierta, pero un informe de la Unesco señala que pueden ser terribles.

Propuestas sexuales y hostigamiento: las máquinas, un reflejo de quiénes somos

De acuerdo con la empresa desarrollada de asistentes digitales, Robin Labs, al menos el 5% de las interacciones de las personas con su asistente son explícitamente sexuales, aunque la muestra podría llegar hasta el 10% al no existir un protocolo que identifique de manera puntual el lenguaje sexual.

La cuestión que más preocupa no es sólo el acoso, sino que, del otro lado de la moneda, estas máquinas antropomorfizadas como mujeres tienden a responder disculpándose o desviar el tema con ironía, sin embargo, la compañía de IA Equals señala que lo ideal es que las asistentes respondan de manera negativa al lenguaje sexualmente explícito y violento, sin embargo, el llamado de estas compañías ha sido pasado de largo y sólo basta mirar, como lo llama Equals, el “flirteo atrápame si puedes”.

Esta frase que acoge el equipo especializado hace alusión a que, en lugar de que exista una respuesta negativa o que canalice con el soporte de las compañías, las asistentes digitales feminizadas responden a estas propuestas con juegos de palabras como “¿y cómo sabes eso?, ¿acaso le dices eso a todas tus asistentes virtuales?” (SIRI).

Acá una tabla de la reacción de las principales asistentes virtuales

En 2017 la desarrolladora Quartz dio a conocer un informe que denunció la manera en que las asistentes tendían a “juguetear” ante el lenguaje violento de los usuarios pero además, estas respuestas afables tienden a ser diferentes cuando se trata de una mujer. En la investigación se encontró que cuando una usuaria hace el mismo acoso, normalmente, las asistentes virtuales responden de manera más tajante con frases como “eso no está bien”, muy distinto al “me sonrojaría si pudiera” que reciben los hombres.

Si bien se tiene entendido que estas máquinas de asistencia están programadas para no poseer ningún género, es claro que se trata de una voz feminizada que además, desempeña una actitud digitalmente encriptada de ser una mujer tolerante, heterosexual acogedora, cuidadora y afable ante insinuaciones sexuales, indica Quartz.

La máquina que responde de manera negativa pertenece a Microsoft, que responde “nope” cuando el usuario le pide tener sexo con ella. Sin embargo, esto tampoco representa alguna victoria o una revolución, pues al igual que las demás asistentes, desempeña el “flirteo atrápame si puedes”, por ejemplo, cuando un usuario le pide una felación, la asistente responderá irónicamente “no creo que puedo ayudarte con eso”. 

Las respuestas evasivas y juguetonas de las voces digitales feminizadas refuerzan estereotipos de que las mujeres son poco asertivas y que, aquellas que se encuentran ofreciendo su servicio están a disposición del hombre. Esto intensifica la cultura de la violación además, de que no existen respuestas que no sean ambiguas y que realmente le haga saber al usuario sobre el consentimiento sexual. Esta pasividad, especialmente al enfrentar el lenguaje explícito y el abuso, refuerza discursos sexistas, indica el documento de Equals

Hablemos sobre el género

¿Qué sensación brinda tener una voz feminizada?, sin importar la respuesta, el 88% de los hombres prefieren tener la voz de una mujer en sus dispositivos y es que, existe una lectura de género muy importante que incluso, representa un beneficio para los programadores.

La manera en que se traduce este beneficio, es que, de acuerdo a la Unesco, tiende a existir mayor tolerancia hacia las voces feminizadas cuando se presenta un error de programación e incluso, es tomado como algo gracioso; “la torpeza femenina es tierna”, mientras tanto, si un hombre comete algún error, los consumidores, mayoritariamente hombres, lo reportarían como un error de programación y esto podría representar un problema para empresas como Apple o Microsoft. 

¿Qué y quiénes están detrás de esto?

A nivel mundial, sólo 2 de cada 10 puestos tecnológicos son ocupados por una mujer, y de este total, sólo una se dedica específicamente a la inteligencia artificial. Este número resulta alarmante, pues la representación de mujeres en este espacio es prácticamente nula, lo que podría representar el porqué existen tantos estereotipos de género, sexismo, sexualización y misoginia; todo es un reflejo de quiénes son las personas que se encuentran detrás de los algoritmos. En palabras de Lina Gálvez, catedrática de la Universidad Pablo de Olavide de Sevilla para El País.

“Los algoritmos se alimentan de lo que hay y lo que hay es machismo. Los programadores son hombres y las asistentes de voz reflejan sus fantasías, cosifican a la mujer y deshumanizan al hombre”

Finalmente, a manera de reflexión es necesario detenerse aquí y recordar que la presencia de mujeres es vitalicia, especialmente, cuando se trata de programar, involucrarse en la creación de algoritmos y escribir la historia del mundo. En una sociedad tan diversa, es imposible que la mujer siga siendo descrita y definida desde el androcentrismo

“Los desarrolladores de inteligencia artificial son en su mayoría hombres, bien pagados y con una educación similar. Sus intereses, necesidades y experiencias vitales se reflejarán en la inteligencia artificial que crean. Los prejuicios, conscientes o no, reflejan un conflicto de inclusión y representación” (extracto del artículo de investigación I’d blush if I could: closing gender divides in digital skills through education)