íܱ

Los asistentes vocales de IA ya no tienen voz femenina predeterminada

En 2019, la UNESCO publicó [Sonrojaría si pudiera hacerlo] (en inglés y francés), un documento que reveló hasta qué punto los prejuicios y estereotipos de género estaban integrados, desde la concepción misma, en las aplicaciones de asistentes vocales que funcionan gracias a la inteligencia artificial. El documento no solo puso al descubierto el desequilibrio general existente entre los sexos que crean estas novedosas herramientas, sino que demostró también la brecha alarmante entre los sexos en las industrias tecnológicas, incluso en los países que están a punto de lograr la igualdad de género.

En esta serie de preguntas y respuestas, Mark West, jefe de proyecto de la UNESCO y autor principal de la publicación, comparte sus reflexiones sobre la situación actual en lo relativo a los prejuicios sexistas en la IA y su evolución desde que se publicó el informe.

Dos años después de la publicación, ¿en qué punto estamos en cuanto a la lucha contra los prejuicios sexistas de los asistentes de IA?

El aspecto positivo es que la sensibilización es mucho mayor que cuando realizamos la investigación para elaborar nuestro informe. Cuando los asistentes vocales de IA hicieron su aparición, estábamos tan fascinados por esta nueva posibilidad de hablar a las computadoras que olvidamos de hacer las preguntas esenciales. Esta luna de miel ya se acabó. Ahora sabemos, a menudo por nuestra experiencia personal, que estos sistemas no son perfectos. Nos mantenemos atentos al “racismo”, el “clasismo”, el “sexismo”, a la “discriminación por razones de edad” y otros “ismos” que están integrados a la IA. El hecho de reconocer estos aspectos y de permanecer vigilantes significa que tenemos más oportunidades para señalar y corregir los problemas. El aspecto negativo es que la transparencia sigue siendo un problema. Incluso cuando alguien tiene la impresión de que un sistema de IA puede resultarle injustamente desfavorable, es difícil probarlo. Las recomendaciones que formulamos acerca de la importancia de los algoritmos de control aún son pertinentes. Hay que sacar a los sistemas y motores de IA de su hueco negro para estudiarlos y probarlos. Si una empresa pretende tener un sistema imparcial, tanto mejor: que lo pruebe, que muestre lo que hay debajo, que explique cómo funciona el sistema y cómo aprende.

¿Entonces, usted afirma que debemos permanecer vigilantes?

Extirpar los prejuicios presentes en la IA será una empresa sin fin y es importante no olvidarlo. Mientras sean los seres humanos quienes controlan (como sucede hoy en día) las decisiones, las opiniones y las recomendaciones que proporciona la tecnología estas reflejarán nuestras propias teorías y visión del mundo o, más exactamente, las visiones del mundo de grupos relativamente reducidos de personas –con una proporción abrumadora de hombres– que elaboran los sistemas de IA. En este sentido, no hay nada de “artificial” en la IA. Los esfuerzos conscientes y la determinación para seguir extirpando los prejuicios son necesarios. Un elemento clave de la solución sería que una mayor cantidad de mujeres integren el ámbito de la IA. Algunos signos alentadores muestran que en este ámbito la primacía del sexo masculino ha disminuido con respecto al momento en que redactamos nuestro informe. No obstante, todavía queda un largo camino por recorrer, sin hablar del riesgo de retroceder. Por ejemplo, en algunos países el porcentaje de mujeres licenciadas en informática es inferior hoy en día con respecto a finales de la década de 1990. 

¿Las tecnologías de asistentes vocales son actualmente más neutras en lo relativo al género que en años anteriores?

Muchas de las respuestas sexistas más estereotipadas han perdido terreno. Ya Siri no dice: “Sonrojaría si pudiera hacerlo” cuando un usuario insulta a su voz “femenina”, entonces podemos afirmar que hay algo de progreso, incluso si tocamos fondo. Los asistentes vocales actuales tienen muchas más posibilidades ahora que antes de interrumpir los propósitos ofensivos. Tras la publicación de nuestro informe numerosos equipos tecnológicos examinaron las secuencias de comando que habían escrito para los asistentes vocales y se dijeron “en efecto, todo esto influye en parte en los estereotipos de género problemáticos” e introdujeron cambios. Nos sentimos satisfechos por haber logrado que así hicieran, pues ese era el objetivo de nuestro trabajo.

¿En qué medida se han aplicado las recomendaciones del informe?

Lo que más nos estimula es que muchas de nuestras recomendaciones han producido un efecto. Por ejemplo, en el informe hicimos un llamamiento a las empresas tecnológicas para que “erradicaran la práctica que consistía en utilizar una voz femenina predeterminada para los asistentes digitales”. Recientemente, la empresa Apple anunció que acabaría con esta práctica. En el futuro, los usuarios de iOS podrán escoger el tipo de voz de Siri. De hecho, Apple ha abandonado su antigua práctica que partía de la idea de que las personas prefieren una voz femenina para ajustar el cronómetro de la cocina, registrar las citas en el calendario o leer los mensajes electrónicos. Se estima que iOS está instalada en más de mil millones de dispositivos en todo el mundo, esto significa entonces un cambio que tendrá mucha repercusión. También hemos observado que se han logrado progresos en otros ámbitos. Los gobiernos conceden mayor importancia a las voces, los acentos y los comportamientos de género, ya sea mediante los chatbots que ayudan a realizar una declaración de ingresos o los sistemas que ayudan a los viajeros a utilizar el transporte colectivo. Anteriormente las voces que daban las órdenes (de tipo “Descienda del autobús”) eran en su mayoría masculinas, mientras que las que proporcionaban algún tipo de ayuda (¿En qué puedo serle útil?) eran sobre todo femeninas. He podido constatar que después de la publicación de nuestro informe las voces se mezclan un poco más: unas y otras se utilizan indistintamente para dar órdenes y proponer asistencia.

¿Qué falta aún por cambiar?

Como lo comunicamos en nuestro informe, seguimos pensando que colocar una voz, un género y una personalidad en una tecnología no humana es un reto. Una forma de resolver este rompecabezas consiste en proyectar una imagen de los asistentes vocales y otras aplicaciones de IA que no represente a un ser humano – de cierta manera para proyectar una ética en la que “la IA permanezca de forma artificial”. En nuestras investigaciones, encontramos gran cantidad de ejemplos en que los asistentes de IA tenían una voz clara, distinta y agradable, pero inmediatamente reconocible como no humana, ni demasiado masculina, ni demasiado femenina. Vimos ejemplos de asistentes de IA presentados en forma de dibujos animados, animales que hablan. No quiero decir con esto que nunca se proyectará o habrá motivo para presentar la tecnología como si se tratara de un ser humano, no tiene por qué suceder. Pero si las empresas desean evitar las cuestiones delicadas relativas al género, no existe ninguna “regla” para presentar a los asistentes de IA como mujeres jóvenes u hombres jóvenes. Los fabricantes de asistentes de IA deberían apoyarse en la identidad humana de sus creaciones, en vez de tratar de dotarlas de una capa superficial de humanidad.

¿Qué piensa usted del asistente vocal Alexa cuya voz solo es femenina?

En efecto. Es posible modificar, para algunas tareas, la voz de Alexa, pero no existe todavía una opción masculina asociada a sus funciones generales. Amazon publicó recientemente unos “” que proporcionan una visión excepcional del nivel de reflexión vinculada con todo esto, nada fortuito al respecto. Estos principios rectores contienen una sección titulada “Alexa y el género”, que parece ser una respuesta directa a nuestro informe. Está repleta de contradicciones. Por ejemplo, según los principios rectores, Alexa “no tiene género” y no deberíamos catalogarlo con palabras tales como “ella”. Pero más adelante, en el mismo documento, Amazon se refiere a Alexa como “ella” y precisa que la tecnología tiene “una personalidad femenina”. Los principios rectores revelan los problemas que surgen cuando se trata de dotar a una máquina de una personalidad humana en función del género. Si una tecnología de IA habla como una mujer y tiene una “personalidad femenina”, los usuarios vincularán naturalmente esta tecnología con mujeres reales. Lo primero que dicen muchos asistentes vocales cuando se les activa es “¿En qué puedo ayudarle?”. ¿Por qué una pregunta como esta y ese tipo de sumisión servil deben asociarse siempre a una voz femenina? Amazon debería permitir que los usuarios escojan lo que deseen o no, un asistente vocal con voz masculina o femenina, o tal vez una voz que no esté en función del género como la de C-3PO en Star Wars.   

¿Qué hace la UNESCO al respecto?

Como dijimos en el informe, los prejuicios sexistas presentes en la IA y en otros aspectos de la tecnología, están vinculados al hecho de que, si la concepción integra los sesgos desde dentro, entonces se manifestarán fuera. Los equipos que trabajan en la primera línea de la tecnología son mayoritariamente masculinos. Si la tecnología desea ayudar a las comunidades y a los países a convertirse en más igualitarios en términos de género, necesitamos mujeres y hombres a la vez para orientar día a día el desarrollo de esta tecnología y transformar profundamente nuestro mundo. Y para esto, necesitamos que las niñas y las mujeres cursen estudios de informática y de otros ámbitos tecnológicos y se unan a los equipos que darán forma a las tecnologías que invertirán en el futuro de nuestros hogares, nuestras escuelas y nuestros lugares de trabajo. En nuestro informe hemos formulado gran cantidad de ideas y recomendaciones para ayudar a los sistemas educativos para que lo logren. Trabajamos con los países para realizar las acciones que hemos sugerido.

La UNESCO elabora actualmente una Recomendación sobre la Ética de la Inteligencia Artificial (IA). Este se presentará a los Estados Miembros para su aprobación por la Conferencia General de la UNESCO durante su 41ª reunión, en noviembre de 2021. Si se aprueba, la Recomendación se convertirá en el primer instrumento normativo mundial en este ámbito de importancia capital.