La personalidad, el sonido de la voz y el uso del lenguaje parecen ser pistas igualmente fuertes para las respuestas sociales (3, 4). El género tiene una importancia similar en cuanto a la forma en que los seres humanos se comportan e interactúan socialmente con su grupo interno (6), y esta alineación de género puede explicar las diferentes respuestas basadas en el género del usuario humano (4). La personalidad puede señalar el género: Los arquetipos «femeninos» son vistos como más amistosos, abiertos y emocionales, mientras que ser dominante, confiado y competitivo son típicamente vistos como rasgos «masculinos». La socióloga H. Woods (8) destacó en su estudio que tanto los creadores como los usuarios de los DVAs suelen hacer hincapié en la «personalidad» del DVA incluso más que en la propia tecnología, o en lo que es capaz de hacer. A pesar de su «papel» principal como asistente doméstico, Alexa también ha sido retratada como compañera, cuidadora y copadre; Siri como una amiga íntima a la que se pueden hacer preguntas sobre sexo (8). Estos rasgos están programados intencionadamente en la IA, al menos por una razón para generar confianza en ella (8).

¿Por qué el género de la IA en absoluto?

Aunque se considera una moda anticuada, no hace mucho tiempo era común escuchar a un hombre referirse a su coche o barco como «ella». Estas referencias van de la mano de una larga historia de feminización de las máquinas y la tecnología tanto en la ficción como en la vida real (Bergen 2016). La razón por la que esta práctica ha pasado de moda en los últimos años, en favor de un pronombre de género neutro «ella», es probablemente una evolución cultural de la era post-feminista a un mundo ahora más sensible al género. De hecho, la guía de estilo de la AP anunció recientemente una nueva progresión en los pronombres de género, fomentando el uso de los términos ellos/las/los cuando no se identifica el género (Easton, 2017). Y a pesar de la tendencia actual de los DVAs como personajes femeninos, históricamente hay muy posiblemente más ejemplos de máquinas personificadas masculinas que femeninas (por ejemplo, KITT de Knight Rider, la mayoría de los Transformers, Data de Star Trek, y C3PO y R2D2 de Star Wars).

Así que una pregunta que podrías estar haciendo entonces (¡si has leído hasta aquí de todos modos!) es: ¿podrían los DVAs sin un género implícito tener éxito en el mercado? ¿Tendrían la misma simpatía y adopción que los de tipo femenino? Pues bien, recientemente se anunció un prototipo de voz «sin género» para los DVA, llamado «Q», como un intento de diálogo provocador para animar a las empresas tecnológicas a considerar voces no específicas de género (7). Aunque sólo se trata de un prototipo de voz, y aún no se utiliza en ninguna aplicación de IA, el anuncio y la cobertura de los medios de comunicación sugieren que, al menos, algunos están pidiendo un diálogo generalizado sobre el género de los DVA. Pero teniendo en cuenta que el ser humano está acostumbrado a clasificar el género de forma binaria (3), es lógico suponer que habrá cierta resistencia por parte de los seres humanos de a pie a la hora de utilizar DVAs de género neutro.

Está claro que las complejas cuestiones de género en la ciencia, la tecnología y la IA no pueden resolverse simplemente «desginificando» la IA (u otros objetos). Los estereotipos culturales de género, el diseño patriarcal de la tecnología y el uso de la economía del comportamiento en los beneficios de las empresas están en juego aquí y son cuestiones igualmente peliagudas cada una por su lado.

Entonces, ¿por qué todos los DVA son femeninos?

En la era posmoderna en la que el consumismo y los medios de comunicación de masas ocupan un lugar destacado en la sociedad, los DVA son una forma generalizada de IA en gran parte porque son accesibles -relativamente asequibles, fáciles de encontrar y de usar- y, por lo tanto, popularizados por millones de consumidores. La personificación femenina puede, de hecho, fomentar la aceptación y el uso de los DVAs, incluso en las partes más personales e íntimas de la vida de sus usuarios (8). Los personajes femeninos son menos amenazantes (amistosos y menos autoritarios) y, en general, se consideran más fiables que los hombres (9). Mientras que Nass & Brave en su investigación encuentra que las voces masculinas son a menudo vistas como más creíbles y engendran más confianza que las voces femeninas en ciertos contextos, investigaciones anteriores sobre las diferencias de género de la confianza y la confiabilidad encuentran que mientras los hombres son más confiables, las mujeres pueden ser más confiables dada su tendencia a ser recíprocas (10).

Pero Woods (8) sugiere que hay algo más siniestro aquí. Sostiene que el uso de un personaje femenino es una decisión deliberada de los creadores corporativos de los DVA para calmar las preocupaciones de los usuarios sobre la recopilación de datos, el uso y la privacidad. De hecho, las empresas tecnológicas han mercantilizado el DVA; es en sí mismo un objeto de beneficio y, lo que es más importante, un canal para obtener ingresos adicionales a través de servicios complementarios, como las ventas al por menor para Amazon y las suscripciones de software para Apple, Google y Microsoft.

Y puede que Woods tenga razón en esto. Lo que la mayoría de los consumidores no saben es que el coste para el consumidor puede ser mucho mayor que el precio de casi 1.000 dólares de un nuevo iPhone de Apple. Siri, que se ha convertido en una compañera de confianza en gran parte gracias a su voz femenina y amable, nos ha obligado a confiar en el iPhone de nuestro bolsillo. Detrás del cristal, cada entrada de nuestros datos biométricos, cada comando de voz pronunciado, es una puerta de entrada a nuestros datos personales (8). Alexa cuenta ahora con 400 «habilidades» (o aplicaciones) producidas por marcas como Nike, Campbell’s y Tide, que dan a estas empresas un canal de entrada a los hogares de los consumidores.

Nuestros datos son, de hecho, el capital: una mercancía monetizada por el creador del producto, vendida a los anunciantes y reciclada para seguir entrenando los sistemas de IA para hacerlos aún mejores. Los altavoces inteligentes (Amazon, Google Home y Apple Homepod) graban y almacenan las voces en el hogar las 24 horas del día, incluso si su usuario no ha activado el dispositivo. Recientemente se ha informado de que no se trata en absoluto de una recopilación anónima de datos, sino de personas reales de Amazon que están escuchando las conversaciones a través de sus dispositivos Echo. Como propone Woods, el uso del personaje femenino puede ayudar a los usuarios a sentirse más cómodos con esta «vigilancia ubicua». Así que, aunque tus interacciones cotidianas con Siri no te lleven a reflexionar sobre por qué fue creada como una mujer, o aunque bromees con tus amigos llamando a Alexa «perra» (como hacen los míos a menudo), puede que te convenga pensar un poco más en cómo esto puede ser una mera distracción de quién está escuchando, y quién está usando tus datos.

¿Así que hay alguna ventaja en que nuestros DVAs sean femeninos?

Quizás. En el estudio de consumidores de LivePerson, el 57,4% de los encuestados dijo que podía nombrar a un hombre famoso en la tecnología (Bill Gates, Steve Jobs y Elon Musk estaban entre las principales opciones), sin embargo, del 4% que podía nombrar a una mujer líder en la tecnología, una cuarta parte de ellos nombró a «Alexa» o «Siri». Esto no es aceptable de ninguna manera, y pone de manifiesto una serie de problemas más profundos en torno al sexismo en el campo de la tecnología, que trataré en otro artículo. Sin embargo, no puedo evitar pensar que si las chicas y los chicos jóvenes empiezan a asociar una voz femenina con «tecnología» o «conocedor de toda la información», esto no puede ser algo totalmente malo.

****

El contenido anterior es una adaptación de mi tesis original, «Societal Implications of Gendering AI;» disponible en texto completo en https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI

1. Pew Research Center. (2017). Panel de tendencias americanas. Recuperado de https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, 11 de junio). Por qué la voz de Siri es ahora un hombre (y una mujer). Huffington Post. Recuperado de: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Cableado para el habla: Cómo la voz activa y hace avanzar la relación entre el hombre y el ordenador. . Recuperado de Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). ¿Son las máquinas neutras en cuanto al género? Gender-stereotypic responses to computers with voices. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, 27 de julio). Qué tienen que ver los estereotipos de género y el sexismo con los algoritmos y los robots. Huffington Post. Recuperado de https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). El papel del género en la organización de las redes sociales. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, 11 de marzo). Imagina que Alexa no tuviera género: los investigadores han creado una voz que no es ni masculina ni femenina. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). Pedir más a Siri y Alexa: Persona femenina al servicio del capitalismo de la vigilancia. Estudios críticos en comunicación mediática. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Confianza y género: Un examen del comportamiento y las creencias en el juego de la inversión. Journal of Economic Behavior &Organización. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Diferencias de género en la confianza y la fiabilidad: Individuos, grupos de un solo sexo y de sexo mixto. Journal of Economic Psychology, 34, 181-194.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.