La personnalité, le son de la voix et l’utilisation du langage semblent tous être des indices aussi forts pour les réponses sociales (3, 4). Le genre a une importance similaire en ce qui concerne la façon dont les humains se comportent et interagissent socialement avec leur groupe d’appartenance (6), et cet alignement de genre peut expliquer des réponses différentes en fonction du sexe de l’utilisateur humain (4). La personnalité peut signaler le genre : Les archétypes « féminins » sont considérés comme plus amicaux, ouverts et émotionnels, tandis que les traits dominants, confiants et compétitifs sont généralement considérés comme des traits « masculins ». La sociologue H. Woods (8) a souligné dans son étude que tant les créateurs que les utilisateurs de DVA mettent souvent l’accent sur la « personnalité » du DVA, plus encore que sur la technologie elle-même, ou sur ce qu’elle est capable de faire. Nonobstant leur « rôle » principal d’assistant domestique, Alexa a également été dépeinte comme un compagnon, un gardien et un co-parent ; Siri comme un ami proche auquel on peut poser des questions d’ordre sexuel (8). Ces traits sont intentionnellement programmés dans l’IA, pour au moins une raison d’engendrer la confiance dans l’IA (8).

Pourquoi l’IA de genre à tous?

Bien que considéré comme une mode dépassée, il n’y a pas si longtemps, il était courant d’entendre un homme se référer à sa voiture ou son bateau comme un « elle ». Ces références vont de pair avec une longue histoire de féminisation des machines et de la technologie, tant dans la fiction que dans la vie réelle (Bergen 2016). La raison pour laquelle cette pratique est passée de mode ces dernières années, en faveur d’un pronom neutre  » it « , est probablement une évolution culturelle de l’ère post-féministe vers un monde désormais plus sensible au genre. En fait, le AP Styleguide a récemment annoncé une nouvelle progression sur les pronoms de genre, encourageant l’utilisation des termes they/their/them lorsque le genre n’est pas identifié (Easton, 2017). Et malgré la tendance actuelle pour les AVD en tant que personnages féminins, historiquement il y a très probablement plus d’exemples de machines personnifiées masculines que féminines (par exemple KITT de Knight Rider, la plupart des Transformers, Data de Star Trek, et C3PO et R2D2 de Star Wars).

Donc une question que vous pourriez vous poser alors (si vous avez lu jusqu’ici en tout cas !) est : les AVD sans genre implicite pourraient-ils avoir du succès sur le marché ? Auraient-ils une sympathie et une adoption similaires à ceux d’un genre féminin ? Eh bien, un prototype de voix « non sexuée » pour les DVA, appelé « Q », a récemment été annoncé comme une tentative de dialogue provocateur pour encourager les entreprises technologiques à envisager des voix non sexuées (7). Bien qu’il ne s’agisse que d’un prototype de voix, et qu’il ne soit pas encore utilisé dans une application d’IA, le lancement et la couverture médiatique suggèrent qu’au moins certaines personnes demandent un dialogue général sur la prise en compte du genre dans les AVD. Mais étant donné le câblage dur de l’humain pour classer le genre comme binaire (3), on pourrait logiquement émettre l’hypothèse qu’il y aura une certaine résistance de la part des humains moyens dans leur engagement avec des DVA neutres en termes de genre.

Il est clair que les questions complexes de genre dans la science, la technologie et l’IA sont des questions qui ne peuvent pas être résolues simplement en « dé-gendrant » l’IA (ou d’autres objets). Les stéréotypes culturels liés au genre, la conception patriarcale de la technologie et l’utilisation de l’économie comportementale dans le profit des entreprises sont tous en jeu ici et des problèmes poilus tout aussi importants chacun de leur côté.

Alors, pourquoi tous les DVA sont-ils féminins ?

Dans l’ère postmoderne où le consumérisme et les médias de masse sont proéminents dans la société, les DVA sont une forme courante d’IA en grande partie parce qu’ils sont accessibles – relativement abordables, faciles à trouver et à utiliser – et donc rendus populaires par des millions de consommateurs. La personnification féminine peut en fait encourager l’acceptation et l’utilisation des DVA, même dans les parties les plus personnelles et intimes de la vie de ses utilisateurs (8). Les personnages féminins sont moins menaçants (amicaux et moins autoritaires) et généralement considérés comme plus dignes de confiance que les hommes (9). Alors que Nass & Brave dans sa recherche trouve que les voix masculines sont souvent considérées comme plus crédibles et engendrent plus de confiance que les voix féminines dans certains contextes, des recherches antérieures sur les différences de confiance et de fiabilité entre les sexes trouvent que si les hommes sont plus confiants, les femmes peuvent être plus dignes de confiance étant donné leur tendance à la réciprocité (10).

Mais Woods (8) suggère qu’il y a quelque chose de plus sinistre qui se passe ici. Elle soutient que l’utilisation d’un personnage féminin est une décision délibérée des entreprises créatrices de DVA pour apaiser les préoccupations des utilisateurs concernant la collecte de données, l’utilisation et la vie privée. En effet, les entreprises technologiques ont transformé le DVA en marchandise ; il est lui-même un objet de profit et, plus important encore, un canal de revenus supplémentaires par le biais de services complémentaires, tels que la vente au détail pour Amazon et les abonnements logiciels pour Apple, Google et Microsoft.

Et Woods n’a peut-être pas tort. Ce que la plupart des consommateurs ne réalisent pas, c’est que le coût pour le consommateur peut être beaucoup plus important que le prix de près de 1 000 dollars d’un nouvel iPhone d’Apple. Siri, qui est devenu un compagnon de confiance en grande partie grâce à sa voix féminine et amicale, nous a obligés à faire confiance à l’iPhone dans notre poche. Derrière la vitre, chaque entrée de nos données biométriques, chaque commande vocale prononcée, est une passerelle vers nos données personnelles (8). Alexa compte aujourd’hui 400 « compétences » (ou applications) produites par des marques telles que Nike, Campbell’s et Tide, qui donnent à ces entreprises un canal d’accès au domicile des consommateurs.

Nos données sont en fait le capital – une marchandise monétisée par le créateur du produit, vendue aux annonceurs et recyclée pour un entraînement supplémentaire des systèmes d’IA afin de les rendre encore meilleurs. Les haut-parleurs intelligents (Amazon, Google Home et Apple Homepod) enregistrent et stockent les voix dans la maison 24 heures sur 24 et 7 jours sur 7, même si son utilisateur n’a pas activé l’appareil. Récemment, il a été rapporté qu’il ne s’agit pas du tout d’une collecte anonyme de données, mais de véritables personnes chez Amazon qui écoutent les conversations via leurs appareils Echo. Comme le propose Woods, l’utilisation d’un personnage féminin peut aider les utilisateurs à être plus à l’aise avec cette « surveillance omniprésente ». Ainsi, alors que vos interactions quotidiennes avec Siri ne vous poussent peut-être pas à vous demander pourquoi elle a été créée en tant que « elle », ou que vous pouvez plaisanter avec vos amis et appeler Alexa « chienne » (comme les miens le font souvent), il pourrait vous être utile de réfléchir un peu plus profondément à la façon dont cela pourrait être une simple distraction de qui écoute, et qui utilise vos données.

Alors, y a-t-il des avantages à ce que nos DVA soient féminins ?

Peut-être. Dans l’étude de consommation LivePerson, 57,4 % des personnes interrogées ont déclaré qu’elles pouvaient nommer un homme célèbre dans le domaine de la technologie (Bill Gates, Steve Jobs et Elon Musk figuraient parmi les premiers choix), mais parmi les 4 % qui pouvaient réellement nommer une femme leader dans le domaine de la technologie, un quart d’entre elles ont nommé « Alexa » ou « Siri ». Cette situation n’est en aucun cas acceptable et met en lumière une série de problèmes plus profonds liés au sexisme dans le domaine de la technologie, sur lesquels je reviendrai dans un autre article. Cependant, je ne peux m’empêcher de penser que si les jeunes filles et garçons commencent à associer une voix féminine à la « technologie » ou au « connaisseur de toutes les informations » – cela ne peut pas être une chose totalement mauvaise.

****

Le contenu ci-dessus est une adaptation de ma thèse originale, « Societal Implications of Gendering AI ; » disponible en texte intégral à https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI

1. Pew Research Center. (2017). Panel sur les tendances américaines. Consulté à l’adresse https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, 11 juin). Pourquoi la voix de Siri est maintenant un homme (et une femme). Huffington Post. Récupéré de : https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Wired for speech : Comment la voix active et fait progresser la relation homme-ordinateur. . Récupéré sur Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). Are machines gender neutral ? Réponses stéréotypées de genre aux ordinateurs avec des voix. Journal of Applied Social Psychology, 27 (10), 864-876. doi : 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, 27 juillet). Ce que les stéréotypes de genre et le sexisme ont à voir avec les algorithmes et les robots. Huffington Post. Récupéré sur https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). Le rôle du genre dans l’organisation des réseaux sociaux. PLoS ONE 12(12) : e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, 11 mars). Imaginez qu’Alexa n’ait pas de sexe – des chercheurs ont créé une voix qui n’est ni masculine ni féminine. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). En demander plus à Siri et Alexa : La persona féminine au service du capitalisme de surveillance. Études critiques en communication médiatique. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., &Solnick, S. (2008). La confiance et le genre : Un examen du comportement et des croyances dans le jeu d’investissement. Journal of Economic Behavior & Organisation. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Les différences de genre dans la confiance et la fiabilité : Individus, groupes unisexes et mixtes. Journal of Economic Psychology, 34, 181-194.

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.