Persoonlijkheid, stemgeluid en taalgebruik blijken allemaal even sterke cues te zijn voor sociale reacties (3, 4). Geslacht is van vergelijkbaar belang in termen van hoe mensen zich gedragen en sociaal interageren met hun in-group (6), en deze geslachtsafstemming kan verschillende reacties verklaren op basis van het geslacht van de menselijke gebruiker (4). Persoonlijkheid kan een signaal zijn voor geslacht: “Vrouwelijke archetypen worden gezien als vriendelijker, opener en emotioneler, terwijl dominant, zelfverzekerd en competitief over het algemeen als mannelijke eigenschappen worden gezien. Sociologe H. Woods (8) benadrukte in haar studie dat zowel de makers als de gebruikers van DVA’s vaak de nadruk leggen op de “persoonlijkheid” van de DVA, zelfs meer dan op de technologie zelf, of op wat ze kan. Niettegenstaande hun primaire “rol” als huishoudelijke assistent, is Alexa ook geportretteerd als een metgezel, verzorger, en co-ouder; Siri als een goede vriend aan wie men seksvragen kan stellen (8). Deze eigenschappen zijn opzettelijk geprogrammeerd in AI, om ten minste één reden om vertrouwen in AI te wekken (8).
Waarom überhaupt gender AI?
Hoewel het als een verouderde mode wordt beschouwd, was het nog niet zo lang geleden gebruikelijk om een man naar zijn auto of boot te horen verwijzen als een “zij”. Deze verwijzingen gaan samen met een lange geschiedenis van het vervrouwelijken van machines en technologie, zowel in fictie als in het echte leven (Bergen 2016). Waarom de praktijk de laatste jaren uit de mode is geraakt, ten gunste van een genderneutraal ‘het’ voornaamwoord, is waarschijnlijk een culturele evolutie van na het feministische tijdperk naar een nu meer gendergevoelige wereld. In feite kondigde de AP Styleguide onlangs verdere progressie aan op het gebied van gender voornaamwoorden, waarbij het gebruik van de termen they/their/them wordt aangemoedigd wanneer het geslacht niet is geïdentificeerd (Easton, 2017). En ondanks de huidige trend voor DVA’s als vrouwelijke persona’s, zijn er historisch gezien mogelijk meer voorbeelden van mannelijke gepersonifieerde machines als vrouwelijke (bijv. KITT uit Knight Rider, de meeste Transformers, Data uit Star Trek, en C3PO en R2D2 uit Star Wars).
Dus een vraag die je je dan zou kunnen stellen (als je toch al zo ver hebt gelezen!) is: zouden DVA’s zonder een geïmpliceerd geslacht succesvol kunnen zijn op de markt? Zouden ze dezelfde sympathie en adoptie hebben als die van een vrouwelijke soort? Welnu, een “geslachtsloos” prototype van een stem voor DVA’s, “Q” genaamd, werd onlangs aangekondigd als een poging tot een provocerende dialoog om tech-bedrijven aan te moedigen niet-genderspecifieke stemmen te overwegen (7). Hoewel het slechts een prototype van een stem is, en nog niet in gebruik in een AI-toepassing, suggereert de aankondiging en de media-aandacht dat op zijn minst sommigen vragen om een mainstream dialoog over het genderen van DVA’s. Maar gezien de harde bedrading van de mens om gender als binair te classificeren (3), zou men logischerwijs kunnen veronderstellen dat er enige weerstand zal zijn bij de gemiddelde mens in zijn betrokkenheid bij genderneutrale DVA’s.
Het is duidelijk dat de complexe kwesties van gender in wetenschap, technologie en AI niet kunnen worden opgelost door eenvoudigweg AI (of andere objecten) te “ont-genderen”. Culturele genderstereotypen, patriarchale technologieontwerpen en het gebruik van gedragseconomie voor bedrijfswinst spelen hier allemaal een rol en zijn elk op zich even grote harige kwesties.
Waarom zijn alle DVA’s dan vrouwelijk?
In het postmoderne tijdperk waarin consumentisme en massamedia een prominente rol spelen in de samenleving, zijn DVA’s een mainstream vorm van AI, voor een groot deel omdat ze toegankelijk zijn – relatief betaalbaar, gemakkelijk te vinden en gemakkelijk te gebruiken – en dus populair gemaakt door miljoenen consumenten. De vrouwelijke personificatie kan zelfs de acceptatie en het gebruik van DVA’s aanmoedigen, zelfs in de meest persoonlijke en intieme delen van het leven van de gebruikers (8). Vrouwelijke persona’s zijn minder bedreigend (vriendelijk en minder gezaghebbend) en worden over het algemeen als betrouwbaarder beschouwd dan mannen (9). Terwijl Nass & Brave in hun onderzoek vinden dat mannenstemmen in bepaalde contexten vaak als geloofwaardiger worden gezien en meer vertrouwen wekken dan vrouwenstemmen, blijkt uit eerder onderzoek naar sekseverschillen in vertrouwen en betrouwbaarheid dat mannen weliswaar meer vertrouwen hebben, maar dat vrouwen wellicht betrouwbaarder zijn gezien hun neiging tot wederkerigheid (10).
Maar Woods (8) suggereert dat er hier iets sinisters aan de hand is. Zij stelt dat het gebruik van een vrouwelijke persona een bewuste keuze is van de bedrijfsmatige makers van DVA’s om de bezorgdheid van gebruikers over gegevensverzameling, gebruik en privacy weg te nemen. Inderdaad, technologiebedrijven hebben de DVA gecommodificeerd; het is zelf een voorwerp van winst en nog belangrijker, een kanaal naar extra inkomsten via add-on diensten, zoals detailhandel voor Amazon en software-abonnementen voor Apple, Google, en Microsoft.
En Woods kan hier een punt hebben. Wat de meeste consumenten zich niet realiseren, is dat de kosten voor de consument veel hoger kunnen zijn dan het prijskaartje van bijna 1.000 dollar aan een nieuwe Apple iPhone. Siri, die voor een groot deel dankzij haar vrouwelijke, vriendelijke stem een vertrouwde metgezel is geworden, heeft ons gedwongen te vertrouwen op de iPhone in onze broekzak. Achter het glas is elke invoer van onze biometrische gegevens, elk gesproken spraakcommando een toegangspoort tot onze persoonlijke gegevens (8). Alexa heeft nu 400 “vaardigheden” (of apps) geproduceerd door merken als Nike, Campbell’s en Tide, die deze bedrijven een kanaal geven naar de huizen van consumenten.
Onze gegevens zijn in feite het kapitaal – een handelswaar die door de maker van het product te gelde wordt gemaakt, aan adverteerders wordt verkocht en wordt gerecycled voor verdere training van AI-systemen om ze nog beter te maken. Slimme luidsprekers (Amazon, Google Home en Apple Homepod) nemen 24/7 stemmen in huis op en slaan deze op, zelfs als de gebruiker het apparaat niet heeft geactiveerd. Onlangs werd bekend dat het helemaal niet gaat om anonieme gegevensverzameling, maar om echte mensen bij Amazon die meeluisteren met de gesprekken via hun Echo-apparaten. Zoals Woods voorstelt, kan het gebruik van de vrouwelijke persona gebruikers helpen zich meer op hun gemak te voelen bij deze “alomtegenwoordige surveillance”. Dus terwijl je dagelijkse interacties met Siri je er misschien niet toe aanzetten om na te denken over waarom ze is gemaakt als een zij, of je kunt tegen je vrienden grappen maken en Alexa een “bitch” noemen (zoals de mijne vaak doet), zou het je misschien goed doen om wat dieper na te denken over hoe dit een loutere afleiding kan zijn van wie er meeluistert, en wie je gegevens gebruikt.
Dus zijn er ook voordelen aan het feit dat onze DVA’s vrouwelijk zijn?
Zou kunnen. In het LivePerson consumentenonderzoek zei 57,4% van de respondenten dat ze een beroemde man in de technologie konden noemen (Bill Gates, Steve Jobs en Elon Musk behoorden tot de topkeuzes), maar van de 4% die daadwerkelijk een vrouwelijke leider in de technologie konden noemen, noemde een kwart “Alexa” of “Siri”. Dit is op geen enkele manier acceptabel, en het benadrukt een groot aantal diepere kwesties rond seksisme in de technologiesector, waar ik in een andere post verder op in zal gaan. Ik kan het echter niet helpen te denken dat als jonge meisjes en jongens een vrouwelijke stem gaan associëren met “technologie” of “kenner van alle informatie” – dit niet helemaal een slechte zaak kan zijn.
****
De bovenstaande inhoud is een bewerking van mijn oorspronkelijke scriptie, “Societal Implications of Gendering AI;” beschikbaar in volledige tekst op https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI
1. Pew Research Center. (2017). American Trends Panel. Opgehaald van https://www.pewresearch.org/american-trends-panel-datasets/
2. Bosker, B. (2013, 11 juni). Waarom de stem van Siri nu een man (en een vrouw) is. Huffington Post. Opgehaald van: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html
3. Nass, C. & Brave, S. (2004). Bedraad voor spraak: How voice activates and advances the human computer relationship. . Retrieved from Amazon.com
4. Nass, C., Moon, Y., & Green, N. (1997). Zijn machines genderneutraal? Gender-stereotypische reacties op computers met stemmen. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x
5. Chemaly, S. (2016, 27 juli). Wat genderstereotypen en seksisme te maken hebben met algoritmes en robots. Huffington Post. Retrieved from https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html
6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). De rol van geslacht in sociale netwerkorganisatie. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873
7. Salinas, S. (2019, maart 11). Stel je voor dat Alexa geen geslacht had – onderzoekers hebben een stem gecreëerd die noch mannelijk noch vrouwelijk is. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html
8. Woods, H. (2018). Meer vragen van Siri en Alexa: Vrouwelijke persona in dienst van surveillance kapitalisme. Kritische Studies in Mediacommunicatie. 35(4), 334-349. doi:10.1080/15295036.2018.1488082
9. Buchan, N., Croson, R., & Solnick, S. (2008). Vertrouwen en geslacht: An examination of behavior and beliefs in the investment game. Journal of Economic Behavior & Organisatie. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.
10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Genderverschillen in vertrouwen en betrouwbaarheid: Individuen, groepen van één geslacht en groepen van gemengd geslacht. Journal of Economic Psychology, 34, 181-194.