Personlighed, stemmelyd og sprogbrug synes alle at være lige stærke signaler for sociale reaktioner (3, 4). Køn er af tilsvarende betydning for, hvordan mennesker opfører sig og interagerer socialt med deres in-group (6), og denne kønstilpasning kan forklare forskellige reaktioner baseret på den menneskelige brugers køn (4). Personlighed kan signalere køn: “feminine” arketyper opfattes som mere venlige, åbne og følelsesmæssige, mens det at være dominerende, selvsikker og konkurrencedygtig typisk opfattes som “maskuline” træk. Sociolog H. Woods (8) fremhævede i sin undersøgelse, at både skaberne og brugerne af DVA’er ofte fremhæver DVA’ens “personlighed” endnu mere end selve teknologien, eller hvad den er i stand til. Uanset deres primære “rolle” som husassistent er Alexa også blevet portrætteret som en ledsager, omsorgsgiver og medforælder; Siri som en nær ven, som man kan stille sexspørgsmål til (8). Disse træk er bevidst programmeret ind i AI, i hvert fald af én grund for at skabe tillid til AI (8).

Hvorfor overhovedet kønsbestemt AI?

Selv om det blev betragtet som en forældet mode, var det ikke så længe siden almindeligt at høre en mand omtale sin bil eller båd som en “hun”. Disse referencer går hånd i hånd med en lang historie af feminisering af maskiner og teknologi både i fiktion og i det virkelige liv (Bergen 2016). Hvorfor denne praksis er gået af mode i de senere år til fordel for et kønsneutralt “det”-pronomen, er sandsynligvis en kulturel udvikling fra den postfeministiske æra til en nu mere kønsfølsom verden. Faktisk har AP Styleguide for nylig annonceret yderligere fremskridt med hensyn til kønspronominer og opfordrer til brug af udtrykkene they/their/them, når kønnet ikke er identificeret (Easton, 2017). Og på trods af den nuværende tendens til DVA’er som kvindelige personligheder er der historisk set muligvis flere eksempler på mandlige personificerede maskiner, end der er kvindelige (f.eks. KITT fra Knight Rider, de fleste af Transformers, Data fra Star Trek og C3PO og R2D2 fra Star Wars).

Så et spørgsmål, du måske stiller dig selv (hvis du alligevel har læst så langt!), er: Kunne DVA’er uden et implicit køn få succes på markedet? Ville de have samme sympati og blive vedtaget på samme måde som dem af feminin art? Der blev for nylig annonceret en prototype af en “kønsløs” stemme til DVA’er, kaldet “Q”, som et forsøg på en provokerende dialog for at tilskynde teknologivirksomheder til at overveje ikke-kønsspecifikke stemmer (7). Selv om der kun er tale om en prototypestemme, som ikke er i brug i nogen AI-applikation endnu, tyder udgivelsen og mediedækningen på, at der i det mindste er nogle, der beder om en mainstream-dialog om kønsopdeling af DVA’er. Men i betragtning af menneskers hårde kortslutning til at klassificere køn som binært (3), kunne man logisk antage, at der vil være en vis modstand fra almindelige mennesker i deres engagement med kønsneutrale DVA’er.

Det er klart, at de komplekse spørgsmål om køn inden for videnskab, teknologi og AI ikke kan løses ved blot at “de-gendere” AI (eller andre objekter). Kulturelle kønsstereotyper, patriarkalsk teknologidesign og adfærdsøkonomisk brug i virksomheders profit er alle på spil her og lige store hårde spørgsmål hver for sig.

Så hvorfor er alle DVA’er så feminine?

I den postmoderne tidsalder, hvor forbrugerisme og massemedier er fremtrædende i samfundet, er DVA’er en mainstream form for AI i høj grad fordi de er tilgængelige – relativt overkommelige, lette at finde og lette at bruge – og dermed gjort populære af millioner af forbrugere. Den feminine personificering kan faktisk fremme accepten og brugen af DVA’er, selv i de mest personlige og intime dele af brugernes liv (8). Feminine personligheder er mindre truende (venlige og mindre autoritative) og anses generelt for at være mere troværdige end mænd (9). Mens Nass & Brave i deres forskning finder, at mandlige stemmer ofte opfattes som mere troværdige og skaber mere tillid end kvindelige stemmer i visse sammenhænge, finder tidligere forskning om kønsforskelle i tillid og troværdighed, at mens mænd er mere tillidsfulde, kan kvinder være mere troværdige på grund af deres tendens til at være gensidige (10).

Men Woods (8) foreslår, at der er noget mere uhyggeligt på færde her. Hun hævder, at brugen af en feminin persona er en bevidst beslutning truffet af de virksomheder, der har skabt DVA’er, for at dæmpe brugernes bekymring over dataindsamling, brug og privatlivets fred. Teknologivirksomhederne har faktisk gjort DVA’en til en vare; den er i sig selv et profitobjekt og endnu vigtigere, en kanal til yderligere indtægter gennem tillægstjenester, såsom detailsalg for Amazon og softwareabonnementer for Apple, Google og Microsoft.

Og Woods har måske en pointe her. Det, som de fleste forbrugere ikke er klar over, er, at forbrugeromkostningerne kan være meget større end prisen på næsten 1.000 dollars på en ny Apple iPhone. Siri, som er blevet en troværdig følgesvend, hvilket i høj grad skyldes hendes feminine, venlige stemme, har tvunget os til at stole på iPhone’en i vores lomme. Bag glasset er hver eneste indtastning af vores biometriske data, hver eneste stemmekommando, der bliver sagt, en indgang til vores personlige data (8). Alexa har nu 400 “færdigheder” (eller apps) produceret af mærker som Nike, Campbell’s og Tide, som giver disse virksomheder en kanal ind i forbrugernes hjem.

Vores data er faktisk kapitalen – en vare, som produktskaberen tjener penge på, som sælges til annoncører og genbruges til yderligere træning af AI-systemer for at gøre dem endnu bedre. Intelligente højttalere (Amazon, Google Home og Apple Homepod) optager og lagrer stemmer i hjemmet døgnet rundt, selv om brugeren ikke har aktiveret enheden. For nylig blev det rapporteret, at det slet ikke er anonym indsamling af data, men at det er rigtige mennesker hos Amazon, der lytter til samtalerne gennem deres Echo-enheder. Som Woods foreslår, kan brugen af den kvindelige persona hjælpe brugerne til at føle sig mere trygge ved denne “allestedsnærværende overvågning”. Så selv om dine daglige interaktioner med Siri måske ikke ansporer dig til at overveje, hvorfor hun blev skabt som en hun, eller du måske laver sjov med dine venner og kalder Alexa for en “bitch” (som mine ofte gør), kan det være hensigtsmæssigt for dig at tænke lidt dybere over, hvordan dette måske blot er en distraktion fra, hvem der lytter med, og hvem der bruger dine data.

Så er der nogen fordele ved, at vores DVA’er er feminine?

Måske. I LivePerson-forbrugerundersøgelsen sagde 57,4 % af de adspurgte, at de kunne nævne en berømt mand inden for teknologi (Bill Gates, Steve Jobs og Elon Musk var blandt de bedste valg), men af de 4 %, der rent faktisk kunne nævne en kvindelig leder inden for teknologi, nævnte en fjerdedel af dem “Alexa” eller “Siri”. Dette er på ingen måde acceptabelt, og det fremhæver en lang række dybere problemer omkring sexisme inden for teknologiområdet, som jeg vil komme nærmere ind på i et andet indlæg. Jeg kan dog ikke lade være med at tænke, at hvis unge piger og drenge begynder at associere en kvindestemme med “teknologi” eller “kender alle oplysninger” – så kan det ikke være en helt dårlig ting.

****

Overstående indhold er en tilpasning fra min oprindelige afhandling, “Societal Implications of Gendering AI;” tilgængelig i fuld tekst på

1. Pew Research Center. (2017). American Trends Panel. Hentet fra https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, 11. juni). Hvorfor Siris stemme nu er en mand (og en kvinde). Huffington Post. Hentet fra: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Wired for speech: How voice activates and advances the human computer relationship. . Hentet fra Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). Er maskiner kønsneutrale? Kønsstereotypiske reaktioner på computere med stemmer. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, 27. juli). Hvad kønsstereotyper og sexisme har at gøre med algoritmer og robotter. Huffington Post. Hentet fra https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). Kønnets rolle i organiseringen af sociale netværk. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, March 11). Forestil dig, hvis Alexa ikke havde noget køn – forskere har skabt en stemme, der hverken er mandlig eller kvindelig. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). At bede mere om Siri og Alexa: Feminin persona i overvågningskapitalismens tjeneste. Kritiske studier i mediekommunikation. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Tillid og køn: En undersøgelse af adfærd og overbevisninger i investeringsspillet. Journal of Economic Behavior & Organization. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Kønsforskelle i tillid og troværdighed: Individer, enkeltkøns- og blandede kønsgrupper. Journal of Economic Psychology, 34, 181-194.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.