Personality, sound of the voice, and use of language all appear to be equally strong cues for social responses (3, 4). Płeć ma podobne znaczenie, jeśli chodzi o to, jak ludzie zachowują się i wchodzą w interakcje społeczne ze swoją grupą wewnętrzną (6), a to dopasowanie płci może wyjaśniać różne reakcje w zależności od płci użytkownika (4). Osobowość może sygnalizować płeć: „Kobiece” archetypy są postrzegane jako bardziej przyjazne, otwarte i emocjonalne, podczas gdy dominacja, pewność siebie i rywalizacja są zazwyczaj postrzegane jako cechy „męskie”. Socjolog H. Woods (8) podkreśliła w swoim badaniu, że zarówno twórcy, jak i użytkownicy DVA często podkreślają „osobowość” DVA nawet bardziej niż samą technologię lub to, co jest w stanie zrobić. Niezależnie od ich podstawowej „roli” jako asystentki domowej, Alexa jest również przedstawiana jako towarzyszka, opiekunka i współrodzic; Siri jako bliska przyjaciółka, której można zadawać pytania dotyczące seksu (8). Te cechy są celowo zaprogramowane w AI, przynajmniej z jednego powodu, aby wzbudzić zaufanie do AI (8).

Dlaczego gender AI w ogóle?

Choć uważane za przestarzałą modę, nie tak dawno temu powszechnie słyszało się, że mężczyzna odnosi się do swojego samochodu lub łodzi jako „ona”. Te odniesienia idą w parze z długą historią feminizowania maszyn i technologii zarówno w fikcji, jak i w prawdziwym życiu (Bergen 2016). Dlaczego praktyka ta wyszła z mody w ostatnich latach, na rzecz neutralnego płciowo zaimka „it”, jest prawdopodobnie ewolucją kulturową ery postfeministycznej do obecnie bardziej wrażliwego na płeć świata. W rzeczywistości AP Styleguide niedawno ogłosił dalszy postęp w kwestii zaimków płciowych, zachęcając do używania terminów they/their/them, gdy płeć nie jest określona (Easton, 2017). I pomimo obecnego trendu dla DVAs jako żeńskich person, historycznie istnieje całkiem możliwe, że istnieje więcej przykładów męskich spersonifikowanych maszyn niż żeńskich (np. KITT z Knight Rider, większość Transformers, Data ze Star Trek, oraz C3PO i R2D2 z Gwiezdnych Wojen).

Więc pytanie, które możesz zadać (jeśli i tak przeczytałeś tak daleko!) brzmi: czy DVAs bez implikowanej płci mogłyby odnieść sukces na rynku? Czy miałyby podobną popularność i adopcję jak te z rodzaju żeńskiego? Cóż, „bezpłciowy” prototyp głosu dla DVA, nazwany „Q”, został niedawno ogłoszony jako próba prowokacyjnego dialogu, który ma zachęcić firmy technologiczne do rozważenia głosów nie związanych z płcią (7). Choć jest to tylko prototypowy głos i nie jest on jeszcze używany w żadnej aplikacji AI, publikacja i doniesienia medialne sugerują, że przynajmniej niektórzy domagają się dialogu na temat genderowego traktowania DVA. Biorąc jednak pod uwagę ludzkie przyzwyczajenie do klasyfikowania płci jako binarnej (3), można logicznie założyć, że przeciętni ludzie będą stawiać pewien opór przy angażowaniu się w neutralne płciowo DVA.

Jasno widać, że złożone kwestie płci w nauce, technologii i AI nie mogą być rozwiązane przez zwykłe „odpłciowienie” AI (lub innych obiektów). Kulturowe stereotypy płciowe, patriarchalne projektowanie technologii i wykorzystanie ekonomii behawioralnej w zyskach korporacji są tutaj w grze i są to równie wielkie, włochate problemy, każdy na własną rękę.

Więc dlaczego wszystkie DVA są kobiece?

W postmodernistycznej erze, w której konsumpcjonizm i mass media są prominentne w społeczeństwie, DVA są mainstreamową formą AI w dużej części dlatego, że są dostępne – relatywnie niedrogie, łatwe do znalezienia i łatwe w użyciu – i w ten sposób spopularyzowane przez miliony konsumentów. Kobieca personifikacja może w rzeczywistości sprzyjać akceptacji i wykorzystaniu DVA, nawet w najbardziej osobistych i intymnych częściach życia ich użytkowników (8). Kobiece postacie są mniej groźne (przyjazne i mniej autorytatywne) i ogólnie uważane za bardziej godne zaufania niż męskie (9). Podczas gdy Nass & Brave w swoich badaniach stwierdzają, że głosy męskie są często postrzegane jako bardziej wiarygodne i wzbudzają większe zaufanie niż głosy kobiece w pewnych kontekstach, poprzednie badania nad różnicami płci w zaufaniu i wiarygodności stwierdzają, że podczas gdy mężczyźni są bardziej ufni, kobiety mogą być bardziej godne zaufania, biorąc pod uwagę ich tendencję do wzajemności (10).

Ale Woods (8) sugeruje, że dzieje się tu coś bardziej złowieszczego. Twierdzi ona, że użycie kobiecej persony jest celową decyzją korporacyjnych twórców DVA, aby uspokoić obawy użytkowników dotyczące zbierania danych, użytkowania i prywatności. W rzeczy samej, firmy technologiczne utowarowiły DVA; jest ona sama w sobie przedmiotem zysku i co ważniejsze, kanałem do dodatkowych przychodów poprzez dodatkowe usługi, takie jak sprzedaż detaliczna dla Amazon i subskrypcje oprogramowania dla Apple, Google i Microsoft.

I Woods może mieć tutaj rację. Co większość konsumentów nie zdaje sobie sprawy, że koszt konsumenta może być znacznie większa niż blisko $ 1,000 cena tag na nowym iPhonie Apple. Siri, która stała się zaufanym towarzyszem w dużej części dzięki jej kobiecemu, przyjaznemu głosowi, zmusiła nas do zaufania iPhone’owi w naszej kieszeni. Za szkłem, każde wprowadzenie naszych danych biometrycznych, każde wypowiedziane polecenie głosowe, jest bramą do naszych danych osobowych (8). Alexa ma obecnie 400 „umiejętności” (lub aplikacji) wyprodukowanych przez takie marki jak Nike, Campbell’s i Tide, które dają tym firmom kanał do domów konsumentów.

Nasze dane są w rzeczywistości kapitałem – towarem spieniężanym przez twórcę produktu, sprzedawanym reklamodawcom i przetwarzanym w celu dalszego szkolenia systemów AI, aby uczynić je jeszcze lepszymi. Inteligentne głośniki (Amazon, Google Home i Apple Homepod) nagrywają i przechowują głosy w domu 24/7, nawet jeśli ich użytkownik nie aktywował urządzenia. Ostatnio pojawiła się informacja, że to wcale nie anonimowe zbieranie danych, ale prawdziwi ludzie w Amazonie, którzy podsłuchują rozmowy prowadzone przez ich urządzenia Echo. Jak proponuje Woods, wykorzystanie kobiecej persony może pomóc użytkownikom czuć się bardziej komfortowo z tą „wszechobecną inwigilacją”. Tak więc, podczas gdy wasze codzienne interakcje z Siri mogą nie pobudzać was do zastanawiania się, dlaczego została stworzona jako ona, lub możecie żartować z przyjaciółmi i nazywać Alexę „suką” (jak moi często to robią), może warto pomyśleć trochę głębiej o tym, jak to może być zwykłe odwrócenie uwagi od tego, kto słucha i kto używa waszych danych.

Więc czy są jakieś plusy tego, że nasze DVA są kobiece?

Może. W badaniu konsumenckim LivePerson, 57,4% respondentów stwierdziło, że może wymienić sławnego człowieka w technologii (Bill Gates, Steve Jobs i Elon Musk byli wśród najlepszych wyborów), ale z 4%, którzy rzeczywiście mogli wymienić kobietę lidera w technologii, jedna czwarta z nich nazwała „Alexa” lub „Siri”. W żaden sposób nie jest to do zaakceptowania, a to podkreśla wiele głębszych problemów wokół seksizmu w dziedzinie technologii, które będę rozwijać w innym poście. Nie mogę jednak powstrzymać się od myśli, że jeśli młode dziewczyny i chłopcy zaczną kojarzyć kobiecy głos z „technologią” lub „znawczynią wszystkich informacji” – nie może to być całkowicie zła rzecz.

****

Powyższa treść jest adaptacją mojej oryginalnej pracy magisterskiej, „Societal Implications of Gendering AI;” dostępnej w pełnym tekście pod adresem

1. Pew Research Center. (2017). American Trends Panel. Retrieved from https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, June 11). Dlaczego głos Siri jest teraz mężczyzną (i kobietą). Huffington Post. Retrieved from: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Wired for speech: How voice activates and advances the human computer relationship. . Retrieved from Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). Czy maszyny są neutralne pod względem płci? Gender-stereotypic responses to computers with voices. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, July 27). Co stereotypy płci i seksizm mają wspólnego z algorytmami i robotami. Huffington Post. Retrieved from https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). Rola płci w organizacji sieci społecznych. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, March 11). Wyobraź sobie, że Alexa nie ma płci – naukowcy stworzyli głos, który nie jest ani męski, ani żeński. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). Prosząc więcej od Siri i Alexy: Kobieca persona w służbie kapitalizmu nadzoru. Critical Studies in Media Communication. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Zaufanie i płeć: An examination of behavior and beliefs in the investment game. Journal of Economic Behavior & Organization. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Różnice między płciami w zaufaniu i wiarygodności: Jednostki, grupy jednopłciowe i mieszane. Journal of Economic Psychology, 34, 181-194.

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.