Persönlichkeit, Klang der Stimme und Sprachgebrauch scheinen gleich starke Hinweise auf soziale Reaktionen zu sein (3, 4). Das Geschlecht ist von ähnlicher Bedeutung dafür, wie Menschen sich verhalten und sozial mit ihrer Gruppe interagieren (6), und diese geschlechtsspezifische Ausrichtung kann unterschiedliche Reaktionen je nach Geschlecht des menschlichen Benutzers erklären (4). Die Persönlichkeit kann das Geschlecht signalisieren: „Weibliche“ Archetypen gelten als freundlicher, offener und emotionaler, während Dominanz, Selbstvertrauen und Wettbewerb typischerweise als „männliche“ Eigenschaften angesehen werden. Die Soziologin H. Woods (8) hob in ihrer Studie hervor, dass sowohl die Erfinder als auch die Nutzer von DVAs häufig die „Persönlichkeit“ des DVAs noch stärker betonen als die Technologie selbst oder die Möglichkeiten, die sie bietet. Ungeachtet ihrer primären „Rolle“ als Haushaltshilfe wurde Alexa auch als Begleiterin, Betreuerin und Co-Elternteil dargestellt; Siri als enge Freundin, der man Fragen zum Thema Sex stellen kann (8). Diese Eigenschaften werden absichtlich in die KI einprogrammiert, um Vertrauen in die KI zu schaffen (8).

Warum überhaupt geschlechtsspezifische KI?

Es ist noch gar nicht so lange her, da war es üblich, dass ein Mann sein Auto oder Boot als „sie“ bezeichnete. Diese Anspielungen gehen einher mit einer langen Geschichte der Feminisierung von Maschinen und Technologie sowohl in der Fiktion als auch im wirklichen Leben (Bergen 2016). Warum diese Praxis in den letzten Jahren zugunsten eines geschlechtsneutralen „es“-Pronoms aus der Mode gekommen ist, ist wahrscheinlich eine kulturelle Entwicklung nach der feministischen Ära in einer nun geschlechtssensibleren Welt. In der Tat hat der AP Styleguide kürzlich eine weitere Entwicklung bei den Geschlechterpronomen angekündigt und die Verwendung der Begriffe sie/ihr/sie empfohlen, wenn das Geschlecht nicht identifiziert wird (Easton, 2017). Und trotz des aktuellen Trends zu DVAs als weibliche Personas gibt es historisch gesehen möglicherweise mehr Beispiele für männlich personifizierte Maschinen als für weibliche (z. B. KITT aus Knight Rider, die meisten Transformers, Data aus Star Trek sowie C3PO und R2D2 aus Star Wars).

Die Frage, die Sie sich also stellen könnten (wenn Sie überhaupt bis hierher gelesen haben!), lautet: Könnten DVAs ohne impliziertes Geschlecht auf dem Markt erfolgreich sein? Würden sie ähnlich gut ankommen und angenommen werden wie solche mit weiblichen Merkmalen? Nun, ein „geschlechtsloser“ Prototyp einer Stimme für DVAs mit dem Namen „Q“ wurde kürzlich als Versuch eines provokativen Dialogs angekündigt, um Technologieunternehmen zu ermutigen, nicht geschlechtsspezifische Stimmen in Betracht zu ziehen (7). Obwohl es sich nur um einen Prototyp handelt und noch keine KI-Anwendung zum Einsatz kommt, deuten die Veröffentlichung und die Medienberichterstattung darauf hin, dass zumindest einige einen Mainstream-Dialog über das Gendering von DVAs anstreben. Da der Mensch jedoch fest dazu verdrahtet ist, das Geschlecht als binär zu klassifizieren (3), könnte man logischerweise annehmen, dass es einen gewissen Widerstand von Durchschnittsmenschen in ihrer Auseinandersetzung mit geschlechtsneutralen DVAs geben wird.

Die komplexen Fragen des Geschlechts in Wissenschaft, Technologie und KI sind eindeutig solche, die nicht durch einfaches „Entgeschlechtlichen“ von KI (oder anderen Objekten) gelöst werden können. Kulturelle Geschlechterstereotypen, patriarchalisches Technologiedesign und der Einsatz von Verhaltensökonomie für den Unternehmensgewinn sind hier im Spiel und jedes für sich ein großes Problem.

Warum sind dann alle DVAs weiblich?

In der postmodernen Ära, in der Konsum und Massenmedien in der Gesellschaft eine große Rolle spielen, sind DVAs eine Mainstream-Form der KI, zum großen Teil weil sie zugänglich sind – relativ erschwinglich, leicht zu finden und leicht zu benutzen – und somit von Millionen von Verbrauchern genutzt werden. Die weibliche Personifizierung kann die Akzeptanz und Nutzung von DVAs sogar in den persönlichsten und intimsten Bereichen des Lebens ihrer Nutzer fördern (8). Weibliche Persönlichkeiten sind weniger bedrohlich (freundlich und weniger autoritär) und gelten im Allgemeinen als vertrauenswürdiger als Männer (9). Während Nass & Brave in ihrer Untersuchung feststellte, dass männliche Stimmen in bestimmten Kontexten oft als glaubwürdiger angesehen werden und mehr Vertrauen erwecken als weibliche Stimmen, haben frühere Untersuchungen zu geschlechtsspezifischen Unterschieden in Bezug auf Vertrauen und Vertrauenswürdigkeit ergeben, dass Männer zwar vertrauensvoller sind, Frauen jedoch aufgrund ihrer Tendenz zur Gegenseitigkeit vertrauenswürdiger sein könnten (10).

Woods (8) vermutet jedoch, dass hier etwas Unheimlicheres vor sich geht. Sie behauptet, die Verwendung einer weiblichen Persona sei eine bewusste Entscheidung der Unternehmen, die DVAs entwickeln, um die Bedenken der Nutzer hinsichtlich der Datenerfassung, -nutzung und Privatsphäre zu zerstreuen. In der Tat haben Technologieunternehmen den DVA zur Ware gemacht; er ist selbst ein Objekt des Profits und, was noch wichtiger ist, ein Kanal für zusätzliche Einnahmen durch Zusatzdienste, wie Einzelhandelsverkäufe für Amazon und Software-Abonnements für Apple, Google und Microsoft.

Und Woods mag hier Recht haben. Was den meisten Verbrauchern nicht bewusst ist, ist, dass die Kosten für den Verbraucher viel höher sein können als der Preis von fast 1.000 Dollar für ein neues Apple iPhone. Siri, die vor allem dank ihrer weiblichen, freundlichen Stimme zu einer zuverlässigen Begleiterin geworden ist, hat uns dazu gebracht, dem iPhone in unserer Tasche zu vertrauen. Hinter dem Glas ist jede Eingabe unserer biometrischen Daten, jeder gesprochene Sprachbefehl ein Einfallstor für unsere persönlichen Daten (8). Alexa verfügt inzwischen über 400 „Skills“ (oder Apps), die von Marken wie Nike, Campbell’s und Tide entwickelt wurden und diesen Unternehmen einen Zugang zu den Haushalten der Verbraucher verschaffen.

Unsere Daten sind in der Tat das Kapital – eine Ware, die vom Produkthersteller zu Geld gemacht, an Werbetreibende verkauft und für das weitere Training von KI-Systemen recycelt wird, um sie noch besser zu machen. Intelligente Lautsprecher (Amazon, Google Home und Apple Homepod) zeichnen rund um die Uhr Stimmen im Haus auf und speichern sie, auch wenn der Nutzer das Gerät nicht aktiviert hat. Kürzlich wurde berichtet, dass es sich keineswegs um eine anonyme Datensammlung handelt, sondern um echte Menschen bei Amazon, die die Gespräche über ihre Echo-Geräte abhören. Wie Woods vorschlägt, könnte die Verwendung der weiblichen Persona den Nutzern helfen, sich mit dieser „allgegenwärtigen Überwachung“ wohler zu fühlen. Auch wenn Sie bei Ihren alltäglichen Interaktionen mit Siri vielleicht nicht darüber nachdenken, warum sie als sie geschaffen wurde, oder Sie scherzen mit Ihren Freunden und bezeichnen Alexa als „Schlampe“ (wie es meine Freunde oft tun), sollten Sie vielleicht ein wenig tiefer darüber nachdenken, dass dies nur eine Ablenkung davon ist, wer zuhört und wer Ihre Daten verwendet.

So gibt es also auch Vorteile, wenn unsere DVAs weiblich sind?

Möglicherweise. In der LivePerson-Verbraucherstudie gaben 57,4 % der Befragten an, sie könnten einen berühmten Mann aus der Technologiebranche nennen (Bill Gates, Steve Jobs und Elon Musk gehörten zu den Spitzenreitern), doch von den 4 %, die tatsächlich eine weibliche Führungskraft aus der Technologiebranche nennen konnten, nannte ein Viertel „Alexa“ oder „Siri“. Das ist keineswegs akzeptabel und wirft ein Schlaglicht auf eine Reihe von tieferen Problemen im Zusammenhang mit Sexismus im Technologiebereich, auf die ich in einem anderen Beitrag eingehen werde. Ich kann mich jedoch nicht des Eindrucks erwehren, dass, wenn junge Mädchen und Jungen anfangen, eine weibliche Stimme mit „Technologie“ oder „Wissender aller Informationen“ zu assoziieren, dies keine völlig schlechte Sache sein kann.

****

Der obige Inhalt ist eine Adaption meiner Originalarbeit, „Societal Implications of Gendering AI;“ verfügbar im Volltext unter https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI

1. Pew Research Center. (2017). American Trends Panel. Abgerufen von https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, June 11). Warum die Stimme von Siri jetzt ein Mann (und eine Frau) ist. Huffington Post. Abgerufen von: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Wired for speech: Wie die Stimme die Beziehung zwischen Mensch und Computer aktiviert und vorantreibt. . Retrieved from Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). Are machines gender neutral? Geschlechtsstereotypische Reaktionen auf Computer mit Stimmen. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, Juli 27). Was Geschlechterstereotypen und Sexismus mit Algorithmen und Robotern zu tun haben. Huffington Post. Retrieved from https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). The role of gender in social network organization. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, March 11). Stellen Sie sich vor, Alexa hätte kein Geschlecht – Forscher haben eine Stimme geschaffen, die weder männlich noch weiblich ist. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). Asking more of Siri and Alexa: Feminine persona in service of surveillance capitalism. Critical Studies in Media Communication. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Trust and Gender: Eine Untersuchung von Verhalten und Überzeugungen im Investitionsspiel. Journal of Economic Behavior & Organization. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Geschlechterunterschiede bei Vertrauen und Vertrauenswürdigkeit: Individuals, single sex and mixed sex groups. Journal of Economic Psychology, 34, 181-194.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.