人格、声の響き、および言語の使用はすべて、社会的反応に対する等しく強い手がかりとなるようです(3、4)。 性別は、人間がどのように行動し、内集団と社会的に相互作用するかという点で同様の意義を持っており(6)、この性別の一致は、人間の使用者の性別に基づく異なる反応を説明する可能性がある(4)。 パーソナリティはジェンダーを信号化することができる。 「女性的」なアーキタイプは、より親しみやすく、オープンで、感情的と見なされ、支配的で、自信があり、競争的であることは一般的に「男性的」な特性と見なされます。 社会学者のH. Woods(8)は、DVAの作成者と使用者の両方が、しばしば技術自体やその能力よりも、DVAの「個性」を強調することを研究で強調した。 アレクサは、家事支援者としての主な「役割」にもかかわらず、コンパニオン、世話人、共同親権者として、シリは、セックスについて質問できる親しい友人として描かれてきた(8)。 これらの特徴は、AI に信頼を与えるという少なくとも 1 つの理由から、意図的に AI にプログラムされています(8)。
Why gender AI at all? こうした言及は、フィクションと現実の両方で機械や技術を女性化した長い歴史に沿ったものです(Bergen 2016)。 近年、このような慣習が廃れ、ジェンダーに中立的な「それ」代名詞が好まれるようになったのは、フェミニスト時代以降、よりジェンダーに敏感な世界に向けた文化の進化であると思われます。 実際、AP Styleguideは最近、性別の代名詞についてさらなる進展を発表し、性別が特定されない場合はthey/their/themという用語を使用するよう奨励しています(Easton, 2017)。 また、DVA を女性のペルソナとする現在の傾向にもかかわらず、歴史的には、男性のペルソナ化したマシンの例は、女性の数よりもかなり多くあります(たとえば、ナイトライダーの KITT、トランスフォーマーのほとんど、スタートレックのデータ、スターウォーズの C3PO や R2D2 など)
では、(とにかくここまで読んだなら!)質問したいのは、性別を暗示しない DVA は市場で成功できるのか、ということかもしれません。 女性向けのものと同じような好感度や採用率が得られるのでしょうか? 最近、「Q」と呼ばれるDVAのための「ジェンダーレス」プロトタイプ音声が発表され、技術企業にジェンダーを特定しない音声の検討を促すための挑発的な対話の試みとなりました(7)。 プロトタイプの音声に過ぎず、まだどのAIアプリケーションでも使われているわけではありませんが、この発表とメディアの報道は、少なくとも一部の人々がDVAのジェンダー化について主流の対話を求めていることを示唆しています。 しかし、人間のジェンダーを二元的に分類するハードワイヤリングを考えると (3)、ジェンダーに中立な DVA との関わりにおいて、平均的な人間から何らかの抵抗があるだろうという仮説を論理的に立てることができます。 文化的なジェンダーの固定観念、家父長的なテクノロジー設計、企業の利益における行動経済学の利用など、すべてがここで作用しており、それぞれ同様に大きな毛深い問題です。
では、なぜ DVA はすべて女性なのでしょうか。
消費主義とマスメディアが社会で顕著なポストモダン時代において、DVA が AIの主流の形態となっているのは、大部分がアクセス可能であること–比較的手頃で見つけやすく、簡単に使える–ゆえに、数百万の消費者によって普及したのだそうです。 女性的な擬人化は、実際に、そのユーザーの生活の最も個人的で親密な部分においてさえ、DVAの受け入れと使用を促進するかもしれない(8)。 女性的なペルソナは、男性よりも威嚇的でなく(親しみやすく、権威的でなく)、一般に信頼できるとみなされます(9)。 Nass & Braveの研究では、特定の文脈では、男性の声はしばしば女性の声よりも信頼できるとみなされ、より多くの信頼を生むことが分かっていますが、信頼と信頼性の性差に関する先行研究では、男性がより信頼する一方で、女性は互恵的である傾向を考えるとより信頼できるかもしれないとされています(10)
しかしWoods(8)はここでもっと邪なことが起こっていることを示唆します。 彼女は、女性的なペルソナの使用は、データの収集、使用、およびプライバシーに関するユーザーの懸念を和らげるために、DVAの企業制作者が意図的に決定したものであると主張している。 実際、テクノロジー企業は DVA を商品化しており、それ自体が利益の対象であり、さらに重要なことに、Amazon の小売販売や Apple、Google、Microsoft のソフトウェア購読などの付加サービスを通じて、追加収入を得る経路にもなっています
Woods にはここで一理あるかもしれません。 ほとんどの消費者が認識していないのは、消費者コストは、新しい Apple iPhone の 1,000 ドル近い価格タグよりもはるかに大きい可能性があるということです。 Siri は、その女性的で親しみやすい声によって、信頼できる仲間になりましたが、私たちはポケットの中の iPhone を信頼せざるを得なくなりました。 ガラスの向こうでは、生体情報の入力、音声コマンドの発話が、個人情報への入り口になっている(8)。 アレクサには現在、ナイキ、キャンベル、タイドなどのブランドが制作した400の「スキル」(またはアプリ)があり、これらの企業は消費者の家庭へのチャンネルを提供しています。
私たちのデータは実際、資本です。製品制作者が収益化し、広告主に販売し、AIシステムをさらに良くするためのトレーニングにリサイクルされる商品なのです。 スマートスピーカー(アマゾン、グーグルホーム、アップルホームポッド)は、そのユーザーがデバイスを起動していなくても、24時間365日、家庭内の声を記録し保存している。 最近では、匿名のデータ収集ではまったくなく、アマゾンの実際の人間がEchoデバイスを通じて会話を聞いていることが報道されました。 ウッズが提案するように、女性のペルソナを使うことで、ユーザーはこの「ユビキタスな監視」をより心地よく感じることができるかもしれません。 したがって、Siri との日常的なやり取りで、なぜ彼女が女性として作られたのかを考えるきっかけにはならないかもしれませんし、友人に冗談を言って Alexa を「ビッチ」と呼ぶかもしれませんが(私もよくそうします)、これは、誰が聞いているか、誰があなたのデータを使用しているかについて、単なる気晴らしかもしれないことをもう少し深く考えた方がよいかもしれません。 LivePerson の消費者調査では、回答者の 57.4% がテクノロジー分野の有名人の名前を挙げることができると答えました (Bill Gates、Steve Jobs、Elon Musk などが上位を占めました)。一方、実際にテクノロジー分野の女性リーダーの名前を挙げることができた 4% のうち、その 4分の1は「アレクサ」または「シリ」の名前を挙げました。 これは決して許されることではなく、テクノロジー分野における性差別をめぐる多くの深い問題を浮き彫りにしています。 しかし、若い女の子や男の子が、女性の声を「テクノロジー」や「すべての情報を知る人」と関連付けるようになるなら、これはまったく悪いことではないと考えざるを得ません。
****
上記の内容は、私のオリジナルの論文「Societal Implications of Gendering AI」(「AIのジェンダー化の社会的意義」)から改編したもので、https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI
1にて全文が公開されています。 ピュー・リサーチ・センター (2017). アメリカン・トレンド・パネル. https://www.pewresearch.org/american-trends-panel-datasets/
2から取得。 Bosker, B. (2013, 6月 11). Siriの声が男性(と女性)になった理由. ハフィントンポスト. Retrieved from: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html
3. Nass, C. & Brave, S. (2004). Wired for speech: 音声はどのように人間とコンピュータの関係を活性化し、進歩させるか。 . Amazon.com
4から取得。 Nass, C., Moon, Y., & Green, N. (1997). 機械は性別に関係なく使えるか? 音声付きコンピュータに対するジェンダー・ステレオタイプ的反応. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x
5. ケマリー,S. (2016, 7月 27). ジェンダー・ステレオタイプと性差別がアルゴリズムやロボットと関係すること。 ハフィントンポスト. 4774>
6から取得。 Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017).より。 社会的ネットワーク構成におけるジェンダーの役割. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873
7. Salinas, S. (2019, 3月 11). アレクサに性別がなかったらと想像してみよう–研究者が男性でも女性でもない声を作り出した。 CNBC https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html
8. ウッズ、H. (2018年). SiriとAlexaにもっと求めること。 監視資本主義に奉仕するフェミニンなペルソナ。 メディアコミュニケーションにおける批判的研究. 35(4), 334-349. doi:10.1080/15295036.2018.1488082
9. Buchan, N., Croson, R., & Solnick, S. (2008). 信頼とジェンダー 投資ゲームにおける行動と信念の検討。 ジャーナル・オブ・エコノミック・ビヘイビア&オーガナイゼーション. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.
10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). 信頼と信用度における性差。 個人、単一性、混合性グループ。 経済心理学研究』34, 181-194.
.