Personalidade, som da voz, e uso da linguagem, todos parecem ser igualmente fortes pistas para respostas sociais (3, 4). O género tem um significado semelhante em termos de como os humanos se comportam e interagem socialmente com o seu grupo (6), e este alinhamento de género pode explicar diferentes respostas baseadas no género do utilizador humano (4). A personalidade pode sinalizar o gênero: Os arquétipos “femininos” são vistos como mais amigáveis, abertos e emocionais, enquanto que ser dominante, confiante e competitivo é tipicamente visto como traços “masculinos”. A socióloga H. Woods (8) destacou em seu estudo que tanto os criadores quanto os usuários de DVAs freqüentemente enfatizam a “personalidade” do DVA ainda mais do que a própria tecnologia, ou do que ela é capaz. Apesar de seu “papel” primário como assistente doméstica, Alexa também tem sido retratada como uma companheira, cuidadora e co-parente; Siri como uma amiga próxima a quem se pode fazer perguntas sobre sexo (8). Essas características são intencionalmente programadas na IA, por pelo menos uma razão para gerar confiança na IA (8).

Por que IA de gênero?

Embora considerada uma moda ultrapassada, não há muito tempo atrás era comum ouvir um homem se referir ao seu carro ou barco como uma “ela”. Estas referências vão junto com uma longa história de feminização de máquinas e tecnologia tanto na ficção como na vida real (Bergen 2016). Por que a prática se tornou fora de moda nos últimos anos, em favor de um pronome ‘it’ neutro de gênero, é provavelmente uma evolução cultural da era pós-feminista para um mundo agora mais sensível ao gênero. Na verdade, o AP Styleguide anunciou recentemente uma maior progressão nos pronomes de gênero, encorajando o uso dos termos “eles/eles/eles” quando o gênero não é identificado (Easton, 2017). E apesar da tendência atual para DVAs como personas femininas, historicamente existem muito possivelmente mais exemplos de máquinas personificadas masculinas do que femininas (por exemplo, KITT do Knight Rider, a maioria dos Transformers, Data from Star Trek, e C3PO e R2D2 do Star Wars).

Então uma pergunta que você pode estar fazendo (se você leu até aqui de qualquer forma!) é: os DVAs sem um gênero implícito poderiam ser bem sucedidos no mercado? Será que eles teriam gostos e adoções semelhantes aos de uma doença feminina? Bem, um protótipo de voz “sem gênero” para DVAs, chamado “Q”, foi recentemente anunciado como uma tentativa de um diálogo provocador para encorajar as empresas de tecnologia a considerar vozes não específicas de gênero (7). Embora apenas um protótipo de voz, e ainda não esteja em uso em nenhuma aplicação de IA, o lançamento e a cobertura da mídia sugerem que pelo menos alguns estão pedindo um diálogo mainstream sobre o gênero dos DVAs. Mas dada a difícil ligação humana para classificar o gênero como binário (3), pode-se logicamente imaginar que haverá alguma resistência da média dos humanos em seu envolvimento com DVAs neutros.

Claramente, as complexas questões de gênero na ciência, tecnologia e IA são aquelas que não podem ser resolvidas simplesmente “de-gendering” IA (ou outros objetos). Estereótipos culturais de gênero, design de tecnologia patriarcal e uso de economia comportamental no lucro corporativo estão em jogo aqui e problemas de cabelo igualmente grandes cada um por si.

Então, porque são todos os DVAs femininos?

Na era pós-moderna onde o consumismo e a mídia de massa são proeminentes na sociedade, os DVAs são uma forma predominante de IA em grande parte porque eles são acessíveis – relativamente acessíveis, fáceis de encontrar e fáceis de usar – e, portanto, tornados populares por milhões de consumidores. A personificação feminina pode realmente encorajar a aceitação e o uso dos DVAs, mesmo nas partes mais pessoais e íntimas da vida de seus usuários (8). As personas femininas são menos ameaçadoras (amigáveis e menos autoritárias) e geralmente consideradas mais confiáveis do que os homens (9). Enquanto Nass & Corajosos em suas pesquisas descobrem que as vozes masculinas são frequentemente vistas como mais confiáveis e geram mais confiança do que as femininas em certos contextos, pesquisas anteriores sobre diferenças de gênero de confiança e confiabilidade descobrem que enquanto os homens são mais confiantes, as mulheres podem ser mais confiáveis dada sua tendência de serem recíprocas (10).

Mas Woods (8) sugere que há algo mais sinistro acontecendo aqui. Ela afirma que o uso de uma persona feminina é uma decisão deliberada dos criadores corporativos de DVAs para amenizar as preocupações dos usuários com a coleta de dados, uso e privacidade. De fato, as empresas de tecnologia comercializaram o DVA; ele mesmo é um objeto de lucro e, mais importante, um canal para receitas adicionais através de serviços adicionais, como vendas a varejo para a Amazon e assinaturas de software para a Apple, Google e Microsoft.

E a Woods pode ter um ponto aqui. O que a maioria dos consumidores não percebe é que o custo para o consumidor pode ser muito maior do que o preço de quase US$ 1.000 em um novo iPhone da Apple. Siri, que se tornou uma companheira de confiança em grande parte devido à sua voz feminina e amigável, nos compeliu a confiar no iPhone no nosso bolso. Atrás do vidro, cada entrada dos nossos dados biométricos, cada comando de voz falado, é uma porta de entrada para os nossos dados pessoais (8). Alexa agora tem 400 “habilidades” (ou aplicativos) produzidos por marcas como Nike, Campbell’s e Tide, que dão a essas empresas um canal para as casas dos consumidores.

Nossos dados são de fato o capital – uma mercadoria monetizada pelo criador do produto, vendida a anunciantes e reciclada para treinamento adicional de sistemas de IA para torná-los ainda melhores. Altifalantes inteligentes (Amazon, Google Home e Apple Homepod) gravam e armazenam vozes em casa 24/7, mesmo que o seu utilizador não tenha activado o dispositivo. Recentemente foi relatado que não é uma coleta anônima de dados, mas pessoas reais na Amazon que estão ouvindo as conversas através de seus aparelhos Echo. Como Woods propõe, o uso do personagem feminino pode ajudar os usuários a se sentirem mais confortáveis com essa “vigilância onipresente”. Então, enquanto suas interações diárias com a Siri podem não te estimular a ponderar porque ela foi criada como uma ela, ou você pode brincar com seus amigos e chamar Alexa de “vadia” (como a minha frequentemente faz), pode ser que seja melhor você pensar um pouco mais profundamente sobre como isso pode ser uma mera distração de quem está ouvindo, e quem está usando seus dados.

Então, há algum lado positivo em nossos DVAs serem femininos?

Maybe. No estudo do consumidor do LivePerson, 57,4% dos entrevistados disseram que poderiam nomear um homem famoso na tecnologia (Bill Gates, Steve Jobs e Elon Musk estavam entre as principais escolhas), mas dos 4% que poderiam nomear uma líder feminina na tecnologia, um quarto daqueles que se chamam “Alexa” ou “Siri”. Isso não é de forma alguma aceitável, e destaca uma série de questões mais profundas em torno do sexismo no campo da tecnologia, que eu irei desenvolver em outro post. No entanto, não posso deixar de pensar que se rapazes e raparigas começam a associar uma voz feminina com “tecnologia” ou “conhecedor de toda a informação” – isto não pode ser uma coisa totalmente má.

****

O conteúdo acima é uma adaptação da minha tese original, “Societal Implications of Gendering AI;” disponível em texto completo em https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI

1. Centro de Pesquisa Pew. (2017). Painel de Tendências Americanas. Recuperado de https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, 11 de junho). Por que a voz de Siri é agora um homem (e uma mulher). Huffington Post. Obtido de: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Com fio para a fala: Como a voz activa e faz avançar a relação entre computadores humanos. . Obtida da Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). As máquinas são neutras em termos de género? Respostas estereotipadas de gênero a computadores com vozes. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, 27 de julho). O que estereótipos de gênero e sexismo têm a ver com algoritmos e robôs. Huffington Post. Obtido de https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). O papel do gênero na organização da rede social. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, 11 de março). Imagine se Alexa não tivesse gênero – os pesquisadores criaram uma voz que não é masculina nem feminina. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). Pedindo mais da Siri e da Alexa: Persona feminina a serviço do capitalismo de vigilância. Estudos Críticos em Comunicação Social. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Confiança e gênero: Um exame do comportamento e crenças no jogo do investimento. Journal of Economic Behavior & Organização. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Diferenças de gênero na confiança e na confiabilidade: Indivíduos, sexo solteiro e grupos de sexo misto. Journal of Economic Psychology, 34, 181-194.

Deixe uma resposta

O seu endereço de email não será publicado.