La personalità, il suono della voce e l’uso del linguaggio sembrano essere spunti altrettanto forti per le risposte sociali (3, 4). Il genere ha un significato simile in termini di come gli esseri umani si comportano e interagiscono socialmente con il loro gruppo interno (6), e questo allineamento di genere può spiegare risposte diverse in base al sesso dell’utente umano (4). La personalità può segnalare il genere: Gli archetipi “femminili” sono visti come più amichevoli, aperti ed emotivi, mentre essere dominanti, sicuri e competitivi sono tipicamente visti come tratti “maschili”. La sociologa H. Woods (8) ha evidenziato nel suo studio che sia i creatori che gli utenti dei DVA spesso enfatizzano la “personalità” del DVA ancor più che la tecnologia stessa, o ciò di cui è capace. Nonostante il loro “ruolo” primario di assistente domestico, Alexa è stata anche ritratta come una compagna, custode e co-genitore; Siri come un’amica intima a cui si possono fare domande sul sesso (8). Questi tratti sono intenzionalmente programmati nell’IA, per almeno una ragione per generare fiducia nell’IA (8).

Perché l’IA di genere?

Sebbene sia considerata una moda superata, non molto tempo fa era comune sentire un uomo riferirsi alla sua auto o barca come una “lei”. Questi riferimenti vanno di pari passo con una lunga storia di femminilizzazione delle macchine e della tecnologia sia nella fiction che nella vita reale (Bergen 2016). Il motivo per cui la pratica è diventata fuori moda negli ultimi anni, in favore di un pronome neutro di genere “it”, è probabilmente un’evoluzione culturale dell’era post-femminista verso un mondo ora più sensibile al genere. Infatti, l’AP Styleguide ha recentemente annunciato un’ulteriore progressione sui pronomi di genere, incoraggiando l’uso dei termini they/their/them quando il genere non è identificato (Easton, 2017). E nonostante l’attuale tendenza per i DVA come personaggi femminili, storicamente ci sono molto probabilmente più esempi di macchine personificate maschili che femminili (ad esempio KITT di Knight Rider, la maggior parte dei Transformers, Data di Star Trek, e C3PO e R2D2 di Star Wars).

Quindi una domanda che potreste farvi (se comunque avete letto fin qui!) è: i DVA senza un genere implicito potrebbero avere successo sul mercato? Avrebbero una simpatia e un’adozione simili a quelle di un genere femminile? Bene, un prototipo di voce “senza genere” per i DVA, chiamato “Q”, è stato recentemente annunciato come un tentativo di dialogo provocatorio per incoraggiare le aziende tecnologiche a considerare voci non specifiche per il genere (7). Anche se è solo un prototipo di voce, e non è ancora in uso in nessuna applicazione AI, il comunicato e la copertura mediatica suggeriscono che almeno alcuni stanno chiedendo un dialogo mainstream sulla genderizzazione dei DVA. Ma dato il cablaggio umano per classificare il genere come binario (3), si potrebbe logicamente ipotizzare che ci sarà una certa resistenza da parte degli umani medi nel loro impegno con DVAs neutrali dal punto di vista del genere.

Chiaramente, le complesse questioni di genere nella scienza, nella tecnologia e nell’IA sono quelle che non possono essere risolte semplicemente “de-gendering” IA (o altri oggetti). Gli stereotipi culturali di genere, il design patriarcale della tecnologia e l’uso dell’economia comportamentale nel profitto aziendale sono tutti in gioco qui e ugualmente grandi problemi pelosi ognuno per conto proprio.

Perciò, perché tutti i DVA sono femminili?

Nell’era postmoderna dove il consumismo e i mass media sono prominenti nella società, i DVA sono una forma mainstream di IA in gran parte perché sono accessibili – relativamente economici, facili da trovare e da usare – e quindi resi popolari da milioni di consumatori. La personificazione femminile può effettivamente incoraggiare l’accettazione e l’uso dei DVA, anche nelle parti più personali e intime della vita dei suoi utenti (8). Le personificazioni femminili sono meno minacciose (amichevoli e meno autorevoli) e generalmente considerate più affidabili degli uomini (9). Mentre Nass & Brave nella sua ricerca trova che le voci maschili sono spesso viste come più credibili e generano più fiducia delle voci femminili in certi contesti, la ricerca precedente sulle differenze di genere della fiducia e dell’affidabilità trova che mentre gli uomini sono più fiduciosi, le donne possono essere più affidabili data la loro tendenza ad essere reciproche (10).

Ma Woods (8) suggerisce che c’è qualcosa di più sinistro in corso qui. Lei sostiene che l’uso di un personaggio femminile è una decisione deliberata dai creatori aziendali dei DVA per placare le preoccupazioni degli utenti sulla raccolta dei dati, l’uso e la privacy. Infatti, le aziende tecnologiche hanno mercificato il DVA; è esso stesso un oggetto di profitto e, cosa più importante, un canale per entrate aggiuntive attraverso servizi aggiuntivi, come le vendite al dettaglio per Amazon e gli abbonamenti software per Apple, Google e Microsoft.

E Woods potrebbe avere un punto qui. Quello che la maggior parte dei consumatori non si rende conto è che il costo per il consumatore può essere molto più grande del prezzo di quasi 1.000 dollari di un nuovo iPhone di Apple. Siri, che è diventata una compagna fidata in gran parte grazie alla sua voce femminile e amichevole, ci ha costretti a fidarci dell’iPhone che abbiamo in tasca. Dietro il vetro, ogni inserimento dei nostri dati biometrici, ogni comando vocale pronunciato, è un accesso ai nostri dati personali (8). Alexa ha ora 400 “abilità” (o app) prodotte da marchi come Nike, Campbell’s e Tide, che danno a queste aziende un canale nelle case dei consumatori.

I nostri dati sono in realtà il capitale – una merce monetizzata dal creatore del prodotto, venduta agli inserzionisti e riciclata per l’ulteriore formazione dei sistemi AI per renderli ancora migliori. Gli altoparlanti intelligenti (Amazon, Google Home, e Apple Homepod) registrano e memorizzano le voci in casa 24/7, anche se il suo utente non ha attivato il dispositivo. Recentemente è stato riferito che non si tratta affatto di una raccolta anonima di dati, ma di persone reali di Amazon che ascoltano le conversazioni attraverso i loro dispositivi Echo. Come propone Woods, l’uso del personaggio femminile può aiutare gli utenti ad essere più a loro agio con questa “sorveglianza onnipresente”. Così, mentre le vostre interazioni quotidiane con Siri potrebbero non spingervi a riflettere sul perché sia stata creata come una lei, o potreste scherzare con i vostri amici e chiamare Alexa “stronza” (come fanno spesso i miei), potrebbe essere opportuno pensare un po’ più profondamente a come questo potrebbe essere una semplice distrazione da chi sta ascoltando, e chi sta usando i vostri dati.

C’è quindi qualche lato positivo nel fatto che i nostri DVA siano femminili? Nello studio sui consumatori di LivePerson, il 57,4% degli intervistati ha detto di poter nominare un uomo famoso nella tecnologia (Bill Gates, Steve Jobs e Elon Musk erano tra le prime scelte), ma del 4% che potrebbe effettivamente nominare un leader femminile nella tecnologia, un quarto di loro ha nominato “Alexa” o “Siri”. In nessun modo questo è accettabile, e mette in evidenza una serie di questioni più profonde sul sessismo nel campo della tecnologia che elaborerò in un altro post. Tuttavia, non posso fare a meno di pensare che se le ragazze e i ragazzi iniziano ad associare una voce femminile alla “tecnologia” o al “conoscitore di tutte le informazioni” – questa non può essere una cosa del tutto negativa.

****

Il contenuto di cui sopra è un adattamento dalla mia tesi originale, “Societal Implications of Gendering AI;” disponibile in testo completo a https://www.researchgate.net/publication/334945581_Societal_Implications_of_Gendering_AI

1. Pew Research Center. (2017). American Trends Panel. Recuperato da https://www.pewresearch.org/american-trends-panel-datasets/

2. Bosker, B. (2013, 11 giugno). Perché la voce di Siri è ora un uomo (e una donna). Huffington Post. Retrieved from: https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html

3. Nass, C. & Brave, S. (2004). Cablato per la parola: Come la voce attiva e fa progredire il rapporto uomo computer. . Retrieved from Amazon.com

4. Nass, C., Moon, Y., & Green, N. (1997). Le macchine sono neutre dal punto di vista del genere? Risposte stereotipiche di genere ai computer con voci. Journal of Applied Social Psychology, 27 (10), 864-876. doi: 10.1111/j.1559-1816.1997.tb00275.x

5. Chemaly, S. (2016, 27 luglio). Cosa hanno a che fare gli stereotipi di genere e il sessismo con algoritmi e robot. Huffington Post. Retrieved from https://www.huffingtonpost.com/soraya-chemaly/what-gender-stereotypes-and-sexism-have-to-do-with-algorithms-and-robots_b_7880906.html

6. Psylla I., Sapiezynski P., Mones E., & Lehmann S. (2017). Il ruolo del genere nell’organizzazione delle reti sociali. PLoS ONE 12(12): e0189873. doi10.1371/journal.pone.0189873

7. Salinas, S. (2019, March 11). Immagina se Alexa non avesse un genere – i ricercatori hanno creato una voce che non è né maschile né femminile. CNBC. https://www.cnbc.com/2019/03/11/researchers-make-q-genderless-voice-for-personal-assistants-like-alexa.html

8. Woods, H. (2018). Chiedere di più a Siri e Alexa: Persona femminile al servizio del capitalismo di sorveglianza. Studi critici sulla comunicazione dei media. 35(4), 334-349. doi:10.1080/15295036.2018.1488082

9. Buchan, N., Croson, R., & Solnick, S. (2008). Fiducia e genere: Un esame del comportamento e delle credenze nel gioco degli investimenti. Journal of Economic Behavior & Organization. 68. 466-476. doi:10.1016/j.jebo.2007.10.006.

10. Chaudhuri, A., Paichayontvijit, T., & Shen, L. (2013). Differenze di genere nella fiducia e nell’affidabilità: Individui, gruppi di sesso singolo e misto. Journal of Economic Psychology, 34, 181-194.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.