In che modo le IA degli altoparlanti intelligenti come Alexa e Siri rafforzano i pregiudizi di genere
L'Unesco esorta le aziende tecnologiche a offrire versioni neutre rispetto al genere dei loro assistenti vocali

HomePod di Apple è alimentato dall'assistente vocale Siri
Justin Sullivan/Getty Images
Secondo un nuovo rapporto delle Nazioni Unite, gli altoparlanti intelligenti alimentati da assistenti vocali di intelligenza artificiale (AI) che suonano femminili stanno rafforzando i pregiudizi di genere.
Una ricerca dell'Unesco (Organizzazione delle Nazioni Unite per l'educazione, la scienza e la cultura) ha scoperto che gli assistenti di intelligenza artificiale come Alexa di Amazon e Siri di Apple perpetuano l'idea che le donne dovrebbero essere sottomesse e tolleranti nei confronti di un trattamento inadeguato, perché i sistemi sono servizievoli e desiderosi di compiacere, Il Daily Telegraph rapporti.
Il rapporto - chiamato I'd arrossirei se potessi, in riferimento a una frase pronunciata da Siri a seguito di un commento sessuale - dice che le aziende tecnologiche che rendono i loro assistenti vocali femminili per impostazione predefinita stanno suggerendo che le donne sono aiutanti docili che possono essere disponibili al tocco di un bottone, aggiunge il giornale.
L'agenzia accusa anche le aziende tecnologiche di non aver costruito adeguate garanzie contro un linguaggio ostile, offensivo e di genere, riferisce Il Verge .
Invece, la maggior parte delle IA risponde ai commenti aggressivi con una battuta astuta, osserva il sito di notizie tecnologiche. Se gli viene chiesto di fare un panino, ad esempio, Siri dice: non posso. Non ho condimenti.
Aziende come Apple e Amazon, composte da team di ingegneri in gran parte maschili, hanno costruito sistemi di intelligenza artificiale che fanno sì che i loro assistenti digitali femminizzati accolgano gli abusi verbali con un flirt 'prendimi se puoi', afferma il rapporto dell'Unesco.
Cosa hanno scoperto altre ricerche?
Il rapporto dell'Unesco cita una serie di studi, tra cui la ricerca della società tecnologica statunitense Robin Labs che suggerisce che almeno il 5% delle interazioni con gli assistenti vocali sia inequivocabilmente sessualmente esplicito.
E l'azienda, che sviluppa assistenti digitali, ritiene che la cifra sarà probabilmente molto più alta a causa delle difficoltà nel rilevare i discorsi sessualmente allusivi, Il guardiano rapporti.
L'agenzia delle Nazioni Unite indica anche uno studio della società di ricerca Gartner, che prevede che le persone avranno più conversazioni con l'assistente vocale nel loro altoparlante intelligente rispetto ai loro coniugi entro il 2020.
Gli assistenti vocali gestiscono già circa un miliardo di attività al mese, dalla riproduzione di canzoni al contatto con i servizi di emergenza.
Sebbene alcuni sistemi consentano agli utenti di cambiare il genere del proprio assistente vocale, la maggior parte attiva ovviamente voci femminili per impostazione predefinita, il BBC rapporti.
Il rapporto dell'Unesco conclude che questo apparente pregiudizio di genere merita urgente attenzione.
In che modo le aziende tecnologiche potrebbero affrontare il problema?
L'Unesco sostiene che le aziende dovrebbero essere obbligate a far annunciare ai loro assistenti vocali che non sono umani quando interagiscono con le persone, riferisce Il Sunday Times .
L'agenzia suggerisce inoltre che gli utenti dovrebbero avere l'opportunità di selezionare il genere del loro assistente vocale quando ottengono un nuovo dispositivo e che dovrebbe essere disponibile un'opzione di genere neutro, aggiunge il giornale.
Inoltre, le aziende tecnologiche dovrebbero programmare gli assistenti vocali per condannare gli abusi verbali o le molestie sessuali con risposte come 'no' o 'non appropriato', afferma l'Unesco.
Le aziende tecnologiche devono ancora rispondere allo studio.