La maggior parte degli assistenti virtuali ha nomi femminili per impostazione predefinita. Siri di Apple e Alexa di Amazon sono solo un piccolo esempio di tecnologia con voci femminili e uno stile sottomesso o addirittura civettuolo.

Secondo un nuovo rapporto pubblicato dall’Unesco questo comporta la codifica all’interno di prodotti tecnologici degli squilibri di genere.
Il rapporto prende in prestito il suo titolo – I’d Blush if I Could – da una risposta standard fornita da Siri quando un utente lanciava un’esplicita imprecazione di genere.
Il mondo deve prestare molta più attenzione a come, quando e se le tecnologie IA sono divise per genere e, soprattutto, chi le elabora“, ha affermato Saniye Gulser Corat, direttore Unesco per l’uguaglianza di genere. Una riflessione particolarmente preoccupante è rappresentata dalle “risposte devianti, poco brillanti o apologetiche” che questi assistenti danno agli insulti.

In modo automatico ed estremamente subdolo, infatti, questi (o queste?) assistenti virtuali riflettono, rinforzano e diffondono i pregiudizi di genere.

Rappresentano un modello di tolleranza delle molestie sessuali e dell’abuso verbale. Inviano messaggi espliciti e impliciti su come le donne e le ragazze dovrebbero rispondere alle richieste ed esprimersi. Infine, rendono le donne rappresentazione di errori che derivano esclusivamente dai limiti dell’hardware e del software (progettati prevalentemente dagli uomini).

Nel momento in cui questi assistenti virtuali diventeranno lo standard nelle case di tutto il mondo, il loro impatto sulla società sarà globale. Le loro impostazioni rischiano seriamente di influenzare le interazioni con le donne reali, avverte il rapporto. “Più la cultura insegna alle persone ad equiparare le donne con gli assistenti, più le donne vere saranno viste come assistenti e penalizzate per non essere assistenti” sottolinea.

Ma il rapporto non si limita a sottolineare una situazione e descriverla, si spinge anche a fornire ben 18 raccomandazioni per quanto riguarda la parità di genere all’interno delle tecnologie di AI.

Consiglia alle aziende e ai governi, tra l’altro di:
– smettere di impostare con voce femminile gli assistenti virtuali di default
– esplorare la possibilità di progettare una macchina che sia di genere neutrale, né maschile né femminile, per quanto riguarda la realizzazione di assistenti virtuali
– programmare gli assistenti digitali per scoraggiare gli insulti di genere e il linguaggio offensivo
Ma, soprattutto, di sviluppare le competenze tecniche avanzate di donne e ragazze in tutto il mondo in modo che possano guidare la creazione di tecnologie di frontiera accanto agli uomini.

Apple e Google? Non hanno voluto rilasciare dichiarazioni.

0 thoughts on “ Assistenti virtuali e stereotipi di genere ”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *