Assistenti virtuali e stereotipi di genere, abbiamo un problema

La maggior parte degli assistenti virtuali ha nomi femminili per impostazione predefinita. Siri di Apple e Alexa di Amazon sono solo un piccolo esempio di tecnologia con voci femminili e uno stile sottomesso o addirittura civettuolo.

Secondo un nuovo rapporto pubblicato dall’Unesco questo comporta la codifica all’interno di prodotti tecnologici degli squilibri di genere.
Il rapporto prende in prestito il suo titolo – I’d Blush if I Could – da una risposta standard fornita dall’assistente vocale Siri quando un utente lanciava un’esplicita imprecazione di genere.
Il mondo deve prestare molta più attenzione a come, quando e se le tecnologie IA sono divise per genere e, soprattutto, chi le elabora“, ha affermato Saniye Gulser Corat, direttore Unesco per l’uguaglianza di genere, in una dichiarazione. Una riflessione particolarmente preoccupante è rappresentata dalle “risposte devianti, poco brillanti o apologetiche” che questi assistenti danno agli insulti.

In modo automatico ed estremamente subdolo, infatti, questi (o queste?) assistenti virtuali riflettono, rinforzano e diffondono i pregiudizi di genere. Rappresentano un modello di tolleranza delle molestie sessuali e dell’abuso verbale e inviano messaggi espliciti e impliciti su come le donne e le ragazze dovrebbero rispondere alle richieste ed esprimersi. Infine, rendono le donne rappresentazione di errori che derivano esclusivamente dai limiti dell’hardware e del software (progettati prevalentemente dagli uomini).

Nel momento in cui questi assistenti virtuali diventeranno lo standard nelle case di tutto il mondo, il loro impatto sulla società sarà globale e le loro impostazioni rischiano seriamente di influenzare le interazioni con le donne reali, avverte il rapporto. “Più la cultura insegna alle persone ad equiparare le donne con gli assistenti, più le donne vere saranno viste come assistenti e penalizzate per non essere assistenti” sottolinea.

Ma il rapporto non si limita a sottolineare una situazione e descriverla, si spinge anche a fornire ben 18 raccomandazioni per quanto riguarda la parità di genere all’interno delle tecnologie di AI, e consiglia alle aziende e ai governi, tra l’altro di:
– smettere di impostare con voce femminile gli assistenti virtuali di default
– esplorare la possibilità di progettare una macchina che sia di genere neutrale, né maschile né femminile, per quanto riguarda la realizzazione di assistenti virtuali
– programmare gli assistenti digitali per scoraggiare gli insulti di genere e il linguaggio offensivo
Ma, soprattutto, di sviluppare le competenze tecniche avanzate di donne e ragazze in tutto il mondo in modo che possano guidare la creazione di tecnologie di frontiera accanto agli uomini.

Apple e Google? Non hanno voluto rilasciare dichiarazioni.

Advertisements

1 Comment

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.