Gli assistenti vocali rafforzano gli stereotipi di genere

Studio, voci femminili restituiscono immagine di donna sottomessa

Le voci femminili preimpostate per gli assistenti vocali - Siri di Apple, Alexa di Amazon e Cortana di Microsoft, ma anche Google Assistente nella versione originale in lingua inglese - rafforzano gli stereotipi di genere. A dirlo è una ricerca pubblicata dall'Unesco, secondo cui le risposte spesso sottomesse o civettuole che vengono date dagli assistenti vocali anche a domande inopportune, volgari o allusive restituiscono l'immagine di una donna servile e remissiva.

Lo studio si intitola "I'd blush if I could", "Arrossirei se solo potessi", che è la risposta fornita fino a qualche tempo fa da Siri a chi la insultava dandole della poco di buono. Attualmente, invece, l'assistente replica: "Non so proprio cosa rispondere".

A sviluppare questi sistemi di intelligenza artificiale sono team composti prevalentemente da uomini (tra i ricercatori in AI, le donne sono solo il 12%), si osserva nell'indagine. I ricercatori evidenziano le potenziali implicazioni negative a lungo termine soprattutto nei bambini, che cresceranno interfacciandosi con gli assistenti vocali.

"Macchine obbedienti e cortesi che fingono di essere donne stanno entrando nelle nostre case, auto e uffici", ha osservato Saniye Gulser Corat, direttrice per l'Uguaglianza di genere all'Unesco. "La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili, e modella il modo in cui le rispondono alle richieste e si esprimono".
   

        RIPRODUZIONE RISERVATA © Copyright ANSA

        Video ANSA