La Famiglia Giù Al NordLa Famiglia Giù Al NordLa Famiglia Giù Al NordLa Famiglia Giù Al Nord
On air
La Famiglia Giù Al Nord
Con Sara Calogiuri, Emanuele Carocci, Jennifer Pressman e Luca Viscardi

Gli assistenti vocali rafforzano gli stereotipi di genere

Gli assistenti vocali rafforzano gli stereotipi di genere

Gli assistenti vocali rafforzano gli stereotipi di genere


Studio Unesco, voci femminili restituiscono immagine di donna sottomessa

Le voci femminili preimpostate per gli assistenti vocali - Siri di Apple, Alexa di Amazon e Cortana di Microsoft, ma anche Google Assistente nella versione originale in lingua inglese - rafforzano gli stereotipi di genere. A dirlo è una ricerca pubblicata dall'Unesco, secondo cui le risposte spesso sottomesse o civettuole che vengono date dagli assistenti vocali anche a domande inopportune, volgari o allusive restituiscono l'immagine di una donna servile e remissiva. Lo studio si intitola "I'd blush if I could", "Arrossirei se solo potessi", che è la risposta fornita fino a qualche tempo fa da Siri a chi la insultava dandole della poco di buono. Attualmente, invece, l'assistente replica: "Non so proprio cosa rispondere". A sviluppare questi sistemi di intelligenza artificiale sono team composti prevalentemente da uomini (tra i ricercatori in AI, le donne sono solo il 12%), si osserva nell'indagine. I ricercatori evidenziano le potenziali implicazioni negative a lungo termine soprattutto nei bambini, che cresceranno interfacciandosi con gli assistenti vocali. "Macchine obbedienti e cortesi che fingono di essere donne stanno entrando nelle nostre case, auto e uffici", ha osservato Saniye Gulser Corat, direttrice per l'Uguaglianza di genere all'Unesco. "La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili, e modella il modo in cui le rispondono alle richieste e si esprimono".


Gli ultimi articoli di Redazione Web