More

    Des assistants d’IA comme Alexa et Siri renforcent les stéréotypes de genre, selon un rapport de l’ONU

    Une étude suggère que les géants de la technologie suppriment les voix féminines comme option par défaut

    "Alexa

    Selon une nouvelle étude des Nations Unies, les assistants intelligents avec des voix féminines contribuent aux stéréotypes sexuels néfastes.

    Le rapport souligne que les assistants numériques, auxquels on donne généralement la voix d’une femme par défaut, sont décrits comme « obligeants et désireux de plaire » – renforçant l’idée que les femmes sont « soumises ». Les résultats, publiés dans un article intitulé Je rougirais si je pouvais – du nom d’une réponse de Siri à une invite d’utilisateur provocatrice – décrivaient également la nature des réponses insultantes de assistants comme « déviants, ternes ou apologétiques ».

    « Des entreprises comme Apple et Amazon, composées d’équipes d’ingénieurs majoritairement masculines, ont construit des systèmes d’IA qui amènent leurs assistantes numériques féminisées à accueillir les abus verbaux avec un flirt d’attrape-moi si tu peux », indique le rapport, tout en appelant les entreprises à mettre un terme aux voix féminines par défaut.

    Bien sûr, ce n’est pas la première fois que la genèse des assistants vocaux fait surface. Comme indiqué en septembre dernier, Amazon a choisi une voix à consonance féminine, car une étude de marché a suggéré qu’elle semblait plus « sympathique ». Cependant, le fait même que l’assistante s’appelle Alexa – un nom très féminin – fait déjà allusion à des stéréotypes de genre.

    Ce n’est pas beaucoup mieux avec Cortana de Microsoft, qui tire son nom du personnage féminin de l’IA Halo à peine vêtu. À l’heure actuelle, vous ne pouvez pas changer la voix de Cortana en une voix masculine, et rien n’indique que vous le ferez de si tôt.

    Siri ? Eh bien, Siri est un nom féminin scandinave qui se traduit généralement par « Belle femme qui vous mène à la victoire » en norrois. Bien que, naturellement, il ait également des significations différentes dans différentes langues.

    Le point ici est que, comme l’indique le rapport, les assistants numériques étant créés par des humains, ils possèdent donc les mêmes stéréotypes que nous. C’est quelque chose que nous avons vu certaines entreprises tenter de s’éloigner – Google, par exemple, représente désormais Assistant par couleur, avec différents accents et options de genre. Ces couleurs sont attribuées au hasard l’un des huit choix pour un utilisateur.

    La solution au problème, selon l’ONU, serait de créer un assistant non sexiste et de décourager les invites insultantes de la part des utilisateurs. L’étude suggère également de traiter l’IA comme un être inférieur et soumis.

    Reste à savoir si l’industrie prend conscience des problèmes liés à la sexospécificité des assistants vocaux avant que les comportements ne deviennent trop enracinés, mais la responsabilité incombe aux plus grandes entreprises de l’industrie de pousser vers une IA neutre qui renforce des attitudes différentes et meilleures. .

    - Advertisement - spot_img