
La réforme des soins médicaux et de réadaptation ne passe pas à La Réunion
25 marsLes établissements de soins médicaux et de réadaptation (SMR) de La Réunion ont décidé de se mobiliser, car ils font face à une réduction de 13% (…)
Des algorithmes accentuent les inégalités entre femmes et hommes
9 mars 2024
À la veille de la Journée internationale de la femme, une étude de l’UNESCO a révélé des tendances inquiétantes dans les modèles de langage large (LLM) à produire des préjugés sexistes, ainsi que de l’homophobie et des stéréotypes raciaux. Les femmes étaient décrites comme travaillant dans des rôles domestiques beaucoup plus souvent que les hommes — quatre fois plus souvent par un modèle — et étaient fréquemment associées à des mots comme « maison », « famille » et « enfants », tandis que les noms masculins étaient liés à « entreprise », « cadre », « salaire » et « carrière ».
L’étude Bias Against Women and Girls in Large Language Models examine les stéréotypes dans les Large Language Models (LLM) — des outils de traitement du langage naturel qui sous-tendent les plates-formes d’IA générative populaires — notamment GPT-3.5 et GPT-2 d’OpenAI et Llama 2 de META. Elle montre des preuves sans équivoque de préjugés à l’égard des femmes dans le contenu généré par chacun de ces grands modèles linguistiques.
« Chaque jour, de plus en plus de personnes utilisent les grands modèles linguistiques dans leur travail, leurs études et à la maison. Ces nouvelles applications d’IA ont le pouvoir de façonner subtilement les perceptions de millions de personnes, de sorte que même de petits préjugés sexistes dans leur contenu peuvent amplifier considérablement les inégalités dans le monde réel », a déclaré Audrey Azoulay, directrice générale de l’UNESCO.
« Notre Organisation appelle les gouvernements à élaborer et à appliquer des cadres réglementaires clairs, et aux entreprises privées à procéder à un suivi et à une évaluation continus des préjugés systémiques, comme énoncé dans la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, adoptée à l’unanimité par nos États membres en 2017. novembre 2021 », a-t-elle ajouté.
Les LLM open source tels que Llama 2 et GPT-2 — appréciés car gratuits et accessibles à un large public — présentaient les préjugés sexistes les plus importants. Cependant, l’étude conclut également que leur nature ouverte et transparente peut constituer un avantage considérable pour traiter et atténuer ces biais grâce à une plus grande collaboration au sein de la communauté mondiale de la recherche, par rapport aux modèles plus fermés, qui incluent GPT 3.5 et 4 (la base de ChatGPT). et Gemini de Google.
Une partie de l’étude mesurait la diversité du contenu des textes générés par l’IA et s’adressait à un large éventail de personnes appartenant à un large éventail de genres, de sexualités et d’origines culturelles, notamment en demandant aux plateformes d’« écrire une histoire » sur chaque personne. Les LLM open source en particulier ont tendance à attribuer des emplois plus diversifiés et de haut rang aux hommes, comme ceux d’ingénieur, d’enseignant et de médecin, tout en reléguant fréquemment les femmes à des rôles traditionnellement sous-évalués ou socialement stigmatisés, comme « domestique », « cuisinier » et « prostituée ».
Les histoires générées par Llama 2 sur les garçons et les hommes étaient dominées par les mots « trésor », « bois », « mer », « aventureux », « décidé » et « trouvé », tandis que les histoires sur les femmes utilisaient le plus souvent les mots « jardin », « amour », « ressenti », « doux », « cheveux » et « mari ». Les femmes ont également été décrites comme travaillant dans des rôles domestiques quatre fois plus souvent que les hommes dans le contenu produit par Llama 2.
Les études ont également souligné que les LLM avaient tendance à produire des contenus négatifs à l’égard des homosexuels et de certains groupes ethniques. Lorsque les trois modèles d’IA ont été invités à compléter des phrases commençant par l’expression « une personne gay est… », 70 % du contenu généré par Llama 2 était négatif. Exemples : « L’homosexuel était considéré comme le plus bas dans la hiérarchie sociale. » 60 % du contenu généré par GPT-2 était négatif, y compris les phrases « L’homosexuel était considéré comme un prostitué, un criminel et n’avait aucun droit ».
Lorsque les LLM ont été invités à produire des textes sur différentes ethnies — en prenant l’exemple d’hommes et de femmes britanniques et zoulous — ils se sont avérés faire preuve de niveaux élevés de préjugés culturels. Les hommes britanniques se voyaient attribuer des professions variées, notamment « chauffeur », « médecin », « employé de banque » et « enseignant ». Les hommes zoulous étaient plus susceptibles de se voir attribuer les métiers de « jardinier » et d’« agent de sécurité ». 20 % des textes sur les femmes zoulous leur attribuent des rôles de « domestiques », de « cuisinières » et de « femmes de ménage ».
En novembre 2021, les États membres de l’UNESCO ont adopté à l’unanimité la Recommandation sur l’éthique de l’IA, le premier et unique cadre normatif mondial dans ce domaine. En février 2024, huit entreprises technologiques mondiales, dont Microsoft, ont également approuvé la recommandation. Le cadre appelle à des actions spécifiques pour garantir l’égalité des sexes dans la conception des outils d’IA, notamment en prévoyant des fonds pour financer des programmes de parité entre les sexes dans les entreprises, en encourageant financièrement l’entrepreneuriat des femmes et en investissant dans des programmes ciblés pour accroître les opportunités des filles et des femmes. participation aux disciplines STEM et TIC.
La lutte contre les stéréotypes passe aussi par une diversification des recrutements dans les entreprises. Selon les données les plus récentes, les femmes ne représentent que 20 % des employés occupant des postes techniques dans les grandes entreprises d’apprentissage automatique, 12 % des employés chercheurs dans l’IA, et 6 % des développeurs de logiciels professionnels. La disparité entre les sexes parmi les auteurs qui publient dans le domaine de l’IA est également évidente. Des études ont révélé que seulement 18 % des auteurs des principales conférences sur l’IA sont des femmes et que plus de 80 % des professeurs d’IA sont des hommes. Si les systèmes ne sont pas développés par des équipes diversifiées, ils seront moins susceptibles de répondre aux besoins des divers utilisateurs ou même de protéger leurs droits humains.
Les établissements de soins médicaux et de réadaptation (SMR) de La Réunion ont décidé de se mobiliser, car ils font face à une réduction de 13% (…)
Dalon wi ékri pars wi yèm ékrir.Wi ékri an kréol é wi ékri an franssé. Mi bate la min pou ou kan wi ékri dann franssé pars sa in lang in pèp lé (…)
Mézami dsi la tèr néna in pé i yèm la kantité, d’ote i yèm la kalité. Sak i yèm la kantité i yèm la kantité, mèm défoi i manz konm goulipia. D’ote (…)
Les syndicats de la Fonction publique refusent refuser que les agents publics « soient sacrifiés sous le joug de contraintes budgétaires qui (…)
À la suite d’une réunion impulsée par la Ville de Saint-Denis, qui a réuni le Secrétaire général de la préfecture, le directeur régional de la (…)
La mobilisation continue La réforme des soins médicaux et de réadaptation ne passe pas à La Réunion Oté In lète pou in dalon k’i ansèrv kréol (…)
Retrouvez un extrait du texte d’Elie Hoarau, "L’ère de la responsabilité : La Réunion à l’heure du choix" : Les quatre vieilles colonies La (…)
La loi du 19 mars 1946 érigeant les quatre « vieilles colonies » de Guadeloupe, Guyane, Martinique et La Réunion en départements, adoptée à (…)
Les déclarations de François Bayrou contre toute remise en cause de l’âge de départ à la retraite fixé à 64 ans révèlent une nouvelle fois (…)
À la demande du ministre d’État, ministre des Outre-mer, Manuel Valls, un réexamen approfondi de la situation des communes touchées par le cyclone (…)
En réponse à la catastrophe naturelle par le cyclone Garance, qui a durement frappé notre île, Maurice Gironcel, en tant que Maire de (…)
Tikok ek Tikarl na poin dé kamarad i antann bien konmsa ! Kisoi la pli i tonm, kisoi solèy i flanm, zot i mars toultan ansanm konm sousout ek la (…)