Stack Overflow Didn’t Ask How Bad Its Gender Problem Is This Year
Liuzzo a reconnu «il y a beaucoup de travail à faire pour rendre le domaine du développement logiciel plus diversifié et inclusif, et Stack Overflow a un grand rôle à jouer dans ce travail.» Elle dit que l'organisation a publié un nouveau plus inclusif code de conduite Ces dernières semaines et a révisé le processus de poser des questions sur la plateforme. Elle espère que cela réduira les obstacles à l'entrée, ce qui pourrait historiquement aurait fait échapper aux groupes sous-représentés du site. «Nous reconnaissons qu'il y a beaucoup plus à faire, et nous nous engageons à faire le travail pour que les changements se produisent», dit-elle.
Cependant, c'est un petit réconfort pour Kate Devlin, un lecteur de l'intelligence artificielle et de la société au King's College de Londres. «Il est de notoriété publique que la technologie a un problème de genre», dit-elle. “Si nous voulons sérieusement accroître la diversité de la technologie, alors nous devons savoir à quoi ressemble le paysage.” Devlin souligne qu'il est difficile de mesurer les progrès – ou la régression – sans une base de données.
Quelles que soient les raisons de supprimer les questions clés sur qui utilise la plate-forme, les résultats de l'enquête – ou le manque de leur – Highlight a un problème avec la démographie des utilisateurs de Stack Overflow et un problème plus large entre la technologie: les participants non mâles sont terriblement sous-représentés.
«La suppression du sexe de l'enquête annuelle est une effacement flagrant des problèmes de l'écart entre les sexes qui imprègnent l'industrie de la technologie. Et pire, il supprime un contexte important pour les données qui sont grattées et alimentées dans des modèles de grande langue», explique Catherine Flick, un érudit de la responsabilité sociale et sociale à l'Université De Montfort. «Sans ce contexte, le biais de l'ensemble de données est inconnu, et il est bien documenté que le biais de genre est fréquemment intégré à la technologie, des noms variables pour former des champs à des hypothèses sur les professions, les rôles et les capacités.»
Selon le LE, PLUS DE FEM Fondation des sciences nationales– Bien que la proportion de femmes obtenant des diplômes en informatique de premier cycle ait Lut baissé de près de 20 points de pourcentage Au cours des 40 dernières années. (La part des diplômes de maîtrise en informatique va aux femmes a légèrement augmenté.) Mais même si le pipeline est réparé, le retenue des femmes dans le secteur technologique est difficile. La moitié des femmes qui entrent dans l'industrie d'abandon à l'âge de 35 ans, selon les données d'Accenture.
Le problème devient plus pressant en raison de l'omniprésence de la technologie dans nos vies et de la manière dont l'intelligence artificielle en particulier devrait être intégrée dans tout ce que nous faisons et interagir. Les humains derrière les plates-formes technologiques prennent d'innombrables décisions – Big et Small – sur leurs produits et outils qui peuvent agir au détriment de personnes qui ne leur ressemblent pas.
«Avec le code non AI, vous pouvez le déboguer, obtenir une deuxième paire d'yeux dans une démographie différente et le vérifier de manière assez simple», explique Luccioni. “Mais si vous avez du code d'IA, toutes ces décisions qui ont conduit les données ou l'architecture du modèle, elles sont cuites.”
Prenez les premières versions de Chatgpt: l'outil a fourni des réponses qui suggèrent que son système de croyance a été codé en dur avec l'idée que Les bons scientifiques sont des hommes blancset tout le monde ne l'est pas. Ce problème a été résolu et le PDG d'Openai Sam Altman Interrogé les utilisateurs Pour aider à former le modèle en signalant de telles réponses à l'avenir – les marquer avec un bouton de pouce – mais le problème plus large se perpétue.
«Une partie de l'héritage de ceux qui ont développé et mis en œuvre l'IA au cours des deux dernières décennies est d'être partiellement responsable des étapes inquiétantes en arrière de l'égalité des sexes», explique Carissa Véliz, professeur agrégé à l'Institut d'éthique de l'IA à l'Université d'Oxford.
Véliz s'inquiète que les déséquilibres entre les sexes dans la conception et le codage des principales plateformes – des médias sociaux aux nouveaux outils d'IA génératifs que nous utilisons actuellement – affectant négativement la façon dont les femmes sont traitées par ces plateformes. «De la façon dont les médias sociaux blessent les femmes à l'embauche d'algorithmes offrant plus d'opportunités aux hommes et discriminant les femmes, Tech Bros a ramené une culture toxique qui n'est pas seulement mauvaise pour les femmes, mais pour la société dans son ensemble», dit-elle.
Flick s'inquiète que sans données claires sur qui codage les outils que nous utilisons probablement tous les jours, le biais qui y sera probablement codé est «condamné à être reproduit dans les résultats que le LLM [large language model] produit, en train de bien enraciné. »
Il est impératif que cela change – rapide, en particulier lorsque l'on regarde l'IA. “Jusqu'à ce que cela se produise”, dit Veliz, “il y a peu d'espoir que nous aurons une IA éthique.”