Google’s ‘Woke’ Image Generator Shows the Limitations of AI

Le troll Internet d'extrême droite Ian Miles Cheong a blâmé toute la situation à Krawczyk, qu'il a qualifié de «idiot obsédé par la race» tout en faisant référence aux postes sur X il y a des années où Krawczyk a reconnu l'existence du racisme systémique et du privilège blanc.

«Nous avons maintenant accordé notre renseignement surhumain dément sur les mensonges», Jordan Peterson a écrit sur son compte X avec un lien vers une histoire sur la situation.

Mais la réalité est que les Gémeaux, ou tout autre système d'IA génératif similaire, ne possèdent pas «intelligence surhumaine», quoi que cela signifie. Si quoi que ce soit, cette situation démontre que le contraire est vrai.

Comme le souligne Marcus, Gemini ne pouvait pas faire la différence entre une demande historique, comme demander à montrer l'équipage d'Apollo 11, et une demande contemporaine, comme demander des images d'astronautes actuels.

Historiquement, les modèles d'IA, y compris les Dall-E d'Openai, ont été en proie à des préjugés, montrant des personnes non blanches lorsqu'on leur a demandé des images de prisonniers, par exemple, ou exclusivement des Blancs lorsqu'ils sont invités à montrer les PDG. Les problèmes de Gemini peuvent ne pas refléter l'inflexibilité des modèles, «mais plutôt une surcompensation en ce qui concerne la représentation de la diversité dans les Gémeaux», explique Sasha Luccioni, chercheuse de la startup de l'IA Hugging Face. “Le biais est vraiment un spectre, et il est vraiment difficile de frapper la bonne note tout en tenant compte des choses comme le contexte historique.”

Lorsqu'ils sont combinés avec les limites des modèles d'IA, cet étalonnage peut aller en particulier. «Les modèles de génération d'images n'ont pas réellement aucune notion de temps», explique Luccioni, «donc essentiellement tout type de techniques de diversification que les créateurs de Gemini appliquaient seraient largement applicables à toute image générée par le modèle. Je pense que c'est ce que nous voyons ici.

Alors que l'industrie de l'IA naissante tente de lutter contre la façon de gérer les préjugés, Luccioni dit que trouver le bon équilibre en termes de représentation et de diversité sera difficile.

“Je ne pense pas qu'il y ait une seule bonne réponse, et un modèle” impartial “n'existe pas”, a déclaré Luccioni. «Différentes entreprises ont pris différentes positions à ce sujet. Cela a vraiment l'air drôle, mais il semble que Google ait adopté un Bridgerton Approche de la génération d'images, et je pense que c'est un peu rafraîchissant. »