DALL-E 2, une intelligence artificielle génératrice d'images, fascine le public avec des illustrations impressionnantes. Malgré ses prouesses, cette IA révèle des problèmes de représentation des personnes et des biais acquis lors de son apprentissage.
DALL-E 2, une intelligence artificielle (IA) capable de générer des images, a captivé l'attention du public avec des représentations stupéfiantes de Godzilla dévorant Tokyo et des images photoréalistes d'astronautes chevauchant des chevaux dans l'espace. Ce modèle est la dernière itération d'un algorithme de texte en image, un modèle d'IA qui peut générer des images à partir de descriptions textuelles. OpenAI, la société derrière DALL-E 2, a utilisé un modèle de langage, GPT-3, et un modèle de vision par ordinateur, CLIP, pour former DALL-E 2 en utilisant 650 millions d'images avec des légendes textuelles associées. L'intégration de ces deux modèles a permis à OpenAI de former DALL-E 2 pour générer un vaste éventail d'images dans de nombreux styles différents. Cependant, malgré les réalisations impressionnantes de DALL-E 2, il existe des problèmes significatifs dans la façon dont le modèle représente les personnes et comment il a acquis des biais à partir des données sur lesquelles il a été formé.
Il y a eu des avertissements fréquents et précoces que DALL-E 2 générerait des images racistes et sexistes. La « red team » d'OpenAI, un groupe d'experts externes chargés de tester la sécurité et l'intégrité du modèle, a découvert des biais récurrents dans les créations de DALL-E 2. Les premiers tests de la red team ont montré que le modèle générait de manière disproportionnée des images d'hommes, sursexualisait les femmes et jouait avec les stéréotypes raciaux. Lorsqu'on lui donnait des mots comme « hôtesse de l'air » ou « assistante », le modèle ne générait que des images de femmes, tandis que des termes comme « PDG » et « constructeur » représentaient des hommes. En conséquence, la moitié des chercheurs de la red team ont plaidé pour la diffusion de DALL-E 2 au public sans la possibilité de créer des visages.
Le problème des modèles d'IA discriminatoires précède le développement de DALL-E 2. Des chercheurs externes ont trouvé des problèmes de biais implicite et de stéréotypage dans les modèles utilisés pour former DALL-E 2, et CLIP et GPT-3 ont tous deux généré des textes et des images insensibles. L'une des raisons principales pour lesquelles des modèles comme DALL-E 2, GPT-3 et CLIP ont été trouvés pour construire des stéréotypes nuisibles est que les ensembles de données utilisés pour former ces grands modèles sont intrinsèquement biaisés car ils sont construits sur des données collectées à partir de décisions humaines qui reflètent des inégalités sociétales ou historiques.
Malgré ces préoccupations, OpenAI a récemment annoncé qu'elle commencerait à vendre une version bêta de DALL-E 2 à une liste d'attente d'un million de personnes. La société a annoncé une mise à jour logicielle avant le lancement de la bêta qui a rendu les images de personnes douze fois plus diverses et a proposé qu'elle ajusterait continuellement le modèle pour résoudre les problèmes de biais à mesure que de plus en plus de personnes l'utilisent. Cependant, les critiques ont déclaré que ce changement pourrait avoir des limites.