DALL-E 2, искусственный интеллект для генерации изображений, поражает воображение, но не без проблем. Присоединяйтесь к нашему обсуждению о потенциале этой технологии и о борьбе с предвзятостью в квантовых вычислениях.
DALL-E 2, искусственный интеллект (AI) для генерации изображений, поразил общественность своими потрясающими изображениями Годзиллы, поедающей Токио, и фотореалистичными изображениями астронавтов, верхом на лошадях в космосе. Эта модель – последняя версия алгоритма текст-в-изображение, AI, который способен генерировать изображения на основе текстовых описаний. Однако, несмотря на ошеломляющие достижения DALL-E 2, существуют серьезные проблемы в том, как модель представляет людей и какие предубеждения она приобретает на основе данных, на которых ее обучили.
Существующие проблемы с DALL-E 2 связаны с тем, что модель часто генерирует расистские и сексистские изображения. Все это указывает на то, что дискриминация в AI-моделях предшествует разработке DALL-E 2. Основная причина возникновения вредных стереотипов в моделях, таких как DALL-E 2, GPT-3 и CLIP, заключается в том, что используемые для их обучения наборы данных сами по себе предвзяты, так как они основаны на данных, собранных на основе человеческих решений, отражающих общественные или исторические неравенства.
Несмотря на подобные опасения, компания OpenAI недавно объявила о начале продажи бета-версии DALL-E 2 миллиону людей из списка ожидания. OpenAI также выпустила обновление программного обеспечения перед запуском бета-версии, которое сделало изображения людей в 12 раз более разнообразными, и предложила постоянно корректировать модель для устранения предубеждений по мере того, как ее будут использовать все больше людей. Тем не менее, критики заявляют, что эти изменения могут быть недостаточными, и отношение к предвзятости в квантовых вычислениях должно быть более серьезным.