Искусственный интеллект от Apple: Расовые стереотипы в генерации изображений вызывают сомнения

Исследователь и эксперт в области машинного обучения Йохем Гитема обратил внимание на существующую предвзятость в ИИ-генераторе изображений от Apple, связанной с расовыми аспектами. Например, когда он загрузил свою фотографию и попросил изменить её в стиле «баскетбол», нейросеть преобразовала его в чернокожего.

Данный генератор доступен в приложении Playground. В нём пользователи могут выбрать фото человека и задать дополнительные параметры, такие как место, одежда или аксессуары. Если среди предложенных вариантов ничего не подходит, пользователи могут описать желаемое изображение словами.

Кроме того, система фильтрует запросы, исключая возможность генерации насильственных изображений или изображений известных личностей. Стоит также упомянуть, что в Playground можно создавать только изображения в мультипликационном или рисунковом стиле. Это дополнительная мера безопасности от Apple, препятствующая созданию фотореалистичных изображений.

Гитема загрузил свою фотографию и сгенерировал портрет без каких-либо дополнительных параметров. В некоторых случаях исследователь заметил, что модель не всегда корректно распознаёт черты лица, что и приводило к преобразованию его в чернокожего.

После проведения дополнительных экспериментов Гитема обратил внимание на предвзятость нейросети, связывающую некоторые темы с расовой принадлежностью. К примеру, запрос на обработку фотографии с темой «катание на лыжах» приводил к созданию персонажа с белой кожей, а запрос на «баскетбол» — к изображению чернокожего.

Некоторые дополнительные примеры:

Исследователь отметил, что подобное поведение нейросети удалось воспроизвести лишь с одной его фотографией, вероятно, из-за проблем с распознаванием черт лица, вызванных освещением. При этом Гитема уверен, что можно подобрать запросы так, чтобы предвзятость проявлялась и с другими изображениями.