Женщин оценили по внешности: ИИ заразился сексизмом

В ходе исследований Нью-Йоркского университета удалось выяснить, что искусственный интеллект (ИИ) оценивает мужчин и женщин по-разному, сообщает издание WIRED.

Так, при загрузке фотографий в службу распознавания лиц машина использовала при описании мужчин понятия, связанные с родом деятельности и навыками, а женщин она оценивала преимущественно по внешности.

В рамках эксперимента был проведен тест машинного зрения искусственных интеллектов, созданных такими компаниями, как Google, Microsoft и Amazon. В ходе тестирования службы ИИ должны были составить аннотации к 20 официальным фотографиям политических деятелей, размещенным в Twitter.

На фотографиях были десять женщин и десять мужчин. Все мужчины были помечены алгоритмом Google ярлыками «бизнесмен» и «чиновник», а женщин отметили понятиями, связанными с внешностью, например, «волосы», «улыбка» и «шея».

Сервисы Amazon и Microsoft продемонстрировали менее очевидную предвзятость, хотя программа Amazon сообщила, что более чем на 99% уверена, что две из десяти женщин-сенаторов были либо «девушками», либо «детьми». У службы Microsoft возникли проблемы с определением пола по фотографиям женщин. Так, программа назвала женщинами только восемь из десяти участниц исследования, а двух других она пометила как мужчину и «человека другого пола».

Таким образом, ученые пришли к выводу, что ИИ необъективен и имеет гендерные предрассудки. Это связано в первую очередь с тем, что на фотографиях, используемых для тренировки алгоритмов зрения ИИ, часто изображены стереотипные ситуации, например, когда женщина стоит у плиты, а мужчина стреляет из оружия.

«Это результат того, что женщины имеют меньше статусных стереотипов, чем мужчины. Женщины должны всегда хорошо выглядеть, а мужчины — быть бизнес-лидерами», — говорит научный сотрудник Института социальных наук GESIS им. Лейбница Карстен Швеммер, который участвовал в исследовании.

Руководитель исследовательской группы Avast по изучению искусственного интеллекта Хавьер Алдан Юит в беседе с «Газетой.Ru» пояснил, что модели ИИ часто бывают предвзяты, потому что обучаются на соответствующих человеческих решениях, а люди по своей природе склонны к предрассудкам.

«Причину появления необъективности ИИ стоит искать в данных, которые использовались при обучении системы. Например, в Amazon перестали использовать алгоритм поиска новых сотрудников, заметив, что он отдает предпочтение словам, часто встречающимся в резюме мужчин, таким как «быстро схватывать» и «использовать». Предвзятость также может возникнуть из-за некорректной выборки данных. Так, исследователи заметили, что алгоритмы распознавания лиц некорректно распознают лица людей, относящихся к меньшинствам и мало представленным группам – это происходит из-за того, что в данных для обучения они почти не встречались», — добавил эксперт.

Юит также отметил, что решение проблемы предвзятости ИИ можно решить выборкой обучающих данных.

«Кроме того, можно расставлять теги на отзывах в наборах данных и устанавливать одинаковые обязательные категории тегов для всех фотографий людей. Например, одни и те же теги, определяющие внешний вид, должны применяется как к мужчинам, так и к женщинам», — рассуждает эксперт.

Еще одним из возможных способов обеспечения объективности системы ИИ является привлечение к ее созданию как можно более разнообразных групп людей.

«Если все разработчики системы представляют одну группу, то, скорее всего, эта система будет корректно работать только для этой конкретной группы. Разнообразная группа разработчиков сможет обеспечить многообразие взглядов, обнаружить врожденные предрассудки, а также создать инклюзивный и объективный искусственный интеллект», — заключил эксперт.

– источник: www.Gаzеta.ru

Добавить комментарий

Кнопка «Наверх»