29.11.20
18:30
Образование
Искусственный интеллект обвинили в сексизме
Оказалось, что программа при оценке фото мужчин использовала общие критерии, а вот женщин-политиков воспринимала предвзято и делала акцент на их внешности, сообщает издание WIRED.
В службу распознавания лиц были загружены фотографии десяти женщин и десяти мужчин. При этом, описывая изображения представителей сильного пола, программа использовала понятия, связанные с родом деятельности и навыками, а женщин оценивала преимущественно по внешности. В ходе тестирования машинного зрения составлялись аннотации к 20 официальным фотографиям политических деятелей, размещенным в твиттере.
Алгоритм Google отметил мужчин ярлыками «бизнесмен» и «чиновник», а вот женщинам достались критерии, связанные с внешностью, – например, «волосы», «улыбка», «шея». Программа от Amazon была более чем на 99% уверена, что 2 из 10 женщин-сенаторов были либо «девушками», либо «детьми». Искусственный интеллект Microsoft затруднился определить пол по фотографиям женщин. Только 8 из 10 участниц исследования программа назвала женщинами, а двух других – мужчиной и «человеком другого пола».
Ученые считают, что гендерные предрассудки в программе для тренировки алгоритмов зрения ИИ связаны с изображением, как правило, стереотипных ситуаций – например, когда женщина стоит у плиты, а мужчина стреляет из оружия.
«Это результат того, что женщины имеют меньше статусных стереотипов, чем мужчины. Женщины должны всегда хорошо выглядеть, а мужчины – быть бизнес-лидерами», – отмечает участник исследования, научный сотрудник Института социальных наук GESIS им. Лейбница Карстен Швеммер.
Предвзятость машинного разума руководитель исследовательской группы Avast по изучению искусственного интеллекта Хавьер Алдан Юит связывает с моделями обучения искусственного интеллекта на соответствующих человеческих решениях.
«Можно расставлять теги на отзывах в наборах данных и устанавливать одинаковые обязательные категории тегов для всех фотографий людей. Например, одни и те же теги, определяющие внешний вид, должны применяться как к мужчинам, так и к женщинам», – резюмировал эксперт.
Также, по его мнению, повысить объективность ИИ поможет привлечение к созданию алгоритмов более разнообразных групп людей. Так удастся обеспечить многообразие взглядов, обнаружить врожденные предрассудки, а также создать инклюзивный и объективный искусственный интеллект, заключил он.
ЕЩЁ ПО ТЕМЕ
21.04.2416:05
Образование
20.04.2418:32
Образование
20.04.2411:39
Образование
19.04.2414:17
Образование
19.04.2412:56
Образование
17.04.2418:31
Образование