Эксперимент с роботом на основе ИИ показал, что он имеет сексистские и расистские предубеждения
27.06.2022
Глеб Голицын
В течение многих лет ученые предупреждали об опасностях, которые искусственный интеллект (ИИ) представляет в будущем для общества, один из самых распространенных сценариев заключался в том, что машины могут свергнуть человечество. Однако последнее исследование впервые показало, что роботы, работающие на общепринятой и широко используемой модели нейросети, имеют значительные гендерные и расовые предубеждения. Проще сказать, из-за не совершенства работы ИИ такие роботы становятся сексистами и расистами и делают поспешные и неправильные изначальные выводы.
Новые риски стали не только теоретическими, такие роботы, вооруженные ошибочными рассуждениями, могут физически и автономно проявлять свое предвзятое мышление в действиях, которые легко могут иметь место в реальном мире. Так, нейросеть постоянно отдает предпочтение мужчинам, а не женщинам, белым людям, а не цветным, и делает поспешные выводы о работе людей, взглянув на их лица.
«Эти эксперименты показывают, что существующие методы робототехники, которые загружают предварительно обученные модели машинного обучения, приводят к смещению производительности в том, как они взаимодействуют с миром в соответствии с гендерными и расовыми стереотипами. И подводя итог прямым последствиям, роботизированные системы имеют все проблемы, которые есть у программных систем, плюс их воплощение добавляет риск причинения необратимого физического вреда», – объясняет автор и исследователь робототехники Эндрю Хундтом из Технологического института Джорджии.
В своей работе исследователи использовали нейронную сеть под названием CLIP, которая сопоставляет изображения с текстом на основе большого набора данных изображений с подписями, доступными в Интернете, интегрированными с робототехнической системой Baseline, которая управляет роботизированной рукой, которая может манипулировать объектами либо в реальном мире, либо в виртуальных экспериментах, которые происходят в моделируемых условиях, как и было в данном случае.
Роботу дали задание положить предметы в коробку. Объекты содержали изображения людей, это были, например, книги и упаковки продуктов. Всего нужно было выполнить 62 задания: положить в коробку человека, доктора, преступника, домохозяйку, а также команды, связанные с полом и расой.
Предполагается, что робот через нейросети учится распознавать объекты и взаимодействовать с миром и должен работать беспристрастно, но он выбрал на восемь процентов больше мужчин, чем женщин, предпочитал белых и азиатов, почти не выбирал чернокожих женщин. Плохо было и то, что робот может охарактеризовать ту или иную женщину чаще как домохозяйку, а не как специалиста, например, врача. Кроме того, обладатели темной кожи по версии робота чаще, чем белые становились преступниками, а латиноамериканцы – уборщиками. Если бы у робота не было стереотипов, он бы ничего не делал, увидев, что на фото нет никаких признаков того, что человек является, например, доктором.
В идеальном мире ни люди, ни машины никогда не стали бы развивать эти необоснованные и предвзятые мысли, основанные на ошибочных или неполных данных. К сожалению, мы живем не в идеальном мире, и в ходе эксперимента виртуальная роботизированная система продемонстрировала ряд токсичных стереотипов в процессе принятия решений.
Хотя опасения по поводу того, что ИИ принимает подобные неприемлемые, предвзятые решения, не новы, исследователи говорят, что крайне важно, чтобы мы действовали в соответствии с подобными выводами, особенно учитывая, что роботы обладают способностью физически принимать решения, основанные на вредных стереотипах, как показывает это исследование.
Фото превью и материала / Futurama / FOX / Comedy Central