Пятница, 2 декабря 2016 года

Искусственный интеллект проявил «расистские наклонности» при выставлении оценок на конкурсе красоты

Реклама

Первый международный конкурс красоты с алгоритмом в качестве жюри вызвал жаркие споры из-за факторов, определивших победителей.

Предполагалось, что ИИ будет использовать для оценки объективные характеристики, вроде симметричности лица или морщин, сообщает theguardian.com. После того, как о Beauty.AI объявили в этом году, для участия в нем прислали фотографии почти 6000 человек из 100 стран. Они надеялись, что сложные алгоритмы определят, насколько их лица близки к идеалу.

Результаты встревожили разработчиков. Как оказалось, ИИ не нравились люди с темной кожей. Почти все 44 победителя оказались белыми. Небольшая часть призовых мест пришлась на азиатов, а чернокожий финалист был только один. Эти результаты возобновили споры по поводу предвзятости алгоритмов. Ранее подобные дискуссии уже провоцировались такими новинками как чатбот Microsoft Tay, быстро начавший распространять неонацистские взгляды в Твиттере.

Beauty.AI был разработан группой Youth Laboratories при поддержке Microsoft. Алгоритм основывается на большой базе данных фотографий. По словам главы проекта Алекса Жаворонкова, основная причина полученных результатов в том, что она содержала недостаточно снимков меньшинств. Специалисты также предполагают, что у разработчиков могли быть свои предпочтения, которые они отразили в искусственном интеллекте. Это означает, что, несмотря на мнение о нейтральности и объективности алгоритмов, они часто воспроизводят и усиливают существующие предубеждения.

Группы по защите гражданских свобод уже начали высказывать сомнения, что компьютерные правохранительные инструменты прогнозирования, использующие данные для предсказания места осуществления будущих преступлений, полагаются на некорректную статистику, усугубляя расовую предвзятость полиции.

Ошибка в тексте? Выделите ее мышкой! И нажмите: Ctrl + Enter
Обсудить новость и добавить комментарий