Сразу несколько систем искусственного интеллекта оказались расистами

8
Распознавание лиц

Системы для распознавания реакций человека, его эмоций и душевного состояния, в той или иной форме уже используются в разных крупных компаниях. Например, в IBM и Unilever они помогают проводить тестирование соискателей на разные должности, в Disney искусственный интеллект изучает эмоции зрителей в зале для оценки новых фильмов, продукты от Microsoft показывают реакцию учеников на подачу учебного материала учителем. Но недавно эту сферу потряс серьезный скандал.

Любая система распознавания эмоций состоит из двух модулей. Первый – камера с компьютерным зрением, которая анализирует поведение человека и распознает его жесты и мимику. Вторым модулем выступает профильный ИИ, которые на основе данных о текущих действиях человека и сведений о ситуации должен принять решение, что происходит в его голове. Дать оценку поведению, сделать выводы о склонностях испытуемого, проверить его на соответствие критериям поставленной задачи.

В начале зимы исследователи из Университета Уэйк Форест опубликовали данные о крупном недостатке подобного анализатора эмоций от Microsoft. Эта система при анализе мимики всегда занижала оценки для соискателей с темным цветом кожи. Даже если они искренне улыбались, ИИ ставил ярлык «обманщик», мог существенно снизить оценки умственного развития человека. Словом, демонстрировал почти полный шаблон расовых предрассудков, причем в отношении светлокожих людей этого не происходило.

А теперь, спустя несколько месяцев, схожие проблемы нашлись во многих других системах по распознаванию эмоций и даже образов людей. Алгоритмы сбоят тем чаще, чем более темный оттенок кожи у конкретного человека, вплоть до того, что бортовой ИИ некоторых беспилотных авто не воспринимал темнокожих пешеходов как живых существ. Вряд ли это чья-то масштабная шутка или заговор, скорее, вопрос в подборке данных для обучения ИИ на начальном этапе. И это может оказаться большой проблемой.

Распознавание лиц
Источник — The Guardian
Поделиться
Вконтакте
Комментарии  8
Добавить комментарий
  • Аноним9 марта 2019 в 18:20

    Ой, б***ь, хватит уже этих либеральненьких оправданий. Очевидно же, что темнокожие более склонны к действиям преступного характера, это даже по продуктам их культуры видно. Не знаю, почему так происходит, но факты есть факты. Это не сбой в системе.

    Ответить
  • Тролль89лвл10 марта 2019 в 04:58

    Тостер/кофемолка расист. Жесть.

    Ответить
  • павел10 марта 2019 в 18:48

    Автор статьи расист, ноутбук тоже рассист, Ты этой **йне иди детей бывших рабовладельцев учи, в америке, англии хз где еще.

    Ответить
  • Карел10 марта 2019 в 19:10

    Ой пля фажизм то уже наступил. Вот компьютер лучше знает И давай ипать человека этой куетой!

    Ответить
  • Tsykunov10 марта 2019 в 20:35

    Давайте в конце концов молотком забивать гвозди, а микроскопом микробов рассматривать. При чем тут расизм? Не понимаю.

    Ответить
    • Аноним8 мая 2019 в 01:26

      именно

      Ответить
  • Хех3 июня 2019 в 17:14

    О боги, народ-победитель пишет тонны нацистских и расистских комментов. Ирония.

    Ответить
  • Лол3 июня 2019 в 20:14

    Даже роботы не любят негров.

    Ответить
(без регистрации)
Любопытныйфакт
Когда автомобили только начинали появляться, самой большой проблемой и опасностью для водителей были гвозди, легко прокалывающие шины. Их основным источником были отвалившиеся подковы лошадей. Для сбора металла долгое время использовали специальные машины, снаряжённые большими электромагнитами.
Обновить
СвежиеКомментарии
Аватар

ВойтиРегистрация
Вход
Почта:
Пароль:
Регистрация
Почта:
Имя:
Пароль: