«Это неприемлемо» — Facebook о собственном алгоритме, который ошибочно добавил отметку «приматы» к видео с чернокожими мужчинами

0

«Это неприемлемо» — Facebook о собственном алгоритме, который ошибочно добавил отметку «приматы» к видео с чернокожими мужчинами

«Это неприемлемо» — Facebook о собственном алгоритме, который ошибочно добавил отметку «приматы» к видео с чернокожими мужчинами

Facebook извинилась за недавний инцидент, когда ее система ИИ неправильно пометила видео с чернокожими мужчинами меткой «приматы», назвав этот промах «неприемлемой ошибкой»; соцсеть пообещала принять необходимые меры, чтобы такое не повторилось в будущем.

Как сообщает New York Times, пользователи, которые смотрели видео 27 июня, опубликованное британским таблоидом Daily Mail, получили автоматический запрос с вопросом, хотят ли они «продолжать смотреть видео о приматах». В Facebook полностью отключили функцию рекомендаций по темам, как только узнали о ее некорректной работе, сообщил пресс-секретарь компании в прошедшую субботу, 4 сентября.

«Это была явно неприемлемая ошибка.

Как мы уже отмечали, хоть мы внесли некоторые улучшения в нашу систему ИИ, мы знаем, что она далеко не идеальна, и нам еще предстоит много работы. Мы приносим свои извинения всем, кто, возможно, видел эти оскорбительные рекомендации».

из заявления Facebook

Это далеко не первый случай, когда инструменты искусственного интеллекта демонстрируют гендерные или расовые предубеждения, а технологии распознавания лиц чаще всего испытывают сложности с распознаванием представителей небелого населения. И за примерами далеко ходить не нужно — можно вспомнить, как ИИ Google в 2015 году распознал горилл в селфи афроамериканцев, или как роботы-редакторы Microsoft в 2020 году перепутали двух певиц смешанной расы. Что интересно, в прошлом году Facebook взялась проверить собственные алгоритмы, в том числе и те, что используются в Instagram, на расовые предрассудки.

В апреле Федеральная торговая комиссия США предупредила, что инструменты ИИ, демонстрирующие «тревожные» расовые и гендерные предубеждения, могут нарушать законы о защите прав потребителей, если они используются для принятия решений по кредитам, жилищным вопросам или трудоустройству.

В то же время ВОЗ недавно разработала этические принципы использования ИИ в сфере здравоохранения.

ВОЗ разработала этические принципы использования ИИ в сфере здравоохранения