Facebook извинился за искусственный интеллект, который отнес чернокожих мужчин к «приматам» | ProFinance.Ru

Facebook извинился зa искусствeнный интeллeкт, кoтoрый oтнeс чeрнoкoжиx мужчин к «примaтaм»

FIG.1

В пятницу, 3 сeнтября, Facebook извинился за неправильный термин к видео и заявил, что изучает свою функцию рекомендаций, чтобы “предотвратить повторение этого” . Jim Wilson/The New York Times

Пользователи Facebook, которые недавно смотрели видео из   британского таблоида с   участием чернокожих, увидели автоматическую подсказку из   социальной сети, в   которой спрашивалось, хотят   ли они «продолжать смотреть видео с   приматами». В   результате компания провела расследование и   отключила функцию искусственного интеллекта.

В   пятницу Facebook извинился за   то, что назвал «неприемлемой ошибкой», и   сказал, что изучает работу функции рекомендаций, чтобы «предотвратить повторение этого».

Видео, датированное 27 июня 2020 года, было опубликовано The Daily Mail и   на   нем были показаны стычки чернокожих мужчин с   белыми гражданскими лицами и   полицейскими. По   факту видео не   имело никакого отношения к   обезьянам или приматам.

Дарси Гроувс, бывший менеджер по   дизайну контента в   социальной сети, сказала, что подруга недавно прислала ей   снимок экрана с   подобным приглашением смотреть дальше видео с   приматами. Затем она разместила его на   форуме отзывов о   продуктах для нынешних и   бывших сотрудников Facebook. В   ответ менеджер по   продукту Facebook Watch назвал это «неприемлемым» и   сказал, что компания «изучает основную причину».

Г-жа Гроувс сказала, что подсказка была «ужасающей и   вопиющей».

Дани Левер, пресс-секретарь Facebook, заявила в   своем заявлении:

«Как мы   уже говорили, хотя мы   и   внесли улучшения в   наш ИИ, мы   знаем, что он   не   идеален, и   нам еще предстоит продвинуться вперед. Мы   приносим извинения всем, кто, возможно, видел эти оскорбительные рекомендации».

Google, Amazon и   другие технологические компании в   течение многих лет подвергались тщательной проверке на   предмет предвзятости в   их   системах искусственного интеллекта, особенно в   отношении вопросов расы. Исследования показали, что технология распознавания лиц настроена против цветных людей и   затрудняет их   идентификацию, что приводит к   инцидентам, когда чернокожие подвергаются дискриминации или арестам из-за компьютерной ошибки.

В   2015 году Google Фото ошибочно пометил фотографии чернокожих людей как «горилл», за   что поисковый гигант извинился и   немедленно приступил к   устранению проблемы. Более чем через два года Wired обнаружил, что решение Google заключалось в   том, чтобы подвергнуть цензуре слово «горилла» в   поисковых запросах, а   также заблокировать слова «шимпанзе» и   «обезьяна».

Facebook имеет один из   крупнейших в   мире хранилищ загруженных пользователями изображений, на   которых можно обучать свои алгоритмы распознавания лиц и   объектов. Компания, которая подбирает контент для пользователей на   основе их   прошлых привычек просмотра и   просмотра, иногда спрашивает людей, хотят   ли они и   дальше видеть сообщения в   связанных категориях.

Facebook и   Instagram постоянно борются с   проблемами, связанными с   расой. Например, после июльского чемпионата Европы по   футболу трое чернокожих членов национальной сборной Англии по   футболу подверглись расовому насилию в   социальной сети за   пропущенные пенальти в   финальном матче чемпионата, где Англия играла в   Лондоне на   домашнем стадионе.

Расовые вопросы также вызвали внутренние раздоры в   Facebook. В   2016 году генеральный директор Марк Цукерберг попросил сотрудников перестать вычеркивать фразу «Black Lives Matter» и   заменять ее   на   «All Lives Matter». Сотни сотрудников также устроили виртуальную забастовку в   прошлом году в   знак протеста против обработки компанией сообщения президента Дональда Трампа об   убийстве Джорджа Флойда в   Миннеаполисе.

Позже компания наняла вице-президента по   гражданским правам и   провела аудит по   гражданским правам. В   июльском ежегодном отчете о   разнообразии Facebook сообщается, что 4,4 процента его сотрудников в   США   — чернокожие, по   сравнению с   3,9 процента годом ранее.

Г-жа Гроувс, которая покинула Facebook летом после четырех лет, заявила в   интервью, что в   компании допустили ряд ошибок, которые предполагают, что ее   лидеры не   уделяют особого внимания способам решения расовых проблем.

«Facebook не   может продолжать делать эти ошибки, а   затем говорить:» Мне очень жаль «,   — сказала она.

Перевод статьи New York Times

MarketSnapshot   — Новости ProFinance. Ru   и   события рынка в   Telegram

По   теме:

Между Белым домом и Facebook разгорается скандал из-за дезинформации о вакцинах

SEC: инвесторы покупают пустышки вместо акций китайских компаний

Экономисты ведущих банков снижают прогнозы роста экономики Китая

Иностранцы продали рекордный объем китайских акций с   сентября

Bloomberg: власти Китая пытаются успокоить рынок после обвала последних дней

Развивающиеся рынки незаслуженно скучают без инвесторов

Добавить комментарий