5 сентября 2021 The New York Times | Facebook
Facebook назвал это «недопустимой ошибкой»
Пользователи Facebook, которые недавно смотрели видео из британского таблоида с участием чернокожих, увидели автоматическую подсказку из социальной сети, в которой спрашивалось, хотят ли они «продолжать смотреть видео с приматами». В результате компания провела расследование и отключила функцию искусственного интеллекта.
В пятницу Facebook извинился за то, что назвал «неприемлемой ошибкой», и сказал, что изучает работу функции рекомендаций, чтобы «предотвратить повторение этого».
Видео, датированное 27 июня 2020 года, было опубликовано The Daily Mail и на нем были показаны стычки чернокожих мужчин с белыми гражданскими лицами и полицейскими. По факту видео не имело никакого отношения к обезьянам или приматам.
Дарси Гроувс, бывший менеджер по дизайну контента в социальной сети, сказала, что подруга недавно прислала ей снимок экрана с подобным приглашением смотреть дальше видео с приматами. Затем она разместила его на форуме отзывов о продуктах для нынешних и бывших сотрудников Facebook. В ответ менеджер по продукту Facebook Watch назвал это «неприемлемым» и сказал, что компания «изучает основную причину».
Г-жа Гроувс сказала, что подсказка была «ужасающей и вопиющей».
Дани Левер, пресс-секретарь Facebook, заявила в своем заявлении:
«Как мы уже говорили, хотя мы и внесли улучшения в наш ИИ, мы знаем, что он не идеален, и нам еще предстоит продвинуться вперед. Мы приносим извинения всем, кто, возможно, видел эти оскорбительные рекомендации».
Google, Amazon и другие технологические компании в течение многих лет подвергались тщательной проверке на предмет предвзятости в их системах искусственного интеллекта, особенно в отношении вопросов расы. Исследования показали, что технология распознавания лиц настроена против цветных людей и затрудняет их идентификацию, что приводит к инцидентам, когда чернокожие подвергаются дискриминации или арестам из-за компьютерной ошибки.
В 2015 году Google Фото ошибочно пометил фотографии чернокожих людей как «горилл», за что поисковый гигант извинился и немедленно приступил к устранению проблемы. Более чем через два года Wired обнаружил, что решение Google заключалось в том, чтобы подвергнуть цензуре слово «горилла» в поисковых запросах, а также заблокировать слова «шимпанзе» и «обезьяна».
Facebook имеет один из крупнейших в мире хранилищ загруженных пользователями изображений, на которых можно обучать свои алгоритмы распознавания лиц и объектов. Компания, которая подбирает контент для пользователей на основе их прошлых привычек просмотра и просмотра, иногда спрашивает людей, хотят ли они и дальше видеть сообщения в связанных категориях.
Facebook и Instagram постоянно борются с проблемами, связанными с расой. Например, после июльского чемпионата Европы по футболу трое чернокожих членов национальной сборной Англии по футболу подверглись расовому насилию в социальной сети за пропущенные пенальти в финальном матче чемпионата, где Англия играла в Лондоне на домашнем стадионе.
Расовые вопросы также вызвали внутренние раздоры в Facebook. В 2016 году генеральный директор Марк Цукерберг попросил сотрудников перестать вычеркивать фразу «Black Lives Matter» и заменять ее на «All Lives Matter». Сотни сотрудников также устроили виртуальную забастовку в прошлом году в знак протеста против обработки компанией сообщения президента Дональда Трампа об убийстве Джорджа Флойда в Миннеаполисе.
Позже компания наняла вице-президента по гражданским правам и провела аудит по гражданским правам. В июльском ежегодном отчете о разнообразии Facebook сообщается, что 4,4 процента его сотрудников в США — чернокожие, по сравнению с 3,9 процента годом ранее.
Г-жа Гроувс, которая покинула Facebook летом после четырех лет, заявила в интервью, что в компании допустили ряд ошибок, которые предполагают, что ее лидеры не уделяют особого внимания способам решения расовых проблем.
«Facebook не может продолжать делать эти ошибки, а затем говорить:" Мне очень жаль «, — сказала она.
Пользователи Facebook, которые недавно смотрели видео из британского таблоида с участием чернокожих, увидели автоматическую подсказку из социальной сети, в которой спрашивалось, хотят ли они «продолжать смотреть видео с приматами». В результате компания провела расследование и отключила функцию искусственного интеллекта.
В пятницу Facebook извинился за то, что назвал «неприемлемой ошибкой», и сказал, что изучает работу функции рекомендаций, чтобы «предотвратить повторение этого».
Видео, датированное 27 июня 2020 года, было опубликовано The Daily Mail и на нем были показаны стычки чернокожих мужчин с белыми гражданскими лицами и полицейскими. По факту видео не имело никакого отношения к обезьянам или приматам.
Дарси Гроувс, бывший менеджер по дизайну контента в социальной сети, сказала, что подруга недавно прислала ей снимок экрана с подобным приглашением смотреть дальше видео с приматами. Затем она разместила его на форуме отзывов о продуктах для нынешних и бывших сотрудников Facebook. В ответ менеджер по продукту Facebook Watch назвал это «неприемлемым» и сказал, что компания «изучает основную причину».
Г-жа Гроувс сказала, что подсказка была «ужасающей и вопиющей».
Дани Левер, пресс-секретарь Facebook, заявила в своем заявлении:
«Как мы уже говорили, хотя мы и внесли улучшения в наш ИИ, мы знаем, что он не идеален, и нам еще предстоит продвинуться вперед. Мы приносим извинения всем, кто, возможно, видел эти оскорбительные рекомендации».
Google, Amazon и другие технологические компании в течение многих лет подвергались тщательной проверке на предмет предвзятости в их системах искусственного интеллекта, особенно в отношении вопросов расы. Исследования показали, что технология распознавания лиц настроена против цветных людей и затрудняет их идентификацию, что приводит к инцидентам, когда чернокожие подвергаются дискриминации или арестам из-за компьютерной ошибки.
В 2015 году Google Фото ошибочно пометил фотографии чернокожих людей как «горилл», за что поисковый гигант извинился и немедленно приступил к устранению проблемы. Более чем через два года Wired обнаружил, что решение Google заключалось в том, чтобы подвергнуть цензуре слово «горилла» в поисковых запросах, а также заблокировать слова «шимпанзе» и «обезьяна».
Facebook имеет один из крупнейших в мире хранилищ загруженных пользователями изображений, на которых можно обучать свои алгоритмы распознавания лиц и объектов. Компания, которая подбирает контент для пользователей на основе их прошлых привычек просмотра и просмотра, иногда спрашивает людей, хотят ли они и дальше видеть сообщения в связанных категориях.
Facebook и Instagram постоянно борются с проблемами, связанными с расой. Например, после июльского чемпионата Европы по футболу трое чернокожих членов национальной сборной Англии по футболу подверглись расовому насилию в социальной сети за пропущенные пенальти в финальном матче чемпионата, где Англия играла в Лондоне на домашнем стадионе.
Расовые вопросы также вызвали внутренние раздоры в Facebook. В 2016 году генеральный директор Марк Цукерберг попросил сотрудников перестать вычеркивать фразу «Black Lives Matter» и заменять ее на «All Lives Matter». Сотни сотрудников также устроили виртуальную забастовку в прошлом году в знак протеста против обработки компанией сообщения президента Дональда Трампа об убийстве Джорджа Флойда в Миннеаполисе.
Позже компания наняла вице-президента по гражданским правам и провела аудит по гражданским правам. В июльском ежегодном отчете о разнообразии Facebook сообщается, что 4,4 процента его сотрудников в США — чернокожие, по сравнению с 3,9 процента годом ранее.
Г-жа Гроувс, которая покинула Facebook летом после четырех лет, заявила в интервью, что в компании допустили ряд ошибок, которые предполагают, что ее лидеры не уделяют особого внимания способам решения расовых проблем.
«Facebook не может продолжать делать эти ошибки, а затем говорить:" Мне очень жаль «, — сказала она.
http://www.nytimes.com/ Источник
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба