Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 30
18 +

Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

ИИ-алгоритм Facebook перепутал темнокожих мужчин с приматами
Среднее время прочтения:

Источник:
Автор:
Владимир Фетисов
ИИ-алгоритм Facebook перепутал темнокожих мужчин с приматами

Один из роликов в профиле издания The Daily Mail в социальной сети Facebook, в котором присутствовали темнокожие мужчины, был автоматически отмечен как видео с приматами. Пользователи обратили внимание, что соцсеть предлагает «продолжить смотреть видео о приматах», что побудило компанию провести расследование и остановить работу соответствующего алгоритма. Facebook уже принесла извинения, назвав случившееся «недопустимой ошибкой».

Речь идёт о видео, которое появилось в профиле The Daily Mail 27 июня. В нём демонстрируются стычки темнокожих мужчин с белыми гражданскими лицами и полицейскими. Ролик не имеет никакого отношения к приматам. Представители компании провели расследование, по результатам которого функционирование дающего рекомендации ИИ-алгоритма было приостановлено.

- Salik.biz

«Как мы уже говорили, несмотря на то, что мы работаем над улучшением искусственного интеллекта, мы знаем, что он несовершенен и нам ещё предстоит много работы. Мы приносим свои извинения всем, кто мог увидеть эти оскорбительные рекомендации», — прокомментировала данный вопрос пресс-секретарь Facebook Дэни Левер (Dani Lever).

Отметим, что Google, Amazon и другие технологические гиганты уже много лет находятся под пристальным вниманием из-за предвзятости создаваемых ими алгоритмов, особенно в расовых вопросах. Исследования показали, что технология распознавания лиц предвзято относится к темнокожим людям и с трудом идентифицирует их, из-за чего произошло несколько инцидентов, когда темнокожие подвергались дискриминации или беспричинным арестам.

Случаи, подобные нынешнему, случались и ранее. Например, в 2015 году сервис Google Фото пометил несколько снимков с темнокожими людьми как изображения «гориллы», за что Google пришлось приносить извинения. Тогда же было объявлено, что компания будет работать над немедленным устранением проблемы. Более чем через два года было установлено, что Google решила вопрос путём цензурирования слова «горилла» в поисковых запросах, а также частичной блокировкой слов «шимпанзе» и «обезьяна».

Записал:

SALIK

Санкт-Петербург
info
+50
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции. Первоисточник статьи указан в самом начале.

Поделиться в социальных сетях:


Оцените:
+4
869
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на нашу группу в Facebook:   Подписаться