Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 91

Сайт для здравомыслящих и разносторонне развитых людей

Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Искусственный интеллект научился распознавать эмоции. К чему это может привести?
Среднее время прочтения:

Искусственный интеллект научился распознавать эмоции. К чему это может привести?

Развитие искусственного интеллекта в XXI веке идет семимильными шагами: одним из главных его достижений стала возможность распознавания эмоций человека. В своем ежегодном докладе, посвященному развитию ИИ, междисциплинарный исследовательский центр, изучающий социальные последствия искусственного интеллекта AI Now, призвал запретить использование данной технологии в определенных случаях. Как утверждают специалисты, навык ИИ в области распознавания эмоций не должен применяться в решениях, которые оказывают влияние на жизнь людей и общество в целом. Почему же умение роботов отличать эмоции может существенным образом изменить привычную жизнь человечества?

Умение роботов распознавать человеческие эмоции может негативно сказаться на современном обществе.Умение роботов распознавать человеческие эмоции может негативно сказаться на современном обществе.

- Salik.biz


Может ли у робота возникнуть чувство эмпатии?


Алгоритмы компьютерного зрения, которые способны определять те или иные эмоции, существуют на планете уже по меньшей мере пару десятков лет. Данная технология опирается на информацию, полученную в результате машинного обучения — особых алгоритмов, которые обрабатывают данные для наилучшего принятия того или иного решения. Несмотря на все успехи современного роботостроения, способность к воспроизведению этого по-настоящему человеческого навыка все еще является довольно сложной задачей. Специалисты Microsoft отмечают, что распознавание эмоций людей с помощью компьютеров имеет потенциал для создания ряда приложений нового поколения, однако из-за трудностей при их определении, ИИ долгое время показывал ошибочные результаты. Однако новые исследования показывают, что современная техника уже помогает кадровым агентствам оценивать потенциальную производительность труда будущего сотрудника еще на этапе собеседования. Так, анализ видеозаписей проведенных интервью при помощи новейших технологий ведется уже сейчас, позволяя менеджерам получить лучшее представление об эмоциональном состоянии своих подчиненных.

Развитие у ИИ интеллекта может спровоцировать ряд этических и моральных проблем.Развитие у ИИ интеллекта может спровоцировать ряд этических и моральных проблем.

Легкость постоянного мониторинга с помощью ИИ порождает множество проблем, выходящих за рамки этики. В настоящее время существует большое количество вопросов, связанных с конфиденциальностью личной информации, которые могут вызвать негативное отношение общества. С учетом этих этических соображений, применение искусственного интеллекта в повседневной жизни хотя и может помочь при приеме на работу или при процедурах вынесения уголовных приговоров, одновременно может оказаться и ненадежным. Так, если системы изучат предвзятость, польза от ИИ во время проведения собеседований или вынесения приговоров осужденным может быть сведена к минимуму.

В конечном счете, разработчики технологий и общество в целом должны внимательно следить за тем, как информация из систем искусственного интеллекта вводится в процессы принятия решений. Как и любая другая форма интеллекта, искусственные системы могут давать неверные результаты, способные негативным образом отразиться на жизни отдельного индивида или всего общества. Кроме того, современный ИИ отличается значительными техническими трудностями в чтении некоторых эмоций, например, уровня уверенности в себе. В случае, если люди, склонные доверять искусственному интеллекту, будут принимать решения, основываясь на ошибочном мнении ИИ, у общества могут возникнуть очень большие проблемы, которые можно будет предотвратить лишь при проектировании в этих системах таких качеств, как справедливость, прозрачность и этика. Иными словами, прежде чем умные системы обучатся правильному распознаванию эмоций, ученым придется сперва немало потрудиться над созданием норм морали для искусственного интеллекта.

Рекламное видео:


Автор: Дарья Елецкая

Источник:
Записал:

SALIK

Санкт-Петербург
info
+47
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции.

Поделиться в социальных сетях:


Оцените:
+2
94
RSS
инопланитянин
18:25
в ссср этим занимались в кружках юных техников
(персептрон марсианин уже мог различать более
7-8 «знаков»)
инопланитянин
18:33
(привисти это может к войне с роботами-если ии
определит количиственное преобладанее плохих
эмоций, он станет считать плохими то что вызыва
ет«хорошие эмоции»у«меньшей части»землян и…
например, блокирует банковские счета милиар
деров и «перераспределит финансы»
Загрузка...

   Подписывайтесь на нашу страничку в Twetter:   Подписаться



Читайте также