Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Сайт о паранормальных явлениях и уфологии

Паранормальные новости, новости НЛО, аномальные явления


Если Вы стали очевидцем НЛО или любого другого паранормального явления, или у Вас есть история из жизни связанная с необъяснимыми явлениями, то присылайте материал на e-mail: info@salik.biz или регистрируйтесь на сайте и разместите свою историю сами.


Google не хочет однажды создать «Скайнет», поэтому создает выключатель для ИИ

Фото:
theverge.com
Google не хочет однажды создать «Скайнет», поэтому создает выключатель для ИИ

В вопросах и рассуждениях о будущем искусственного интеллекта есть две основные противоборствующие стороны. В одном углу находятся такие компании, как Google, Facebook, Amazon и Microsoft, «агрессивно» инвестирующие в развитие технологий, чтобы сделать ИИ-системы умнее, в другом — такие выдающиеся мыслители нашего времени, как Элон Маск и Стивен Хокинг, которые считают, что развитие ИИ сродни «заклинанию по вызову демона».

Одна из самых передовых компаний по разработке ИИ, DeepMind, принадлежащая Google, создала меры безопасности на случай, если человеку потребуется «перехватить управление роботом, чей сбой может привести к непоправимым последствиям». Можно предположить, что речь идет о… «убить всех человеков». Конечно же, в реальности принятая мера не является намеком на возможный апокалипсис, речь идет скорее о мерах безопасности, связанных с умными роботами, которые трудятся и будут трудиться в будущем на различных фабриках и заводах.

Опубликованный документ с предписаниями является совместной работой DeepMind и оксфордского Института будущего человечества, который, как становится ясным из названия, занимается вопросами, которые позволят этому самому человечеству в будущее все-таки попасть. Директор-учредитель института Ник Бостром не одно десятилетние очень ярко высказывался о возможных опасностях развития искусственного интеллекта и написал по этому поводу не одну книгу, в которых обсуждал последствия создания суперумных роботов.

В руководстве, о котором мы говорим сегодня и получившем название «Безопасно отключаемые агенты», исследуется вопрос того, как отключить ИИ, если он начнет делать то, что человеческий оператор совсем не хочет, чтобы это делалось. Работа состоит из различных вычислений и формул, которые, скорее всего, не поймут 99 процентов из нас. Поэтому, если говорить проще, речь идет о «красной кнопке», способной отключить ИИ.

Можете смеяться и удивляться, но пионеры робототехники и ИИ смотрят те же самые научно-фантастические фильмы, что и мы. Те, в которых роботы однажды понимают, как игнорировать команду выключения. Так вот теперь мы к этому будем готовы. Опубликованный документ описывает способы и пути решения, которые позволят убедиться в том, что «обучаемый агент» (читай ИИ) не сможет научиться игнорировать или предотвращать воздействие внешней среды или человека-оператора.

Это может показаться излишним, особенно если учесть, что наиболее продвинутый ИИ сейчас действительно хорош разве что в настольных играх. Однако Бостром считает, что до того момента, как мы начнем создавать ИИ уровня человеческого мозга, необходимо принять соответствующие меры:

«Как только искусственный интеллект достигнет уровня человека, во многих сферах ожидается резкий скачек в развитии. Кроме того, вскоре после этого сами ИИ будут создавать новые ИИ. Только оцените эти перспективы и в то же время возможные опасности. Поэтому лучше перебдеть, чем недобдеть».

НИКОЛАЙ ХИЖНЯК

Источник:
0
107
Нет комментариев. Ваш будет первым!
Загрузка...
Читайте еще
Пишут в блогах
Интересное видео
Новые комментарии
Солидарен с Данилом. Скоро будут не просто ставить...
Автор не в курсе, что Швеция расположена севернее ...
SALIK
SALIKОбновление сайта 2 дня назад
Ну в этот раз кроме фотоальбомов не сильно много о...
SALIK
SALIKОбновление сайта 2 дня назад
Да я вроде починил уже, хотя еще не понятно, пока ...
Givi
GiviОбновление сайта 2 дня назад
У меня не зависает и не тормозит
Новая тема: "Некоторые баги и ошибки" в форуме "Технические проблемы"
SALIK » 16:09
1 Ответов
43 Просм.
19:34
Новая тема: "Дневник домового" в форуме "Книги, истории, рассказы"
SALIK » 20:32
0 Ответов
25 Просм.
Новая тема: "Старинные русские ругательства" в форуме "История и древние цивилизации"
SALIK » 20:28
0 Ответов
34 Просм.
Новая тема: "События, праздники, памятные даты" в форуме "Пожелания и предложения"
SALIK » 13:11
2 Ответов
70 Просм.
» Vikk
15:33
Новая тема: "Петр Первый и находчивый солдат" в форуме "История и древние цивилизации"
Givi » 13:49
0 Ответов
41 Просм.