Мы в социальных сетях:



Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Сайт о паранормальных явлениях и уфологии

«Истина где-то рядом»

Мистические тайны Гурджиева. Часть вторая: Гурджиев и Сталин / РГО
-----
Перемещения во времени. Создание богов. Магия / Тот.
-----
Перемещения во времени. Парадигма. Фаза «ГАЙА» / Тот.
-----
Все наши авторы

Если Вы стали очевидцем НЛО или любого другого паранормального явления, или у Вас есть история из жизни связанная с необъяснимыми явлениями, то присылайте материал на e-mail: info@salik.biz или через форму обратной связи, или регистрируйтесь на сайте и разместите свою историю сами на форуме. А так же Вы можете размещать свои статьи (Как разместить статью)

Специалист по нейронаукам рассказывает о будущем со сверхчеловеческим интеллектом

Специалист по нейронаукам рассказывает о будущем со сверхчеловеческим интеллектом

Ждете, когда же будущее уже наступит? А зря, считает ученый и писатель Сэм Харрис.

Появление сверхчеловеческого искусственного интеллекта – это дело времени, считает Сэм Харрис, выпускник Стэнфорда и обладатель докторской степени по нейронауке из Калифорнийского университета в Лос-Анджелесе. Пять книг Харриса стали бестселлерами, по версии New York Times. «Довольно сложно представить, что они не уничтожат нас или не заставят нас уничтожить друг друга», – говорит он.

Как нам к этому подготовиться? По словам Сэма, наше нынешнее отношение к этому вопросу – всеобщая поддержка и ожидание – фатально ошибочны.

«Если мы с вами в чем-то похожи, то вам, скорее всего, тоже будет интересно помечтать об этих вещах. Однако такое отношение в корне ошибочно, потому что это должно вас беспокоить», – отмечает он. Эти фразы – часть его речи об искусственном интеллекте на конференции TED.

«Похоже, мы неспособны адекватно реагировать на все те опасности, что ожидают нас в будущем».


Неизбежность сверхчеловеческого ИИ

По мнению Сэма, если прогрессу человечества не помешает новая мировая война, столкновение Земли с астероидом или еще какая-нибудь неожиданная катастрофа, то сверхчеловеческий искусственный интеллект будет создан. Логика Харриса такова:

1. Нам нравятся умные вещи.

2. Умные вещи полезны, потому что делают жизнь проще. (до определенного момента)

3. Таким образом, пока у нас будет возможность делать вещи умнее, мы будем это делать.

В определенный момент наше умное ПО достигнет такого уровня развития, что сможет самостоятельно создавать еще более умное ПО – и тут нам настанет конец. Стремление к развитию цифрового интеллекта приведет к самовоспроизведению, а человеческий мозг станет биологическим рудиментом.


Сверхчеловеческий ИИ в ближайшем будущем

Сэм выделяет два наиболее вероятных пути логичного развития сверхчеловеческого ИИ:

1. Независимая эволюция. Этот путь подобен взаимоотношениям людей и муравьев. Вы не ненавидите муравьев. Возможно, вы даже стараетесь не наступать на них, если видите. Они едва могут вам навредить. Однако если они попадутся вам на пути, к примеру, если заберутся к вам в дом, то вы их уничтожите. ИИ может относиться к нам точно так же.

2. Совместная эволюция. Возможно, при помощи мозговых имплантатов (нейропротезов), созданных амбициозными компаниями вроде Kernel, мы сможем объединить сверхчеловеческий разум с нашим собственным. «Скорее всего, для нас это единственный безопасный и целесообразный путь. Однако необходимо принять все меры предосторожности, прежде чем подключать что-то к своей голове», – замечает Харрис.


Искусственный интеллект, вы и я, диапазон разума
Чтобы нам было легче понять, как скоро ИИ станет умнее людей, Сэм предлагает представить кривую, показывающую уровень развития интеллекта. Вот на ней мы с вами. Вот курицы, на пару шагов позади. Далеко ли мы находимся от дальнего предела кривой? Неизвестно. И, возможно, мы не тот биологический вид, которому суждено это узнать.
Харрис уверен в том, что искусственный интеллект в целях оптимизации будет исследовать дальнейшие участки этой кривой с максимально возможной скоростью. «Скорее всего, мы не стоим на вершине развития интеллекта или даже где-то поблизости. Крайне важно это понять, так как это ставит нас в рискованное положение и делает наши неверные представления о риске столь опасными», — считает он.
В речи Сэма не учитывается вероятность того, что мы уже живем в какой-либо симуляции, о чем часто рассуждает Илон Маск. (Илон также опасается неконтролируемого развития ИИ и запустил инициативу OpenAI для решения многих из проблем, о которых говорит Сэм.)
Сэм не пускается в рассуждения о том, что, возможно, совмещение искусственного и человеческого интеллекта – это новый этап нашей эволюции, или о том, что мы превратимся в киборгов, как считает эксперт из Университета Израиля Ювал Ноа Харари.
Кроме того, Харрис не считает, что предотвратить появление сверхчеловеческого искусственного интеллекта возможно – это событие непременно наступит. Но как именно это случится, как мы к этому подготовимся и насколько будем решительны – вопросы, о которых ученый призывает задуматься как можно скорее: «У Стюарта Рассела есть отличная аналогия. Он предлагает представить, что мы получили сообщение от внеземной цивилизации, в котором говорится: «Жители Земли, мы прилетим на вашу планету через 50 лет. Приготовьтесь». Стали бы мы после такого просто считать месяцы и ждать назначенного часа? Мы бы чувствовали необходимость действовать сильнее, чем сейчас».
Алексей Зеньков
Источник:

Поделиться в социальных сетях:


+8
42
Распечатать
RSS
Нет комментариев. Ваш будет первым!
Загрузка...
Читайте еще
Пишут в блогах
Интересное видео