Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 57

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Стивен Хокинг назвал искусственный интеллект величайшей ошибкой в истории
Среднее время прочтения:

Стивен Хокинг назвал искусственный интеллект величайшей ошибкой в истории
Фото:
Авторство неизвестно

Известный британский физик Стивен Хокинг, в статье, вдохновленной фантастическим фильмом «Превосходство» (Transcendence) с участием Джонни Деппа в главной роли, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.

В статье, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета в Беркли и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, Хокинг указывает на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

- Salik.biz

«Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков», — цитирует британская газета Independent слова Хокинга.

Профессоры пишут, что в будущем может случиться так, что никто и ничто не сможет остановить машины с нечеловеческим интеллектом от самосовершенствования. А это запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В фильме с участием Деппа в этом значении употребляется слово «трансцендентность».


Только представьте себе, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия может оказать на людей искусственный интеллект. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких неприбыльных организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего.

По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

Источник:
Записал:

SALIK

Санкт-Петербург
info
+45
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции.

Поделиться в социальных сетях:


Оцените:
+3
562
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на нашу группу в Facebook:   Подписаться