Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 55

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Учёные объяснили, как гонка вооружений приведёт к «войне в стиле Терминатора»
Среднее время прочтения:

Учёные объяснили, как гонка вооружений приведёт к «войне в стиле Терминатора»

В своём новом докладе специалисты Корнеллского университета рассказали о рисках, связанных со всё более активным внедрением искусственного интеллекта в ядерные вооружения, сообщает Daily Mail. По мнению учёных, машины могут «выйти из-под контроля» и спровоцировать «апокалиптическую войну», так что основные решения в применении ядерного оружия всё-таки лучше оставить за человеком.

Учёные предупреждают, что передача контроля над ядерными вооружениями искусственному интеллекту может закончиться «апокалиптической войной в стиле «Терминатора».

- Salik.biz

В своём новом докладе специалисты американского Корнеллского университета, входящего в Лигу плюща, утверждают: всё больший сдвиг в сторону автоматизации и роботизации может привести к тому, что машины «выйдут из-под контроля» и объявят войну человечеству — прямо как в серии научно-фантастических фильмов «Терминатор» с Арнольдом Шварценеггером.

Как утверждают эксперты, пытаясь «догнать США по военному потенциалу», Россия и Китай начинают чаще полагаться на технологии искусственного интеллекта, которые в перспективе могут представлять ещё даже не известные миру риски. Так, Москва уже начала работу над беспилотной подводной ядерной торпедой «Посейдон», ранее известной как «Статус-6».


Кроме того, страны могут решить активнее задействовать искусственный интеллект в системах раннего оповещения. И здесь, как напоминают учёные, история показывает нам, что риски тоже могут быть велики. Многим известен инцидент 1983 года, когда советский офицер Станислав Петров проигнорировал сигнал системы о запуске американских ракет. Петров понял, что сигнал был ложным и тем самым спас мир от возможной ядерной войны между США и Россией.

Специалисты признают, что в какой-то форме компьютеризация ядерных вооружений может повысить надёжность и стабильность работы таких систем. Искусственный интеллект может собирать данные и осуществлять анализ, которым потом будет пользоваться военное руководство.

«Занимаясь модернизацией ядерных арсеналов, руководство должно стремиться использовать компьютерные системы, чтобы снизить риски случайных происшествий, ложных срабатываний, и увеличивать человеческий контроль над операциями с применением ядерного оружия», — рекомендуют учёные. 

Источник:
Записал:

SALIK

Санкт-Петербург
info
+47
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции.

Поделиться в социальных сетях:


Оцените:
0
155
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на нашу группу в Одноклассниках:   Подписаться



Читайте также