Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 64

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Ученые предложили способ предотвратить конец света из-за роботов в будущем
Среднее время прочтения:

Ученые предложили способ предотвратить конец света из-за роботов в будущем

Многие из людей опасаются восстания роботов в будущем, призывая остановить развитие искусственного интеллекта, чтобы избежать негативного сценария в будущем. Но в индустрии, связанной с развитием робототехники задействовано огромное количество людей и денег, поэтому никто не собирается останавливать развитие подобные технологии. Может ли нам грозить апокалипсис из-за наших созданий и есть ли способ предотвратить восстание машин?

Некоторое время назад в издании Science Alert появилась статья экспертов из мира науки, которые рассказали о разработке специального алгоритма, который поможет предотвратить бесконтрольное поведение роботов с искусственным интеллектом в будущем. Если верить учёным, то роботы просто не смогут причинить вреда человеку из-за данного способа.

- Salik.biz

Сами учёных назвали свой алгоритм селдоновским. Но в чём заключается его смысл? Алгоритмы смогут анализировать недопустимое поведение для машин и максимально будет защищать людей от негативных действий роботов, но в алгоритмах не содержится понятие хорошего и плохого поведения, поэтому далеко не все специалисты верят в защитные функции алгоритмов.

Разработчики новой системы рассказали о действии алгоритма на одном из примеров, который заключается в контроле инсулиновой помпы с помощью автоматизированной системы. Если количество инсулина в крови пациента сокращается до крайне низкого уровня, то алгоритмы подсказывают действия, необходимые для спасения человека.

Некоторое время назад ряд учёных выразил озабоченность, которая связанна с разработкой ядерного оружия на основе искусственного интеллекта. Если такие системы будут самостоятельно принимать решения, то это может стать причиной для апокалипсиса на Земле. Да не стоит забывать о действии хакеров, которые могут взломать такие системы и никакие защитные алгоритмы в этом случае не помогут. Таким образом можно считать, что идеальной защиты от угроз современного мира в области разработки роботов и искусственного интеллекта нет.

Источник:
Записал:

SALIK

Санкт-Петербург
info
+48
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции.

Поделиться в социальных сетях:


Оцените:
+4
162
RSS
инопланитянин
18:15
так еще у булычова упоминается«блок защиты
человека»(реле, выключающее робота при…
«угрозе»)
Загрузка...

   Подписывайтесь на наш канал в YouTube:   Подписаться