Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 96

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Искусственному интеллекту отказали в появлении на самолетах
Среднее время прочтения:

Искусственному интеллекту отказали в появлении на самолетах

Искусственный интеллект в ближайшем будущем не может быть встроен в бортовое оборудование пассажирских самолетов. К такому выводу, как пишет Aviation Week, пришли специалисты Французского аэрокосмического исследовательского центра (ONERA) и компании Thales. По мнению специалистов, современные системы с элементами искусственного интеллекта учатся на больших объемах данных, и по этой причине при возникновении каких-либо ошибок в их работе найти причину сбоя обычно невозможно. Кроме того, умные системы не имеют функции объяснения того или иного принятого ими решения.

Одним из основных требований к безопасности авиационного транспорта являются воспроизводимость ошибок и детальное понимание алгоритмов работы тех или иных систем. Например, на большинстве современных пассажирских самолетов стоят системы предупреждения столкновений в воздухе второго поколения. Они постоянно сканируют пространство перед самолетом и при обнаружении по курсу другого летательного аппарата дают пилотам соответствующее предупреждение, а также указания, какие именно действия надо совершить, чтобы избежать столкновения.

Находящиеся рядом системы предупреждения столкновений в воздухе при первом обнаружении друг друга обменяются данными и сформируют каждая свое указание пилотам. Если в одном самолете такая система даст указание подняться выше, то в другом будет отдана команда снизить высоту. В случае сбоя одной из систем, техники впоследствии смогут найти ошибку, воспроизвести ее и устранить. Поиск ошибки возможен именно благодаря детальному пониманию алгоритмов работы стандартных систем.

По словам Виржини Вьель, директора по информационным системам ONERA, до тех пор, пока у разработчиков не будет четкого понимания, как именно системы искусственного интеллекта принимают решения и почему конкретно эти решения ими принимаются, ни о какой сертификации для их использования на пассажирских самолетах речи идти не может. По оценке ONERA, положительных подвижек в этой области не будет по крайней мере ближайшие десять лет.


По оценке главного технического директора компании Thales Марко Эрмана, первые результаты по созданию интеллектуальных систем, способных объяснять свои решения, могут появиться в 2021 году. Однако это не означает, что подобные системы попадут на пассажирские самолеты. При этом исследования в области систем искусственного интеллекта для самолетов активно ведутся. Предполагается, что такие системы в отдаленной перспективе позволят справиться с дефицитом летчиков, повысить безопасность перелетов и снизить нагрузку на пилотов.

В конце августа 2018 года Агентство перспективных оборонных разработок (DARPA) министерства обороны США заказало американской компании Raytheon разработку нейросети, способной объяснить, почему она в ходе своей работы приняла то или иное решение. Наработки по проекту будут использованы в рамках более масштабного проекта по созданию боевых подразделений «человек — робот». Проект создания смешанных подразделений подразумевает, что в них люди и роботы будут действовать совместно как напарники.

В DARPA полагают, что для эффективного взаимодействия солдат и роботов в бою важно, чтобы люди доверяли своим электронным напарникам. Уровень доверия можно будет повысить, если роботы смогут объяснять людям, почему они принимают то или иное решение. Проект нейросети, способной объясниться с человеком, получил обозначение XAI (Explainable Artificial Intelligence, объяснимый искусственный интеллект). Он предполагает создание нейросети, не уступающей в быстродействии обычным нейронным сетям, но способной показать всю цепочку анализа, на основании которого она приняла конкретное решение.

- Salik.biz

Василий Сычёв

Источник:
Записал:

SALIK

Санкт-Петербург
info
+45
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции.

Поделиться в социальных сетях:


Оцените статью:
143
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Наш чат ВКонтакте:   Войти в чат



Высший разум рекомендует
Пишут в блогах
Смотрите видео