Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Сайт о паранормальных явлениях и уфологии

Паранормальные новости, новости НЛО, аномальные явления


Если Вы стали очевидцем НЛО или любого другого паранормального явления, или у Вас есть история из жизни связанная с необъяснимыми явлениями, то присылайте материал на e-mail: info@salik.biz или регистрируйтесь на сайте и разместите свою историю сами.


Названа главная проблема в создании искусственного разума

Фото:
lechicgeek.boardingarea.com
Названа главная проблема в создании искусственного разума

Специалисты по проблемам искусственного интеллекта Кевин Уорик (Kevin Warwick) и Хюма Шах (Huma Shah) обнаружили серьезную проблему в стандартном тесте Тьюринга. Тест определяет, способен ли искусственный интеллект мыслить подобно человеку. Пресс-релиз о работе британских ученых доступен на сайте TechXplore. Научная статья опубликована в Journal of Experimental & Theoretical Artificial Intelligence.

Кибернетики выяснили, что если машина прибегнет к своеобразному аналогу Пятой поправки (к Конституции США), то есть будет хранить молчание в течение всего теста, то она пройдет испытание. В таком случае искусственный интеллект, который просто-напросто откажется отвечать на вопросы судьи, будет признан мыслящим существом. Однако молчать может любая примитивная машина, которая не обладает интеллектом, поэтому тест Тьюринга при данных условиях перестает работать.

Тест на проверку мыслительных способностей искусственного интеллекта был предложен в 1950 году английским математиком и криптографом Аланом Тьюрингом. По мнению ученого, он является единственной возможностью выяснить, способна ли машина на человеческое мышление. Также известный как «Игра в имитацию» тест предлагает человеку-судье вслепую задавать письменные вопросы двум испытуемым: другому человеку и искусственному интеллекту. По полученным ответам нужно определить, кто из них кто. Если этого сделать не удается, машина признается мыслящей.

Уорик и Шах изучили записи настоящих тестов с конкурса Лебнера, в которых искусственный интеллект отказывался «разговаривать» с судьей. В каждом случае судья не смог определить, с кем он имеет дело — с машиной или с человеком. Испытуемый мог оказаться человеком, который решил не отвечать на вопросы, искусственным интеллектом или машиной, просто неспособной на ответ. В рассмотренных тестах имел место именно третий вариант.

Ученые назвали эту проблему «Пятой поправкой» по аналогии с поправкой к Конституции США, которая гласит, что человек не должен принуждаться к тому, чтобы свидетельствовать против себя.

Конкурс Лебнера является основной платформой для проведения тестов Тьюринга. В нем участвуют разработчики чат-ботов и виртуальных собеседников. Критики конкурса отмечали, что программы, оказавшиеся победителями, создавались таким образом, чтобы специально вводить судей в заблуждение, нарочно совершая орфографические ошибки и прибегая к другим уловкам.

Источник:
0
58
Нет комментариев. Ваш будет первым!
Загрузка...
Читайте еще
Пишут в блогах
Интересное видео
Новые комментарии
Dharm
Это кто сказал? Наверное Фортов президент ран?! , ...
ВладимирЛюди-тени из параллельного мира 2 дня назад
Здравствуйте! Феномен «Люди-тени» — то таинствен...
SALIK
SALIKАнгел или призрак 2 дня назад
Статья об этой фотографии здесь.
SALIK
SALIKБирюзовый НЛО 2 дня назад
Подробнее здесь.
Контакт случится, скорее всего, через 100-200 лет,...
Новая тема: "Некоторые баги и ошибки" в форуме "Технические проблемы"
SALIK » 16:09
1 Ответов
34 Просм.
19:34
Новая тема: "Дневник домового" в форуме "Книги, истории, рассказы"
SALIK » 20:32
0 Ответов
16 Просм.
Новая тема: "Старинные русские ругательства" в форуме "История и древние цивилизации"
SALIK » 20:28
0 Ответов
21 Просм.
Новая тема: "События, праздники, памятные даты" в форуме "Пожелания и предложения"
SALIK » 13:11
2 Ответов
61 Просм.
» Vikk
15:33
Новая тема: "Петр Первый и находчивый солдат" в форуме "История и древние цивилизации"
Givi » 13:49
0 Ответов
36 Просм.