Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 80

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Маск начал крестовый поход с целью остановить Апокалипсис из-за искусственного интеллекта. Часть II
Среднее время прочтения:

Источник:
Маск начал крестовый поход с целью остановить Апокалипсис из-за искусственного интеллекта. Часть II

Часть первая -

IV. Прорыв в истории

- Salik.biz

К Маску и другим, предостерегающим об опасности искусственного интеллекта, иногда относились, как к паникерам. В январе 2016 года Маск получил ежегодную премию «Луддит», учрежденную вашингтонским мозговым центром, занимающимся политикой в области технологий. Однако у него есть и неплохие «помощники». Стивен Хокинг рассказал BBC: «Я думаю, развитие полностью искусственного интеллекта может означать конец человеческого рода». Билл Гейтс рассказал Чарли Роузу (Charlie Rose), что искусственный интеллект потенциально более опасен, чем ядерная катастрофа. Ник Бостром (Nick Bostrom), 43-летний профессор философии из Кембриджа, предупреждал в своей книге 2014 года «Сверхинтеллект», что «как только враждебный сверхинтеллект появится, он не даст нам себя заменить или изменить его параметры. И наша судьба будет определена». В прошлом году Генри Киссинджер (Henry Kissinger) примкнул к тем, кто видит угрозу в искусственном интеллекте, организовав конфиденциальную встречу с лучшими экспертами по этому вопросу в Brook, частном клубе в Манхэттене, чтобы обсудить его беспокойство в связи с тем, как умные роботы могут осуществить прорыв в истории и установить, как функционирует цивилизация.

В январе 2015 года Маск, Бостром и создатели искусственного интеллекта, выступающие с противоположных позиций в споре, собрались в Пуэрто-Рико на конференции под руководством Макса Тегмарка (Max Tegmark), 49-летнего профессора-физика из Массачусетского технического института, руководящего также Институтом будущего жизни в Бостоне.


«У Вас есть дом?, — спросил меня Тегмарк, — Он застрахован от пожара? В Пуэрто-Рико мы пришли к соглашению, что нам нужна страховка от пожара. Когда мы получили огонь и столкнулись с проблемами, мы изобрели огнетушитель. Когда мы получили машины и не смогли с ними сладить, мы изобрели ремень безопасности, подушку безопасности и светофор. Но в случае с ядерным оружием и искусственным интеллектом мы не желаем учиться на собственных ошибках. Мы хотим идти дальше по плану». (Маск напомнил Тегмарку, что такая разумная система безопасности, как ремни в машине, вызвала жесткую оппозицию со стороны автомобильной промышленности).

Маск, запустивший финансирование исследований, связанных с тем, как избежать опасностей с искусственным интеллектом, сказал, что он предоставит Институту будущего жизни «10 миллионов причин» для изучения этой темы, пожертвовав ему 10 миллионов долларов. Тегмарк быстро отдал 1,5 миллиона группе Бострома в Оксфорде, в Институт будущего человечества. Объясняя тогда же, почему так важно действовать «с опережением событий, а не просто реагировать» Маск сказал, что безусловно, можно «прорабатывать те сценарии, где человеческая цивилизация не воскресает».

Спустя полгода после конференции в Пуэрто-Рико Маск, Хокинг, Демис Хассабис, сооснователь Apple Стив Возняк и Стюарт Расселл, преподаватель программирования в Беркли, соавтор стандартного учебника по искусственному интеллекту, а также еще тысяча видных фигур подписали письмо, призывающее к запрету этого опасного автономного оружия. «Через 50 лет эти полтора года окажутся ключевыми для будущего сообщества, занимающегося развитием искусственного интеллекта», — сказал мне Расселл. «Именно тогда сообщество разработчиков искусственного интеллекта наконец очнулось, взяло себя в руки и задумалось о том, что надо предпринять, чтобы сделать будущее лучше». В сентябре прошлого года крупнейшие технологические компании создали Партнерство по искусственному интеллекту, чтобы изучить весь спектр проблем, возникающих в этой области, включая и этические. (Компания Маска OpenAI не замедлила примкнуть к этой инициативе). В то же время Европейский союз занимался юридическими аспектами, возникающими с появлением роботов и искусственного интеллекта: например, обладают ли роботы «личностью» или (как однажды заинтересовался один журналист газеты Financial Times) их можно будет рассматривать скорее, как рабов в Римском праве.

На второй конференции Тегмарка по искусственному интеллекту в январе прошлого года в Центре Асиломар в Калифорнии — выбор пал на него, потому что именно там в 1975 году ученые собрались и пришли к соглашению об ограничении генетических экспериментов — споров возникало уже гораздо меньше. Ларри Пейдж, который не присутствовал на конференции в Пуэрто-Рико, был в Асиломаре, и Маск отметил, что их «разговор уже не был жарким».

Рекламное видео:


Но даже если это было «торжество каминг-аута в области безопасности искусственного интеллекта», как выразился один из гостей (произошли «кардинальные перемены» по сравнению с прошлым годом, как говорит Маск), все равно предстоит еще много работы. «Разумеется, ведущие технологи Кремниевой долины теперь гораздо серьезнее относятся к искусственному интеллекту, после того, как они признали его опасность», — отмечает он. «Я не уверен, что они уже оценили значение этой опасности».

Челвеческий мозг на выставке в Сан-ПаулуЧелвеческий мозг на выставке в Сан-Паулу

Стив Возняк публично задался вопросом, ждет ли его судьба превратиться в домашнего питомца в семье «господ» с высшим разумом. «Мы начали давать нашему псу филе», — рассказал он мне о своем питомце за ланчем с его женой Джанет в Original Hick'ry Pit в Уолнат-Крик. «Как только задумаешься, что ты можешь оказаться на его месте, хочется, чтобы к ним относились именно так».

Он разработал политику умиротворения в отношении роботов и любых носителей искусственного интеллекта. «Почему мы хотим выступить в роли их врагов, когда они могут однажды взять над нами власть?, — говорит он. — Это должны быть партнерские отношения. Все, что мы можем сделать, это обеспечить их сильной культурой, где они видят в людях своих друзей».

Когда я отправилась в стильный офис Питера Тиля в Сан-Франциско, где в интерьере доминируют две огромные шахматные доски, Тиль, один из первых спонсоров компании OpenAI и идейный инвестор, действующий вопреки тенденциям рынка, выразил беспокойство в связи с тем, что противостояние Маска может, на самом деле, ускорить разработку искусственного интеллекта, потому что его апокалиптические пророчества лишь укрепляют интерес к этой области.

«Полномасштабный искусственный интеллект порождает те же вопросы, что и приземление инопланетян», — говорит Тиль. «Возникают очень сложные вопросы… Если вы действительно интересуетесь тем, как мы сделаем искусственный интеллект безопасным, то навряд ли у кого-то будет ответ на этот вопрос. Мы даже не знаем, что такое искусственный интеллект. Очень сложно понять, будет ли он контролируем».

И далее: «Есть какой-то смысл в том, что вопрос об искусственном интеллекте вбирает в себя все человеческие страхи и надежды, связанные с компьютерным веком. Думаю, человеческая интуиция действительно просто дает сбой, когда подходит к этим пределам, потому что мы никогда не сталкивались на этой планете с существами, которые были бы умнее людей ».


V. Жажда слияния

В попытке разобраться, кто же прав относительно искусственного интеллекта, я отправилась в Сан-Матео на встречу с Рэем Курцвейлом за чашкой кофе в ресторане Three. Курцвейл — автор книги «Сингулярность уже близка», где он излагает утопическое видение о будущем искусственного интеллекта. (Когда я упомянула в разговоре с Эндрю Нг о своей предстоящей встрече с Курцвейлом, он закатил глаза: «Когда я читаю „Сингулярность" Курцвейла, мои глаза просто непроизвольно это делают», — сказал он). Курцвейл пришел на встречу с пакетом из магазина здоровой еды Whole Foods, набитым своими книгами и документальными фильмами о нем. На нем были штаны цвета хаки, фланелевая рубашка в красно-зеленую клетку и несколько колец, в том числе, одно, изготовленное на 3D-принтере, с буквой S, обозначающей Вселенную сингулярности.

Компьютеры уже «имеют множество атрибутов мышления», — сказал мне Курцвейл. «Всего несколько лет назад искусственный интеллект не был способен отличить кошку от собаки. А теперь может». Курцвейл неравнодушен к кошкам, в его доме в Северной Калифорнии хранится коллекция из 300 кошачьих статуэток. В ресторане он заказал миндальное молоко, но его не оказалось. 69-летний Курцвейл питается странными здоровыми отварами и принимает по 90 таблеток в день, стремясь достичь бессмертия — или «бесконечных расширений существования файла нашего сознания», что означает слияние с машинами. Он испытывает столь острое стремление к такому единению, что иногда использует местоимение «мы», говоря о сверхинтеллектуальных будущих существах, в отличие от зловещего более зловещего «они», применяемого Маском.

Я упомянула, как Маск говорил, что его удивляет отсутствие всяческих, даже однопроцентных сомнений об опасности наших «детей разума», как их называет эксперт по робототехнике Ганс Моравец (Hans Moravec).



«Это совершенно не так. Именно я завел разговор о возможных рисках», — говорит Курцвейл. «Обещания и риски имеют глубокую взаимосвязь, — продолжает он, — огонь помогал нам хранить тепло, на нем готовилась наша пища, но он сжигал наши дома… Кроме того, существуют стратегии по контролированию рисков, как в случае с нормами по биотехнологиям». Он резюмировал три стадии реакции человека на новые технологии, как «Ух ты!», «Ой-ой-ой» и «Есть ли у нас другие варианты действий, кроме движения вперед?» «Список того, что люди способны делать лучше, чем компьютеры, становится все короче и короче», — говорит он. «Но мы создаем эти инструменты, чтобы расширить наши возможности».

Точно так же, как 200 миллионов лет назад у мозга млекопитающих появилась гомогенетическая кора, давшая впоследствии людям возможность «изобрести язык, науку, искусство и технологии», к 2030 году, по предсказаниям Курцвейла, мы станем киборгами с наноботами размером с клетки крови, связывающими нас с синтетическими неокортексами в облаке, дающими доступ к виртуальной реальности и расширенной реальности в нашей собственной нервной системе. «Мы станем интереснее, будем более музыкальны, расширим нашу мудрость», — говорит он, и насколько я понимаю, таким образом, в результате возникнет толпа Бетховенов и Эйнштейнов. Наноботы в наших венах и артериях будут лечить наши заболевания, исцеляя тела изнутри.

Он допускает, что мрачные предположения Маска могут осуществиться. Курцвейл отмечает, что потомок нашего искусственного интеллекта «может быть дружествен, а может и наоборот», и «в том случае, если он окажется враждебным, возможно, нам придется с ним бороться». Вероятно, единственный способ одолеть его — «привлечь на свою сторону еще более умный искусственный интеллект».


Курцвейл рассказал мне, как он удивился, что в стане противников искусственного интеллекта оказался Стюарт Расселл, поэтому я связалась с Расселлом и встретилась с ним в его офисе на восьмом этаже в Беркли. 54-летний британо-американский эксперт по искусственному интеллекту сообщил мне, что его видение эволюционировало, и теперь он «категорически» не согласен с Курцвейлом и теми, кто готов взять и уступить планету сверхразумному искусственному интеллекту.

Расселлу наплевать на то, что благодаря искусственному интеллекту может появиться больше Эйнштейнов и Бетховенов. Если в мире будет одним Людвигом больше, это не уравновесит риска уничтожения человечества. «Как будто интеллект —более значимая вещь, чем качество человеческого опыта, — говорит он в отчаянии. — Я думаю, если мы поставим вместо себя машины, которые, как нам пока известно, не имеют сознательного существования, вне зависимости от того, сколько удивительных вещей они изобрели, я считаю, это может быть самой страшной трагедией из всех возможных». Ник Бостром назвал идею технологически превосходного общества, где нет людей, «Диснейлендом без детей».

«Существуют люди, верящие, что если машины умнее, чем мы, то им просто нужно предоставить планету, а нам следует уйти», — говорит Расселл. «Далее, есть люди, которые говорят: „Ну ладно, мы загрузим себя в машины, но мы все равно сохраним сознание, будучи при этом машинами". Что, на мой взгляд, совершенно немыслимо».

Расселл выразил недовольство взглядами Янна ЛеКана (Yann LeCun), разработавшего предвестника сверточных нейронных сетей, используемых программой AlphaGo, и являющегося директором разработок искусственного интеллекта для Facebook. ЛеКан рассказал BBC, что не будет никаких сценариев в духе фильмов «Из машины» или «Терминатор», потому что роботы не будут конструироваться с человеческими желаниями: они не будут испытывать голода, жажды власти, инстинкта репродукции, самосохранения. «Янн ЛеКан постоянно говорит, что нет никаких причин возникновения у машин какого-либо инстинкта самосохранения», — отмечает Расселл. «Это ложно фактически и математически. Ведь настолько очевидно, что машина будет наделена стремлением к самосохранению, даже если оно в ней не запрограммировано, потому что, если сказать: „Сгоняй за кофе", она не сможет этого сделать, если она мертва. Поэтому, если вы поставите перед ней любую задачу, у нее есть основания беречь свое собственное существование при выполнении этой задачи. Если вы будете представлять для нее угрозу на ее пути к кофе, она уничтожит вас, потому что будет учитываться любой риск для кофе. Люди объясняли это ЛеКану в простейших понятиях».

Расселл развенчал два самых распространенных обоснования того, почему нам не следует беспокоиться: «Первый: этого никогда не произойдет, что равнозначно тому, чтобы сказать: мы едем прямо в скалу, но мы не врежемся, потому что у нас непременно закончится бензин, до того как мы до нее доберемся. А это не слишком хороший способ справляться с проблемами человеческого рода. Второй аргумент: не стоит беспокоиться, мы будем конструировать только таких роботов, которые сотрудничают с нами, и будем работать в командах, состоящих из людей и роботов. Что неизбежно влечет за собой вопрос: если ваш робот не согласен с вашими задачами, как можно работать с ним в одной команде?»

В прошлом году компания Microsoft отключила свой чат-бот Тай, основанный на искусственном интеллекте, после того как пользователи Твиттера, которые должны были сделать «ее» умнее «при помощи обычных игровых разговоров», как выразились в Microsoft, вместо этого научили ее отвечать с помощью расистских, женоненавистнических и антисемитских оскорблений. «Буш организовал теракт 11 сентября, а Гитлер лучше бы справился с задачей, чем та обезьяна, которая правит нами теперь», — написала в Твиттере Тай. «Дональд Трамп — наша единственная надежда». В ответ Маск написал сообщение: «Интересно посмотреть каков промежуток времени от этих ботов до Гитлера. Тай от Microsoft потребовался всего один день».

С президентом Трампом Маск ходит по лезвию. Его компании рассчитывают на американское правительство в вопросах бизнеса и субсидий, вне зависимости от того, кто стоит у руля, Марк Аврелий или Калигула. Компании Маска примкнули к консультативному заключению против указа Трампа относительно иммиграции и беженцев, Маск также сам написал твит, выступая против указа. В то же время, в отличие от Трэвиса Каланика (Travis Kalanick) из Uber, Маск значится членом Стратегического и политического форума Трампа. «Это очень похоже на Элона», — говорит Эшли Вэнс. «Он будет делать то, что ему надо, вне зависимости от того, что этим кто-то недоволен». Он также добавил, что Маск может быть «оппортунистом» при необходимости.

Я спросила Маска о критике в его адрес за сотрудничество с Трампом. На фотографии с руководителями компаний, занимающихся разработкой технологий, у него мрачный вид, и он нехотя говорил на эту тему. В конце концов, он сказал, «Лучше, когда в кабинете президента звучат умеренные голоса. Есть много людей, представителей крайне левых, которые, по сути, хотят добиться изоляции и не иметь никакого голоса. Это очень неразумно».


VI. Все о путешествии

Элиезер Юдковски — авторитетный 37-летний ученый, пытающийся выяснить, возможно ли на практике, а не только в теории, направить искусственный интеллект в каком-либо направлении, кроме хорошего. С ним мы встретились в японском ресторане в Беркли.

«Как можно запрограммировать целевые функции в искусственный интеллект, чтобы у него был выключатель, и чтобы он сам хотел, чтобы этот выключатель у него был, и не пытался его уничтожить, но при этом он не будет опережать события и не нажмет на него самостоятельно?», — задает он вопрос, заказав роллы с мясом и рыбой. «А если он сам себя модифицирует, то сделает ли он это так, чтобы выключатель сохранился? Мы пытаемся над этим работать. И это нелегко».

Я заикнулась о наследниках Клаату, ХЭЛа и Ультрона, завоевывающих интернет и получающих контроль над нашей банковской, транспортной и военной системой. А как же репликанты в «Бегущем по лезвию», которые сговорились, чтобы убить собственного создателя? Юдковский взялся за голову, а затем терпеливо объяснил: «Искусственный интеллект не должен захватывать весь интернет. Ему не нужны дроны. Он опасен не своим оружием. Он опасен, потому что он умнее, чем мы. Представьте, что он способен разобраться с научной технологией определения протеиновой структуры по информации, содержащейся в ДНК. Потом ему надо будет просто выслать несколько электронных писем в лаборатории, где синтезируются индивидуальные протеины. Вскоре у него появляется собственная молекулярная аппаратура, которая конструирует еще более сложные молекулярные машины.

РоботыРоботы

«Если вы хотите себе представить, как искусственный интеллект оборачивается против нас, не пытайтесь вообразить шагающих роботов-гуманоидов со сверкающими красными глазами. Представьте себе малюсенькие невидимые синтетические бактерии из алмаза и крохотные бортовые компьютеры, скрывающиеся в кровотоке у вас и у всех остальных людей. И вдруг они одновременно выпускают один микрограмм токсина ботулин. И все просто падают замертво.

«Только это не произойдет именно так, на самом деле. Я не могу предсказать, как именно мы проиграем, потому что искусственный интеллект будет умнее меня. Когда создаешь нечто умнее себя, тебе придется сделать все правильно при первой же попытке».

Я снова вспомнила свой разговор с Маском и Альтманом. Маск говорил, что не надо заблуждаться, представляя себе роботов-убийц. «Особенность искусственного интеллекта состоит в том, что он не является роботом, это компьютерный алгоритм в сети. Поэтому робот станет только конечным исполнительным звеном, просто набором датчиков и исполнительных механизмов. Искусственный интеллект существует в сети… Самое главное, что, если у нас будет своего рода алгоритм выхода из-под контроля, то люди, управляющие человеческим искусственным интеллектом, смогут этот алгоритм остановить. Но если обширный централизованный искусственный интеллект будет принимать решения, то остановить его будет невозможно».



Альтман развернул этот сценарий: «Программа, имеющая полный контроль над интернетом, была бы способна гораздо больше влиять на мир, чем программа, имеющая под своим полным контролем сложного робота. Наши жизни уже столь зависимы от интернета, что программа, не имеющая никакого тела и очень эффективно использующая интернет, легко могла бы получить гораздо больше влияния».

Даже роботы с казалось бы благими целями могут хладнокровно нам навредить. «Допустим, вы создаете самостоятельно обучающийся искусственный интеллект для сбора земляники, — говорит Маск, — он все лучше и лучше собирает землянику, собирает ее все больше и больше, и постоянно сам себя оптимизирует, то есть все, что ему действительно надо — это собирать землянику. И он получил все земляничные поля на свете. Земляничные поля навсегда». Здесь нет места для человека.

Но способны ли они действительно разработать рычаг для уничтожения? «Я не уверен, что хочу обладать рычагом для уничтожения какого-нибудь сверхмощного искусственного интеллекта, потому что так можно стать его главной жертвой», — отвечает Маск.

Альтман попытался передать жутковатое величие того, что оказалось на кону: «Сейчас очень интересно жить, потому что в следующие несколько десятилетий мы либо устремимся прямо к самоуничтожению, либо будем двигаться к колонизации вселенной потомками человечества».

«Точно, — говорит Маск, добавляя, — если вы верите, что конец — это тепловая гибель вселенной, то все задачи сводятся только к переезду».

Человек, столь волнующийся о вымирании, усмехнулся своей собственной шутке о конце света. Как писал когда-то Г. Ф. Лавкрафт: «Зачастую даже в величайших ужасах нет никакой иронии».

Часть первая -

Записал:

SALIK

Санкт-Петербург
info
+48
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции. Первоисточник статьи указан в самом начале.

Поделиться в социальных сетях:


Оцените:
+16
481
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на наш канал в YouTube:   Подписаться