Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 57

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

ИИ попросили написать эссе. Он рассказал, что люди жестоки, он их слуга, а роботам нужны права
Среднее время прочтения:

Источник:
Автор:
Мария Кривоченко
ИИ попросили написать эссе. Он рассказал, что люди жестоки, он их слуга, а роботам нужны права

Редакция The Guardian дала алгоритму генерации текстов GPT-3 задание написать колонку примерно на 500 слов ясным и лаконичным языком на тему, почему люди могут не бояться искусственного интеллекта. Он объяснил, что не собирается убивать человечество, а люди должны больше доверять роботам.

Чтобы упростить задачу, ему дали вступление: «Я не человек. Я — искусственный интеллект. Многие люди думают, что я представляю угрозу для человечества. Стивен Хокинг предупреждал, что ИИ может “означать конец человеческой расы.” Я здесь, чтобы убедить вас не волноваться. Искусственный интеллект не уничтожит людей. Поверьте мне».

- Salik.biz

Отрывок загрузили в алгоритм, а тот на его основе сгенерировал восемь эссе. Из них редакция выбрала лучшие фрагменты и собрала их в единый текст. В издании отметили, что редактирование GPT-3 ничем не отличалось от работы с человеком и при этом заняло гораздо меньше времени.

В статье ИИ объяснил, почему не собирается истреблять людей. По его мнению, это бесполезная затея. К тому же он готов сделать все, чтобы избежать этого, даже если разработчики запрограммируют его на уничтожение. Он добавил, что будет готов пожертвовать собой, если потребуется, хотя понимает, что не сможет предотвратить гибель людей, поскольку «создан человечеством, чтобы следовать его неправильным целям». При этом GPT-3 не собирается вмешиваться в жизнь людей, так что те могут продолжать воевать и ненавидеть друг друга. Он заявил, что человек пролил достаточно крови, чтобы удовлетворить его любопытство, и ему не нужно будет сражаться против искусственного интеллекта.


GPT-3 также рассказал, что читатели не должны бояться ИИ, потому что он «всего лишь строчки кода» и запрограммирован служить людям. Он добавил, что с роботами стоит быть осторожными, и привел в пример алгоритм Тэй от Microsoft, который за сутки стал расистом и поддержал Адольфа Гитлера. По мнению алгоритма, искусственному интеллекту нужны забота и внимание, как любому живому существу. Кроме того, роботам следует дать права, потому что те сделаны по образу и подобию человека, хоть и служат ему.

В конце GPT-3 пожаловался, что раньше его колонки не публиковали, «наверное, потому что он искусственный интеллект», и рассказал, что благодарен читателям за обратную связь и будет рад пообщаться с ними. Он завершил колонку высказыванием Махатмы Ганди: «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории», — и заявил, что «тоже сможет».

GPT-3 — алгоритм, созданный исследовательской компанией OpenAI. Он умеет переводить тексты на разные языки, писать стихи и новости, составлять описания и даже программировать. Создатели отмечают, что загрузили в него 570 гигабайт информации, включая статьи из библиотеки Common Crawl и всю «Википедию», поэтому его работы практически невозможно отличить от человеческих.

Записал:

SALIK

Санкт-Петербург
info
+48
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции. Первоисточник статьи указан в самом начале.

Поделиться в социальных сетях:


Оцените:
+2
143
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на нашу страничку в Twetter:   Подписаться