Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 85

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Нейросеть GPT-3 от OpenAI обманула читателей блогов, прикинувшись человеком
Среднее время прочтения:

Источник:
Нейросеть GPT-3 от OpenAI обманула читателей блогов, прикинувшись человеком

В начале недели Лиам Порр только узнал про нейросеть GPT-3 от OpenAI. В конце недели студент использовал эту модель для создания полностью поддельного блога под вымышленным именем.

Всё это было изначально задумано, как забавный эксперимент. Но потом один из его постов занял первое место на социальном новостном сайте Hacker News. Мало кто заметил, что блог был полностью создан искусственным интеллектом. Некоторые даже подписывались на обновления.

- Salik.biz

В последнее время многие рассуждают о том, как GPT-3, самый мощный на сегодняшний день инструмент искусственного интеллекта, генерирующий текст, может совершить революцию в сфере контент-маркетинга. И это один из немногих случаев, когда на практике демонстрируется его потенциал.

По словам самого Порра, студента, изучающего информатику в Калифорнийском университете Беркли, в этом эксперименте сильно бросалось в глаза, что:


На самом деле это было очень легко, что и пугает.


GPT – алгоритмы, которые заменят копирайтеров?

GPT-3 – это последняя и самая крупная языковая модель искусственного интеллекта OpenAI, которую исследовательская лаборатория из Сан-Франциско начала потихоньку тестировать в середине июля.

В феврале прошлого года OpenAI попала в заголовки СМИ с GPT-2, более ранней версией алгоритма. На портале Search Engine Journal в июле даже вышла статья под заголовком: «Как создавать умные копии страниц категорий для интернет-магазина с помощью GPT-2».

Рекламное видео:


GPT-2 – это второе поколение библиотеки Generative Pretrained Transformer команды Илона Маска по OpenAI. Она была способна писать текст, который очень трудно отличить от человеческого. По крайней мере, так говорили журналисты.

Но вернёмся к SEJ. Майкл Кинг в своей статье, ссылку на которую дал выше, дал тогда исчерпывающее объяснение того, как использовать GPT-2 для генерации страниц e-commerce категорий. Весь лонгрид можно сократить до 8 пунктов:

  1. Изучаете модель данных вашего сайта. Это повлияет на исходные данные, которые вы будете предоставлять нейросети.
  2. Генерируете несколько предложений, включающих эти данные. На основе полученного текста робот будет создавать в дальнейшем копии страниц.
  3. Собираете как можно больше текстового контента, релевантного для вашего магазина. Если у вас достаточно текстов, можно ограничиться собственным сайтом. В противном случае парсите конкурентов.
  4. Настраиваете GPT-2, загружаете тексты в модель.
  5. Наполняете предложения данными из модели. Для этого предлагается использовать такую библиотеку, как wink-nlp-utils. Там есть специальная функция под названием «composeCorpus».
  6. Применяете полученные предложения, как подсказки. Каждая фраза используется GPT-2 для генерации любого количества контента.
  7. Просматриваете и редактируете полученные тексты.
  8. Масштабируете.

Пока что это достаточно сырая технология. Без помощи разработчиков не обойтись. Копирайтеров она в ближайшем будущем не заменит, поскольку не умеет правильно устанавливать причинно-следственные связи. Но научный интерес, определённо, представляет.


Тестирование GPT-3 и обман читателей Hacker News

В случае с GPT-3 разработчики использовали несколько другой подход. В паблик нейросеть было решено не выкатывать. Вместо этого, чтобы её испытать, нужно было быть учёным и подать заявку на закрытый бета-тест. К концу года лаборатория планировала собрать отзывы и коммерциализировать технологию.

Порр подал заявку наравне со всеми. Он заполнил простую анкету, ответив на вопросы о предполагаемом использовании продукта. Но ждать ответа не стал. Поспрашивав у разных представителей ИИ-сообщества Беркли, студент быстро нашёл аспиранта, у которого уже был доступ к GPT-3.

Как только аспирант согласился сотрудничать, Порр написал для него небольшой скрипт. Он предоставил нейросети заголовок и вступление для поста в блоге, а затем получил несколько полноценных текстов.


Первый пост Порра (тот, который был размещён в Hacker News) и все последующие посты были скопированы с одного из сгенерированных документов практически без редактирования. Студент поясняет в интервью для technologyreview.com:

С того момента, как я подумал об этой идее и связался с аспирантом, до того, как я создал блог и первый его пост стал вирусным – прошло, может быть, пару часов.

На скриншоте выше вы можете наблюдать фальшивую запись в блоге Порра, написанную под вымышленным именем «adolos», достигшую топа в Hacker News. Лиам утверждает, что создал три отдельных аккаунта, чтобы голосовать за свои сообщения на портале, пытаясь поднять их выше. Но админы говорят, что такая стратегия не работает, и всему виной кликбейтный заголовок.

Трюк заключался в понимании сильных и слабых сторон GPT-3. Студент поясняет:

У него неплохо получается строить красивые предложения, но он не очень хорош в том, чтобы строить логичные и рациональные конструкции.

Поэтому для теста была выбрана популярная категория блогов, не требующая строгой логики – продуктивность и самосовершенствование.

Дальше экспериментатор следовал простой формуле: он просматривал тематические разделы Medium и Hacker News, чтобы понять, какой контент пользуется популярностью, и составлял что-то относительно похожее. Вот несколько получившихся заголовков:

  • Чувствуешь себя непродуктивным? Может, тебе стоит перестать слишком много думать.
  • Смелость и креативность важнее интеллекта.
  • Мы действительно не понимаем случайности.
  • Визуальное мышление не только для художников.

Иногда заголовки не срабатывали, но пока Лиам придерживался заданной ниши, процесс генерации контента был простым.

После двух недель почти ежедневных публикаций он отказался от проекта, завершив его заключительным собственным загадочным постом под заголовком «Что бы я делал с GPT-3, если бы не придерживался этических норм». В тот же день студент опубликовал более откровенное признание в своём настоящем блоге.

Порр говорит, что просто хотел доказать, что GPT-3 можно выдать за писателя-человека. На самом деле, несмотря на странную схему написания постов и случайные ошибки, только 3-4 комментатора из десятков на Hacker News усомнились в «человечности» контента. Однако все они тут же были заминусованы другими участниками сообщества.


Заключение

Подобные алгоритмы генерации текстов уже давно вызывают беспокойство экспертов. С тех пор, как OpenAI впервые анонсировал GPT-2, люди предполагали, что он уязвим для злоупотреблений. В собственном сообщении в блоге лаборатория сосредоточила внимание на потенциале инструмента искусственного интеллекта, который может стать оружием массового производства дезинформации.

Вебмастеры сразу же задались вопросом, можно ли использовать нейросеть для генерации спама с соответствующими ключевыми словами, чтобы обмануть Google. Порр утверждает, что данный эксперимент доказывает, что люди свободно могут применять данный инструмент для генерации огромного количества кликбейт-контента:

Возможно, в блогах начнёт создаваться просто поток посредственного контента, потому что теперь барьер для входа в нишу стал настолько низким. Я думаю, что ценность онлайн-контента значительно снизится.

Лиам до сих пор ждёт ответа на свою заявку от OpenAI для проведения новых экспериментов с GPT-3. Но теперь боится, что ему откажут из-за такого, «достаточно глупого» (по словам самого студента) применения мощностей лаборатории.

Записал:

SALIK

Санкт-Петербург
info
+48
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции. Первоисточник статьи указан в самом начале.

Поделиться в социальных сетях:


Оцените:
+1
129
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на наш канал в YouTube:   Подписаться