Заметили ошибку в тексте?
Выделите её мышкой и
нажмите Ctrl + Enter

Альтернативный взгляд

«Альтернативная история, уфология, паранормальные явления, криптозоология, мистика, эзотерика, оккультизм, конспирология, наука, философия»

Мы не автоматический, тематический информационный агрегатор

Статей за 48 часов: 76

Сайт для здравомыслящих и разносторонне развитых людей


Очевидец: Если Вы стали очевидцем НЛО, с Вами произошёл мистический случай или Вы видели что-то необычное, то расскажите нам свою историю.
Автор / исследователь: У Вас есть интересные статьи, мысли, исследования? Публикуйте их у нас.
!!! Ждём Ваши материалы на e-mail: info@salik.biz или через форму обратной связи, а также Вы можете зарегистрироваться на сайте и размещать материалы на форуме или публиковать статьи сами (Как разместить статью).

Фальшивый голос наговорил на сотни тысяч долларов
Среднее время прочтения:

Источник:
Фальшивый голос наговорил на сотни тысяч долларов

Впервые в Европе мошенники подделали голос с помощью искусственного интеллекта и украли четверть миллиона долларов. В Великобритании генеральный директор энергетической компании перевел киберпреступникам деньги после телефонного разговора с роботом. Подробности этой истории — у Виктории Феофановой и Александра Рассохина.

Генеральный директор одной британской энергетической компании поговорил по телефону со своим начальником — руководителем головного офиса в Германии. Тот попросил его срочно перевести венгерскому поставщику почти $250 тыс. Деньги ушли на счет венгерского банка, а британский топ-менеджер даже не заподозрил, что все это время разговаривал с роботом. Голос на другом конце линии был так похож на голос его начальника: искусственный интеллект имитировал не только манеру общения, но и легкий немецкий акцент. Афера вскрылась, лишь когда мошенники попытались провернуть этот трюк во второй раз.

- Salik.biz

Это, пожалуй, самое крупное киберпреступление такого рода, но злоумышленники должны были где-то достать записи голоса, поясняет директор по лингвистическим разработкам компании «Наносемантика» Анна Власова: «Вначале мошенники должны были получить разговоры того человека, чей голос они потом имитируют. Это, кстати, вопрос, как они его получили. Скорее всего, мошенничество начинается с этого, потому что просто так вы не найдете достаточно записей одного и того же человека, чтобы успешно синтезировать его голос».

Деньги киберпреступники отправили сначала в Мексику, а затем распределили их по разным счетам. Пока полиция не смогла их найти. О том, что мошенники начали использовать подделанные голоса, предупредили и в Центробанке. Такие преступления в России по большей части происходят в социальных сетях и пока без участия искусственного интеллекта. Схема старая: аккаунт жертвы взламывают и либо звонят друзьям с просьбой одолжить деньги, либо рассылают сообщения. Таким образом удалось украсть уже почти 0,5 млрд руб. Обучать искусственный интеллект имитировать голос определенного человека дорого и неэффективно, полагает замначальника департамента информационной безопасности Центробанка Артем Сычев: «Применимость таких методов мошенничества крайне низкая. Для этого нужно, чтобы злоумышленник точно знал, что жертва правильно среагирует на этот голос.


Если говорить о биометрической идентификации, то ее использование для обмана вообще нецелесообразно, поскольку для этой идентификации требуется комбинация голоса, лица, некоторых других параметров».

Но эксперт по нейросетям сервиса «Битрикс24» Александр Сербул с регулятором не согласен. По его мнению, мошенничества с участием искусственного интеллекта будут развиваться: «С помощью искусственного интеллекта можно и голос подделать, даже видео сделать — реалистичные изображения, которых в природе не существует, но их не отличить от настоящих. Это сделать несложно. Достаточно в облаке Amazon поднять машинки на GPU, а там они сдают в аренду, за небольшую денежку можно поднять и кластера и в течение суток обсчитать нейросеть, и подделать голос директора. О чем это говорит? Что нужно понимать, как работает вообще структура информационной безопасности».

По мнению европейских специалистов, мошенники будут подделывать голос все чаще. Этому способствует и то, что программы, которые позволяют имитировать чужой голос, сейчас продают многие компании. При этом для их использования не нужны какие-то специальные навыки.

Искусственный интеллект используют и для борьбы с киберпреступниками. IT-аналитики отмечают, что через пару лет применять нейросети для защиты данных будет около 40% компаний в мире.

Автор: Александр Рассохин

Рекламное видео:


Записал:

SALIK

Санкт-Петербург
info
+48
Я не автоматический, тематический информационный агрегатор! Материалы Salik.biz содержат мнение исключительно их авторов и не отражают позицию редакции. Первоисточник статьи указан в самом начале.

Поделиться в социальных сетях:


Оцените:
+2
216
RSS
Нет комментариев. Ваш будет первым!
Загрузка...

   Подписывайтесь на наш канал в YouTube:   Подписаться