• 78,53
  • 91,81

Голос «сына» больше не прозвучит: что изменит новый запрет для мошенников

Мошенник

Звонок звучит знакомо, но верить ему нельзя.

Пожилые люди станут более защищёнными от мошенников, которые копируют голоса их родственников.

На первый взгляд невинные и даже забавные приложения для изменения голоса внезапно оказались в центре внимания прокуратуры.

По данным Телеграм-канала Baza, такие сервисы сочли потенциальной угрозой безопасности и решили ограничить их использование. А Хамовнический суд Москвы принял к рассмотрению позицию прокуратуры.

Несколько сервисов, в том числе Telegram-боты, позволяющие мгновенно менять голос в звонках и голосовых сообщениях, были признаны потенциально опасными ИТ-сервисами.

Судьи указали, что такие технологии могут использоваться злоумышленниками для:

  • рассылки ложных сообщений о террористических актах,
  • распространения экстремистских призывов или
  • телефонного мошенничества и шантажа.

Решение о блокировке этих приложений на территории России должно вступить в силу уже в феврале этого года.

Почему чиновники и эксперты так встревожены

Технология клонирования голоса, ранее считающаяся перспективной для развлечений или создания контента, сегодня уже используется как инструмент обмана.

Согласно последним данным международных исследований: количество deepfake-файлов увеличилось с ~500 000 в 2023 году до ~8 000 000 в 2025-м.

А попытки мошенничества с помощью синтетического аудио выросли многократно — по некоторым оценкам до 3000 % за пару лет, что подтверждает серьёзный рост угрозы.

Кроме того, отчёт от Pindrop показал резкий рост мошенничества с искусственно созданными голосами в сфере контакт-центров за прошлый год — на 680 %.

При этом, по данным исследования, в каждом 127-м звонке мог скрываться обманный сценарий.

Реальные схемы: как мошенники используют такой функционал

Эксперты подтверждают тенденцию — мошенники уже научились использовать нейросети для создания реалистичных голосов родных и знакомых всего за несколько 20—30 секунд записи настоящего голоса человека.

Именно такой короткий аудиофрагмент зачастую достаточен, чтобы создать убедительный дипфейк и убедить жертву перевести деньги или разгласить важную информацию.

Ранее подобные звонки со стратегической имитацией голоса родственника или коллеги уже отмечались и официально описывались Центробанком РФ как часть расширяющихся схем телефонного мошенничества.

Как технология работает и почему она стала опасной

Технология, лежащая в основе этих приложений, называется клонирование голоса.

Это не просто фильтр или эффект, как в пранк-приложениях.

Это алгоритм, который может воспроизводить уникальные голосовые характеристики конкретного человека — тембр, интонации, манеру речи и даже паузы.

Такие возможности открывают большие перспективы для развлечений и автоматизации обслуживания.

Однако одновременно они позволяют злоумышленникам достаточно легко обходить традиционные голосовые проверки и обманывать даже внимательных слушателей.

К чему это всё ведет — и почему решение суда важно

Решение московского суда — это не просто попытка ограничить технологию ради технологии.

Это реакция на реальные риски, с которыми сталкиваются люди и организации: сводящиеся к информационной манипуляции, финансовым потерям и угрозам общественному порядку.

И хотя такие меры вызывают вопросы о свободе цифровых инструментов, логика судебного решения опирается на реальные, подтверждённые факты злоупотребления этими технологиями.

Речь идёт о мошеннических схемах и прямых угрозах безопасности граждан.