Голос «сына» больше не прозвучит: что изменит новый запрет для мошенников

Звонок звучит знакомо, но верить ему нельзя.
Пожилые люди станут более защищёнными от мошенников, которые копируют голоса их родственников.
На первый взгляд невинные и даже забавные приложения для изменения голоса внезапно оказались в центре внимания прокуратуры.
По данным Телеграм-канала Baza, такие сервисы сочли потенциальной угрозой безопасности и решили ограничить их использование. А Хамовнический суд Москвы принял к рассмотрению позицию прокуратуры.
Несколько сервисов, в том числе Telegram-боты, позволяющие мгновенно менять голос в звонках и голосовых сообщениях, были признаны потенциально опасными ИТ-сервисами.
Судьи указали, что такие технологии могут использоваться злоумышленниками для:
- рассылки ложных сообщений о террористических актах,
- распространения экстремистских призывов или
- телефонного мошенничества и шантажа.
Решение о блокировке этих приложений на территории России должно вступить в силу уже в феврале этого года.
Почему чиновники и эксперты так встревожены
Технология клонирования голоса, ранее считающаяся перспективной для развлечений или создания контента, сегодня уже используется как инструмент обмана.
Согласно последним данным международных исследований: количество deepfake-файлов увеличилось с ~500 000 в 2023 году до ~8 000 000 в 2025-м.
А попытки мошенничества с помощью синтетического аудио выросли многократно — по некоторым оценкам до 3000 % за пару лет, что подтверждает серьёзный рост угрозы.
Кроме того, отчёт от Pindrop показал резкий рост мошенничества с искусственно созданными голосами в сфере контакт-центров за прошлый год — на 680 %.
При этом, по данным исследования, в каждом 127-м звонке мог скрываться обманный сценарий.
Реальные схемы: как мошенники используют такой функционал
Эксперты подтверждают тенденцию — мошенники уже научились использовать нейросети для создания реалистичных голосов родных и знакомых всего за несколько 20—30 секунд записи настоящего голоса человека.
Именно такой короткий аудиофрагмент зачастую достаточен, чтобы создать убедительный дипфейк и убедить жертву перевести деньги или разгласить важную информацию.
Ранее подобные звонки со стратегической имитацией голоса родственника или коллеги уже отмечались и официально описывались Центробанком РФ как часть расширяющихся схем телефонного мошенничества.
Как технология работает и почему она стала опасной
Технология, лежащая в основе этих приложений, называется клонирование голоса.
Это не просто фильтр или эффект, как в пранк-приложениях.
Это алгоритм, который может воспроизводить уникальные голосовые характеристики конкретного человека — тембр, интонации, манеру речи и даже паузы.
Такие возможности открывают большие перспективы для развлечений и автоматизации обслуживания.
Однако одновременно они позволяют злоумышленникам достаточно легко обходить традиционные голосовые проверки и обманывать даже внимательных слушателей.
К чему это всё ведет — и почему решение суда важно
Решение московского суда — это не просто попытка ограничить технологию ради технологии.
Это реакция на реальные риски, с которыми сталкиваются люди и организации: сводящиеся к информационной манипуляции, финансовым потерям и угрозам общественному порядку.
И хотя такие меры вызывают вопросы о свободе цифровых инструментов, логика судебного решения опирается на реальные, подтверждённые факты злоупотребления этими технологиями.
Речь идёт о мошеннических схемах и прямых угрозах безопасности граждан.