В 2026 году мошенники придумают новые схемы: и вот какие

Мошенники оживят голоса начальников и мам.
Эксперт из РТУ МИРЭА Юрий Силаев предупредил о взрывном росте атак с подменой голоса и видео. Уже в следующем году технологии deepfake выйдут на новый уровень доступности, и под удар попадут все — от корпораций до обычных семей.
Голоса из ниоткуда
Злоумышленники научатся идеально копировать голоса начальников, близких или даже сотрудников банковской безопасности. Представьте звонок: "Мама, срочно переведи деньги, меня похитили" — и голос точь-в-точь как у сына.
Или приказ от "директора": "Перекинь средства на этот счет, срочно". Такие трюки станут обыденностью, потому что нейросети упростят создание подделок до пары кликов.
Сейчас подобные атаки редкость, требующая дорогого оборудования. Но к 2026-му инструменты разлетятся по даркнету и даже бесплатным сервисам.
Банки уже фиксируют первые случаи, где мошенники обманывают охрану переводов. Рядовые граждане окажутся в зоне риска не меньше, чем топ-менеджеры.
Видео, которое обманет всех
Поддельные ролики с лицами знаменитостей или родных — следующий шаг. Мошенник загрузит фото из соцсетей, и ИИ сгенерирует видеообращение с просьбой о помощи.
Лицо двигается естественно, мимика идеальна, фон правдоподобный. Такие видео уже используют в scam-кампаниях, но массовость придет с ростом мощности моделей вроде тех, что тестируют в лабораториях.
Эксперты отмечают: распознать фейк без спецпрограмм станет почти невозможно. Кампании по обучению бдительности ведут банки и МВД, но скорость эволюции ИИ опережает. В 2025-м зафиксировано удвоение deepfake-атак, и тенденция только набирает обороты.
Ловушки для инвесторов
Хайп вокруг ИИ породит волну фальшивых платформ. "Инвестируй в нашу нейросеть — удвой капитал за месяц!" — такие обещания заманивают тысячи.
Новые сервисы с глянцевыми сайтами и фейковыми отзывами будут эксплуатировать тренд, обещая сверхприбыли от торговых ботов или генераторов контента.
Реальные случаи уже есть: платформы вроде поддельных "AI-фондов" сливают миллиарды рублей. В 2026-м их станет больше, с интеграцией голосовых и видео-ботов для "консультаций".
Регуляторы предупреждают: проверяйте лицензии ЦБ, но мошенники маскируются под легальные fintech-проекты, пишет RT.
Как не стать жертвой
Простые правила спасут от беды. Всегда звоните человеку напрямую, чтобы подтвердить просьбу — не отвечайте на подозрительные медиа.
Банки ввели биометрию и голосовые верификаторы, но их обходят. Устанавливайте лимиты на переводы и используйте двухфакторку с аппаратными ключами.
Компании вроде Group-IB и Kaspersky разрабатывают анти-deepfake софт, анализирующий артефакты в видео. Гражданам стоит проверять источники инвестиций через реестры и избегать срочных сделок.
Борьба идет полным ходом, но бдительность остается главным оружием.