Когда технологии становятся умнее, аферы — изощрённее. Сегодня достаточно пары строк кода, чтобы создать убедительное письмо, голосовое сообщение или даже видео, в котором говорит "знакомый человек". За такими иллюзиями часто скрываются мошенники, которые используют искусственный интеллект, чтобы втереться в доверие и обмануть даже самых осторожных пользователей.
Несколько лет назад Габриэль Агилар поверил, что ему повезло: новая работа, реальное собеседование, документы, чек на покупку ноутбука. Всё выглядело идеально, пока банк не сообщил, что чек поддельный. Так Агилар впервые столкнулся с цифровым мошенничеством, и этот опыт определил всю его дальнейшую карьеру.
Сегодня Габриэль Агилар, профессор Техасского университета в Арлингтоне, исследует, как искусственный интеллект помогает обманщикам действовать эффективнее и незаметнее. Его внимание сосредоточено на латиноамериканском сообществе — одной из наиболее уязвимых групп перед современными цифровыми угрозами.
Мошенникам больше не нужно уговаривать лично или выдумывать легенды вручную. Им достаточно обученной нейросети, которая сделает всё сама.
В исследовании Агилара, опубликованном в Journal of Business and Technical Communication, подробно описано, как чат-боты, дипфейки и голосовые клоны делают аферы реалистичными и психологически точными.
"В моей сфере всё чаще говорят о том, что, когда люди и ИИ работают вместе, они вступают в творческое партнёрство — обычно для создания работы с позитивными и благими намерениями", — сказал профессор Габриэль Агилар.
Но, добавляет он, та же связка "человек + ИИ" превращается в мощный инструмент обмана, если попадает в руки недобросовестных людей.
Теперь голос родственника можно синтезировать за минуты, а сайт "правительственного ведомства" — скопировать до последней пиксельной детали. Иллюзия доверия создаётся мгновенно и точно попадает в страхи или надежды жертвы.
Исследования показывают: латиноамериканцы чаще становятся целью таких атак. Причины — ограниченный доступ к цифровым навыкам, недостаточная защита со стороны миграционного законодательства и финансовая неуверенность.
Злоумышленники выдают себя за нотариусов, юристов, работодателей или благотворителей. Пожилым звонят "внуки", молодым — "работодатели". В обоих случаях результат одинаков: потеря личных данных и денег.
Особенность таких схем в том, что они говорят на языке жертвы — буквально и культурно. Они звучат знакомо, обещают стабильность, работу, помощь — то, чего людям действительно не хватает.
Агилар понял: бороться с этим можно не страхом, а знанием. Его курсы технического письма превратились в занятия по цифровой грамотности. Студенты учатся анализировать тексты, распознавать манипуляции и понимать, как ИИ формирует сообщения.
"Искусственный интеллект не произвёл революцию в сфере мошенничества — он просто дал мошенникам больше инструментов, чтобы их методы были более убедительными", — пояснил Агилар.
Ученики тренируются определять стиль, тон и структуру поддельных сообщений. А затем передают эти знания своим семьям и друзьям. Так создаётся "цепочка иммунитета" — от осведомлённого пользователя к целому сообществу.
| Параметр | Раньше | Сейчас (с ИИ) |
| Контакт | Телефон, письма | Голосовые клоны, чат-боты |
| Реалистичность | Ошибки заметны | Почти неотличимо от правды |
| Масштаб | Ограничен временем | Распространяется мгновенно |
| Цель | Деньги | Данные и доверие |
| Защита | Проверка вручную | Нужна цифровая грамотность |
Проверяйте источник — всегда переходите на официальный сайт вручную.
Слушайте внимательно: синтетические голоса часто звучат "чисто" и однотонно.
Не доверяйте эмоциям: страх и срочность — любимые инструменты аферистов.
Не делитесь кодами, паролями и паспортными данными даже с "родственниками".
Если сомневаетесь — перезвоните или проверьте контакт через другой канал.
Ошибка: скачать вложение из неизвестного письма.
Последствие: вирус, кража данных или доступ к банковским приложениям.
Альтернатива: использовать антивирус и проверять отправителя через сервисы верификации.
Ошибка: поверить "внуку" по телефону.
Последствие: перевод средств мошеннику.
Альтернатива: перезвонить настоящему родственнику или связаться через мессенджер с видеозвонком.
Ошибка: перейти по ссылке в SMS от "госуслуг".
Последствие: попадание на фишинговый сайт.
Альтернатива: открывать сайт только вручную, без перехода по коротким ссылкам.
Те же технологии, которые помогают обманщикам, могут защищать пользователей. Алгоритмы машинного обучения уже анализируют миллионы сообщений и распознают подозрительные паттерны: одинаковые фразы, повторяющиеся голоса, характерные ошибки синтеза речи. Банковские и почтовые сервисы внедряют эти инструменты, чтобы блокировать аферы ещё до того, как человек их увидит.
| Плюсы | Минусы |
| Автоматическое выявление подозрительных сообщений | Возможность злоупотреблений со стороны кибермошенников |
| Быстрая адаптация под новые формы угроз | Рост сложности атак |
| Повышение цифровой грамотности пользователей | Этические дилеммы при обучении моделей |
| Снижение числа успешных афер | Риск ложных срабатываний |
Как защититься от голосового мошенничества?
Не доверяйте звонкам, даже если голос звучит знакомо. Используйте кодовые слова, о которых знаете только вы и ваши близкие.
Можно ли полностью исключить риск?
Нет, но можно снизить его, повышая цифровую грамотность и критическое мышление.
Как понять, что видео — дипфейк?
Обратите внимание на моргание, движение губ и тени — у синтетических лиц часто нет естественной мимики.
Миф: Искусственный интеллект сам принимает решение обмануть человека.
Правда: За каждой схемой стоит человек, который использует ИИ как инструмент.
Миф: Мошенничество с ИИ невозможно выявить.
Правда: Современные системы безопасности уже умеют распознавать синтетические голоса и тексты.
Миф: Только пожилые люди попадаются на такие уловки.
Правда: Молодые пользователи тоже теряют деньги, особенно в инвестиционных и карьерных аферах.
Первые голосовые дипфейки появились ещё в 2017 году, но массово использоваться стали лишь после 2022-го.
В некоторых странах уже созданы базы данных фейковых голосов для обучения систем распознавания.
На платформах типа LinkedIn за год число фальшивых аккаунтов, созданных с помощью ИИ, выросло более чем вдвое.
До появления ИИ мошенники использовали другие инструменты: поддельные письма, телефонные звонки, визиты "чиновников". Разница лишь в скорости и масштабе. Технологии изменили оболочку, но не суть — желание быстро нажиться на доверии.