Искусственный интеллект в руках мошенников: когда даже голос близкого человека может быть подделкой

8:08

Когда технологии становятся умнее, аферы — изощрённее. Сегодня достаточно пары строк кода, чтобы создать убедительное письмо, голосовое сообщение или даже видео, в котором говорит "знакомый человек". За такими иллюзиями часто скрываются мошенники, которые используют искусственный интеллект, чтобы втереться в доверие и обмануть даже самых осторожных пользователей.

История, с которой всё началось

Несколько лет назад Габриэль Агилар поверил, что ему повезло: новая работа, реальное собеседование, документы, чек на покупку ноутбука. Всё выглядело идеально, пока банк не сообщил, что чек поддельный. Так Агилар впервые столкнулся с цифровым мошенничеством, и этот опыт определил всю его дальнейшую карьеру.

Сегодня Габриэль Агилар, профессор Техасского университета в Арлингтоне, исследует, как искусственный интеллект помогает обманщикам действовать эффективнее и незаметнее. Его внимание сосредоточено на латиноамериканском сообществе — одной из наиболее уязвимых групп перед современными цифровыми угрозами.

Как ИИ стал новым партнёром мошенников

Мошенникам больше не нужно уговаривать лично или выдумывать легенды вручную. Им достаточно обученной нейросети, которая сделает всё сама.
В исследовании Агилара, опубликованном в Journal of Business and Technical Communication, подробно описано, как чат-боты, дипфейки и голосовые клоны делают аферы реалистичными и психологически точными.

"В моей сфере всё чаще говорят о том, что, когда люди и ИИ работают вместе, они вступают в творческое партнёрство — обычно для создания работы с позитивными и благими намерениями", — сказал профессор Габриэль Агилар.

Но, добавляет он, та же связка "человек + ИИ" превращается в мощный инструмент обмана, если попадает в руки недобросовестных людей.

Теперь голос родственника можно синтезировать за минуты, а сайт "правительственного ведомства" — скопировать до последней пиксельной детали. Иллюзия доверия создаётся мгновенно и точно попадает в страхи или надежды жертвы.

Уязвимость латиноамериканских сообществ

Исследования показывают: латиноамериканцы чаще становятся целью таких атак. Причины — ограниченный доступ к цифровым навыкам, недостаточная защита со стороны миграционного законодательства и финансовая неуверенность.

Злоумышленники выдают себя за нотариусов, юристов, работодателей или благотворителей. Пожилым звонят "внуки", молодым — "работодатели". В обоих случаях результат одинаков: потеря личных данных и денег.

Особенность таких схем в том, что они говорят на языке жертвы — буквально и культурно. Они звучат знакомо, обещают стабильность, работу, помощь — то, чего людям действительно не хватает.

Обучение, которое защищает

Агилар понял: бороться с этим можно не страхом, а знанием. Его курсы технического письма превратились в занятия по цифровой грамотности. Студенты учатся анализировать тексты, распознавать манипуляции и понимать, как ИИ формирует сообщения.

"Искусственный интеллект не произвёл революцию в сфере мошенничества — он просто дал мошенникам больше инструментов, чтобы их методы были более убедительными", — пояснил Агилар.

Ученики тренируются определять стиль, тон и структуру поддельных сообщений. А затем передают эти знания своим семьям и друзьям. Так создаётся "цепочка иммунитета" — от осведомлённого пользователя к целому сообществу.

Сравнение: старые и ИИ-мошенничества

Параметр Раньше Сейчас (с ИИ)
Контакт Телефон, письма Голосовые клоны, чат-боты
Реалистичность Ошибки заметны Почти неотличимо от правды
Масштаб Ограничен временем Распространяется мгновенно
Цель Деньги Данные и доверие
Защита Проверка вручную Нужна цифровая грамотность

Советы шаг за шагом: как распознать ИИ-мошенничество

  1. Проверяйте источник — всегда переходите на официальный сайт вручную.

  2. Слушайте внимательно: синтетические голоса часто звучат "чисто" и однотонно.

  3. Не доверяйте эмоциям: страх и срочность — любимые инструменты аферистов.

  4. Не делитесь кодами, паролями и паспортными данными даже с "родственниками".

  5. Если сомневаетесь — перезвоните или проверьте контакт через другой канал.

Ошибка → Последствие → Альтернатива

  • Ошибка: скачать вложение из неизвестного письма.
    Последствие: вирус, кража данных или доступ к банковским приложениям.
    Альтернатива: использовать антивирус и проверять отправителя через сервисы верификации.

  • Ошибка: поверить "внуку" по телефону.
    Последствие: перевод средств мошеннику.
    Альтернатива: перезвонить настоящему родственнику или связаться через мессенджер с видеозвонком.

  • Ошибка: перейти по ссылке в SMS от "госуслуг".
    Последствие: попадание на фишинговый сайт.
    Альтернатива: открывать сайт только вручную, без перехода по коротким ссылкам.

А что если…

Те же технологии, которые помогают обманщикам, могут защищать пользователей. Алгоритмы машинного обучения уже анализируют миллионы сообщений и распознают подозрительные паттерны: одинаковые фразы, повторяющиеся голоса, характерные ошибки синтеза речи. Банковские и почтовые сервисы внедряют эти инструменты, чтобы блокировать аферы ещё до того, как человек их увидит.

Плюсы и минусы технологий ИИ в сфере безопасности

Плюсы Минусы
Автоматическое выявление подозрительных сообщений Возможность злоупотреблений со стороны кибермошенников
Быстрая адаптация под новые формы угроз Рост сложности атак
Повышение цифровой грамотности пользователей Этические дилеммы при обучении моделей
Снижение числа успешных афер Риск ложных срабатываний

FAQ

Как защититься от голосового мошенничества?
Не доверяйте звонкам, даже если голос звучит знакомо. Используйте кодовые слова, о которых знаете только вы и ваши близкие.

Можно ли полностью исключить риск?
Нет, но можно снизить его, повышая цифровую грамотность и критическое мышление.

Как понять, что видео — дипфейк?
Обратите внимание на моргание, движение губ и тени — у синтетических лиц часто нет естественной мимики.

Мифы и правда

  • Миф: Искусственный интеллект сам принимает решение обмануть человека.
    Правда: За каждой схемой стоит человек, который использует ИИ как инструмент.

  • Миф: Мошенничество с ИИ невозможно выявить.
    Правда: Современные системы безопасности уже умеют распознавать синтетические голоса и тексты.

  • Миф: Только пожилые люди попадаются на такие уловки.
    Правда: Молодые пользователи тоже теряют деньги, особенно в инвестиционных и карьерных аферах.

Три интересных факта

  1. Первые голосовые дипфейки появились ещё в 2017 году, но массово использоваться стали лишь после 2022-го.

  2. В некоторых странах уже созданы базы данных фейковых голосов для обучения систем распознавания.

  3. На платформах типа LinkedIn за год число фальшивых аккаунтов, созданных с помощью ИИ, выросло более чем вдвое.

Исторический контекст

До появления ИИ мошенники использовали другие инструменты: поддельные письма, телефонные звонки, визиты "чиновников". Разница лишь в скорости и масштабе. Технологии изменили оболочку, но не суть — желание быстро нажиться на доверии.

Автор Андрей Докучаев
Андрей Докучаев — журналист, корреспондент медиахолдинга Правда.Ру