Сегодня, когда фейковые видео способны обмануть даже внимательного зрителя, вопрос доверия к цифровому контенту становится особенно острым. В России разработаны инновационные решения, которые помогают обнаруживать поддельные изображения и видео, созданные с помощью технологий дипфейка. Эти системы уже применяются для защиты пользователей от мошенничества и дезинформации.
"В России разработано несколько технологий, которые сегодня позволяют в автоматизированном режиме не допускать использования фейков, а также предупреждать о том, что с вами общаются с использованием технологий, связанных с подделкой личности", — отметил заместитель председателя правления Сбербанка Станислав Кузнецов.
Технологии, о которых рассказал представитель Сбера, основаны на алгоритмах искусственного интеллекта, способных анализировать миллионы микродеталей изображения: движения мимики, освещение, резкость и даже частоту мерцания кожи. Программа "раскладывает" видео на цифровые фрагменты, сопоставляет их с биометрическими шаблонами и определяет, были ли внесены изменения.
"Эта сложная технология на основе искусственного интеллекта имеет очень высокую точность, решение анализирует по специальным ИИ-алгоритмам, раскладывает данные на 'цифру' и позволяет понимать, что видео скомпилировано, выдавая достаточно точный результат, что это фейк", — пояснил Кузнецов.
Система способна обрабатывать кадры, где присутствует несколько лиц, в разных условиях освещения и на фоне сложных декораций. Это особенно важно для телеканалов, онлайн-площадок и операторов связи, где ежедневно обрабатываются тысячи видеопотоков.
По словам Кузнецова, такие решения подходят не только для банковского сектора, но и для широкого круга организаций. Их можно внедрить в:
инфраструктуру операторов связи — для предотвращения звонков с поддельными голосами;
телевизионные компании — для проверки достоверности видеоматериалов;
мессенджеры и соцсети — для защиты пользователей от мошеннических схем;
онлайн-сервисы — для подтверждения подлинности личности при видеоверификации.
Сбербанк готов делиться своими наработками с другими участниками рынка. По оценкам экспертов, это позволит значительно снизить количество случаев использования дипфейков в мошеннических целях.
Проверяйте источник. Если видео поступает из неизвестного аккаунта, стоит усомниться в его достоверности.
Используйте сервисы фактчекинга. Платформы вроде "Проверено" или проекта TASS Fact помогут быстро сверить данные.
Скачайте антивирус с ИИ-модулем. Современные продукты, такие как Kaspersky Security Cloud или Dr. Web Premium, умеют распознавать поддельный контент.
Включите биометрическую аутентификацию. Это усложнит злоумышленникам задачу подделать ваше лицо или голос.
Не переходите по подозрительным ссылкам. Часто дипфейковые видео используются как приманка для фишинговых атак.
Эксперты отмечают, что развитие нейросетей делает дипфейки всё более реалистичными. Однако параллельно совершенствуются и средства их обнаружения. В будущем системы будут не только выявлять фейки, но и блокировать их ещё на этапе загрузки в интернет.
Сценарий, при котором подделки невозможно отличить от оригинала, теоретически возможен, но на практике компании вроде Сбера создают алгоритмы, способные обучаться в реальном времени, подстраиваясь под новые типы угроз.
| Плюсы | Минусы |
| Высокая точность анализа | Высокая стоимость внедрения |
| Возможность работы в реальном времени | Требует мощных серверов |
| Поддержка интеграции с разными платформами | Нужна защита самой ИИ-системы |
| Снижение риска мошенничества | Возможны ложные срабатывания |
Внедрение таких систем помогает формировать культуру цифровой безопасности, а не только защищать пользователей.
Как работает технология распознавания дипфейков?
Она анализирует структуру изображения и звука, выявляя микронарушения, нехарактерные для настоящего видео.
Можно ли использовать эти технологии частным лицам?
Да, многие сервисы предлагают облегчённые версии для блогеров и создателей контента, позволяя проверять оригинальность видео.
Миф: только государственные структуры могут использовать такие технологии.
Правда: частные компании тоже активно внедряют их в свои продукты и сервисы.
Миф: ИИ не способен отличить качественный дипфейк.
Правда: алгоритмы постоянно обучаются и уже успешно распознают даже высокоуровневые подделки.
Первые дипфейки появились в 2017 году на Reddit, где пользователи подменяли лица знаменитостей.
Российские компании входят в десятку мировых лидеров по количеству патентов в сфере защиты от дипфейков.
Проблема подделок информации возникла задолго до эпохи ИИ. Ещё в XIX веке фальсифицировали фотографии с помощью двойной экспозиции. Однако цифровые технологии вывели этот процесс на новый уровень. Сейчас борьба с фейками превратилась в стратегическую задачу для государства, бизнеса и общества.
Лариса Долина ответила на вопрос ребёнка о новогоднем столе, и её высказывания вызвали бурю негодования в Сети из-за слова "тривиальный".