Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ

Проверка источника видео, обратный поиск по фото, а также специализированные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью ИИ, рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ.

нейросеть

«С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили “бездомного”, чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в соцсети», — говорится в сообщении.

В ведомстве отметили, что в данных розыгрышах нет злого умысла, однако есть важный симптом времени — сейчас создание дипфэйков требует минимальных ресурсов.

«Современные нейросети автоматически подгоняют выражения лица и голос под заданный текст. Видео выглядит достоверно, но именно это и создаёт риски: под видом шутки могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические призывы в инвестиции», — отмечается в сообщении.

В МВД рассказали, чтобы не стать жертвой подобного розыгрыша, преступления или информационной операции необходимо проверять источник — видео без понятного происхождения — повод для паузы, а поэтому стоит проверить официальные аккаунты, сайты или Telegram-каналы. Также стоит обращать внимание на мелкие артефакты: неровные контуры лица, «дрожащие» тени, странные движения губ и глаз, иногда звук чуть запаздывает — именно такие сбои выдают синтетическую природу видео.

«Контекст. Если человек в ролике говорит непривычно для себя — проверить, соответствует ли это реальной ситуации и публичной позиции. Если фото с бездомным приходит от ребенка — крепиться. Обратный поиск. Кадр или фрагмент можно проверить через Яндекс или Google Images — это поможет понять, не взят ли он из другого видео», — рекомендуют в управлении.

Кроме того, можно использовать специализированные сервисы, которые анализируют видео и показывают вероятность синтетического монтажа.

Помимо этого, как сообщают правоохранители, российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая face-swap в видеозвонках.

«Важно: ни одна технология не даёт стопроцентной гарантии. Алгоритмы оценивают вероятность, а окончательное суждение — за человеком», — заключили в управлении.

  • Нейросети

Поделиться

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности