Эксперты нашли в популярных чат-ботах опасную уязвимость

Специалисты подразделения Microsoft по кибербезопасности выявили уязвимость, которая может позволить злоумышленникам перехватывать переписки пользователей с чат‑ботами, даже несмотря на то что такие переписки шифруются.

Светлана ЛевченкоАвтор новостей

Техника кибератаки, получившая название Whisper Leak, представляет собой разновидность атаки «человек посередине», при которой злоумышленники перехватывают сообщения во время их передачи между серверами. Особенность метода в том, что хакерам не нужно расшифровывать само содержимое сообщений — они анализируют метаданные и на их основе восстанавливают смысл переписки.

Метаданные — это, по сути, данные о данных: размер, частота отправки, время передачи. Хотя содержимое сообщений между пользователями и языковыми моделями остается защищенным транспортным шифрованием TLS, специалисты смогли определить тему разговоров, анализируя размеры зашифрованных пакетов данных. На основе времени отправки, последовательности и длины токенов они разработали методы реконструкции вероятных предложений без необходимости взламывать само шифрование.

«Чтобы представить масштаб проблемы, просто представьте себе: если государственное агентство или интернет-провайдер отслеживают трафик к популярному ИИ-чатботу, они могут надежно идентифицировать пользователей, задающих вопросы на определенные чувствительные темы — например, об отмывании денег или политическом инакомыслии — даже несмотря на то, что весь трафик зашифрован», — пояснили эксперты по кибербезопасности Джонатан Бар Ор и Джефф Макдональд в блоге команды Microsoft Defender.

Аналитик Дейв Лир отметил, что не удивлен находкой: «Большие языковые модели — это потенциальная золотая жила, учитывая объем информации, которую люди в них вводят, не говоря уже о медицинских данных, которые загружают туда больницы, которые используют ИИ для обработки результатов анализов. То, что кто-то когда-то все-таки найдет способ извлечь эту информацию, было лишь вопросом времени».

Специалисты уведомили разработчиков языковых моделей о проблеме еще в июне 2025 года. Некоторые компании, включая Microsoft и OpenAI, оценили риски и внедрили исправления. Однако многие разработчики нейросетей отказались устранять уязвимость, ссылаясь на различные причины, а некоторые вообще не ответили на предупреждения.

Технические решения для снижения риска существуют — например, к ним относится добавление случайных байтов к сообщениям, что искажает размеры пакетов и затрудняет анализ. Однако такие исправления внедрены далеко не везде.

До устранения уязвимости эксперты рекомендуют пользователям избегать обсуждения чувствительных тем в ненадежных сетях. К таким темам, безусловно, относятся не только и не столько вопросы, ответы на которые находятся за гранью закона, но любая по-настоящему личная информация, например, анализ медицинских выписок или банковских счетов. Кроме того, как дополнительный уровень защиты аналитики рекомендуют использовать VPN.

Ранее ученые объяснили, почему генеративные нейросети ограничены в своих творческих возможностях.

  • Нейросети

Поделиться

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности