Усыпанный угрозами путь: почему новая китайская ИИ-модель опасна для бизнеса
Новая языковая модель Kimi K2 Thinking от китайского стартапа Moonshot AI (в числе инвесторов Alibaba Group, Tencent и Microsoft) может быть использована злоумышленниками, позволяя им запускать атакующие инструменты локально, без внешнего API и ограничений со стороны поставщика.
Такие выводы содержатся в исследовании разработчика ИБ-систем Servicepipe. По словам экспертов, атакующие уже активно используют ИИ для создания вредоносных программ, поиска уязвимостей и проведения всех этапов кибератак.
Восточная угроза
Открытие китайской ИИ-модели Kimi K2 Thinking, которую разрабатывает пекинский стартап Moonshot AI, повышает риски для безопасности корпоративных веб-сервисов и API, рассказали Forbes в компании Servicepipe, предлагающей сервисы в сфере кибербезопасности и защиты трафика.
На минувшей неделе Moonshot AI, в число инвесторов которого входят Alibaba Group, Tencent и Microsoft (общая сумма привлеченных инвестиций — $3,3 млрд), открыл публичный доступ к своей новой языковой модели Kimi K2 Thinking. Объем модели оценивается примерно в 1 трлн параметров, при этом активируется около 32 млрд во время инференса — применения уже обученных алгоритмов для обработки новых данных и выдачи результатов. То есть при каждом обращении активируется только та часть модели, которая лучше всего подходит для конкретной задачи, что значительно повышает скорость работы и снижает требования к аппаратным ресурсам. Это реализовано за счет использования архитектуры Mixture of Experts. По данным тестов и независимых бенчмарков, модель может конкурировать с ведущими моделями других разработчиков — например, с Claude Sonnet 4 и GPT-4.1.
Модель поддерживает контекст до 256 000 токенов и демонстрирует высокие показатели в reasoning-тестах. В открытый доступ выложены не только код и архитектура, но и веса нейронной сети — то есть числовые параметры, на которых она обучена. Запустить ее все желающие могут локально, без подключения к облачным сервисам разработчика, указывают в Servicepipe.
Kimi K2 Thinking обладает функцией reasoning & tool-use: модель умеет самостоятельно планировать, обращаться к внешним инструментам, выполнять код и анализировать результаты. В сочетании с открытым доступом это существенно упрощает разработку атакующих агентов, предназначенных для автоматизации взлома веб-интерфейсов, API-взаимодействий и CI/CD-систем, обращают внимание авторы исследования. «В 2025 году сервис-провайдеры защиты от DDoS-атак уже сталкивались с атаками, где атакующий инструмент был создан с помощью ChatGPT и иных чат-ботов с генеративным ИИ, — указывает директор по продуктам Servicepipe Михаил Хлебунов. — Публичный доступ к языковой модели Kimi K2 Thinking расширяет возможности злоумышленников, позволяя запускать атакующие инструменты локально, без внешнего API и ограничений со стороны поставщика».
По мнению Хлебунова, эпоха атак «вручную» заканчивается, и бизнесу необходимо подготовиться к этой угрозе, обеспечив защиту веб-ресурсов и API с помощью решений, способных противостоять организованным с помощью ИИ атакам.
Forbes направил запрос в Moonshot AI.
Война «умов»
Атакующие уже сейчас активно используют ИИ для кибератак — от поиска цели и первичного проникновения в инфраструктуру до анализа ценных данных взломанной компании и их хищения или шифрования, поясняет гендиректор Security Vision Руслан Рахметов. Появление подобных продвинутых инструментов позволяет злоумышленникам масштабировать свои атаки без значительных трудозатрат, а также существенно снижает порог входа в киберпреступность — теперь для успешного фишинга и взлома сетей не обязательно знание ни иностранных языков, ни языков программирования.
Публикация ИИ-моделей без ограничений имеет положительные и отрицательные последствия, констатируют эксперты отрасли кибербезопасности. Так, ИИ может решать любые поставленные задачи, отвечать на вопросы, учитывая весь контекст дискуссии, а также интегрироваться в другие сервисы или решения для автоматизации процессов, говорит руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В то же время, по ее словам, это важно и для киберпреступников разного масштаба: «ИИ-модели снижают порог вхождения в киберпреступность и оптимизируют затрачиваемые ресурсы для проведения атаки. Например, хакеры могут использовать модель при создании опасных сервисов благодаря ее открытым весам. Они маскируют вредоносный сервис под легитимный, таргетируют зараженные ресурсы и файлы, а также занимаются дезинформацией».
Не все ИБ-специалисты, впрочем, разделяют мнение о неминуемой опасности для бизнеса новой ИИ-модели. «Релиз Kimi K2 значительно не повысит рисков для бизнеса, так как модели, сопоставимые по качеству, уже существуют на платной основе как сервис, — полагает ML-директор Positive Technologies Андрей Кузнецов. — Для того чтобы запустить Kimi K2, необходимы очень дорогие серверы, которые не смогут себе позволить большинство злоумышленников».
Даже при использовании такой продвинутой нейросети атаки сами по себе не станут автоматическими, Kimi K2 не предлагает злоумышленнику какую-то волшебную «кнопку уничтожения», рассуждает руководитель группы разработки защиты от DDoS на уровне веб-приложений в DDoS-Guard Казбек Мамакаев. «Но скорость их проведения увеличится, это факт», — признает он. Так, размер модели (247 ГБ даже в квантованной версии) и требование к GPU-кластерам означают, что запустить ее на ноутбуке в подвале не выйдет, продолжает Мамакаев. «Для этого нужна серьезная инфраструктура. Но теперь у злоумышленников будет доступ к API, который можно использовать в качестве помощника для быстрого проведения атак, — говорит он. — Тут стоит беспокоиться о скорости итерации, а не о том, что атак станет много. Раньше хакер тратил до трех дней на ручной анализ WAF (Web application firewall, инструменты для обнаружения и блокирования сетевых атак на веб-приложение) и подбор обходов. Теперь он может написать одну функцию-обертку для Sqlmap, Nmap и Burp (инструменты для тестирования безопасности), а K2 за ночь прогонит 1000 гипотез».
Интерес и справедливые опасения вызывает не сам факт того, что модель Kimi K2 Thinking и ее веса были выложены в открытый доступ (на платформе открытых ML-моделей Hugging Face таких проектов тысячи), а совершенство и функционал этой модели, уверен Руслан Рахметов. Бенчмарки показывают, что эта модель обладает скоростью и возможностями, даже превосходящими популярные проприетарные модели — такие как GPT-5, Claude Sonnet и DeepSeek. По его мнению, особенность Kimi K2 Thinking в том, что она специализируется на рассуждениях (Reasoning), выстраивая длинную логическую цепочку для решения сложной задачи, а также обладает развитыми агентскими возможностями, то есть может самостоятельно использовать сотни внешних инструментов для достижения поставленной пользователем цели. «По заявлениям разработчиков, Kimi K2 Thinking особо преуспевает в написании кода, что, без сомнения, может (и, вероятно, будет) использоваться злоумышленниками», — убежден Рахметов.
Игра на понижение барьера
С тем, что дороговизна серверных мощностей будет серьезным барьером для реализации таких атак, Михаил Хлебунов не согласен. Он напоминает, что уже появляются сервисы, которые обещают распределенные GPU-вычисления — в том числе проекты в мессенджерах, что дополнительно снижает барьеры доступа к вычислительным ресурсам: «Это означает, что ограничение по «железу» перестает быть надежным щитом — при недостатке контроля злоумышленники смогут получить и свернуть вычислительные мощности для коллективных атак». Поэтому бизнесу важно не полагаться на дороговизну инфраструктуры как на меру безопасности, а фокусироваться на практических контрмерах: жесткой защите API, мониторинге аномалий и ограничении точек исполнения кода, рекомендует он.
К примеру, запуск децентрализованной сети для ИИ-вычислений анонсировал недавно на форуме Blockchain Life 2025 в Дубае основатель Telegram Павел Дуров. Проект получил название Cocoon — он объединит блокчейн TON и децентрализованные ИИ-технологии, вычислительные мощности будут предоставлять GPU-майнеры, участвующие в проекте. Они будут получать вознаграждение в TON, а Telegram обеспечит Cocoon «спрос и хайп», подчеркнул тогда Дуров.
Атакующим совершенно не обязательно разворачивать модель локально — они могут воспользоваться услугами одного из множества инференс-провайдеров (облачные сервисы для работы ML-моделей), подтверждает Руслан Рахметов: «Доступ к исходному коду и параметрам позволит злоумышленникам переобучить или донастроить модель под свои вредоносные цели, воспользовавшись различными методами (Full Fine-Tuning, PEFT, RAG и т.д.)».
- Нейросети
Поделиться






