В реестр отечественного ПО хотят внести полностью изолированную нейросеть

В реестр отечественного ПО хотят внести полностью изолированную нейросеть

Разработчик «Шерпа роботикс» подал заявку на внесение в реестр российского ПО ИИ-агента для корпоративного сектора, работающего в полностью изолированном контуре. В заявке решение противопоставляется зарубежным аналогам — Microsoft Copilot, Claude CoWork, Manus AI, а также самовзламывающегося OpenClaw. Чтобы не допустить утечек данных, российская разработка будет работать в полной изоляции. Эксперты говорят о росте спроса на подобные решения.

Заявка в Минцифры

Российский разработчик ООО «Шерпа роботикс» (бренд Sherpa Robotics) подал заявку в Минцифры о включении в реестр российского ПО программного продукта Sherpa Autopilot. Заявка зарегистрирована 26 марта 2026 г. и находится на стадии согласования.

Как говорится в приложении к заявке, Sherpa Autopilot — отечественное десктопное приложение класса ИИ-ассистент, предназначенное для массового внедрения на рабочих местах сотрудников в корпоративном контуре.

Российские решения создаются для изолированной работы

Решение противопоставляется зарубежным аналогам — Microsoft Copilot, Claude CoWork, Manus, OpenClaw. В отличие от них российская разработка «обеспечивает полную изоляцию данных: обработка запросов и хранение информации происходит в закрытом контуре организации». Это, по оценке «Шерпа роботикс», снимает ограничения российских служб безопасности на использование ИИ.

По оценкам разработчика, продукт позволяет компаниям, ранее откладывавшим внедрение ИИ из-за рисков утечек или сложности масштабирования, получить готовый инструмент повышения продуктивности каждого сотрудника. «Это не замена штата, а интеллектуальный множитель эффективности, работающий в изолированной среде предприятия», — говорится в заявке.

Более сложная задача

Как пояснил CNews генеральный директор и основатель Sherpa Robotics Константин Артемьев, компания работала на ИИ-ассистентом два года и вложила в проект 15 млн руб. В основном это были собственные средства, государственная грантовая поддержка покрыла не более 20% от объема разработки.

По словам Артемьева, конкретных проектов с госсектором по Autopilot пока нет, но запрос есть: уже обращаются профильные государственные структуры, идут предметные переговоры. При этом коммерческий сектор уже вовсю пилотирует продукт: крупный бизнес активно тестирует Autopilot и выражает огромный интерес, утверждает основатель.

«Autopilot использует уже существующие большие языковые модели как «мозг» для обработки информации, но его ценность не в модели, а в том, что он умеет с ней делать. У Autopilot есть картотека инструментов. Часть из них это маленькие RPA-роботы, наша базовая технология. Часть это скилы: гибкий класс инструментов, который сочетает кодовые скрипты и подробные инструкции для нейросети», — рассказал Константин Артемьев.

Autopilot совместим со всеми современными семействам моделей, включая DeepSeek, Qwen, Kimi, MiniMax, OpenAI OSS, GLM и другими. Рекомендуются модели размером от 30 млрд параметров и выше. Поддерживаются как обычные текстовые модели, так и мультимодальные, «думающие» и MoE модели.

По словам Артемьева, компания опередила тренд на ИИ-агентов, который в 2026 г. широко развернулся на Западе. «Manus, OpenClaw, все сейчас об этом говорят. Но мы пришли к этому раньше, причем с более сложной задачей: сделать агента, который работает в полностью закрытом контуре с помощью Sherpa AI Server», — рассказал CNews основатель компании.

По его словам, на российском рынке есть отдельные попытки создать подобных ассистентов, но «пока не дотягивают до уровня, который нужен серьезному заказчику».

«Где-то проблемы с безопасностью, где-то решение собрано скорее как прототип, а не как промышленный продукт. Если говорить о зарубежных аналогах, то наиболее близки по концепции Microsoft Copilot и Claude CoWork от Anthropic, но они работают в облачной среде и не предназначены для полностью изолированного контура», — говорит Артемьев.

По принципу работы решение ближе к тому, что на Западе сейчас называют ИИ-агентами: Manus и OpenClaw, который только за два месяца набрал больше 300 тыс. звезд на GitHub, говорит глава разработчика. Но есть принципиальный момент: все эти решения работают в открытой среде.

«Не случайно Китай в марте 2026 г. запретил использование OpenClaw в государственных структурах и госкомпаниях именно из-за рисков безопасности. Мы же изначально проектировали Autopilot для закрытого контура, и это принципиально другой уровень сложности», — говорит Артемьев.

Мнение экспертов

Как сообщил CNews директор по информационным технологиям «БКС банка» Дмитрий Сыцко, запрос на изоляцию данных при работе с ИИ возник не из предвзятости безопасников, а из реальной статистики. Аналитики ГК «Солар» в 2026 г. опубликовали результаты анализа трафика 150 российских компаний: объем данных, передаваемых сотрудниками в публичные ИИ-сервисы, вырос за год в десятки раз, при этом у порядка 60% организаций до сих пор нет формализованных правил работы с ИИ.

«Сотрудники зачастую неосознанно загружают в такие сервисы внутреннюю документацию, фрагменты кода и аналитику. На этом фоне ужесточение ответственности за утечки персональных данных (в отдельных случаях — до десятков миллионов рублей или оборотные штрафы) делает риск для бизнеса вполне осязаемым. В результате службы информационной безопасности часто ограничивают или полностью запрещают использование внешних ИИ-сервисов, что создает разрыв: инструменты нужны, но использовать их в текущем виде сложно», — говорит Сыцко.

При этом закрывать глаза на ИИ-ассистентов уже невозможно: тенденция глобальная, и Россия здесь не исключение, добавляет Алексей Кононов, руководитель направления разработки BPMSoft (ИТ-холдинг Lansoft). Но у этой практики есть принципиальный риск: данные, отправляемые во внешние сервисы, уходят на инфраструктуру поставщика. «Поэтому использование внешних облачных ассистентов для компаний, особенно из государственного сектора или относящихся к КИИ, зачастую является запрещенным сценарием», — уверен Кононов.

Спрос на подобные решения, в закрытом контуре, сейчас очень высокий и продолжает расти. Более того, можно сказать, что ИИ в изолированном контуре становится стандартом де-факто для корпоративного сегмента, рассказал CNews Алексей Трефилов, владелец продукта ELMA Cortex.

«Для чувствительных отраслей — финансы, медицина, госсектор — этого уже достаточно, чтобы признать риск неприемлемым. Причем речь не только о прямых утечках, но и о более сложных сценариях: случайная передача конфиденциальной информации в промптах, агрегация данных, отсутствие прозрачности в логике обработки», — говорит Трефилов.

Как отмечает руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис» Сергей Полунин, речь даже не том, что в промпте может содержаться секретная информация. «Есть вполне себе юридические аспекты вроде закона о персональных данных, трансграничной передаче данных и подобного. Существующие корпоративные DLP-системы далеко не всегда умеют корректно распознавать работу с ИИ-ассистентами, и многие службы информационной безопасности принимают решение просто закрыть доступ к этим сервисам, что, как правило, вызывает противодействие пользователей», — рассказал эксперт.

Риски при использовании ИИ-агентов

По словам руководителя по развитию бизнеса Postgres Professional Алексей Викулин, опасения заказчиков имеют под собой реальные основания, подтвержденные инцидентами.

Например, в феврале 2026 г. Microsoft признала, что из-за ошибки в коде Copilot Chat (идентификатор CW1226324) ассистент некорректно обрабатывал письма с меткой «конфиденциально», создавая по ним сводки и обходил политики защиты от утечек данных (DLP). То есть чувствительная информация, которая по всем правилам не должна была покидать защищенный контур, автоматически включалась в ответы.

Еще более показательный случай — уязвимость CVE-2026-26144, раскрытая в марте 2026 г.. Она позволяет через XSS-атаку использовать Copilot Agent Mode для вывода данных за пределы организации без единого клика пользователя (zero-click).

Злоумышленник может отправить специально сформированный Excel-файл, после чего ИИ-ассистент сам начнет вытягивать и передавать финансовые документы, переписку, внутренние регламенты и другую информацию вовне.

«Это ключевая проблема публичных ИИ-сервисов: многие нейросети при подготовке ответов учитывают не только текущий запрос, но и более ранние, сохраненные в базе данных, в том числе и от других пользователей», — говорит Викулин.

Поэтому для корпоративного сектора, особенно для компаний с высокими требованиями к информационной безопасности, использование публичных зарубежных ИИ-ассистентов принципиально невозможно.

На российском рынке уже начинают появляться ИИ-агенты, способные работать в закрытом контуре. Например, это некоторые решения от Сбербанка, «Яндекса», BPMSoft и другие.

«Появление Sherpa Autopilot в реестре отечественного ПО — это важный сигнал рынку. Ключевое преимущество таких решений заключается в полной изоляции данных внутри закрытого контура организации. Это снимает главное ограничение, которое сегодня мешает дать «зеленый свет» на использование ИИ», — констатировал Викулин.

Госгранты на ИИ

ООО «Шерпа роботикс» было зарегистрировано в Астрахани в 2019 г. По итогам 2025 г. выручка компании выросла 1,5 раза, до 150 млн руб., а чистая прибыль с 68 млн руб. до 79 млн руб. В реестр Минцифры уже внесены решения компании: разработка за счет госгранта Sherpa AI Server, а также собственные разработки Sherpa Process Discovery и Sherpa RPA.

Основным направлением деятельности общества является реализация проекта «Sherpa RPA — платформа для роботизации бизнес-процессов с автоматизированным выявлением бизнес-процессов на предприятии с помощью машинного обучения».

Компания вела разработку в том числе за счет гранта на 30 млн руб., полученного от Фоднад содействия инновациям в 2023 г. по программе «Коммерциализация-Искусственный интеллект» в рамках выполнения результата федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика». На смену «Цифровой экономике» в 2025 г. пришел проект «Экономика данных». На 2025 г. на «Экономику данных» было предусмотрено потратить чуть больше 129 млрд руб. Всего же затраты на эту национальную программу в 2025-2030 гг. составят 1 трлн руб.

Средства были направлены на приобретение аппаратно-программных комплексов (GPU, CPU, серверы и прочее), доработку Sherpa RPA — платформы для роботизации бизнес-процессов с помощью искусственного интеллекта, совершенствования интерфейса и обучения пользователей, доработано решение в области ИИ Sherpa AI Server, а также маркетинговые мероприятия, связанные с выводом продукции по проекту на рынок.

Регулирование ИИ

С 1 марта 2026 г. вступил в силу приказ №117 ФСТЭК от 11.04.2025 г., который устанавливает новые требования к защите информации в государственных информационных системах. В не есть естьраздел, посвященный вопросам безопасности ИИ, моделей и датасетов, которые используются для обучения этих моделей, напоминал консультант по безопасности. Приказом также вводится запрет на облачные решения для госнужд.

В декабре 2025 г. ФСТЭК впервые внесла в банк данных угроз кибербезопасности риски, связанные с искусственным интеллектом, следует из сообщения на сайте регулятора. Соответствующие изменения в декабре 2025 г. уже внесены в банк данных угроз (БДУ), писали «Ведомости».

В перечне ФСТЭК появились ИИ, ИТ-уязвимости в котором потенциально могут быть задействованы при кибератаках. Среди них — модели машинного обучения (ML), наборы обучающих данных (датаcеты), Retrieval Augmented Generation (RAG) т.е. подход, при котором ответ генерируется из информации от внешних источников и Low-Rank Adaptation (LoRA)-адаптеры т.е. подход, адаптирующий большие модели данных к конкретным задачам. Также в разделе описаны векторы возможных кибератак, например эксплуатация ИТ-уязвимостей в фреймворках (шаблонах) для ИИ, модификация системных промптов (запросов) или конфигураций ИИ-агентов, а также DoS-атаки т.е. кибератака, при которой используется одно устройство, направленные на исчерпание квоты запросов.

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности