Засекреченный ИИ-кибербезопасник Anthropic «утек» на закрытый форум

Засекреченный ИИ-кибербезопасник Anthropic «утек» на закрытый форум

Разработчик в сфере ИИ Anthropic расследует возможную утечку своей сверхзащищенной кибербезопасной модели Mythos на закрытый форум.

Утечка «опасного» ИИ

Компания Anthropic, известный разработчик систем искусственного интеллекта (ИИ), проводит проверку сообщений о несанкционированном доступе к своей закрытой кибербезопасной модели Mythos. Об этом сообщает издание Bloomberg.

Речь идет о возможном получении доступа к этому инструменту небольшой группой лиц через среду одного из сторонних поставщиков. Сама модель Mythos, по заявлениям компании, настолько сильна в области кибербезопасности, что ее решено не выпускать в открытый доступ, чтобы предотвратить возможное злоупотребление ее возможностями.

Расследование началось после того, как появилась информация о том, что пользователи одного частного форума смогли обойти стандартные разрешения для работы с Mythos.

Anthropic проводит расследование заявления о том, что небольшая группа лиц получила доступ к ее модели Claude Mythos

Пока нет никаких данных о том, что злоумышленники получили доступ к модели, а сама Anthropic утверждает, что не располагает доказательствами компрометации ее собственных систем.

Эксперты полагают, что этот инцидент, вероятнее всего, связан не со взломом, а со злоупотреблением служебным доступом. Хотя компания распространяет Mythos среди избранных технологических и финансовых корпораций для защиты их систем, это подразумевает строжайший контроль за доступом и со стороны самих этих организаций.

Сотрудники Anthropic случайно уже слили исходный код Claude Code через файл source map в npm-пакете, пишет Threads. Саму же утечку обнаружил исследователь Чаофан Шоу (Chaofan Shou), ведь в публичном пакете оказался .map-файл с полным TypeScript-кодом.

Подробнее про Anthropic

Anthropic — это американская технологическая компания в сфере искусственного интеллекта, основанная в 2021 г. группой бывших ведущих сотрудников OpenAI. Ее штаб-квартира находится в Сан-Франциско. Основатели компании покинули OpenAI из-за разногласий по вопросам безопасности ИИ и направления развития компании.

Главным продуктом Anthropic является семейство больших языковых моделей Claude. Компания быстро растет и привлекает многомиллиардные инвестиции, в частности от Amazon, которое недавно объявило о намерении вложить в Anthropic до $25 млрд. На данный момент оценочная стоимость стартапа достигла впечатляющих $380 млрд, а по некоторым данным, инвесторы оценивают его уже более чем в $800 млрд.

Суд с правительством США

Наряду с этой историей, в последние недели Anthropic оказалась в центре громкого судебного разбирательства с правительством США.

Конфликт возник после того, как компания отказалась предоставить Пентагону полный и неограниченный доступ к своим технологиям. Anthropic настаивала на соблюдении двух принципиальных «красных линий»: запрете на использование ее ИИ для массовой слежки за американскими гражданами и для создания полностью автономных систем летального оружия, которые могли бы самостоятельно принимать решения о применении силы.

В ответ на это Министерство обороны США применило беспрецедентную меру, наклеив на компанию ярлык «риска для цепочки поставок», что фактически приравнивает ее к иностранным враждебным поставщикам и блокирует от государственных контрактов. Президент Дональд Трамп (Donald Trump) также издал распоряжение для всех федеральных агентств прекратить использование продуктов Anthropic.

Два иска

В ответ на эти действия Anthropic подала два иска в федеральные суды, обвинив администрацию в незаконной кампании возмездия и нарушении своих конституционных прав на свободу слова и надлежащую правовую процедуру.

Позиции сторон в судах оказались противоречивыми. С одной стороны, судья федерального суда в Сан-Франциско Рита Лин встала на сторону компании, назвав действия правительства «классическим преследованием за высказывания в защиту Первой поправки» и заблокировала внесение компании в черный список, отметив, что эти шаги были направлены не на национальную безопасность, а на наказание компании за ее позицию.

С другой стороны, Федеральный апелляционный суд в Вашингтоне отклонил просьбу Anthropic о приостановлении действия решения Пентагона, позволив правительству пока сохранить статус компании как угрозы.

Суд постановил ускорить рассмотрение дела и назначил слушания на май, признав, что компания может понести «некоторый невосполнимый ущерб», но не найдя достаточных оснований для немедленного вмешательства. При этом, по информации СМИ, Агентство национальной безопасности США, несмотря на все противоречия, продолжает использовать закрытую модель Mythos от Anthropic, в основном для поиска уязвимостей в собственных системах.

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности