Пентагон может расторгнуть контракт со знаменитым разработчиком. Программисты бунтуют, потому что военные могут использовать ИИ для слежки и ракетных ударов
Контракт между Пентагоном и американской технологической компанией Anthropic оказался под угрозой расторжения из-за разногласий в вопросе использования технологий искусственного интеллекта. Согласно информации Reuters, переговоры зашли в тупик и контракт на $200 млн может быть расторгнут. Программистам Anthropic не нравится, что американские военные могут использовать нейронные сети для слежки или нанесения ракетных ударов.
Контракт под угрозой из-за разногласий
Пентагон может расторгнуть контракт на $200 млн с Anthropic, пишет Reuters. ИТ-разработчикам не нравится, что военные могут использовать их модели с технологией искусственного интеллекта (ИИ) для слежки за гражданами США и для нанесения ракетных ударов.
Согласно информации Reuters, переговоры 30 января 2026 г. зашли в тупик, а сам контракт на $200 млн может быть расторгнут.
Данный контракт был заключен летом 2025 г. и его стоимость составляет примерно $200 млн. Согласно его условиям, ИИ-модели Claude, разработанные компанией Anthropic, должны быть интегрированы в американские оборонные ИТ-системы. Напряженные же отношения между Anthropic и американской администрацией возникли вскоре после подписания соглашения, поясняют журналисты Reuters.
Одной из причин разногласий стали положения технологической компании, которые запрещают использовать Claude для наблюдений внутри страны. Эти ограничения уменьшают возможности применения ИИ-технологий Anthropic такими структурами, как: Федеральное бюро расследований (ФБР); Иммиграционная и таможенная служба США.
Пентагон — штаб-квартира Министерства обороны США в здании, имеющем форму правильного пятиугольника
В Anthropic обеспокоены тем, что ее ИТ-инструменты могут быть использованы для слежки за американцами или содействия в наведении оружия на цель без достаточного человеческого контроля, сообщили агентству Reuters некоторые источники. В Пентагоне негативно восприняли пользовательское соглашение. Чиновники считают, что у них должна быть возможность внедрять коммерческие ИИ-технологии независимо от политики использования компаниями, если они соответствуют законодательству США,
ИИ-модели Anthropic обучены избегать действий, которые могут нанести вред, и именно сотрудники компаний будут заниматься перенастройкой ИИ для Пентагона, сообщили Reuters источники. По их мнению, существующие разногласия могут привести к расторжению контракта Anthropic с Пентагоном.
27 января 2026 г. генеральный директор Anthropic Дарио Амодеи (Dario Amodei) заявил, что человечество вот-вот получит невообразимую власть и совершенно не ясно, достаточно ли развиты наши социальные, политические и технологические системы, чтобы использовать ее. Согласно тексту его эссе, ИИ-технологии должны поддерживать национальную оборону во всех отношениях, кроме тех, которые сделают нас больше похожими на наших авторитарных противников.
Развитие ИИ-моделей
Anthropic и OpenAI — это две ведущие ИТ-компании в мире, которые разрабатывают крупные языковые ИИ-модели и другие ИТ-системы общего назначения. В 2026 г. именно их ИИ-технологии лежат в основе таких умных чат-ботов и ИИ-ассистентов, которые умеют писать тексты, программировать, анализировать данные и вести диалог почти как человек.
Если OpenAI стала массово известна после запуска ChatGPT и ИИ-моделей GPT‑3/4, фактически задав стандарт рынка генеративного ИИ, то Anthropic — основанная выходцами из OpenAI ИТ-компания — развивает собственную линейку ИИ-моделей Claude и позиционирует себя как игрока, делающего особый упор на безопасность и управляемость ИИ.
Тревога по поводу развития ИИ-технологий
Тревога по поводу развития ИИ-технологий ощущается не только в США, писал CNews. Опрос в осенью 2025 г. исследователей Pew Research Center показал, что большинство взрослых американцев и итальянцев считают, что нейронные сети ухудшат способность людей мыслить творчески, а половина респондентов полагает, что технология ослабит способность строить значимые отношения.
Согласно опросу центра, тревога по поводу ИИ стремительно нарастает в 2025 г. не только среди американцев — во всем мире люди все чаще выражают серьезные опасения относительно ИИ-технологий. Исследование, проведенное Pew Research Center, выявило, что значительная доля жителей 25 стран скорее обеспокоена (34% опрошенных), чем вдохновлена все большим проникновением ИИ-технологий в повседневную жизнь, 16% скорее воодушевлены, чем обеспокоены, а 42% примерно в равной степени испытывают обе эти эмоции.
По данным Pew Research Center, (50% опрошенных) американцев и итальянцев скорее обеспокоены, чем воодушевлены» активным распространением ИИ-технологий в повседневной жизни. Многие обеспокоены распространением ИИ также в Австралии (49%), Бразилии (48%), Греции (47%) и Канаде (45%). Меньше всего беспокоятся по этому поводу жители Южной Кореи (16%) и Индии (19%). Наибольшее воодушевление по поводу ИИ выразили в Израиле (29%), Южной Корее и Швеции (по 22%), а также Нигерии (20%).
Аналитики также изучили уровень осведомленности людей об ИИ. Выяснилось, что 81% респондентов знакомы с этими технологиями, при этом 34% уверены, что знают о них немало. Только 14% заявили, что ничего не знают об ИИ-технологиях, лишь 5% предпочли не отвечать на этот вопрос.
Исследователи Pew Research Center провели опрос в 25 странах, включая США, Великобританию, Германию, Кению, Индонезию, Турцию и Мексику. В нем приняли участие 3605 человек.






