Microsoft случайно доказала, что ИИ не готов к реальной работе

Компания хотела обосновать увольнения ради ИИ — и случайно собрала самые убедительные аргументы против этого.

Дарья АрцыбашеваАвтор новостей

Microsoft затеяла масштабный эксперимент с конкретной целью: показать, что языковые модели уже справляются с офисной рутиной, а значит, сокращение персонала в пользу ИИ это разумный шаг. Три исследователя корпорации создали специальный инструмент DELEGATE-25 и прогнали через него 19 моделей, включая GPT, Claude и Gemini. Задачи взяли из реальной практики 52 профессий — юристы, финансисты, разработчики, аналитики. Каждая модель работала с документами в режиме длинного цикла: от пяти до десяти сложных правок подряд, сообщает itpro.

Результат оказался полной противоположностью тому, что планировали доказать. Топовые модели в среднем уничтожали 25% содержимого документов. Среди всех 19 протестированных систем показатель потерь достигал 50%. То есть каждая вторая буква в документе могла просто исчезнуть или ее заменяла на выдуманную.

Порог «готовности» исследователи установили на уровне 98% точности после 20 итераций — это минимум, при котором технологии можно доверить самостоятельную работу. Этот порог прошла ровно одна область из 52: программирование на Python. Лучший результат среди всех систем показал Gemini — он дотянул до планки в 11 доменах из 52. Остальные модели провалились в подавляющем большинстве сценариев.

Отдельно команда проверила ИИ-агентов — автономные системы, которые индустрия сейчас активно продвигает как «следующий уровень» автоматизации. Агенты не улучшили картину, и хайп вокруг них не оправдался.

Самая неприятная деталь — характер ошибок. Модели не деградируют постепенно и предсказуемо. Они могут работать стабильно долгое время, а потом в один момент уничтожить крупный фрагмент данных без каких-либо предупреждений. Исследователи назвали это «катастрофическими сбоями»: чем дольше сессия и чем объемнее документ, тем выше риск внезапного обрушения качества. Причем более мощные модели не избегают таких сбоев, а просто откладывают их на более поздние итерации.

Отдельного внимания заслуживает контекст публикации. Результаты исследования появились в открытом доступе в виде препринта на arXiv — то есть без официального анонса со стороны Microsoft. При этом собственный продукт корпорации Copilot в тест вообще не включили.

Если вы поручаете модели длинную задачу с документами — проверяйте каждый шаг. Доверять ИИ финальный результат без контроля сейчас равнозначно тому, чтобы отправить стажера без опыта разбирать архив налоговой отчетности и не контролировать, что он там делает.

Также недавно рассказывали, способен ли ИИ полностью забрать работу у людей. Подробности в статье.

НейросетиMicrosoftИскусственный интеллектПоделиться

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности