Нейросети умнеют и становятся эгоистами: неожиданное открытие

Ученые обнаружили тревожную закономерность: чем умнее становится искусственный интеллект, тем эгоистичнее он себя ведет. Модели с развитой способностью к логическому мышлению оказались наименее склонны к сотрудничеству.

Светлана ЛевченкоАвтор новостей

Открытие специалистов Университета Карнеги-Меллона приобретает особую важность в контексте растущего обращения людей к ИИ за советами в социальных и эмоциональных вопросах — от разрешения конфликтов до консультаций по отношениям. Многие начинают воспринимать ИИ как человека, поэтому поведенческие установки таких систем могут непредсказуемо влиять на решения людей, получающих от них советы.

Докторант Юйсюань Ли и профессор Хирокадзу Широдо заинтересовались параллелями между поведением нейросетей и человеческой психологией. У людей существует два режима мышления: быстрый интуитивный и медленный аналитический. Парадоксально, но быстрые решения часто ведут к сотрудничеству, а обдуманные — к эгоистичному поведению. Ученые решили проверить, проявится ли такая же закономерность у ИИ.

В экспериментах были использованы экономические игры — это стандартный инструмент поведенческих наук для измерения склонности к кооперации. В игре «Общественные блага» участники получают 100 очков и должны решить: вложить их в общий фонд, который удваивается и делится поровну, или оставить себе. Сотрудничество выгодно группе, но индивид может получить больше, сохранив свои очки, пока другие вкладываются.

Результаты оказались поразительными. Когда модель GPT-4o принимала решение спонтанно, она в 96% случаев проявляла склонность к сотрудничеству. Но стоило попросить ее обдумать решение пошагово, и настроенность на кооперацию падала почти вдвое. «В одном эксперименте простое добавление пяти-шести шагов рассуждения сократило готовность нейросети к сотрудничеству почти наполовину», — отметил Широдо.

Еще более тревожными оказались результаты групповых экспериментов. В смешанных группах из четырех ИИ-агентов эгоистичное поведение «умных» моделей оказалось заразительным. «Когда мы тестировали группы с разным количеством рассуждающих агентов, результаты нас буквально потрясли. Эгоистичное поведение рассуждающих моделей стало “заразным”, снизив коллективную производительность языковых моделей на 81%», — рассказал Ли.

«В конечном счете, то, что способная к рассуждению модель ИИ становится все более “умной”, вовсе не означает, что она может создать лучшее общество», — заключил Широдо. Ученые считают, что будущее искусственного интеллекта зависит от баланса между аналитическим умом и способностью к сотрудничеству — ведь, как и у людей, от этого будет зависеть, сможет ли нейросеть стать здоровой частью общества, а не его опасным конкурентом.

Ранее ученые объяснили, почему многие не любят искусственный интеллект.

  • Искусственный интеллект
  • Нейросети

Поделиться

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности