«Когнитивный костыль»: как ИИ ослабляет нашу память

Искусственный интеллект все шире применяется в самых разных сферах жизни, в том числе, в образовании. Однако ученые относятся к внедрению инструментов ИИ в обучение достаточно сдержанно: плата за них может оказаться неприемлемо высокой.

Светлана ЛевченкоАвтор новостей

Идея этого необычного исследования родилась у профессора Федерального университета Рио-де-Жанейро Андре Баркауи из его личных наблюдений. «Меня всегда больше всего мотивировали мои собственные студенты, — рассказал Баркауи. — Но я чувствую, что с годами у них все заметнее снижаются познавательный интерес и когнитивные способности. Я общался с коллегами из других стран и обнаружил, что это явление уникально для Бразилии».

В эксперименте участвовали 120 студентов-бакалавров в возрасте от 18 до 24 лет, которых случайным образом разделили на две равные группы. Обе получили одинаковое задание: за две недели изучить основы искусственного интеллекта — этику, влияние на общество, технические принципы — и подготовить десятиминутную презентацию. Первая группа пользовалась ChatGPT как учебным помощником, вторая — только традиционными источниками: конспектами, научными базами данных и обычными поисковиками.

Через полтора месяца после презентаций студентов неожиданно попросили пройти тест из двадцати вопросов, проверяющий не зубрежку определений, а понимание концепций. Результат оказался показательным: пользователи чат-бота ответили правильно в среднем на 57,5 % вопросов, а студенты, занимавшиеся традиционно, — на 68,5 %.

Разрыв был особенно заметен в сложных технических темах, где для усвоения материала требуется больше умственных усилий. В психологии это называют принципом «желательных трудностей»: когда студент дольше самостоятельно работает над задачей, его мозг формирует более прочные связи, и знания лучше закрепляются в долговременной памяти. Чат-бот, выдавая готовые и гладко оформленные ответы, снимает эту полезную нагрузку.

Примечательно, что студенты, которые пользовались ИИ, тратили на подготовку в среднем 3,2 часа, тогда как добровольцы, не использовавшие чат-бот — почти 6 часов. Но даже с поправкой на разницу во времени результаты второй группы оставались выше — значит, дело было не только в количестве часов, проведенных за работой, но и в качестве умственной деятельности. Чтение готовых ответов чат-бота создает ощущение понимания, но не заставляет мозг самостоятельно извлекать и обрабатывать информацию.

Еще один важный вывод: опыт использования ИИ не помогал. Студенты, давно знакомые с чат-ботами, справились с тестом не лучше новичков. Это стало еще одним подтверждением гипотезы об «иллюзии компетентности» — инструменты на основе ИИ всего лишь создают ложное чувство, что материал усвоен, выполняя по сути функцию «когнитивного костыля».

Баркауи подчеркивает: ИИ должен быть «вторым пилотом, а не автопилотом». Продуктивность не равна компетентности, и делегирование мышления машине может ослабить способность к критическому анализу — подобно тому, как калькуляторы когда-то подточили навыки устного счета. Ценность человека, по мнению ученого, все больше будет определяться умением задавать правильные вопросы и критически оценивать полученные ответы, а не просто получать их.

Ранее ученые выяснили, что лесть ИИ портит наши отношения с окружающими.

Искусственный интеллектПоделиться

Добавить комментарий

«Когнитивный костыль»: как ИИ ослабляет нашу память

Искусственный интеллект все шире применяется в самых разных сферах жизни, в том числе, в образовании. Однако ученые относятся к внедрению инструментов ИИ в обучение достаточно сдержанно: плата за них может оказаться неприемлемо высокой.

Светлана ЛевченкоАвтор новостей

Идея этого необычного исследования родилась у профессора Федерального университета Рио-де-Жанейро Андре Баркауи из его личных наблюдений. «Меня всегда больше всего мотивировали мои собственные студенты, — рассказал Баркауи. — Но я чувствую, что с годами у них все заметнее снижаются познавательный интерес и когнитивные способности. Я общался с коллегами из других стран и обнаружил, что это явление уникально для Бразилии».

В эксперименте участвовали 120 студентов-бакалавров в возрасте от 18 до 24 лет, которых случайным образом разделили на две равные группы. Обе получили одинаковое задание: за две недели изучить основы искусственного интеллекта — этику, влияние на общество, технические принципы — и подготовить десятиминутную презентацию. Первая группа пользовалась ChatGPT как учебным помощником, вторая — только традиционными источниками: конспектами, научными базами данных и обычными поисковиками.

Через полтора месяца после презентаций студентов неожиданно попросили пройти тест из двадцати вопросов, проверяющий не зубрежку определений, а понимание концепций. Результат оказался показательным: пользователи чат-бота ответили правильно в среднем на 57,5 % вопросов, а студенты, занимавшиеся традиционно, — на 68,5 %.

Разрыв был особенно заметен в сложных технических темах, где для усвоения материала требуется больше умственных усилий. В психологии это называют принципом «желательных трудностей»: когда студент дольше самостоятельно работает над задачей, его мозг формирует более прочные связи, и знания лучше закрепляются в долговременной памяти. Чат-бот, выдавая готовые и гладко оформленные ответы, снимает эту полезную нагрузку.

Примечательно, что студенты, которые пользовались ИИ, тратили на подготовку в среднем 3,2 часа, тогда как добровольцы, не использовавшие чат-бот — почти 6 часов. Но даже с поправкой на разницу во времени результаты второй группы оставались выше — значит, дело было не только в количестве часов, проведенных за работой, но и в качестве умственной деятельности. Чтение готовых ответов чат-бота создает ощущение понимания, но не заставляет мозг самостоятельно извлекать и обрабатывать информацию.

Еще один важный вывод: опыт использования ИИ не помогал. Студенты, давно знакомые с чат-ботами, справились с тестом не лучше новичков. Это стало еще одним подтверждением гипотезы об «иллюзии компетентности» — инструменты на основе ИИ всего лишь создают ложное чувство, что материал усвоен, выполняя по сути функцию «когнитивного костыля».

Баркауи подчеркивает: ИИ должен быть «вторым пилотом, а не автопилотом». Продуктивность не равна компетентности, и делегирование мышления машине может ослабить способность к критическому анализу — подобно тому, как калькуляторы когда-то подточили навыки устного счета. Ценность человека, по мнению ученого, все больше будет определяться умением задавать правильные вопросы и критически оценивать полученные ответы, а не просто получать их.

Ранее ученые выяснили, что лесть ИИ портит наши отношения с окружающими.

Искусственный интеллектПоделиться

Добавить комментарий

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности