Ученые попросили нейросеть решить задачу возрастом 2000 лет: ответ удивил
Ученые провели необычный эксперимент с ChatGPT, предложив ему решить древнюю математическую задачу об удвоении площади квадрата.
Светлана ЛевченкоАвтор новостей
Задача, описанная Платоном около 385 года до нашей эры, кажется простой, но имеет неочевидное решение: чтобы удвоить площадь квадрата, нужно построить новый квадрат со стороной, равной диагонали исходного.
Ученые из Кембриджского университета и Еврейского университета в Иерусалиме выбрали именно эту задачу неслучайно. Поскольку ChatGPT обучался в основном на текстах, а не изображениях, вероятность того, что готовое решение существовало в данных, на которых его обучали, была крайне мала. То есть, что если искусственный интеллект найдет правильный ответ самостоятельно, можно будет утверждать, что математические способности приобретаются через обучение, а не являются врожденными.
Полученные выводы оказались неожиданными. Вначале чат-бот действительно сумел предложить разумное объяснение, но когда задание усложнили и попросили удвоить площадь прямоугольника, он заявил, что это невозможно с точки зрения геометрии. Ученые знали, что решение существует, а значит, ChatGPT в тот момент не цитировал готовую информацию, а действительно «импровизировал» на основе предыдущего рассуждения.
Надав Марко, приглашенный научный сотрудник в Кембридже, назвал вероятность того, что ложное утверждение могло встретиться в тренировочных данных модели, «исчезающе малой». По его словам, бот повел себя как ученик, который предлагает гипотезы, опираясь на собственный прошлый опыт. Такая манера удивительно напоминала работу человеческого разума: сначала пробовать, затем, если допущена ошибка, корректировать свои решения.
Соавтор исследования профессор Андреас Стилианидес отметил, что хотя это не указывает на наличие у нейросетей настоящего «мышления», ситуация высветила проблему «черного ящика» в ИИ. Мы видим только результат, но не понимаем, каким путем к нему пришла машина. И если для древних греков важен был сам процесс рассуждения, то и современным студентам, по мнению ученых, стоит учиться проверять и критически оценивать доказательства, предложенные алгоритмами. «В отличие от учебников, где каждое доказательство проверено, выводам ChatGPT доверять на слово нельзя», — подчеркнул Стилианидес.
Авторы работы осторожны в своих выводах: они не утверждают, что ИИ решает задачи так же, как человек. Однако «человекоподобное» поведение нейросетей открывает новые перспективы. В будущем такие модели можно будет проверять на более широком наборе задач и даже сочетать с системами динамической геометрии. Это позволит превратить чат-боты в инструмент совместного исследования, эффективного цифрового напарника для студентов и преподавателей.
Ранее ученые объяснили причины «креативности» генеративных нейросетей.
- Искусственный интеллект
- Нейросети
Поделиться