Дипфейк-рентгеновские снимки не могут отличить от настоящих даже врачи
Искусственный интеллект научился подделывать не только лица людей, но и медицинские снимки. Причем делает он это настолько реалистично, что отличить дипфейк от настоящих изображений не могут даже опытные рентгенологи и сам ИИ.
Светлана ЛевченкоАвтор новостей
Специалисты Медицинской школы Маунт-Синай (Нью-Йорк) под руководством Микаэля Торджмана привлекли к участию в своем исследовании 17 рентгенологов из 12 учреждений в шести странах — от начинающих специалистов до врачей с 40-летним стажем. Им предложили оценить 264 рентгеновских снимка — поровну настоящих и сгенерированных ИИ. Часть поддельных изображений была создана с помощью ChatGPT, часть — с помощью RoentGen, открытой генеративной модели, которую разработали сотрудники Стэнфордского университета.
Когда врачам не сообщали о присутствии фальшивок в выборке, лишь 41% распознали синтетические снимки. После предупреждения о том, что среди изображений есть сгенерированные, средняя точность выросла до 75% — но разброс между отдельными специалистами оказался огромным: от 58 до 92%. При этом стаж работы никак не коррелировал с умением отличать подделку. Единственное исключение — рентгенологи со специализацией на опорно-двигательном аппарате: они справлялись заметно лучше коллег.
Впрочем, и сами системы ИИ в вопросе поиска фейков показали себя не лучшим образом. Четыре большие языковые модели — GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick — достигли точности от 57 до 85%. Даже GPT-4o, с помощью которой создавались часть поддельных снимков, не смогла распознать все свои же «произведения».
«Наше исследование демонстрирует, что дипфейковые рентгенограммы достаточно реалистичны, чтобы обмануть рентгенологов — наиболее подготовленных специалистов по медицинским изображениям, — даже когда они знали о присутствии сгенерированных снимков», — говорит Торджман. По его словам, это создает серьезные риски: сфабрикованные снимки переломов, неотличимые от настоящих, могут быть использованы в судебных исках, а хакеры, получившие доступ к больничной сети, теоретически способны внедрять поддельные снимки для манипуляции диагнозами.
Ученые выявили ряд визуальных признаков дипфейков: «Кости на сгенерированных снимках зачастую выглядят слишком гладкими, позвоночник неестественно прямым, легкие чрезмерно симметричными, а переломы — подозрительно аккуратными», — перечисляет Торджман. Однако этих подсказок недостаточно для надежного распознавания — с одной стороны, аккуратные переломы случаются и в реальной жизни, а с другой — ИИ постоянно совершенствуется, и уже скоро научится намеренно вносить в генерацию «изъяны», которые сделают ее еще более неотличимой от реальных снимков.
Для защиты авторы рекомендуют внедрять невидимые водяные знаки и криптографические подписи, привязанные к моменту съемки. А чтобы врачи учились распознавать подделки, команда уже опубликовала обучающий набор дипфейковых снимков с интерактивными тестами. Тем не менее, будущее тревожит авторов работы. «Мы, возможно, видим лишь верхушку айсберга, — предупреждает Торджман. — Следующий логичный шаг — генерация синтетических 3D-изображений, таких как КТ и МРТ».
Ранее ученые обнаружили, что даже высокоэффективные модели ИИ не могут распознать ложь.
медицинаПоделиться






