В США стали запрещать использование ИИ для психотерапии и лечения

Все больше штатов вводят жесткое регулирование использования нейросетей.

В США стали запрещать использование ИИ для психотерапии и лечения

Сергей ПерельманАвтор новостей

Губернатор штата Иллинойс в США Джей Би Прицкер подписал новый закон, который запрещает использовать искусственный интеллект в качестве психотерапевта или консультанта в области здравоохранения. Власти хотят взять под контроль использование многочисленных нейросетей, которые применяются для оказания психологической помощи: от простых чат-ботов до продвинутых ИИ-систем.

Новый закон запрещает частным лицам и компаниям предлагать и рекламировать терапевтические услуги, оказываемые с помощью искусственного интеллекта. Они могут идти только в связке с консультацией лицензированного профильного специалиста. Независимые терапевтические решения ИИ применять в практике прямо запрещено. Нарушение правила может повлечь за собой штраф до 10 000 долларов.

В то же время ИИ-платформы в медицине можно использовать для решения административных задач, например составления плана встреч и приемов, обработки счетов и ведения записей.

Жители Иллинойса заслуживают качественной медицинской помощи от настоящих квалифицированных специалистов, а не от компьютерных программ, которые собирают информацию со всех уголков Интернета, чтобы генерировать ответы, приносящие в итоге вред.Марио Третосекретарь Департамента финансового и профессионального регулирования штата Иллинойс

Аналогичные законы принимают и другие штаты. В Неваде, например, раньше запретили использовать ИИ в психологических консультациях. В Юте жестко регламентировали применение нейросетей. В частности, чат-бот должен регулярно напоминать пользователю, что он взаимодействует не с живым человеком, а с искусственным интеллектом. Также ИИ не может распространять полученные от клиента сведения для рекламных целей. А в Нью-Йорке с 5 ноября вступит в силу закон, который обязывает владельцев ИИ-систем для психологических консультаций направлять данные пользователей, высказывающих мысли о самоубийстве, на специальную горячую линию.

В США активизировалась законотворческая деятельность в этом направлении после консультаций властей с Американской психологической ассоциацией (APA). Последняя выразила опасения в том, что ИИ в консультациях может нести угрозу. В частности, приводятся в пример два судебных иска, поданных родителями, чьи дети использовали чат-ботов, выдававших себя за психотерапевтов, а потом вели себя неадекватно.

Ранее мы рассказывали, что ученые раскрыли особенность мозга оптимистов.

  • Искусственный интеллект

Поделиться

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности