Подписывайся! Будь в курсе последних новостей
подписаться

Автор Администратор Сайта

МОСКВА, 11 марта. /Новости науки/. Искусственный интеллект не должен заменять медицинских сестер в больницах и клиниках, поскольку не способен переживать моральная ответственность за заботу о пациенте, к такому выводу пришли авторы статьи, опубликованной в The Hastings Center Report, сообщает пресс-служба Школы сестринского дела Пенсильванского университета.  

Ученые подчеркивают, что современные алгоритмы ИИ могут имитировать эмпатию и выдавать уместные ответы, но не обладают сознанием, намерением и подотчетностью — то есть тем, что делает человека моральным агентом, то есть тем, кто способен различать правильное и неправильное и может нести ответственность за свои действия.  

Отдельно в статье отмечается ценность именно сестринского ухода: терапевтическое присутствие, интуитивное человеческое взаимодействие и поддержка, особенно в ситуациях завершения жизни, по мнению авторов, не сводятся к алгоритмам и не воспроизводятся машиной.  

На фоне роста рынка «роботизированных медсестер» (в статье приводится прогноз: более 2,7 млрд долларов к 2031 году) исследователи призывают заранее выстроить этические ограничения и правила внедрения.  

Для систем здравоохранения авторы предлагают несколько практических рекомендаций. Во-первых, медсестры должны участвовать в разработке и внедрении ИИ-инструментов, чтобы они соответствовали клиническим ценностям и реальным потребностям ухода.

Во-вторых, по умолчанию нужна прозрачность: пациентам и клиницистам следует явно сообщать, где используются ИИ-сводки или ИИ-рекомендации, чтобы было понятно происхождение информации.

В-третьих, ИИ не должен принимать решения о найме медсестер, поскольку алгоритмы не способны оценить человеческие качества, связанные с эмпатией и клиническим мышлением.

Наконец, ИИ следует рассматривать как ресурс поддержки, а не как замену человеческому моральному обсуждению и ответственности.