ИИ не должен и не сможет заменить медсестер в больницах и клиниках - ученые
Ученые подчеркивают, что современные алгоритмы ИИ могут имитировать эмпатию и выдавать уместные ответы, но не обладают сознанием, намерением и подотчетностью — то есть тем, что делает человека моральным агентом, то есть тем, кто способен различать правильное и неправильное и может нести ответственность за свои действия.
Источник: University Communications/Eric Sucar. Конни М. Ульрих, доктор философии, медсестра, член Американской академии сестринского дела, заведующая кафедрой медицинского и хирургического сестринского дела имени Лилиан С. Бруннер, профессор сестринского дела и профессор медицинской этики и политики здравоохранения
МОСКВА, 11 марта. /Новости науки/. Искусственный интеллект не должен заменять медицинских сестер в больницах и клиниках, поскольку не способен переживать моральная ответственность за заботу о пациенте, к такому выводу пришли авторы статьи, опубликованной в The Hastings Center Report, сообщает пресс-служба Школы сестринского дела Пенсильванского университета.
Ученые подчеркивают, что современные алгоритмы ИИ могут имитировать эмпатию и выдавать уместные ответы, но не обладают сознанием, намерением и подотчетностью — то есть тем, что делает человека моральным агентом, то есть тем, кто способен различать правильное и неправильное и может нести ответственность за свои действия.
Отдельно в статье отмечается ценность именно сестринского ухода: терапевтическое присутствие, интуитивное человеческое взаимодействие и поддержка, особенно в ситуациях завершения жизни, по мнению авторов, не сводятся к алгоритмам и не воспроизводятся машиной.
На фоне роста рынка «роботизированных медсестер» (в статье приводится прогноз: более 2,7 млрд долларов к 2031 году) исследователи призывают заранее выстроить этические ограничения и правила внедрения.
Для систем здравоохранения авторы предлагают несколько практических рекомендаций. Во-первых, медсестры должны участвовать в разработке и внедрении ИИ-инструментов, чтобы они соответствовали клиническим ценностям и реальным потребностям ухода.
Во-вторых, по умолчанию нужна прозрачность: пациентам и клиницистам следует явно сообщать, где используются ИИ-сводки или ИИ-рекомендации, чтобы было понятно происхождение информации.
В-третьих, ИИ не должен принимать решения о найме медсестер, поскольку алгоритмы не способны оценить человеческие качества, связанные с эмпатией и клиническим мышлением.
Наконец, ИИ следует рассматривать как ресурс поддержки, а не как замену человеческому моральному обсуждению и ответственности.
Ученые подчеркивают, что современные алгоритмы ИИ могут имитировать эмпатию и выдавать уместные ответы, но не обладают сознанием, намерением и подотчетностью — то есть тем, что делает человека моральным агентом, то есть тем, кто способен различать правильное и неправильное и может нести ответственность за свои действия.
Отдельно в статье отмечается ценность именно сестринского ухода: терапевтическое присутствие, интуитивное человеческое взаимодействие и поддержка, особенно в ситуациях завершения жизни, по мнению авторов, не сводятся к алгоритмам и не воспроизводятся машиной.
На фоне роста рынка «роботизированных медсестер» (в статье приводится прогноз: более 2,7 млрд долларов к 2031 году) исследователи призывают заранее выстроить этические ограничения и правила внедрения.
Для систем здравоохранения авторы предлагают несколько практических рекомендаций. Во-первых, медсестры должны участвовать в разработке и внедрении ИИ-инструментов, чтобы они соответствовали клиническим ценностям и реальным потребностям ухода.
Во-вторых, по умолчанию нужна прозрачность: пациентам и клиницистам следует явно сообщать, где используются ИИ-сводки или ИИ-рекомендации, чтобы было понятно происхождение информации.
В-третьих, ИИ не должен принимать решения о найме медсестер, поскольку алгоритмы не способны оценить человеческие качества, связанные с эмпатией и клиническим мышлением.
Наконец, ИИ следует рассматривать как ресурс поддержки, а не как замену человеческому моральному обсуждению и ответственности.