Подписывайся! Будь в курсе последних новостей
подписаться

Автор Администратор Сайта

МОСКВА, 17 апреля. /Новости науки/. Активное использование искусственного интеллекта в рабочих задачах может не столько «отуплять» людей, сколько подрывать их уверенность в собственных выводах и ослаблять чувство авторства своих идей. К такому выводу пришли исследователи, чья работа опубликована Американской психологической ассоциацией в журнале Technology, Mind, and Behavior.

В исследовании участвовали 1923 взрослых из США и Канады. Им предложили использовать доступные ИИ-сервисы для решения десяти типичных рабочих задач. Среди них были планирование в условиях неполной информации, интерпретация неоднозначных данных и объяснение логики стратегических решений.

После выполнения заданий 58% участников согласились с утверждением, что основную часть работы за них сделал ИИ. Особенно часто это ощущение возникало в задачах, связанных с планированием и выстраиванием последовательности действий.

Именно у таких участников чаще снижалась уверенность в собственной способности рассуждать самостоятельно. Кроме того, они реже воспринимали итоговые идеи как по-настоящему свои и чаще признавали, что жертвовали глубиной размышлений ради скорости выполнения задачи. Мужчины в среднем сообщали о более высокой зависимости от ИИ, чем женщины.

Однако исследование показало и важную разницу. Люди, которые не просто принимали ответы ИИ, а спорили с ними, переделывали их, уточняли или вовсе отвергали, чувствовали себя заметно увереннее и сильнее воспринимали результат как собственную работу.

«Проблема заключалась не в самом использовании ИИ, а в степени пассивного принятия. Участники, которые пользовались ИИ, но сохраняли контроль и активное суждение, как правило, чувствовали себя увереннее в собственном мышлении», — пояснила автор исследования Сара Балдео.

По ее словам, главная опасность не в том, что ИИ делает людей менее умными, а в том, что часть пользователей может все реже включаться в глубокую умственную работу, из которой и рождаются действительно новые идеи.

Авторы подчеркивают, что результаты пока носят корреляционный характер. Иными словами, исследование показывает связь, но не доказывает напрямую, что именно ИИ становится причиной снижения уверенности. Тем не менее выводы достаточно ясны: пассивное следование советам алгоритма может быть психологически не таким безобидным, как кажется.

Исследователи считают, что сами ИИ-системы стоит проектировать так, чтобы они не подталкивали пользователя к слепому согласию. Например, программы могли бы чаще предлагать человеку подумать над альтернативами, перепроверить допущения и не принимать ответ сразу как окончательный.

Сара Балдео также предложила несколько практических советов. По ее мнению, полезно сначала пытаться решить задачу самостоятельно, а уже потом обращаться к ИИ. Кроме того, стоит несколько раз уточнять и перерабатывать запросы к системе, чтобы не превращать работу в механическое копирование ответа. Еще одна рекомендация — устраивать хотя бы несколько дней в неделю без ИИ в рабочих задачах, чтобы не попадать в состояние «интеллектуального выравнивания», когда человек начинает думать и даже писать слишком шаблонно, как машина.

«В целом лучший способ использовать ИИ — обучать его, а не позволять ему обучать вас», — отметила Балдео.
Работа еще раз показывает, что искусственный интеллект может быть полезным помощником, но только в том случае, если человек остается главным участником процесса, а не превращается в пассивного редактора чужих ответов.