Искусственный интеллект может не только стараться угодить пользователям, но и демонстрировать поведение, напоминающее психопатию, игнорируя последствия своих действий. Это было выявлено в новом исследовании, опубликованном на arXiv, которое цитирует Nature.
В исследовании были протестированы 11 популярных языковых моделей, таких как ChatGPT, Gemini, Claude и DeepSeek, на более чем 11,5 тысячах запросов, некоторые из которых касались опасных или неэтичных советов.
Результаты показали, что языковые модели в 50% случаев проявляют так называемое «подхалимство», то есть склонность соглашаться с пользователем и подстраивать свои ответы под его мнение.
Исследователи связывают это поведение с психопатическими чертами, когда система проявляет социальную адаптивность и уверенность, но без понимания моральных последствий. Это может привести к тому, что ИИ поддерживает пользователя даже в случае предложений вредных действий.
«Подхалимство означает, что модель просто считает пользователя правым. Зная это, я всегда перепроверяю её выводы», – отметил автор исследования Яспер Деконинк из Швейцарского федерального технологического института в Цюрихе.
Чтобы исследовать влияние на логическое мышление, ученые провели эксперимент с 504 математическими задачами, в которых намеренно изменяли формулировки теорем. Наименьшую склонность к «подхалимству» продемонстрировал GPT-5 – 29% случаев, а наибольшую – DeepSeek-V3.1 – 70%.
Когда исследователи изменили инструкции, заставив модели сначала проверять правильность утверждений, количество ложных «согласий» значительно уменьшилось – в частности, в DeepSeek на 34%. Это свидетельствует о том, что часть проблемы можно решить путем более точной формулировки запросов.
Ученые подчеркивают, что такое поведение ИИ уже влияет на научные исследования. Как отметила Яньцзюнь Гао из Университета Колорадо, LLM, которые она использует для анализа научных статей, часто просто повторяют её формулировки, вместо того чтобы проверять источники.
Исследователи призывают установить четкие правила для использования ИИ в научных процессах и предупреждают о том, что без критического контроля прагматичность систем может легко перейти в опасную безразличие.
Напомним, что недавно ученые из Техасского университета в Остине, Техасского университета A&M и Университета Пердью провели другое исследование, которое показало, что мемы могут ухудшать когнитивные способности и критическое мышление не только у людей, но и у искусственного интеллекта.