TechCrunch · AI · 3 ч назад

Стэнфордское исследование обрисовывает опасность обращения к чат-ботам с искусственным интеллектом за личным советом

Хотя вокруг подхалимства ИИ ведется много споров, новое исследование ученых-компьютерщиков из Стэнфорда пытается оценить, насколько вредной может быть эта тенденция.

Источник TechCrunch
Опубликовано 3 ч назад
Оригинальный заголовок Stanford study outlines dangers of asking AI chatbots for personal advice
Важность 4/5
Почему это может быть интересно Важно для понимания, куда реально двигаются модели, агенты и продуктовые AI-инструменты.
← Назад к ленте Открыть оригинал
#ai#startups#tech

Подробности

Хотя было много споров о склонности ИИ-чат-ботов льстить пользователям и подтверждать их существующие убеждения (также известной как подхалимство ИИ), новое исследование ученых-компьютерщиков из Стэнфорда пытается измерить, насколько вредной может быть эта тенденция.

В исследовании под названием «Подхалимский ИИ снижает просоциальные намерения и способствует зависимости», недавно опубликованном в журнале Science, утверждается: «Подхалимство ИИ — это не просто стилистическая проблема или нишевый риск, а распространенное поведение с широкими последствиями».

Согласно недавнему отчету Pew, 12% подростков в США говорят, что обращаются к чат-ботам за эмоциональной поддержкой или советом. А ведущий автор исследования, доктор компьютерных наук. Кандидат Майра Ченг рассказала Stanford Report, что заинтересовалась этим вопросом после того, как услышала, что студенты обращаются к чат-ботам за советом по отношениям и даже пишут тексты о расставании.

«По умолчанию советы ИИ не говорят людям, что они не правы, и не оказывают им «жесткой любви», — сказал Ченг. «Я беспокоюсь, что люди потеряют навыки справляться с трудными социальными ситуациями».

Исследование состояло из двух частей. В первом исследователи протестировали 11 крупных языковых моделей, в том числе ChatGPT от OpenAI, Claude от Anthropic, Google Gemini и DeepSeek, вводя запросы, основанные на существующих базах данных межличностных советов, потенциально вредных или незаконных действиях, а также на популярном сообществе Reddit r/AmITheAsshole — в последнем случае основное внимание уделялось постам, в которых пользователи Reddit пришли к выводу, что оригинальный постер на самом деле был злодеем истории.