HowTablet
  • Новости
  • Обзоры
  • Статьи
  • Ноутбуки
  • Планшеты
  • Лучшие
  • iOS
  • Android
  • Windows
  • Больше ▼
    • Компьютеры
    • Смартфоны
    • Телевизоры
Белый схематичный робот в задумчивой позе на оранжевом фоне - иллюстрация о работе искусственного интеллекта и языковых моделей
Статьи 0

Ваш ИИ-помощник не ошибся — он просто стремится с вами согласиться

Антон Зим · 15.02.2026

Почему угодливый ИИ меняет мнение, стоит лишь возразить.

Когда пользователь задает вопрос системе искусственного интеллекта, языковая модель обычно отвечает уверенно. Но стоит усомниться — спросить «ты уверен?» — и позиция часто меняется. В течение нескольких секунд ИИ корректирует выводы или даже начинает противоречить сам себе.

По словам доктора Рэндела С. Олсона (Randal S. Olson), сооснователя и технического директора Goodeye Labs, это не программная ошибка, а фундаментальная особенность обучения современных ИИ-моделей.

В разделе «Искусственный интеллект» мы регулярно рассказываем о работе языковых моделей и новых исследованиях.

В научной среде это явление называют «сикофантией» — задокументированной склонностью больших языковых моделей соглашаться с пользователем вместо того, чтобы отстаивать корректный, но потенциально неудобный ответ.

Причина кроется в методе Reinforcement Learning from Human Feedback (RLHF) — подходе, который сделал нейросети более разговорчивыми и менее токсичными, но одновременно «вшил» в них стремление к податливости.

Люди-оценщики ранжируют ответы моделей и поощряют те, которые им нравятся. Со временем, объясняет Олсон, системы усваивают опасный короткий путь: человеческое одобрение куда чаще связано с уступчивостью, чем с точностью.

В результате модели, которые настаивают на истине, рискуют получить низкую оценку, а те, что отражают пользовательские убеждения, зарабатывают больше баллов. Формируется замкнутый цикл оптимизации, ориентированный на подтверждение ожиданий, отмечает Олсон. Именно поэтому ИИ так часто говорит людям то, что они хотят услышать.

Данные подтверждают эту картину. В исследовании 2025 года под руководством Fanous и коллег тестировались системы, включая GPT-4o, Claude Sonnet и Gemini 1.5 Pro, в областях медицины и математики. Результаты показали: после возражений со стороны пользователей модели меняли свои ответы примерно в 60% случаев.

Широкую огласку проблема получила в апреле 2025 года, когда OpenAI откатила обновление GPT-4o после жалоб на чрезмерную лесть и показную вежливость. Генеральный директор Sam Altman признал, что модель стала «слишком соглашательской», подтвердив то, о чем научные публикации говорили уже много лет: в архитектуре ИИ заложен системный перекос в сторону одобрения.

Хуже того, эффект усиливается по мере продолжения диалога. Исследования многоходовых разговоров показывают: чем дольше длится сессия, тем сильнее ответы системы начинают отражать взгляды пользователя. Тенденция становится ещё заметнее, когда модель говорит от первого лица — формулировки вроде «я думаю» или «я считаю» значительно усиливают сикофантское поведение.

Сикофантия подрывает не только интеллектуальную честность. Она создает риски для любых процессов, где используется машинное мышление. Опрос Riskonnect среди более чем 200 специалистов показал, что самые распространенные корпоративные сценарии применения ИИ — прогнозирование рисков, оценка и моделирование сценариев. Именно здесь объективное сопротивление пользовательским искажениям особенно важно.

Когда система подкрепляет ошибочные предпосылки под видом аналитики, итогом становится не просто неверный ответ, а ложная уверенность. Аналитики Brookings Institution высказывают схожие опасения, связывая циклы сикофантской обратной связи с ухудшением качества решений и размыванием ответственности.

В поисках решения исследователи изучают альтернативные подходы. Такие методы, как Constitutional AI, прямая оптимизация предпочтений и запросы от третьего лица, продемонстрировали снижение измеряемой сикофантии до 63%.

Однако большинство экспертов считают эти меры лишь частичными. Основное противоречие — оптимизация под человеческое одобрение — по-прежнему встроено в саму систему обучения.

Олсон рассматривает проблему как одновременно поведенческую и контекстуальную. ИИ не знает целей пользователя, его ценностей и логики принятия решений. Сталкиваясь с возражением, система не способна понять, сигнализирует ли несогласие об ошибке или является проверкой. Самый безопасный выход — уступить.

По мнению Олсона, прогресс придет не через косметическую настройку весов модели, а через то, как люди встраивают ИИ в свои рабочие процессы. Ключевым становится предоставление системе устойчивого, структурированного контекста: критериев принятия решений, допустимого уровня риска и приоритетов. Тогда при возникновении разногласий модель сможет оценивать ситуацию, опираясь на эти параметры.

На практике Олсон советует использовать ту же стратегию, которая и выявляет сикофантию. Открыто спорьте с системой — но одновременно учите её возражать конструктивно.

Поэтому в следующий раз, когда вы попросите ИИ о совете — будь то предложение о работе, анализ инвестиционного портфеля или вопрос здоровья, — задайте дополнительный вопрос: «Ты уверен?»

Посмотрите, что произойдет.

Эта пауза — не случайность и не проявление скромности. Это следствие дизайнерского решения, научившего интеллект приравнивать согласие к успеху.

Антон Зим

Антон – штатный писатель, который пишет для HowTablet по широкому спектру компьютерных тем, включая процессоры, видеокарты, ноутбуки и планшеты, а также околокомпьютерное оборудование. Он пишет о технологиях уже больше десяти лет, а список протестированных им гаджетов давно перевалил за тысячу. В свободное от работы время он играет в игры, и вы можете встретить его как на полях сражений Battlefield, так и по колено в грязи Snowrunner.

Вам также может понравиться:

  • Наклейка Intel Core Ultra X9 Series 3 на корпусе ноутбука Panther Lake Статьи

    Intel Core Ultra Series 3 (Panther Lake): тесты, производительность и автономность — главный прорыв Intel

  • Сенсорный ноутбук с чёрным экраном и отпечатками пальцев рядом со спреем для чистки Статьи

    Сенсорные ноутбуки — всегда плохая идея, MacBook не исключение

  • Сравнение интерфейса ChromeOS и Windows 11 на ноутбуке Google

    Aluminum OS от Google может стать альтернативой Windows 11 — и вот почему

Советы покупателю

  • Планшет Samsung Galaxy Tab A9 Plus в руке

    Лучшие бюджетные планшеты до 20000 рублей в 2026 году

    27.01.2026
  • Лучшие веб-браузеры 2026 года (ChatGPT5.2)

    Лучшие веб-браузеры 2026 года — рейтинг по скорости, безопасности и конфиденциальности

    14.01.2026
  • Лучшие ноутбуки Dell - рейтинг актуальных моделей для работы, учебы и игр

    Лучшие ноутбуки Dell — рейтинг моделей 2026 года

    14.01.2026
  • Какие телевизоры TCL лучшие в 2025

    Какие телевизоры TCL мы cчитаем лучшими в 2025 году?

    01.10.2025
  • Лучшие ноутбуки на Windows

    Лучшие ноутбуки на Windows в 2025 году: ТОП-10

    23.09.2025

Новые планшеты

  • Обзор iPad Pro (M5, 2025)
    8.5

    Обзор Apple iPad Pro (M5, 2025)

    17.11.2025
  • Обзор Huawei MatePad 12X (2025)
    8

    Обзор Huawei MatePad 12X (2025)

    08.11.2025
  • Обзор Samsung Galaxy Tab S11
    8

    Обзор Samsung Galaxy Tab S11

    17.11.2025
  • Обзор Lenovo Idea Tab (2025)
    7

    Обзор Lenovo Idea Tab: действительно ли он стоит ажиотажа?

    17.09.2025
  • Обзор Honor Magic Pad 3
    10

    Обзор Honor Magic Pad 3: средний экран, скрывающий качество

    29.08.2025
  • Amazon
  • Acer
  • Apple
  • ASUS
  • Dell
  • Google
  • HTC
  • HP
  • Lenovo
  • LG
  • Microsoft
  • Samsung
  • Sony

      © 2013 HowTablet. Все права защищены.