НЕТ ЦЕНЗУРЕ

Обзор журналистики и блогосферы

Общество

Почему ИИ-чат-боты “не становятся умнее”, когда вы с ними много общаетесь

Совместное исследование Microsoft Research и Salesforce показало: популярные чат-боты на основе больших языковых моделей (LLM) вроде GPT, Gemini, Claude и других действительно теряют надёжность и делают больше ошибок, если диалог с пользователем длится долго — даже если разговор начинается адекватно.

Почему ИИ-чат-боты “не становятся умнее”, когда вы с ними много общаетесь читайте далее в материале.


📉 Что именно произошло в эксперименте

Учёные проанализировали более 200 000 диалогов между людьми и современными ИИ-ботами. Выяснилось:

  • При одиночном запросе (один вопрос — один ответ) модели показывают примерно 90 % успешных результатов.
  • Но в многоходовых разговорах — когда задаётся серия вопросов — показатель точности падает примерно до 65 %.
  • При этом число явных ошибок, неправильных или «галлюцинирующих» ответов возрастает более чем вдвое.

🤖 Почему ИИ выглядит “глупее” при длительном общении

Исследователи выделили несколько ключевых факторов, которые объясняют этот эффект:

🔁 Закрепление ошибки

Модель может основываться на собственном предыдущем ответе, даже если он был неверным. Ошибка начинает повторяться как будто автоматически.

⏱ Преждевременный ответ

Бот иногда начинает генерировать ответ еще до того, как до конца понял задачу или контекст, что приводит к неточностям.

📜 «Раздутые» ответы

В длинных беседах ответы становятся значительно длиннее (до 20–300 % по длине) и насыщены предположениями, что создает больше возможностей для ошибок. Со временем бот уже воспринимает такие неправильные сведения как часть «контекста», что усугубляет ситуацию.


🧠 Разве ИИ “тупеет”?

Важно пояснить: ИИ не обладает сознанием, умом или памятью как человек. Такие модели не «становятся глупыми» в биологическом смысле, но в ходе длительной беседы:

  • они накопляют ошибки как контекст;
  • начинают опираться на неверные выводы, делая следующие ответы менее точными;
  • их ответы становятся менее структурированными и надёжными.

Проще говоря: ИИ не ухудшает свои внутренние алгоритмы, но из-за особенностей генерации текста в рамках одной сессии он теряют качество ответа, если беседа затягивается без «обнуления» контекста.


🔄 Что это значит для пользователей

🔹 Короче — лучше: для точных результатов рекомендуется формулировать вопросы как можно яснее и по одному, а не вести длинный поток вопросов.
🔹 Не воспринимайте ИИ как абсолютный источник истины: модели могут ошибаться или «галлюцинировать» информацию.
🔹 НИ одна современная модель не идеальна: даже самые продвинутые активно развиваются, но пока не научились стабильно вести длинные естественные диалоги без ухудшения качества.