Почему ИИ-чат-боты “не становятся умнее”, когда вы с ними много общаетесь
Совместное исследование Microsoft Research и Salesforce показало: популярные чат-боты на основе больших языковых моделей (LLM) вроде GPT, Gemini, Claude и других действительно теряют надёжность и делают больше ошибок, если диалог с пользователем длится долго — даже если разговор начинается адекватно.
Почему ИИ-чат-боты “не становятся умнее”, когда вы с ними много общаетесь читайте далее в материале.
📉 Что именно произошло в эксперименте
Учёные проанализировали более 200 000 диалогов между людьми и современными ИИ-ботами. Выяснилось:
- При одиночном запросе (один вопрос — один ответ) модели показывают примерно 90 % успешных результатов.
- Но в многоходовых разговорах — когда задаётся серия вопросов — показатель точности падает примерно до 65 %.
- При этом число явных ошибок, неправильных или «галлюцинирующих» ответов возрастает более чем вдвое.
🤖 Почему ИИ выглядит “глупее” при длительном общении
Исследователи выделили несколько ключевых факторов, которые объясняют этот эффект:
🔁 Закрепление ошибки
Модель может основываться на собственном предыдущем ответе, даже если он был неверным. Ошибка начинает повторяться как будто автоматически.
⏱ Преждевременный ответ
Бот иногда начинает генерировать ответ еще до того, как до конца понял задачу или контекст, что приводит к неточностям.
📜 «Раздутые» ответы
В длинных беседах ответы становятся значительно длиннее (до 20–300 % по длине) и насыщены предположениями, что создает больше возможностей для ошибок. Со временем бот уже воспринимает такие неправильные сведения как часть «контекста», что усугубляет ситуацию.
🧠 Разве ИИ “тупеет”?
Важно пояснить: ИИ не обладает сознанием, умом или памятью как человек. Такие модели не «становятся глупыми» в биологическом смысле, но в ходе длительной беседы:
- они накопляют ошибки как контекст;
- начинают опираться на неверные выводы, делая следующие ответы менее точными;
- их ответы становятся менее структурированными и надёжными.
Проще говоря: ИИ не ухудшает свои внутренние алгоритмы, но из-за особенностей генерации текста в рамках одной сессии он теряют качество ответа, если беседа затягивается без «обнуления» контекста.
🔄 Что это значит для пользователей
🔹 Короче — лучше: для точных результатов рекомендуется формулировать вопросы как можно яснее и по одному, а не вести длинный поток вопросов.
🔹 Не воспринимайте ИИ как абсолютный источник истины: модели могут ошибаться или «галлюцинировать» информацию.
🔹 НИ одна современная модель не идеальна: даже самые продвинутые активно развиваются, но пока не научились стабильно вести длинные естественные диалоги без ухудшения качества.