CEO Notion Иван Чжао дал интервью, которое стоит прочитать каждому, кто строит продукт или работает с ИИ: о кастомных агентах, ценообразовании будущего и фразе, которую процитирова…
Есть термин, который мало кто знает, но почти каждый сталкивался с его последствиями: контекстный распад (context rot). Это когда вы загружаете модели полный контекстный файл — и качество ответов начинает падать на глазах.
Один разработчик прогнал одинаковые промпты через Gemini 3.1 Pro и Claude Opus с одними и теми же объёмными контекстными файлами. Gemini обладает значительно большим контекстным окном — казалось бы, должен выигрывать.
Но нет. Оба столкнулись с одной и той же стеной примерно в одном и том же месте.
Смысл вот в чём: размер контекстного окна — не главное. Главное — качество того, что вы туда кладёте. Чем больше лишнего материала, тем сильнее «размывается» внимание модели. Она начинает хуже держать нить, упускает детали, теряет точность.
Я сам замечаю это в работе. Когда подключаю к агенту большой документ целиком — вместо того чтобы дать только нужный фрагмент — ответы становятся заметно хуже. Не потому что модель плохая, а потому что я перегружаю её ненужным шумом.
Вывод простой: меньше и точнее всегда лучше, чем «давайте скинем всё подряд». Структурируйте контекст. Убирайте лишнее. Давайте модели только то, что действительно нужно для конкретной задачи.
Это одна из тех настроек, которая мгновенно улучшает качество работы с любой моделью — без смены модели, без дополнительных затрат.
По теме
- Мета-навык против навыка: почему чужой промпт не изменит вашу работу с ИИ
- Глубокое исследование: инструмент, которым вы пользуетесь слишком редко
- Prompt engineering мёртв? Загляните внутрь любого skill-файла
Есть вопросы или хотите попробовать —