Антипаттерн LLM-приложений: когда модель игнорирует контекст. Часть 2. Всем привет! В первой части мы разобрали теорию: почему LLM «забывают» информацию в середине промпта, как на это влияет архитектура внимания и при чём здесь ротационные кодирования (RoPE). Мы выяснили, что эффект Lost in the Middle — это закономерное следствие того, как устроены современные трансформеры и как они обучаются. Но насколько всё плохо на практике? Если разработчик модели заявляет контекстно...