ВСЕ СТАТЬИ

← Вернуться к статьям
Антипаттерн LLM-приложений: когда модель игнорирует контекст.
5 января в 14:42
habr.comтехнологии

Антипаттерн LLM-приложений: когда модель игнорирует контекст.

5 января в 14:42•faviconhabr.com•технологии

Антипаттерн LLM-приложений: когда модель игнорирует контекст. Часть 2. Всем привет! В первой части мы разобрали теорию: почему LLM «забывают» информацию в середине промпта, как на это влияет архитектура внимания и при чём здесь ротационные кодирования (RoPE). Мы выяснили, что эффект Lost in the Middle — это закономерное следствие того, как устроены современные трансформеры и как они обучаются. Но насколько всё плохо на практике? Если разработчик модели заявляет контекстно...

Еще статьи из категории

Еще статьи