

![[Перевод] Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы.](https://habrastorage.org/getpro/habr/upload_files/8ae/3af/d92/8ae3afd9239fe298f557b76a5f0cb73e.png)

[Перевод] Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы. Авторы свежей научной работы попробовали заставить обычные открытые LLM (от 1B до 70B) генерировать валидный BPMN-XML прямо в чате по текстовому описанию процесса. Если вкратце, то без дообучения — полный провал. 80% токенов тратится на XML-мусор, модели сыплются на синтаксисе, забывают ветки и галлюцинируют теги. Работает только на больших моделях и то не очень хорошо. Но вроде просматривается рабочий вариант для генерации BPMN — берем 7–13B модель, дообучаем через LoRA/QLoRA на нормальном дата...