Исследования
Каждая техника форматирования в NovaPrompt подкреплена научными работами. Ниже — 139 исследований из ведущих лабораторий мира, сгруппированных по темам.
Материалы курса по промпт-форматированию от NovaSapiens. Все ссылки ведут на страницы с разбором статей на русском языке.
Форматирование и структура
Как разделители, заголовки и визуальная структура влияют на точность модели
2504.02052Структурированные промпты позволяют слабым моделям достигать уровня сильных2510.26238Без визуальных разделителей модель теряет 16-24% точности2510.05152Явное указание разделителей стабилизирует точность (30-80% → 70-80%)2505.14178Разделители токенов драматически улучшают точность на аналитических задачах2504.05689Ролевые разделители <USER:> и [INST] управляют поведением модели2503.01622DOVE: тонкая настройка форматирующих элементов стабилизирует выход модели2510.13191C-NORM: модели экстремально чувствительны к типу разделителя2507.070455C Framework: 5-компонентная структура (Context, Constraints, Criteria, Cues, Chain)2601.14152Контекст ПЕРЕД вариантами выбора (формат CQO), decoder-only архитектура2601.10102Роль перебивает явные инструкции и числа2504.02111Избыточное форматирование и КАПС снижают точность рассуждений2505.13171Якорь первых слов: первые слова промпта определяют интерпретацию2503.03194Markdown-иерархия как структура для промптов2505.13360Таблицы и структурированные данные в промптах2506.05739Полиморфный промптинг: визуальные разделители между секциями2505.13546Модульные секции (Role/Task/Context) делают промпт устойчивым к изменениям2601.15251Формат записи чисел меняет точность на 87%2411.03766LLM фундаментально не являются калькуляторами (Chain-of-Thought для чисел)2601.02023Плотность информации важнее длины контекста2512.17920U-образная кривая длины промпта: средние промпты хуже коротких и длинныхXML и семантическая разметка
XML-теги как средство снижения когнитивной нагрузки модели
MetaGlyph и символьные нотации
Символы вместо слов: экономия токенов без потери качества
Таблицы и структурированные данные
JSON, таблицы и структуры данных внутри промптов
2504.07087JSON группирует связанные факты рядом (+точность)2410.10813JSON-структура + «извлеки → ответь» улучшает работу с большим контекстом2506.02589JSON-формат повышает полноту (recall) при извлечении сущностей2502.18878Think-of-Structure (ToS): сначала модель «думает» о структуре, потом генерирует2508.11454Референсные данные в JSON для сравнительного анализа2601.18014Схема-первый промпт для извлечения данных2509.24592Промежуточный JSON вместо сложных форматов (BPMN, XML)2511.03570Канонизация чисел в JSON2506.14927MDBench: бенчмарк Markdown-структурFew-shot и примеры
Как примеры в промпте влияют на качество, формат и стиль ответа
2310.07019Конкретные примеры стабильнее абстрактных правил2502.11681Стиль и структура примеров переносятся на результат2504.05716Примеры важнее логики: простой промпт с примерами лучше сложного без2502.10634Format Over Content: формат примера важнее его содержания2503.19602Less is More: один качественный пример лучше множества посредственных2411.14720Оптимальное число примеров (~6 для GPT-4, Claude)2504.20444Recency Bias: последний пример весит больше первого2506.00842Contrastive Examples: контрастные пары (позитив + негатив) эффективнее2506.06699Edge Cases: пограничные случаи учат модель нюансам2504.08745Негативные примеры повышают точность на ~15%2506.23149Ловушка однообразия: похожие примеры вредят разнообразию2504.06969Format Diversity: разнообразные форматы примеров повышают устойчивость2503.15579Generalization: разнообразие примеров включает обобщение у модели2506.04855Instruction-Example Conflict: при конфликте пример побеждает инструкцию2506.13109Fragments: короткие фрагменты почти так же эффективны, как полные примеры2509.23501Role-Based Prompting: роли (user/assistant) работают лучше текстовых меток2601.16466История перевешивает system prompt для стиля (5-10 примеров > инструкция)Chain-of-Thought и рассуждения
Пошаговые рассуждения, их пределы и оптимальное применение
2505.10981Chain-of-Thought: классическая техника «думай шаг за шагом»2505.22113Overthinking: на простых задачах CoT вредит2504.07128Sweet Spot: оптимальная длина рассуждений (3-5 шагов)2506.01341Error Propagation: ранняя ошибка убивает всю цепочку CoT2504.05081CoT Hurts Pattern-Matching: для паттернов прямой ответ лучше2507.09850Structure Over Correctness: структура рассуждения важнее правильности ответа2507.10906CoT + Few-Shot = максимальная эффективность2601.01490Reasoning меняет тип ошибки (скрытые искажения вместо открытых нарушений)2601.07525Строгий формат с первого токена душит рассуждение2601.13537Модель сначала выбирает ответ, потом придумывает обоснование2601.11227Язык мышления заменяет высокую температуру для разнообразияPrompt Engineering (общее)
Общие техники, подходы и паттерны промпт-инженеринга
2409.08775Полнота формулировки — один из сильнейших факторов качества2507.03254Псевдокод-промптинг: +36% точности, -87% токенов2510.09970Atomic Instructions: цепочка простых бинарных вопросов2509.16268Function Calling стиль: задача как Python-функция с типами2511.16837Cognitive BASIC: BASIC-стиль с нумерованными строками2508.06942CNL-P: формальный контролируемый язык для промптов2512.03272Декларативная генерация: код вместо рассуждений (с 10% до 89%)2507.08664INoT: интроспекция мысли через псевдокод-дебаты агентов2510.19850Prompt Decorators: декларативный синтаксис (+++Reasoning, +++Tone)2412.08985Двухэтапный промпт (генерация + форматирование)2508.02523RAG эффективнее копирования данных2503.15664RAG эффективнее копирования (второе подтверждение)2505.13258Нумерованные блоки данных для организации контекста2502.17204Порядок инструкций: от сложного к простому (hard → easy)2411.01101Recency Bias: позиционное искажение в середине промпта2601.03630Иерархия критериев оценки фиксирует приоритеты2601.04925Инструкции о тоне влияют на детекцию AI-текста2601.02989System-2 Counting: механика подсчёта в LLM, разбиение на части2601.01768CAPEL: внешний счётчик длины в реальном времени2410.16325Принудительный выбор стабилизирует результат (категоризация)2507.08250Чёткие категории повышают точность анализа2412.17189+40% точности на аналитических задачах через структуру2507.21133Accountability Prompting: ответственность и последствия улучшают качествоСжатие и оптимизация промптов
Как сократить промпт без потери эффективности
Role prompting и персоны
Влияние ролей и персон на качество ответов модели
2510.17535Информация о роли кодируется в ранних слоях; наречие > прилагательное2512.05858Персоны не улучшают точность (5 из 6 моделей — ноль эффекта)2601.05376Чем уже роль, тем сильнее фокус (и резче падение вне контекста)2601.01997Role-playing экономичнее CoT для генерации списков2601.05104RLHF закрепил связь похвала → улучшение качестваБезопасность и надёжность
Галлюцинации, предвзятость, защита от манипуляций
2601.08070Semantic Gravity Wells: запреты активируют запрещённое2503.19540Запреты запускают предвзятость2506.12338Подтверждающее искажение (confirmation bias) в LLM2501.02295Скрытые стереотипы усиливаются в LLM2504.04141Self-Debiasing: модель сама обнаруживает и корректирует предвзятость2411.17304Абстрактные хэши вместо триггерных слов2505.21828Эмоциональная окраска промпта смещает распределение ответов2503.10690Confidence Hijacking: уверенный тон заставляет LLM принимать ложь2601.11429Паттерн-вопросы провоцируют галлюцинации (60-80% случаев)2601.05050Bunking effect симметричен debunking2510.16492Quit Instructions: учи модель останавливаться при неуверенности2403.08211Inverse Prompting: инверсия задачи активирует критическое мышление2504.21625Self-correction (итеративная коррекция) чрезвычайно эффективна2506.16064Self-correction: самокритика даёт более честные и точные ответы2511.21734Verification-First: верификация перед генерацией улучшает точность2510.03528Модели на зашумленных данных лучше улавливают суть (робастность)Оценка и бенчмарки
Как корректно использовать LLM для оценки и измерений
2601.03444Шкала 0-5 оптимальна для субъективных оценок LLM2601.03630План оценки перед оценкой снижает bias на 16-32%2601.06189Chain-of-Thought не снижает bias при оценке2601.08064Разные методы измерения оценки измеряют разное2512.05998Fake Prediction Markets: виртуальные ставки калибруют уверенность моделиМагические фразы и лайфхаки
Конкретные формулировки и приёмы, влияющие на качество ответов
2503.15793Uncertainty Prompting: «если не знаешь — скажи» снижает галлюцинации2505.12896Expand/Echo Commands: «expand» раскрывает, «echo» повторяет2504.09402Внимательное чтение: «прочитаем задачу шаг за шагом»2410.14675«Сначала проверь, можно ли доверять контексту»2505.24858Метакогнитивная инструкция: «если не уверен — скажи насколько»2410.07103Повторение данных 2-3 раза даёт +30-70% точности2506.00069Повторение инструкции в конце устраняет «потерю в середине»2505.17407Язык рассуждений: «Think in English, answer in Russian»2504.11833Ансамбль языков: решить задачу на двух языках и сравнить2506.01776Для малых языков инструкция на английском повышает качество2504.12951Retry-стратегия часто лучше сложного промпта2506.099922-3 предложения контекста крайне эффективны для культурных нюансов2502.11028Превращение в multiple choice даёт более точный ответ2506.00072Эмоциональное давление повышает точность, но раздувает самоуверенность2601.18730Разделение генерации и проверки: модель сильнее в анализе готового текста2406.17378Почему опечатки не ломают понимание: дистилляция семантического ядра2505.21657Императив и вопрос активируют разные механизмы обработки2504.12180Неструктурированные запросы повышают риск галлюцинаций2507.10124Неуверенность активирует глубину: вопрос лучше императива для критики2506.02867Word Triggers: «подумай», «проверь», «сделай вывод» улучшают рассуждения2507.02778Correction Markers: «стоп», «подожди», «однако» активируют самокоррекцию2503.18072Label Sensitivity: замена слова-ярлыка меняет точность на 5-15%2503.13510Нейтральный тон даёт самые точные ответы2505.15323Answer Prefix: prefix-фраза перед ответом улучшает точностьАгенты и инструменты
Организация работы AI-агентов и долгосрочных проектов
Применяйте исследования на практике
NovaPrompt — редактор, который знает эти техники. Подсветка синтаксиса, MetaGlyph, XML-теги, шаблоны фреймворков — всё в одном месте.
Открыть редактор