Содержание
ChatGPT и другие чат-боты плохо справляются с большими размытыми запросами. PCWorld объясняет, что в таких задачах модель начинает додумывать за пользователя — и опирается на обучающие паттерны и встроенные перекосы.
Речь про типичные формулировки вроде «сделай бизнес-план» или «будь моим личным ассистентом». На выходе часто получается текст «в целом правильный», но с решениями, которые вы не выбирали. Просто потому, что вы их не описали.
Почему расплывчатый запрос даёт расплывчатый результат
PCWorld сводит проблему к простому правилу: чем меньше вы задаёте контекста, тем больше решений принимает сама модель. И она принимает их не из воздуха, а из тренировочных данных и типовых шаблонов ответов.
Для сложных задач это критично. Один и тот же «ассистент» может писать сухо или дружелюбно. Может спорить с вами или соглашаться. Может задавать вопросы или сразу «нести план». Если вы это не зафиксировали, модель выберет вариант сама.
Что такое prompt decomposition и зачем он нужен
Вместо того чтобы сразу пытаться описать все требования, PCWorld предлагает использовать prompt decomposition. Это приём, где вы просите ИИ сначала разложить задачу на ключевые переменные, а уже потом собрать из них финальный, более точный промпт.
Автор описывает это как способ увидеть, как модель «интерпретирует» вашу задачу. Дальше вы вручную правите спорные места, уточняете требования и запускаете финальную версию ещё раз.

В PCWorld приводят «мета-промпт» на декомпозицию. Он просит сначала выделить 5-7 самых важных измерений запроса (ограничения, контекст, формат, стиль), а затем превратить их в готовый структурированный промпт. В требованиях к финальной версии отдельно перечислены: контекст, роль, инструкции, ограничения, формат ответа, критерии качества и правила работы с неоднозначностью.
Пример: «будь моим AI-ассистентом» и что в нём ломается
В качестве примера PCWorld разбирает задачу «act as a personal AI assistant». В числе ключевых переменных модель выделила Interaction Style & Communication Tone — то есть стиль общения и тон.
Объяснение там приземлённое: этот параметр определяет, ощущается ли ассистент как стратег, исполнитель, коуч или «секретарь». А ещё задаёт выбор между краткостью и глубиной, формальностью и разговорностью, директивностью и совместной работой.
После декомпозиции ИИ собрал расширенный «системный» промпт ассистента. В нём зафиксировали принципы поведения: проактивность, структурирование задач, ориентация на практический результат, удержание контекста, аккуратная работа с неопределённостью и право «пушбэка», если запрос слабый.
Какие модели участвовали в сборке промпта
PCWorld отдельно уточняет, что итоговый текст промпта автор собрал с помощью двух систем. Gemini 3 Flash предложила первоначальную идею, а GPT 5.5 доработал формулировки под руководством автора.
Для иллюстрации материала редакция использует изображение с Unsplash.