PAS7 Studio
До всіх статей

Сабагенти в Codex: як це працює насправді

Практичний розбір сабагентів у OpenAI Codex у 2026 році: що саме випустив OpenAI, як ними користуватися, де вони реально дають виграш, де тільки додають шум, і як це впливає на ліміти, кредити та швидкість роботи.

24 бер. 2026 р.· 13 хв читання· Технології
Кому підійдеSoftware engineersEngineering managersTechnical foundersКоманди, які оцінюють coding agents
Обкладинка статті про сабагентів у OpenAI Codex і паралельні agent workflows

Спершу слід сказати, що суть не в тому, що Codex навчився відкривати більше потоків. Суть у тому, що OpenAI формалізував спосіб тримати головний потік чистим, поки паралельна робота відбувається окремо. Це одночасно впливає на надійність, швидкість і витрату лімітів.

OpenAI описує Codex app як інструмент, що дозволяє керувати кількома агентами одразу, запускати роботу паралельно й розкладати довгі задачі на окремі частини. [4]
У документації про subagents OpenAI прямо пише, що цінність тут не тільки в швидкості, а й у захисті головного потоку від context pollution і context rot. [1][8]
Codex не запускає сабагентів сам по собі. Їх треба просити явно. [1][2]
Сабагенти не безкоштовні. OpenAI прямо зазначає, що вони споживають більше токенів, ніж подібний сценарій в одному потоці, бо кожен виконує власну модельну й інструментальну роботу. [1][2]
Для легших дочірніх задач OpenAI зараз радить gpt-5.4-mini. Він швидший і витрачає значно менше включених лімітів, ніж повний gpt-5.4. [3][5]

У продуктовому формулюванні OpenAI все сказано прямо. В анонсі Codex app компанія пише, що застосунок створений, щоб manage multiple agents at once, run work in parallel і працювати з довгими задачами. [4] Це абсолютно новий перемикач в інтерфейсі. А також зміна того, як Codex пропонує розкладати велику інженерну роботу.

У технічній документації причина пояснена ще простіше. Навіть якщо контекстне вікно велике, основний контекст псується, коли туди постійно складати логи, трасування, чернеткові гіпотези, проміжні перевірки й тестовий шум. OpenAI називає дві конкретні проблеми: context pollution і context rot. [1]

Це добре стикується і з незалежними дослідженнями. У звіті Chroma Context Rot прямо показано, що зі зростанням обсягу вхідного контексту надійність відповіді починає просідати, особливо на складніших задачах. [8] По суті, сабагенти в Codex це продуктова відповідь OpenAI на цю інженерну реальність.

Anthropic у своєму Agent SDK описує дуже схожий підхід з іншого боку: сабагенти корисні для parallelization і для керування контекстом, бо працюють у their own isolated context windows. [11] Тобто вже не одна компанія просуває таку ідею. Це стає загальним патерном для довгих агентних workflow.

Головний виграш тут структурний: один потік тримає brief і фінальні рішення, а дочірні потоки роблять обмежену роботу й повертають уже стислі результати замість сирого шуму. [1][2]

Скріншот секції what-changed

Якщо прибрати брендинг, модель досить проста: один головний потік оркеструє роботу, один або кілька дочірніх потоків роблять чітко обмежені задачі, а потім батьківський потік збирає все назад у фінальний результат.

01

Тримайте основний потік для вимог і фінального рішення

Головний потік має нести brief, обмеження, архітектурні рішення й фінальне зведення. Документація OpenAI прямо позиціонує сабагентів як спосіб залишити в основному потоці саме вимоги, рішення й підсумок. [1]

02

Явно просіть Codex розкидати роботу по дочірніх потоках

Codex не прийме це рішення за вас. OpenAI пише, що сабагенти запускаються лише за явним запитом на subagents або parallel agent work. Типові формулювання: spawn two agents, delegate this in parallel, use one agent per point. [1][2]

03

Давайте кожному сабагенту вузьку задачу

У документації є показовий приклад з review pull request, де Codex запускає окремого агента під security, bugs, race conditions, flaky tests і maintainability. Саме так це і має працювати: одна чітка задача на один дочірній потік. [2]

04

Перемикайтеся в дочірні потоки, якщо треба перевірити або скоригувати їх

У CLI команда /agent дозволяє перейти в активний агентний потік, подивитися, що він робить, і продовжити роботу вже там. Це також важливо, бо делегування не означає сліпу довіру. Критичні рішення все одно треба мати можливість перевірити. [6]

05

Нехай батьківський потік збере все в один підсумок

OpenAI вказує, що після завершення потрібної роботи Codex повертає вже консолідовану відповідь: паралельна робота знизу, один чистий summary зверху. [2]

Висновок

Головний потік має поводитися як lead engineer. Сабагенти мають працювати як вузько сфокусовані спеціалісти, а не як вільні копії головного агента.

Дана частина важлива, бо сабагенти вже не виглядають як прихована внутрішня магія. OpenAI задокументував і вбудовані ролі, і поверхню конфігурації навколо них.

Вбудовані ролі вже є

OpenAI описує три built-in агенти: default для загальної роботи, worker для execution-heavy задач і фіксів, та explorer для read-heavy дослідження кодової бази. [2]

Можна додавати своїх агентів

Custom agents живуть у ~/.codex/agents/ для персонального використання або в .codex/agents/ на рівні проєкту. Кожен з них описує name, description, developer_instructions, а також може перевизначати model, reasoning effort, sandbox mode, MCP servers і skills. [2]

Паралелізм теж налаштовується

OpenAI документує налаштування [agents], зокрема max_threads, max_depth і job_max_runtime_seconds. За замовчуванням max_threads дорівнює 6, а max_depth дорівнює 1, щоб не допускати глибокої рекурсії без потреби. [2]

Сабагенти наслідують safety controls

Сабагенти наслідують поточну sandbox policy. Approval prompts можуть приходити і з неактивних потоків, а глибока рекурсія окремо не рекомендується, бо швидко збільшує витрату токенів, затримки й локальне навантаження. [2]

Поточна порада OpenAI досить практична: тримати gpt-5.4 для головного потоку, легші дочірні задачі віддавати на gpt-5.4-mini, а gpt-5.3-codex використовувати там, де стоїть саме важка software engineering задача. [3][5][7]

Скріншот секції built-in-and-custom

У багатьох команд з'являються помилкові очікування. Бо на платних ChatGPT планах реальна проблема зазвичай не в абстрактній API-математиці токенів, а в тому, як швидко сабагенти спалюють включені ліміти або кредити.

Comparison pointЩо пише OpenAIЩо це означає на практиці
Сценарії з сабагентамиСпоживають більше токенів, ніж подібний сценарій в одному потоці. [1][2]Паралельне делегування корисне, але це не безкоштовне прискорення. Кожен дочірній потік виконує власний model і tool loop.
GPT-5.4-miniВикористовує близько 30% тих включених лімітів, які витрачає GPT-5.4, і може працювати приблизно в 3.3 раза довше до упору в ліміти. [3]Хороший базовий вибір для легших сабагентів: exploration, review великих файлів, опорні документи, secondary analysis.
Локальна вартість GPT-5.4У середньому близько 7 credits за local task. [7]Сильний вибір для головного потоку, але дорогий, якщо бездумно розкидати його на кілька дочірніх потоків одночасно.
Локальна вартість GPT-5.4-miniУ середньому близько 2 credits за local task. [7]Набагато логічніший вибір, якщо сабагент робить допоміжну, а не фінальну роботу.
Локальна і cloud вартість GPT-5.3-CodexУ середньому близько 5 credits за local task і близько 25 за cloud task. [7]Все ще сильний вибір для справді важких software engineering задач, особливо якщо потрібен кодинг-first профіль замість ширшого GPT-5.4 профілю.
Fast mode на GPT-5.4Дає приблизно 1.5x швидкість і 2x credit rate. [5]Підходить для latency-sensitive роботи, але ще сильніше прискорює витрату кредитів поверх і так дорожчого subagent fan-out.

Сабагенти це не універсальний апгрейд. Це інструмент координації.

Сильний fit

PR review, security pass, bug triage, аналіз flaky tests, дослідження кодової бази, читання великих файлів, обробка допоміжних документів і аналіз логів. OpenAI окремо рекомендує починати саме з read-heavy задач на кшталт exploration, tests, triage і summarization. [1][3]

Варто тестувати

Великі фічі, де один дочірній потік може забрати UI, другий backend, а третій підготувати тести або migration notes. Це працює тільки якщо кордони справжні, а фінальний judgment лишається в батьківському потоці.

Часто overkill

Дрібні зміни, баги в одному файлі, швидкі refactor-и або будь-яка задача, де головна складність не в масштабі, а в ясності. Тут делегування часто коштує дорожче, ніж просто зробити роботу одним потоком.

Зона підвищеного ризику

Паралельна write-heavy робота в одній і тій самій поверхні коду. OpenAI прямо попереджає, що одночасні edits можуть створювати конфлікти й збільшувати координаційний overhead. [1]

Практичний поділ простий: read-heavy і parallelizable робота виграє першою. Write-heavy потоки мають сенс лише тоді, коли ви свідомо розділили ownership. [1][2]

Скріншот секції where-subagents-win

Найтиповіша помилка тут проста: користувачі просять про допомогу сабагентів занадто розмито. Робочий патерн завжди однаковий: описати split, дати кожному дочірньому потоку чіткі межі й пояснити, який саме обʼєм роботи має повернутися в головний потік.

Для PR review хороший prompt може виглядати так:

TEXT
Spawn three subagents.
Agent 1: review security issues and secret handling.
Agent 2: review race conditions and concurrency risks.
Agent 3: review test gaps and flaky cases.
Return one merged summary with the most important findings first.

Для implementation work важливо розвести ownership:

TEXT
Use two subagents.
Agent 1 owns the API handler and schema changes.
Agent 2 owns the frontend form and validation wiring.
Do not edit the same files. Summarize conflicts before making final edits.

Для research-heavy задач логічно одразу просити дешевший дочірній runtime:

TEXT
Spawn one explorer subagent per document.
Extract only the constraints, breaking changes, and migration risks.
Use `gpt-5.4-mini` for all child threads, then summarize in the main thread.

Ключове формулювання тут в структурі. Один сабагент, одна вузька задача, один зрозумілий вихід і мінімум перетину з іншими потоками. [1][2][11]

Нижче розписані рекомендації щодо використання сабагентів в Codex. Алгоритм тут досить простий.

Явно просіть про сабагентів і називайте split

Не пишіть просто investigate this. Пишіть щось на кшталт spawn one agent for security, one for race conditions, one for test flakiness, then summarize. Саме таку структуру запиту показує і документація Codex. [2]

Тримайте головний потік коротким і чистим

Нехай батьківський потік тримає scope, обмеження, acceptance criteria і фінальні рішення. Шумне дослідження краще виносити в дочірні потоки. [1]

Для легших дочірніх задач використовуйте легші моделі

OpenAI тепер прямо рекомендує gpt-5.4-mini для легших coding tasks і сабагентів. Це найпростіший спосіб зменшити витрату лімітів. [3][7]

Перевіряйте дочірні потоки, а не просто довіряйте summary

Використовуйте /agent у CLI, якщо щось виглядає підозріло або якщо в результаті дочірнього потоку є критичне рішення, яке не варто приймати навмання. [6]

Не розкручуйте рекурсію глибоко

OpenAI поставив max_depth у 1 за замовчуванням не випадково. Глибокий recursive fan-out дуже швидко збільшує витрату токенів, затримки й навантаження на локальні ресурси. [2]

Розділяйте read-heavy і write-heavy делегування

Найкраще спочатку паралелити саме analysis. До parallel edits варто переходити лише тоді, коли ownership між потоками достатньо чіткий і конфлікти малоймовірні. [1]

Початкові помилки можуть бути досить передбачувані. Майже всі вони виникають тоді, коли сабагенти сприймаються як безкоштовна додаткова робоча сила, а не як інструмент оркестрації.

Запускати сабагентів на розмиту задачу. Якщо завдання не має чітких меж, ви просто множите плутанину.

Використовувати флагманську модель у кожному дочірньому потоці. Це найшвидший спосіб перетворити хорошу функцію на проблему з лімітами. [3][5][7]

Паралелити edits у тих самих файлах. Документація прямо попереджає про конфлікти й координаційний overhead у write-heavy сценаріях. [1]

Ігнорувати approval і sandbox inheritance. Дочірні потоки наслідують поточну sandbox policy, а approval prompts можуть приходити з неактивних потоків. [2]

Думати, що довший контекст сам по собі прибирає потребу в делегуванні. OpenAI окремо пише про context pollution і context rot саме тому, що великий контекст не вирішує це питання автоматично. [1][8]

Висновок

Сабагенти працюють найкраще тоді, коли прибирають шум, а не коли просто множать активність заради активності.

Codex запускає сабагентів автоматично?

Ні. У документації OpenAI прямо сказано, що Codex запускає сабагентів лише тоді, коли ви явно просите про subagents або parallel agent work. [1][2]

Які built-in ролі сабагентів зараз є в Codex?

OpenAI зараз документує три вбудовані агенти: `default`, `worker` і `explorer`. `worker` заточений під execution-heavy роботу, а `explorer` під read-heavy дослідження кодової бази. [2]

Сабагенти швидше витрачають ліміти або кредити?

Зазвичай так. OpenAI пише, що workflow із сабагентами споживають більше токенів, ніж схожі сценарії в одному потоці, бо кожен дочірній потік виконує власний model і tool loop. На ChatGPT планах це зазвичай відчувається як швидше споживання included limits або credits. [1][2][7]

Яку модель краще брати для сабагентів у Codex?

Поточна логіка OpenAI така: починати з `gpt-5.4` для головної задачі й брати `gpt-5.4-mini` для легших coding tasks або сабагентів. `gpt-5.3-codex` при цьому лишається сильним варіантом для складних software engineering задач. [3][5]

Де сабагенти дають найбільший виграш?

Найкраще вони працюють на parallelizable, read-heavy роботі: exploration, tests, triage, summarization і review. OpenAI прямо радить починати саме звідси й набагато обережніше ставитися до паралельної write-heavy роботи. [1]

Чи однаково сабагенти впливають на токени в різних платних планах?

Не зовсім. У практичному сенсі витрата росте майже завжди, але OpenAI не публікує якийсь один фіксований множник для всіх планів і всіх сценаріїв. Реальний ефект залежить від моделі, розміру задачі, обсягу контексту, local чи cloud execution і того, скільки дочірніх потоків ви запускаєте. [1][2][7]

Цей блог побудований на поточній документації й продуктових сторінках OpenAI про Codex, pricing, changelog і speed, а також на зовнішніх дослідженнях про деградацію контексту та на матеріалах Anthropic про agent SDK.

Перевірено: 24 бер. 2026 р.

Пов'язані статті

growth

AI SEO / GEO у 2026: ваші наступні клієнти — не люди, а агенти

Пошук зміщується від кліків до відповідей. Боти та AI-агенти сканують, цитують, рекомендують і дедалі частіше купують. Дізнайтесь, що таке AI SEO / GEO, чому класичного SEO вже недостатньо, і як PAS7 Studio допомагає брендам перемагати у «агентному» вебі.

blogs

Найпотужніший чіп від Apple? M5 Pro і M5 Max б'ють рекорди

Аналітичний розбір Apple M5 Pro і M5 Max станом на березень 2026 року. Пояснюємо, чому ці чіпи можна вважати найпотужнішими професійними ноутбучними SoC від Apple, як вони виглядають на тлі M4 Pro, M4 Max, M1 Pro, M1 Max і що показують у порівнянні з актуальними Intel та AMD.

telegram-media-saver

Автоматичне тегування та пошук збережених посилань

Інтеграція з GDrive/S3/Notion для автоматичного тегування та швидкого пошуку через пошукові API

services

Розробка Telegram-ботів та автоматизація

Професійна розробка Telegram-ботів та автоматизація бізнес-процесів: чат-боти, AI-асистенти, інтеграції з CRM та автоматизація процесів.

Професійна розробка для вашого бізнесу

Створюємо сучасні веб-рішення та боти для бізнесу. Дізнайтеся, як ми можемо допомогти вам досягти цілей.