PAS7 Studio
До всіх статей

Плагіни для Codex: що саме запустив OpenAI

В даному блозі розберемо каталог плагінів для Codex від OpenAI: що саме запустили, чим плагіни відрізняються від skills, apps і MCP, як ними користуватися, як їх збирати, де вони реально корисні і як це впливає на швидкість, ліміти та командні workflows.

30 бер. 2026 р.· 12 хв читання· Технології
Кому підійдеSoftware engineersTechnical leadsEngineering managersКоманди, які хочуть стандартизувати workflows у coding agents
Обкладинка блогу про нову бібліотеку плагінів для OpenAI Codex

Головна новина тут не в тому, що OpenAI додав ще один каталог, а в тому, що Codex отримав нормальну модель пакування і розповсюдження reusable workflows.

Формулювання від OpenAI тут важливе саме по собі: skills це authoring format for reusable workflows, а plugins це installable distribution unit для reusable skills і apps у Codex. [1]
У docs про plugins прямо сказано, що plugin може містити skills, apps і MCP servers. Тобто це набагато ширше, ніж просто бібліотека prompt templates. [2]
У Codex app з'явився Plugin Directory, де можна переглядати та ставити curated plugins. Це вже більше схоже на ecosystem layer, а не просто на локальний power-user setup. [2]
Сильна сторона запуску очевидна: reusable standards, швидший onboarding, менше копіпасту в локальних конфигах. Але є й інша сторона: більше рухомих частин, більше governance-питань і більше шансів спалювати ліміти, якщо plugin-driven workflows виявляться занадто важкими. [2][5][6]

Найпростіший спосіб неправильно зрозуміти цей запуск це назвати його магазином плагінів і на цьому зупинитися. У такому читанні губиться найважливіше. В офіційних docs про Codex OpenAI описує skills як шар, де авторяться reusable workflows. Plugins це шар, який потрібен, коли ці workflows та integrations треба зробити installable і distributable. [1]

У plugin overview це сказано ще пряміше. OpenAI пише, що plugin може містити три типи речей: skills, apps і MCP servers. Якщо сказати простіше, один plugin може пакувати reusable instructions, підключення до зовнішніх інструментів і додаткові tool surfaces або shared context через MCP. [2]

Для Codex це змінює практичну картину. До цього команди теж могли будувати сильні локальні setup-и, але reuse між репозиторіями чи людьми завжди був трохи хаотичним. У когось був хороший skill. У когось окремий MCP config. У когось app mappings. Тепер OpenAI намагається загорнути це в нормальний package boundary.

І продуктові сторінки говорять про те саме. На головній сторінці Codex OpenAI пише, що Codex designed for multi-agent workflows, а зі skills виходить за межі простого writing code у бік code understanding, prototyping і documentation. [3] Логічний наступний крок після цього це саме plugin library, бо такі workflows стають по-справжньому цінними тільки тоді, коли їх можна нормально встановлювати й перевикористовувати.

Найточніше прочитання запуску таке: plugin це installable shell, а реальні capability layers всередині нього це skills, apps і MCP servers. [1][2]

Скріншот секції what-openai-actually-launched

Якщо не розвести ці шари, увесь запуск буде виходити досить розмито, хоча насправді він доволі конкретний.

Comparison pointШарЩо це означає на практиці
SkillАвторський шар для reusable workflow. OpenAI описує skills як reusable instructions для конкретних видів роботи. [1][2]Саме на рівні skill ви програмуєте робочий патерн: instructions, helper scripts, references і task-specific process.
PluginInstallable distribution layer. OpenAI прямо каже, що plugins це installable unit для reusable skills і apps у Codex. [1]Самі plugin ви поширюєте, ставите, контролюєте і розгортаєте на інших людей або проєкти.
AppПідключення до зовнішніх інструментів на кшталт GitHub чи Slack. У docs про plugins apps прямо названі одним із capability layers усередині plugin. [2]Це шар, який дає Codex доступ до зовнішніх систем, а не лише до локального проєкту.
MCP serverДодатковий server-side tool surface або shared context source. У plugin docs MCP servers теж прямо названі частиною plugin capability surface. [2]Це спосіб розширити Codex новими інструментами чи спільними джерелами даних за межами локального workspace.

Для більшості команд перший корисний сценарій це не будувати plugin з нуля. Перший корисний сценарій це зрозуміти, що саме ставить curated plugin і де він реально вписується у ваш поточний Codex setup.

01

Відкрийте Plugin Directory у Codex app

У docs OpenAI прямо пише, що Plugins у Codex app це місце, де можна переглядати й ставити curated plugins. Це найчистіша стартова точка, бо вона дає discoverability ще до будь-якої кастомізації. [2]

02

Подивіться, що саме пакує plugin

Не зупиняйтесь на назві. Перевірте, чи це skill, app mapping, MCP configuration або комбінація кількох речей. Саме це покаже, що plugin реально змінює у вашому workflow. [1][2]

03

Спершу протестуйте його на одному вузькому сценарії

Хороші перші кейси тут максимально приземлені: review PR, зібрати migration risks, підготувати release notes або стандартизувати repo triage. Саме в таких сценаріях plugins найшвидше показують цінність і найменш боляче провалюються.

04

Оцініть ціну в context, speed і output quality

Plugin може зекономити setup time, але все одно виявитись поганим operational choice, якщо він додає занадто багато context, tool hops або зайву залежність від зовнішніх сервісів. До нього краще ставитися як до engineering dependency, а не як до зручної кнопки. [2][5][6]

05

Лише після цього робіть team-wide rollout

Коли plugin уже довів свою користь, тоді він стає нормальним способом кодувати командні стандарти замість того, щоб покладатися на tribal knowledge і ручний копіпаст локальних конфігів.

Висновок

Перший виграш тут не в масштабі. Перший виграш у repeatability.

Build docs у OpenAI тут приємно конкретні. Кожен plugin починається з обов'язкового manifest-файлу в .codex-plugin/plugin.json. Саме це і є фіксована entry point. [4]

Там же в docs показано, що може лежати поруч. Plugin може містити директорію skills/ з SKILL.md, optional .app.json для app або connector mappings, optional .mcp.json для MCP server configuration і assets/ для скрінів чи брендингу. [4]

Ця структура важлива сама по собі, бо вона показує, як OpenAI мислить про plugin. Це не один prompt, не один model preset і не просто кнопка в інтерфейсі. Це пакет із workflow logic і capability wiring.

Якщо будувати свій plugin, порядок тут має бути прагматичний. Спочатку треба чітко визначити вузький reusable workflow. Потім зафіксувати його як skill. І лише потім додавати apps або MCP, якщо сценарій справді вимагає зовнішніх систем. Після цього все це пакується через plugin.json, щоб інші розробники могли нормально встановити той самий setup.

Мінімальна структура виглядає так:

TEXT
my-plugin/
  .codex-plugin/
    plugin.json
  skills/
    repo-triage/
      SKILL.md
  .app.json
  .mcp.json
  assets/

Це один із найважливіших сигналів у всьому запуску. OpenAI не просто документує, як користуватися plugins. Він документує, як команди мають пакувати reusable Codex capability як нормальний внутрішній asset. [4]

Сильний fit

Командні стандарти, повторювані review flows, repo onboarding, framework-specific maintenance, design-to-code pipelines, documentation jobs і cross-repo routines. Саме в цих сценаріях reusable workflow packaging починає економити час щотижня.

Варто протестувати

Внутрішні tooling сценарії, security review recipes, migration helpers і domain-specific repo checks. Хороший fit, якщо workflow справді повторюваний, а не вигаданий про запас.

Часто overkill

Разові задачі, дрібні особисті вподобання або setups, якими користується одна людина. Якщо workflow не reusable, plugin дуже швидко перетворюється на ceremony без реальної користі.

Зона ризику

Plugins, які тихо зав'язані на занадто великій кількості зовнішніх систем, нестабільних MCP servers або надлишковому context. Саме вони найкраще виглядають у демо і найгірше переживають реальну експлуатацію.

Просте правило

Якщо workflow справді повторюваний, спільний і стабільний, plugin майже напевно вартий уваги. Якщо він особистий, туманний або крихкий, швидше за все ні.

Тут потрібна дуже акуратна відповідь. У поточних docs OpenAI немає окремої plugin fee, plugin token multiplier або спеціальної pricing table саме для plugins. Тому чесне формулювання тут не plugins коштують стільки-то. Чесне формулювання тут таке: plugins змінюють те, скільки роботи виконує Codex, а отже змінюють і те, що ви відчуваєте на платному плані. [2][5][6]

У pricing docs OpenAI пише, що local messages і cloud tasks ділять спільні included usage limits, а більші або дорожчі задачі споживають ці ліміти швидше. [5] Це важливо, бо plugin майже завжди робить легшим не робити менше, а робити більше: більше tool calls, більше repo reads, більше зовнішнього context і іноді довші chained workflows через MCP або apps.

Є й ще один нюанс. OpenAI також пише, що користувачі можуть запускати extra local tasks через API key за standard API rates. [5] Тобто якщо plugin-driven workflow виходить за межі included plan limits, модель оплати залежить уже від способу запуску Codex, а не від plugin як категорії.

Зі speed усе працює так само. Plugins можуть зробити роботу швидшою на operational level, бо зменшують setup friction і пакують кращі defaults. Але вони так само можуть її сповільнити, якщо додають зайву orchestration logic, extra connectors або занадто багато зовнішніх залежностей. Універсального правила plugin робить Codex швидшим тут просто немає.

Мій практичний висновок тут такий: plugins найбільше впливають на organizational speed. Вони скорочують повторну збірку одного й того ж setup-а, прискорюють onboarding і роблять хороший Codex workflow reusable. Їхня ціна це operational cost того workflow, який вони допомагають запускати частіше, а не просто факт існування plugin.

Ключова різниця тут проста: OpenAI документує limits і API billing, але не окремий plugin tax. Витрати змінюються тому, що plugin-driven workflows запускають більше роботи, а не тому, що plugin.json сам по собі дорогий. [2][5][6]

Скріншот секції costs-speed-and-plans

Запуск корисний, але магії тут немає. Переваги справжні. І failure modes теж цілком реальні.

Великий плюс: plugins дають командам чистий спосіб поширювати хороші Codex workflows замість того, щоб заново збирати їх на кожній машині.

Великий плюс: модель добре збігається з тим, як реально працюють технічні команди. Один шар кодує process, інший дає доступ до зовнішніх систем, а bundle стає installable. [1][2][4]

Великий плюс: це полегшує стандартизацію Codex setup-ів між репозиторіями, людьми і середовищами.

Основний ризик: команди почнуть пакувати слабкі workflows і просто зроблять їх легшими для поширення.

Основний ризик: plugin-driven setups можуть тихо ставати занадто важкими, крихкими і connector-dependent, якщо до них не ставитись як до нормальних engineering assets.

Основний ризик: люди почнуть звинувачувати plugins у cost spikes, які насправді виникли через поганий workflow design, надлишковий context або дорогі downstream services. [2][5]

Висновок

Бібліотека plugins сама по собі не піднімає якість. Вона лише піднімає важільність того процесу, який ви в неї запакували.

Що саме OpenAI запустив для Codex?

OpenAI запустив plugin layer для Codex і Plugin Directory у Codex app. У документації skills залишаються authoring layer для reusable workflows, а plugins стають installable distribution unit, який може пакувати skills, apps і MCP servers. [1][2]

Plugin для Codex це те саме, що skill?

Ні. OpenAI проводить чітку межу: skills описують reusable workflows, а plugins це installable package, через який ці workflows і integrations розповсюджуються в Codex. [1]

Чи може plugin для Codex містити зовнішні integrations?

Так. У docs про plugins прямо сказано, що plugin може містити apps і MCP servers, а не лише skills. Саме тому цей запуск важливіший, ніж проста бібліотека templates. [2]

Як збирається plugin для Codex?

Build docs OpenAI кажуть, що кожен plugin починається з обов'язкового manifest-файлу в `.codex-plugin/plugin.json`. Далі можна додати `skills/`, optional `.app.json`, optional `.mcp.json` і assets на кшталт screenshots. [4]

Чи стають plugins окремою статтею витрат на платних планах Codex?

OpenAI не документує окрему plugin fee. Витрати ростуть опосередковано, бо plugin-driven workflows можуть запускати більше model work, tool use, context і зовнішніх calls. Included plan limits при цьому спільні для local messages і cloud tasks, а великі задачі споживають їх швидше. [2][5]

Чи роблять plugins Codex швидшим?

Іноді на operational level так. Вони можуть прибирати setup friction і робити хороші workflows reusable. Але вони так само можуть сповільнювати роботу, якщо додають зайву orchestration logic або забагато зовнішніх залежностей. Питання тут завжди не в слові plugin, а в якості workflow. [2][4][5]

Цей текст побудований насамперед на офіційних docs і продуктових сторінках OpenAI по Codex, а також на офіційному skills-репозиторії й суміжних матеріалах по ecosystem layer навколо reusable workflows.

Перевірено: 29 бер. 2026 р.Актуально для: Codex appАктуально для: Codex CLIАктуально для: IDE workflows з CodexАктуально для: Команди, які будують reusable coding workflowsПеревірено з: OpenAI Codex plugin docsПеревірено з: OpenAI Codex skills docsПеревірено з: OpenAI Codex pricing docsПеревірено з: OpenAI Codex product pages

Пов'язані статті

growth

AI SEO / GEO у 2026: ваші наступні клієнти — не люди, а агенти

Пошук зміщується від кліків до відповідей. Боти та AI-агенти сканують, цитують, рекомендують і дедалі частіше купують. Дізнайтесь, що таке AI SEO / GEO, чому класичного SEO вже недостатньо, і як PAS7 Studio допомагає брендам перемагати у «агентному» вебі.

blogs

Найпотужніший чіп від Apple? M5 Pro і M5 Max б'ють рекорди

Аналітичний розбір Apple M5 Pro і M5 Max станом на березень 2026 року. Пояснюємо, чому ці чіпи можна вважати найпотужнішими професійними ноутбучними SoC від Apple, як вони виглядають на тлі M4 Pro, M4 Max, M1 Pro, M1 Max і що показують у порівнянні з актуальними Intel та AMD.

telegram-media-saver

Автоматичне тегування та пошук збережених посилань

Інтеграція з GDrive/S3/Notion для автоматичного тегування та швидкого пошуку через пошукові API

services

Розробка Telegram-ботів та автоматизація

Професійна розробка Telegram-ботів та автоматизація бізнес-процесів: чат-боти, AI-асистенти, інтеграції з CRM та автоматизація процесів.

Професійна розробка для вашого бізнесу

Створюємо сучасні веб-рішення та боти для бізнесу. Дізнайтеся, як ми можемо допомогти вам досягти цілей.