Codex-Plugins: Was OpenAI wirklich gestartet hat
In diesem Artikel zerlegen wir die neue Plugin-Bibliothek für Codex von OpenAI: was genau gestartet wurde, worin sich Plugins von Skills, Apps und MCP unterscheiden, wie man sie nutzt, wie man sie baut, wo sie wirklich sinnvoll sind und wie sie Geschwindigkeit, Limits und Team-Workflows beeinflussen.

damit sollte man anfangen
Die eigentliche Nachricht ist hier nicht, dass OpenAI noch einen Katalog hinzugefügt hat. Die eigentliche Nachricht ist, dass Codex jetzt einen sauberen Weg hat, wiederverwendbare Workflows zu paketieren und zu verteilen.
authoring format for reusable workflows, Plugins sind die installable distribution unit für reusable skills und apps in Codex. [1]Der einfachste Weg, diesen Launch falsch zu verstehen, ist, ihn bloß als Plugin-Marktplatz zu bezeichnen und dort stehenzubleiben. Genau dann geht der Kern verloren. In den offiziellen Codex-Docs beschreibt OpenAI Skills als den Layer, in dem wiederverwendbare Workflows geschrieben werden. Plugins sind der Layer, den man nutzt, wenn diese Workflows und Integrationen installierbar und verteilbar werden sollen. [1]
In der Plugin-Übersicht wird das noch direkter. OpenAI schreibt, dass ein Plugin drei Arten von Dingen enthalten kann: Skills, Apps und MCP-Server. Einfacher gesagt heißt das: Ein Plugin kann wiederverwendbare Anweisungen, Verbindungen zu externen Tools und zusätzliche Tool-Oberflächen oder geteilte Informationen über MCP bündeln. [2]
Für Codex verändert das die Praxis. Zuvor konnten Teams ebenfalls starke lokale Setups bauen, aber Wiederverwendung zwischen Repositories oder Personen war immer etwas chaotisch. Jemand hatte einen guten Skill. Jemand anderes eine eigene MCP-Konfiguration. Noch jemand hatte App-Mappings. Jetzt versucht OpenAI, um diesen Stapel eine saubere Paketgrenze zu ziehen.
Auch die Produktseiten zeigen in dieselbe Richtung. Auf der Codex-Startseite schreibt OpenAI, Codex sei designed for multi-agent workflows, und mit Skills gehe es über bloßes writing code hinaus in Richtung Codeverständnis, Prototyping und Dokumentation. [3] Der nächste logische Schritt ist dann genau so eine Plugin-Bibliothek, weil solche Workflows erst dann wirklich wertvoll werden, wenn sie sich sauber installieren und wiederverwenden lassen.
Wenn man diese Ebenen nicht auseinanderhält, wirkt der ganze Launch unschärfer, als er in Wahrheit ist.
| Comparison point | Ebene | Was das in der Praxis bedeutet |
|---|---|---|
| Skill | Die Authoring-Ebene für einen wiederverwendbaren Workflow. OpenAI beschreibt Skills als wiederverwendbare Anweisungen für bestimmte Arbeitsarten. [1][2] | Auf Skill-Ebene codiert man das eigentliche Arbeitsmuster: Instructions, Helper-Scripts, Referenzen und einen task-spezifischen Prozess. |
| Plugin | Die installierbare Distributionsebene. OpenAI sagt ausdrücklich, dass Plugins die installierbare Einheit für reusable skills und apps in Codex sind. [1] | Das Plugin ist das, was man verteilt, installiert, verwaltet und über Personen oder Projekte hinweg ausrollt. |
| App | Eine Verbindung zu externen Tools wie GitHub oder Slack. In den Plugin-Docs werden Apps ausdrücklich als eine Capability im Plugin genannt. [2] | Diese Ebene gibt Codex Zugriff auf Systeme außerhalb des lokalen Projekts. |
| MCP server | Eine zusätzliche serverseitige Tool-Oberfläche oder geteilte Context-Quelle. Auch MCP-Server werden in den Plugin-Docs explizit als Plugin-Capability genannt. [2] | So erweitert man Codex um weitere Tools oder gemeinsame Datenquellen jenseits des lokalen Workspace. |
Für die meisten Teams ist der erste nützliche Schritt nicht, sofort ein Plugin von Grund auf neu zu bauen. Der erste nützliche Schritt ist zu verstehen, was ein kuratiertes Plugin tatsächlich installiert und wo es in das bestehende Codex-Setup passt.
Öffne das Plugin Directory in der Codex App
In den Docs von OpenAI steht direkt, dass man Plugins in der Codex App öffnen soll, um kuratierte Plugins zu durchsuchen und zu installieren. Das ist der sauberste Startpunkt, weil man Sichtbarkeit bekommt, bevor man irgendetwas anpasst. [2]
Teste es zuerst an einem engen Workflow
Gute erste Fälle sind bewusst unspektakulär: einen PR reviewen, Migrationsrisiken sammeln, Release Notes erzeugen oder Repo-Triage standardisieren. Genau dort zeigen Plugins am schnellsten Wert und scheitern am sichersten.
Miss die Kosten in Context, Geschwindigkeit und Output-Qualität
Erst danach teamweit standardisieren
Wenn das Plugin seinen Nutzen gezeigt hat, wird es zu einem sauberen Weg, Teamstandards zu verankern, statt sich auf implizites Wissen und kopierte persönliche Konfigurationen zu verlassen.
Kurz gesagt
Der erste Gewinn ist nicht Skalierung. Der erste Gewinn ist Wiederholbarkeit.
Die Build-Docs von OpenAI sind an dieser Stelle angenehm konkret. Jedes Plugin beginnt mit einer verpflichtenden Manifest-Datei unter .codex-plugin/plugin.json. Das ist der feste Entry Point. [4]
In denselben Docs steht auch, was daneben liegen kann. Ein Plugin kann ein skills/-Verzeichnis mit SKILL.md enthalten, optional ein .app.json für App- oder Connector-Mappings, optional ein .mcp.json für MCP-Server-Konfiguration und einen assets/-Ordner für Screenshots oder Branding. [4]
Diese Struktur ist für sich schon aufschlussreich, weil sie zeigt, wie OpenAI über ein Plugin denkt. Es ist nicht nur ein Prompt, kein einzelnes Modell-Preset und auch nicht bloß ein Knopf im Interface. Es ist ein Paket aus Workflow-Logik und Capability-Wiring.
Wenn man ein eigenes Plugin baut, sollte die Reihenfolge pragmatisch bleiben. Zuerst definiert man den engen wiederverwendbaren Workflow. Dann codiert man ihn als Skill. Und erst danach fügt man Apps oder MCP hinzu, wenn der Workflow wirklich externe Systeme braucht. Anschließend wird alles über plugin.json verpackt, damit andere denselben Setup sauber installieren können.
Eine minimale Struktur sieht so aus:
my-plugin/
.codex-plugin/
plugin.json
skills/
repo-triage/
SKILL.md
.app.json
.mcp.json
assets/Das ist eines der wichtigsten Signale im ganzen Launch. OpenAI dokumentiert nicht nur, wie man Plugins benutzt. OpenAI dokumentiert auch, wie Teams wiederverwendbare Codex-Capability als echtes internes Asset paketieren sollen. [4]
Starker Fit
Teamstandards, wiederholte Review-Flows, Repo-Onboarding, frameworkspezifische Wartung, Design-to-Code-Pipelines, Dokumentationsjobs und Routinen über mehrere Repositories hinweg. Genau dort spart gutes Workflow-Packaging jede Woche Zeit.
Sollte man testen
Interne Tooling-Szenarien, Security-Review-Rezepte, Migration-Helper und domänenspezifische Repo-Checks. Ein guter Fit, wenn der Workflow wirklich wiederholt auftritt und nicht nur als Vorsorgephantasie existiert.
Oft overkill
Einmalige Aufgaben, winzige persönliche Vorlieben oder Setups, die real nur eine Person nutzt. Wenn der Workflow nicht wiederverwendet wird, wird das Plugin sehr schnell zu Ceremony ohne echten Nutzen.
Risikozone
Plugins, die stillschweigend an zu vielen externen Systemen, instabilen MCP-Servern oder überladenem Context hängen. Genau diese Plugins sehen in Demos am stärksten aus und verhalten sich im echten Betrieb am schlechtesten.
Einfache Regel
Wenn ein Workflow wirklich wiederkehrend, geteilt und stabil ist, lohnt sich ein Plugin fast sicher. Wenn er persönlich, vage oder brüchig ist, eher nicht.
Hier braucht es eine saubere Antwort. In den aktuellen Docs von OpenAI gibt es keine eigene Plugin-Gebühr, keinen Plugin-Token-Multiplikator und keine spezielle Pricing-Tabelle nur für Plugins. Die ehrliche Formulierung ist also nicht Plugins kosten X. Die ehrliche Formulierung ist: Plugins verändern, wie viel Arbeit Codex ausführt, und damit verändern sie auch, wie sich ein kostenpflichtiger Plan anfühlt. [2][5][6]
In den Pricing-Docs schreibt OpenAI, dass lokale Nachrichten und Cloud-Tasks gemeinsame included usage limits teilen und dass größere oder teurere Aufgaben diese Limits schneller verbrauchen. [5] Das ist wichtig, weil Plugins fast immer helfen, mehr zu tun statt weniger: mehr Tool-Calls, mehr Repo-Reads, mehr externen Context und manchmal längere verkettete Workflows über MCP oder Apps.
Es gibt noch eine zweite wichtige Nuance. OpenAI schreibt außerdem, dass Nutzer zusätzliche lokale Tasks mit einem API-Key zu normalen API-Tarifen ausführen können. [5] Wenn ein plugin-getriebener Workflow also über die inkludierten Plan-Limits hinausgeht, hängt das Abrechnungsmodell davon ab, wie Codex betrieben wird und nicht vom Plugin als Kategorie.
Bei Geschwindigkeit gilt dasselbe. Plugins können Arbeit auf operativer Ebene beschleunigen, weil sie Setup-Reibung senken und bessere Defaults bündeln. Sie können sie aber auch bremsen, wenn sie zu viel Orchestration-Logik, zusätzliche Connectoren oder zu viele externe Abhängigkeiten hinzufügen. Eine universelle Regel Plugin macht Codex schneller gibt es hier schlicht nicht.
Mein praktisches Fazit dazu: Plugins verbessern vor allem die organisatorische Geschwindigkeit. Sie verkürzen die erneute Einrichtung desselben Setups, beschleunigen Onboarding und machen gute Codex-Workflows wiederverwendbar. Ihre Kosten sind die operativen Kosten des Workflows, den sie häufiger ausführen helfen, nicht der bloße Umstand, dass ein Plugin existiert.
Der Launch ist nützlich, aber hier steckt keine Magie drin. Die Vorteile sind real. Die Fehlermuster auch.
Großer Pluspunkt: Plugins geben Teams einen sauberen Weg, gute Codex-Workflows zu verbreiten, statt sie auf jedem Rechner neu zusammenzubauen.
Großer Pluspunkt: Dadurch lassen sich Codex-Setups leichter über Repositories, Personen und Umgebungen hinweg standardisieren.
Hauptrisiko: Teams verpacken schwache Workflows und machen sie einfach leichter verbreitbar.
Hauptrisiko: plugin-getriebene Setups können still zu schwer, fragil oder connector-abhängig werden, wenn niemand sie wie normale Engineering-Assets behandelt.
Kurz gesagt
Eine Plugin-Bibliothek hebt Qualität nicht automatisch an. Sie erhöht nur die Hebelwirkung des Prozesses, den man hineinpakt.
OpenAI hat eine Plugin-Schicht für Codex und ein Plugin Directory in der Codex App gestartet. In der Dokumentation bleiben Skills der Authoring-Layer für wiederverwendbare Workflows, während Plugins zur installierbaren Distributionseinheit werden, die Skills, Apps und MCP-Server bündeln kann. [1][2]
Nein. OpenAI zieht hier eine klare Grenze: Skills beschreiben wiederverwendbare Workflows, Plugins sind das installierbare Paket, über das diese Workflows und Integrationen in Codex verteilt werden. [1]
Ja. In den Plugin-Docs steht ausdrücklich, dass ein Plugin Apps und MCP-Server enthalten kann und nicht nur Skills. Genau deshalb ist dieser Launch wichtiger als eine bloße Template-Bibliothek. [2]
Die Build-Docs von OpenAI sagen, dass jedes Plugin mit einer verpflichtenden Manifest-Datei unter `.codex-plugin/plugin.json` beginnt. Danach kann man `skills/`, optional `.app.json`, optional `.mcp.json` und Assets wie Screenshots ergänzen. [4]
OpenAI dokumentiert keine eigene Plugin-Gebühr. Die Kosten steigen indirekt, weil plugin-getriebene Workflows mehr Model-Arbeit, Tool-Nutzung, Context und externe Calls auslösen können. Die inkludierten Plan-Limits gelten gemeinsam für lokale Nachrichten und Cloud-Tasks, und große Aufgaben verbrauchen sie schneller. [2][5]
Manchmal auf operativer Ebene ja. Sie können Setup-Reibung reduzieren und gute Workflows wiederverwendbar machen. Sie können Arbeit aber genauso verlangsamen, wenn sie zu viel Orchestration-Logik oder zu viele externe Abhängigkeiten hinzufügen. Entscheidend ist nicht das Wort Plugin, sondern die Qualität des Workflows. [2][4][5]
Dieser Text stützt sich vor allem auf die offiziellen Docs und Produktseiten von OpenAI zu Codex sowie auf das offizielle Skills-Repository und angrenzende Materialien zur Ecosystem-Schicht rund um wiederverwendbare Workflows.
Verwandte Artikel
AI SEO / GEO im Jahr 2026: Ihre nächsten Kunden sind nicht Menschen — sondern Agents
Suche verschiebt sich von Klicks zu Antworten. Bots und AI-Agents crawlen, zitieren, empfehlen — und kaufen zunehmend. Erfahren Sie, was AI SEO / GEO bedeutet, warum klassisches SEO nicht mehr reicht und wie PAS7 Studio Marken im agentischen Web sichtbar macht.
Der leistungsstärkste Chip von Apple? M5 Pro und M5 Max brechen Rekorde
Eine Analyse zu Apple M5 Pro und M5 Max im März 2026. Wir zeigen, warum diese Chips als die stärksten professionellen Laptop-SoCs von Apple gelten können, wie sie sich gegen M4 Pro, M4 Max, M1 Pro, M1 Max schlagen und was der Vergleich mit aktuellen Intel- und AMD-Chips zeigt.
Automatisches Tagging und Suche für gespeicherte Links
Integration mit GDrive/S3/Notion für automatisches Tagging und schnelle Suche über Such-APIs
Bot-Entwicklung und Automatisierungs-Dienste
Professionelle Telegram-Bot-Entwicklung und Automatisierung von Geschäftsprozessen: Chatbots, KI-Assistenten, CRM-Integrationen und Prozessautomatisierung.
Professionelle Entwicklung für Ihr Geschäft
Wir erstellen moderne Web-Lösungen und Bots für Unternehmen. Erfahren Sie, wie wir Ihnen helfen können, Ihre Ziele zu erreichen.