PAS7 Studio
Zurück zu allen Artikeln

Codex-Plugins: Was OpenAI wirklich gestartet hat

In diesem Artikel zerlegen wir die neue Plugin-Bibliothek für Codex von OpenAI: was genau gestartet wurde, worin sich Plugins von Skills, Apps und MCP unterscheiden, wie man sie nutzt, wie man sie baut, wo sie wirklich sinnvoll sind und wie sie Geschwindigkeit, Limits und Team-Workflows beeinflussen.

30. März 2026· 13 Min. Lesezeit· Technologie
Geeignet fürSoftware engineersTechnical leadsEngineering managersTeams, die Coding-Agent-Workflows standardisieren wollen
Titelbild eines Blogposts über die neue Plugin-Bibliothek für OpenAI Codex

Die eigentliche Nachricht ist hier nicht, dass OpenAI noch einen Katalog hinzugefügt hat. Die eigentliche Nachricht ist, dass Codex jetzt einen sauberen Weg hat, wiederverwendbare Workflows zu paketieren und zu verteilen.

Die Formulierung von OpenAI ist hier selbst schon wichtig: Skills sind das authoring format for reusable workflows, Plugins sind die installable distribution unit für reusable skills und apps in Codex. [1]
In den Plugin-Docs steht ausdrücklich, dass ein Plugin Skills, Apps und MCP-Server enthalten kann. Das ist deutlich mehr als nur eine Bibliothek mit Prompt-Vorlagen. [2]
In der Codex App gibt es jetzt ein Plugin Directory, in dem man kuratierte Plugins durchsuchen und installieren kann. Das wirkt bereits mehr wie eine Ecosystem-Schicht als wie ein lokales Power-User-Setup. [2]
Der Vorteil liegt auf der Hand: wiederverwendbare Standards, schnelleres Onboarding und weniger Copy-Paste in lokalen Konfigurationen. Die Kehrseite ist genauso klar: mehr bewegliche Teile, mehr Governance-Fragen und mehr Wege, Limits zu verbrennen, wenn plugin-getriebene Workflows zu schwer werden. [2][5][6]

Der einfachste Weg, diesen Launch falsch zu verstehen, ist, ihn bloß als Plugin-Marktplatz zu bezeichnen und dort stehenzubleiben. Genau dann geht der Kern verloren. In den offiziellen Codex-Docs beschreibt OpenAI Skills als den Layer, in dem wiederverwendbare Workflows geschrieben werden. Plugins sind der Layer, den man nutzt, wenn diese Workflows und Integrationen installierbar und verteilbar werden sollen. [1]

In der Plugin-Übersicht wird das noch direkter. OpenAI schreibt, dass ein Plugin drei Arten von Dingen enthalten kann: Skills, Apps und MCP-Server. Einfacher gesagt heißt das: Ein Plugin kann wiederverwendbare Anweisungen, Verbindungen zu externen Tools und zusätzliche Tool-Oberflächen oder geteilte Informationen über MCP bündeln. [2]

Für Codex verändert das die Praxis. Zuvor konnten Teams ebenfalls starke lokale Setups bauen, aber Wiederverwendung zwischen Repositories oder Personen war immer etwas chaotisch. Jemand hatte einen guten Skill. Jemand anderes eine eigene MCP-Konfiguration. Noch jemand hatte App-Mappings. Jetzt versucht OpenAI, um diesen Stapel eine saubere Paketgrenze zu ziehen.

Auch die Produktseiten zeigen in dieselbe Richtung. Auf der Codex-Startseite schreibt OpenAI, Codex sei designed for multi-agent workflows, und mit Skills gehe es über bloßes writing code hinaus in Richtung Codeverständnis, Prototyping und Dokumentation. [3] Der nächste logische Schritt ist dann genau so eine Plugin-Bibliothek, weil solche Workflows erst dann wirklich wertvoll werden, wenn sie sich sauber installieren und wiederverwenden lassen.

Die sauberste Lesart dieses Launches ist: Das Plugin ist die installierbare Hülle, die eigentlichen Capability-Layer darin sind Skills, Apps und MCP-Server. [1][2]

Screenshot des Abschnitts what-openai-actually-launched

Wenn man diese Ebenen nicht auseinanderhält, wirkt der ganze Launch unschärfer, als er in Wahrheit ist.

Comparison pointEbeneWas das in der Praxis bedeutet
SkillDie Authoring-Ebene für einen wiederverwendbaren Workflow. OpenAI beschreibt Skills als wiederverwendbare Anweisungen für bestimmte Arbeitsarten. [1][2]Auf Skill-Ebene codiert man das eigentliche Arbeitsmuster: Instructions, Helper-Scripts, Referenzen und einen task-spezifischen Prozess.
PluginDie installierbare Distributionsebene. OpenAI sagt ausdrücklich, dass Plugins die installierbare Einheit für reusable skills und apps in Codex sind. [1]Das Plugin ist das, was man verteilt, installiert, verwaltet und über Personen oder Projekte hinweg ausrollt.
AppEine Verbindung zu externen Tools wie GitHub oder Slack. In den Plugin-Docs werden Apps ausdrücklich als eine Capability im Plugin genannt. [2]Diese Ebene gibt Codex Zugriff auf Systeme außerhalb des lokalen Projekts.
MCP serverEine zusätzliche serverseitige Tool-Oberfläche oder geteilte Context-Quelle. Auch MCP-Server werden in den Plugin-Docs explizit als Plugin-Capability genannt. [2]So erweitert man Codex um weitere Tools oder gemeinsame Datenquellen jenseits des lokalen Workspace.

Für die meisten Teams ist der erste nützliche Schritt nicht, sofort ein Plugin von Grund auf neu zu bauen. Der erste nützliche Schritt ist zu verstehen, was ein kuratiertes Plugin tatsächlich installiert und wo es in das bestehende Codex-Setup passt.

01

Öffne das Plugin Directory in der Codex App

In den Docs von OpenAI steht direkt, dass man Plugins in der Codex App öffnen soll, um kuratierte Plugins zu durchsuchen und zu installieren. Das ist der sauberste Startpunkt, weil man Sichtbarkeit bekommt, bevor man irgendetwas anpasst. [2]

02

Prüfe, was das Plugin tatsächlich paketiert

Bleib nicht beim Namen stehen. Prüfe, ob das Plugin einen Skill, ein App-Mapping, eine MCP-Konfiguration oder eine Kombination aus allem liefert. Genau daran sieht man, was sich im Workflow real ändert. [1][2]

03

Teste es zuerst an einem engen Workflow

Gute erste Fälle sind bewusst unspektakulär: einen PR reviewen, Migrationsrisiken sammeln, Release Notes erzeugen oder Repo-Triage standardisieren. Genau dort zeigen Plugins am schnellsten Wert und scheitern am sichersten.

04

Miss die Kosten in Context, Geschwindigkeit und Output-Qualität

Ein Plugin kann Setup-Zeit sparen und trotzdem eine schlechte operative Entscheidung sein, wenn es zu viel Context, zu viele Tool-Hops oder zu starke Abhängigkeit von externen Diensten einführt. Man sollte es wie eine Engineering-Abhängigkeit behandeln, nicht wie einen bequemen Schalter. [2][5][6]

05

Erst danach teamweit standardisieren

Wenn das Plugin seinen Nutzen gezeigt hat, wird es zu einem sauberen Weg, Teamstandards zu verankern, statt sich auf implizites Wissen und kopierte persönliche Konfigurationen zu verlassen.

Kurz gesagt

Der erste Gewinn ist nicht Skalierung. Der erste Gewinn ist Wiederholbarkeit.

Die Build-Docs von OpenAI sind an dieser Stelle angenehm konkret. Jedes Plugin beginnt mit einer verpflichtenden Manifest-Datei unter .codex-plugin/plugin.json. Das ist der feste Entry Point. [4]

In denselben Docs steht auch, was daneben liegen kann. Ein Plugin kann ein skills/-Verzeichnis mit SKILL.md enthalten, optional ein .app.json für App- oder Connector-Mappings, optional ein .mcp.json für MCP-Server-Konfiguration und einen assets/-Ordner für Screenshots oder Branding. [4]

Diese Struktur ist für sich schon aufschlussreich, weil sie zeigt, wie OpenAI über ein Plugin denkt. Es ist nicht nur ein Prompt, kein einzelnes Modell-Preset und auch nicht bloß ein Knopf im Interface. Es ist ein Paket aus Workflow-Logik und Capability-Wiring.

Wenn man ein eigenes Plugin baut, sollte die Reihenfolge pragmatisch bleiben. Zuerst definiert man den engen wiederverwendbaren Workflow. Dann codiert man ihn als Skill. Und erst danach fügt man Apps oder MCP hinzu, wenn der Workflow wirklich externe Systeme braucht. Anschließend wird alles über plugin.json verpackt, damit andere denselben Setup sauber installieren können.

Eine minimale Struktur sieht so aus:

TEXT
my-plugin/
  .codex-plugin/
    plugin.json
  skills/
    repo-triage/
      SKILL.md
  .app.json
  .mcp.json
  assets/

Das ist eines der wichtigsten Signale im ganzen Launch. OpenAI dokumentiert nicht nur, wie man Plugins benutzt. OpenAI dokumentiert auch, wie Teams wiederverwendbare Codex-Capability als echtes internes Asset paketieren sollen. [4]

Starker Fit

Teamstandards, wiederholte Review-Flows, Repo-Onboarding, frameworkspezifische Wartung, Design-to-Code-Pipelines, Dokumentationsjobs und Routinen über mehrere Repositories hinweg. Genau dort spart gutes Workflow-Packaging jede Woche Zeit.

Sollte man testen

Interne Tooling-Szenarien, Security-Review-Rezepte, Migration-Helper und domänenspezifische Repo-Checks. Ein guter Fit, wenn der Workflow wirklich wiederholt auftritt und nicht nur als Vorsorgephantasie existiert.

Oft overkill

Einmalige Aufgaben, winzige persönliche Vorlieben oder Setups, die real nur eine Person nutzt. Wenn der Workflow nicht wiederverwendet wird, wird das Plugin sehr schnell zu Ceremony ohne echten Nutzen.

Risikozone

Plugins, die stillschweigend an zu vielen externen Systemen, instabilen MCP-Servern oder überladenem Context hängen. Genau diese Plugins sehen in Demos am stärksten aus und verhalten sich im echten Betrieb am schlechtesten.

Einfache Regel

Wenn ein Workflow wirklich wiederkehrend, geteilt und stabil ist, lohnt sich ein Plugin fast sicher. Wenn er persönlich, vage oder brüchig ist, eher nicht.

Hier braucht es eine saubere Antwort. In den aktuellen Docs von OpenAI gibt es keine eigene Plugin-Gebühr, keinen Plugin-Token-Multiplikator und keine spezielle Pricing-Tabelle nur für Plugins. Die ehrliche Formulierung ist also nicht Plugins kosten X. Die ehrliche Formulierung ist: Plugins verändern, wie viel Arbeit Codex ausführt, und damit verändern sie auch, wie sich ein kostenpflichtiger Plan anfühlt. [2][5][6]

In den Pricing-Docs schreibt OpenAI, dass lokale Nachrichten und Cloud-Tasks gemeinsame included usage limits teilen und dass größere oder teurere Aufgaben diese Limits schneller verbrauchen. [5] Das ist wichtig, weil Plugins fast immer helfen, mehr zu tun statt weniger: mehr Tool-Calls, mehr Repo-Reads, mehr externen Context und manchmal längere verkettete Workflows über MCP oder Apps.

Es gibt noch eine zweite wichtige Nuance. OpenAI schreibt außerdem, dass Nutzer zusätzliche lokale Tasks mit einem API-Key zu normalen API-Tarifen ausführen können. [5] Wenn ein plugin-getriebener Workflow also über die inkludierten Plan-Limits hinausgeht, hängt das Abrechnungsmodell davon ab, wie Codex betrieben wird und nicht vom Plugin als Kategorie.

Bei Geschwindigkeit gilt dasselbe. Plugins können Arbeit auf operativer Ebene beschleunigen, weil sie Setup-Reibung senken und bessere Defaults bündeln. Sie können sie aber auch bremsen, wenn sie zu viel Orchestration-Logik, zusätzliche Connectoren oder zu viele externe Abhängigkeiten hinzufügen. Eine universelle Regel Plugin macht Codex schneller gibt es hier schlicht nicht.

Mein praktisches Fazit dazu: Plugins verbessern vor allem die organisatorische Geschwindigkeit. Sie verkürzen die erneute Einrichtung desselben Setups, beschleunigen Onboarding und machen gute Codex-Workflows wiederverwendbar. Ihre Kosten sind die operativen Kosten des Workflows, den sie häufiger ausführen helfen, nicht der bloße Umstand, dass ein Plugin existiert.

Der entscheidende Unterschied ist simpel: OpenAI dokumentiert Limits und API-Abrechnung, aber keine eigene Plugin-Steuer. Kosten ändern sich, weil plugin-getriebene Workflows mehr Arbeit auslösen, nicht weil plugin.json an sich teuer wäre. [2][5][6]

Screenshot des Abschnitts costs-speed-and-plans

Der Launch ist nützlich, aber hier steckt keine Magie drin. Die Vorteile sind real. Die Fehlermuster auch.

Großer Pluspunkt: Plugins geben Teams einen sauberen Weg, gute Codex-Workflows zu verbreiten, statt sie auf jedem Rechner neu zusammenzubauen.

Großer Pluspunkt: Das Modell passt gut dazu, wie technische Teams tatsächlich arbeiten. Eine Ebene codiert den Prozess, eine andere gibt Zugang zu externen Systemen und das Bundle wird installierbar. [1][2][4]

Großer Pluspunkt: Dadurch lassen sich Codex-Setups leichter über Repositories, Personen und Umgebungen hinweg standardisieren.

Hauptrisiko: Teams verpacken schwache Workflows und machen sie einfach leichter verbreitbar.

Hauptrisiko: plugin-getriebene Setups können still zu schwer, fragil oder connector-abhängig werden, wenn niemand sie wie normale Engineering-Assets behandelt.

Hauptrisiko: Menschen geben Plugins die Schuld an Cost-Spikes, die in Wahrheit aus schlechtem Workflow-Design, zu viel Context oder teuren Downstream-Services kommen. [2][5]

Kurz gesagt

Eine Plugin-Bibliothek hebt Qualität nicht automatisch an. Sie erhöht nur die Hebelwirkung des Prozesses, den man hineinpakt.

Was genau hat OpenAI für Codex gestartet?

OpenAI hat eine Plugin-Schicht für Codex und ein Plugin Directory in der Codex App gestartet. In der Dokumentation bleiben Skills der Authoring-Layer für wiederverwendbare Workflows, während Plugins zur installierbaren Distributionseinheit werden, die Skills, Apps und MCP-Server bündeln kann. [1][2]

Ist ein Codex-Plugin dasselbe wie ein Skill?

Nein. OpenAI zieht hier eine klare Grenze: Skills beschreiben wiederverwendbare Workflows, Plugins sind das installierbare Paket, über das diese Workflows und Integrationen in Codex verteilt werden. [1]

Kann ein Plugin für Codex externe Integrationen enthalten?

Ja. In den Plugin-Docs steht ausdrücklich, dass ein Plugin Apps und MCP-Server enthalten kann und nicht nur Skills. Genau deshalb ist dieser Launch wichtiger als eine bloße Template-Bibliothek. [2]

Wie wird ein Plugin für Codex gebaut?

Die Build-Docs von OpenAI sagen, dass jedes Plugin mit einer verpflichtenden Manifest-Datei unter `.codex-plugin/plugin.json` beginnt. Danach kann man `skills/`, optional `.app.json`, optional `.mcp.json` und Assets wie Screenshots ergänzen. [4]

Werden Plugins auf kostenpflichtigen Codex-Plänen zu einer eigenen Kostenposition?

OpenAI dokumentiert keine eigene Plugin-Gebühr. Die Kosten steigen indirekt, weil plugin-getriebene Workflows mehr Model-Arbeit, Tool-Nutzung, Context und externe Calls auslösen können. Die inkludierten Plan-Limits gelten gemeinsam für lokale Nachrichten und Cloud-Tasks, und große Aufgaben verbrauchen sie schneller. [2][5]

Machen Plugins Codex schneller?

Manchmal auf operativer Ebene ja. Sie können Setup-Reibung reduzieren und gute Workflows wiederverwendbar machen. Sie können Arbeit aber genauso verlangsamen, wenn sie zu viel Orchestration-Logik oder zu viele externe Abhängigkeiten hinzufügen. Entscheidend ist nicht das Wort Plugin, sondern die Qualität des Workflows. [2][4][5]

Dieser Text stützt sich vor allem auf die offiziellen Docs und Produktseiten von OpenAI zu Codex sowie auf das offizielle Skills-Repository und angrenzende Materialien zur Ecosystem-Schicht rund um wiederverwendbare Workflows.

Geprüft: 29. März 2026Gilt für: Codex appGilt für: Codex CLIGilt für: IDE-Workflows mit CodexGilt für: Teams, die wiederverwendbare Coding-Workflows bauenGetestet mit: OpenAI Codex plugin docsGetestet mit: OpenAI Codex skills docsGetestet mit: OpenAI Codex pricing docsGetestet mit: OpenAI Codex product pages

Verwandte Artikel

growth

AI SEO / GEO im Jahr 2026: Ihre nächsten Kunden sind nicht Menschen — sondern Agents

Suche verschiebt sich von Klicks zu Antworten. Bots und AI-Agents crawlen, zitieren, empfehlen — und kaufen zunehmend. Erfahren Sie, was AI SEO / GEO bedeutet, warum klassisches SEO nicht mehr reicht und wie PAS7 Studio Marken im agentischen Web sichtbar macht.

blogs

Der leistungsstärkste Chip von Apple? M5 Pro und M5 Max brechen Rekorde

Eine Analyse zu Apple M5 Pro und M5 Max im März 2026. Wir zeigen, warum diese Chips als die stärksten professionellen Laptop-SoCs von Apple gelten können, wie sie sich gegen M4 Pro, M4 Max, M1 Pro, M1 Max schlagen und was der Vergleich mit aktuellen Intel- und AMD-Chips zeigt.

telegram-media-saver

Automatisches Tagging und Suche für gespeicherte Links

Integration mit GDrive/S3/Notion für automatisches Tagging und schnelle Suche über Such-APIs

services

Bot-Entwicklung und Automatisierungs-Dienste

Professionelle Telegram-Bot-Entwicklung und Automatisierung von Geschäftsprozessen: Chatbots, KI-Assistenten, CRM-Integrationen und Prozessautomatisierung.

Professionelle Entwicklung für Ihr Geschäft

Wir erstellen moderne Web-Lösungen und Bots für Unternehmen. Erfahren Sie, wie wir Ihnen helfen können, Ihre Ziele zu erreichen.