In der Welt der KI-basierten Softwareentwicklung ist nicht nur ob, sondern wie gut entscheidend. In einem neuen YouTube-Video seines Kanals Promptgeflüster führt Alexander Weipprecht ein faszinierendes Live-Experiment durch: Zwei der derzeit fortschrittlichsten KI-Modelle – ChatGPT 5.2 (OpenAI) und Claude Opus 4.5 (Anthropic) – erhalten dieselbe Programmieraufgabe. Ziel ist es, herauszufinden, welches System effizienter, schneller und qualitativ hochwertiger Software-Code produziert.
🔬 Die Testaufgabe: Eine Physik-Engine in HTML + PHP
Die Aufgabe: Eine kleine Physik-Simulation im Browser. Ein Projektil wird abgeschossen und trifft – hoffentlich – einen Becher, der durch Gravitation und physikalisch korrekte Kollisionseffekte realistisch umkippen oder weggeschoben werden soll.
Funktionen der Anwendung:
- Eingaben im Frontend:
- Abschlusswinkel
- Geschwindigkeit
- Bechermasse
- Reibungskoeffizient
- Physikalische Effekte:
- Schwerkraft (Gravitation)
- Luftwiderstand
- Kollision
- Kipprotokoll
- Zusatzfunktionen:
- Reset-Funktion
- Slowmotion-Modus (bei Claude)
- Debug-Modus (beide)
- Ohne Datenbank, rein lokal (MAMP)
🧠 Setup: So wurde getestet
Alexander stellt sicher, dass die Testbedingungen möglichst vergleichbar sind:
| Merkmal | Claude Opus 4.5 | ChatGPT 5.2 |
|---|---|---|
| Modellumgebung | Claude Code (Cloud CLI) | Cursor IDE über GPT-5.2 |
| Startzeit | ~3 Minuten später | ~3 Minuten früher |
| Modus | Plan Mode + Ultrathink | Plan Mode |
| Eingabe | Markdown-Datei mit Anforderungen | Markdown-Datei mit gleichen Anforderungen |
| Zugriff | Bypass Permissions aktiviert | Manuell über Cursor geladen |
Die gleiche ToDo-Datei wird beiden Modellen übergeben – so fair wie möglich.
⚙️ Zwischenstand: Planung und Umsetzung
Claude Opus:
- Klar strukturierte Projektstruktur: API, CSS, Engine, JS
- Schnelle Umsetzung trotz späterem Start
- Kein Rückfragen nötig
- Beginn der Physik-Engine früh im Prozess
- Test-Simulationen integriert
- Fehler wie Tunneling erkannt und eigenständig behoben
ChatGPT 5.2:
- Etwas langsamerer Fortschritt
- Erste Planungsprobleme im CLI-Betrieb via Cursor
- Eingeschränkte Kontrollübersicht über Fortschritt
- Längere Entwicklungszeit
- Aber: Sehr robuste Teststruktur mit mehreren Durchläufen
- Physik-Engine wirkt tief durchdacht, etwas konservativer
🔍 Ergebnisse im Detail:
✅ Claude Opus (Anthropic)
- UI/UX: Deutlich grafischere Darstellung (Slider, Farben, visuelle Feedbacks)
- Physik: Kollisionsverhalten teilweise realistisch – u.a. Aufprallwinkel, Becherbewegung, Kippsimulation
- Interaktivität: Slowmotion-Modus, Bechermasse veränderbar, Debug-Ausgaben
- Selbstständige Tests: Ja, inkl. Bug-Erkennung bei hoher Geschwindigkeit (Tunneling-Effekt)
- Reaktionsgeschwindigkeit: Schneller in der Umsetzung (trotz späterem Start)
Highlight: Die KI erkannte und löste ein typisches Problem bei Physiksimulationen: Bei hoher Geschwindigkeit überspringt das Projektil durch zu große Frame-Intervalle den Becher. Claude implementierte daraufhin eine verbesserte Kollisionsprüfung.
✅ ChatGPT 5.2 (OpenAI)
- UI/UX: Funktional, aber einfacher gehalten
- Physik: Sehr gut durchdacht, Becher verhält sich physikalisch korrekt
- Stabilität: Robuste Berechnungen, mehrere selbstinitiierte Testdurchläufe
- Selbstverbesserung: Auch hier klare Testroutinen, aber ohne Slowmo-Modus oder Kippsimulation mit mehreren Phasen
- Reaktionsgeschwindigkeit: Deutlich länger, aber potenziell stabiler
Stärken: ChatGPT 5.2 zeigt mehr "klassische" Engineering-Qualität, mit Fokus auf solide und nachvollziehbare Tests.
📊 Vergleichstabelle: Claude vs. GPT 5.2
| Kriterium | Claude Opus 4.5 | ChatGPT 5.2 |
|---|---|---|
| Startzeit | Später | Früher |
| Planung | Klar, direkt | Mit Problemen im Plan Mode |
| Codeumfang | Kompakt, strukturiert | Umfangreich, testlastig |
| Grafik/UI | Sehr ansprechend | Funktional, schlicht |
| Physik-Korrektheit | Gut, mit erkannten Bugs | Sehr gut, robust |
| Besonderheiten | Slowmotion, Debug-Modus | Tiefer Test-Loop |
| Fehlerbehandlung | Eigenständig, lösungsorientiert | Systematisch, aber langsamer |
| Fazit | 2+ | 2–3 |
🧮 Wirtschaftliche Bewertung:
In einem realen Agentur- oder Unternehmenskontext zählt neben Qualität auch die Entwicklungsgeschwindigkeit und Wartbarkeit. Claude Opus konnte mit einem leichten Geschwindigkeitsvorsprung und einer optisch überzeugenderen Lösung punkten – ideal für kundennahe Projekte mit Fokus auf Usability.
ChatGPT 5.2 hingegen überzeugt durch solide Testabdeckung und ein systematisch sauberes Vorgehen – was bei hochkomplexen Softwareprojekten entscheidend sein kann.
💬 Fazit: Beide Modelle sind bereit für den produktiven Einsatz
Dieses Live-Experiment zeigt eindrucksvoll: KI ist heute nicht mehr nur Spielerei, sondern produktives Werkzeug für echte Softwareentwicklung.
Beide Modelle liefern nutzbare Ergebnisse:
- Claude Opus 4.5 eignet sich hervorragend für schnelle, optisch ansprechende Prototypen und Live-Demos.
- ChatGPT 5.2 liefert stabilen, nachvollziehbaren Code – ideal für strukturiertes Teamwork und Langzeitprojekte.
🔮 Ausblick: Was wird getestet?
Alexander Weipprecht plant weitere Tests – u.a. mit Gemini, Mistral oder neuen Open-Source-Modellen. Besonders spannend wird die Frage, wie sich die Systeme bei anderen Aufgaben schlagen:
- Bildgenerierung (Gemini vs. DALL·E)
- Komplexe Datenbankanwendungen
- APIs & Authentifizierung
- Multiplayer-Spielelogik
„Ich glaube, viele Entwickler unterschätzen noch, wie mächtig diese Tools bereits sind – gerade wenn man weiß, wie man sie richtig einsetzt.“ – Alexander Weipprecht
📎 Quellcodes beider Versionen (Claude & GPT 5.2):
👉 https://github.com/provimedia/gpt5opus_demo
📺 Zum Video & Kanal:
👉 Promptgeflüster mit Alexander Weipprecht
Tipp für Entwickler:innen:
Wenn du KI in deinen Workflow integrieren willst, teste beide Systeme selbst. Viele Tools wie Cursor, Claude Code CLI oder Replit Ghostwriter machen es einfach, selbst produktive Erfahrungen zu sammeln.
FAQ zur KI-Softwareentwicklung: Claude Opus vs. ChatGPT 5.2
Was sind die Hauptfunktionen von Claude Opus und ChatGPT 5.2?
Claude Opus bietet eine klare Projektstruktur, visuelle Feedbacks und einen Slowmotion-Modus, während ChatGPT 5.2 einen robusten Code mit umfangreicher Testabdeckung und nachvollziehbaren Ergebnissen bietet.
Wie unterscheiden sich die beiden Modelle in der Planung und Umsetzung?
Claude Opus zeigt eine klare und direkte Planung, während ChatGPT 5.2 mit Planungsproblemen im CLI-Betrieb konfrontiert war.
Welches Modell bietet eine bessere Benutzeroberfläche?
Claude Opus bietet eine ansprechendere und graphischere Benutzeroberfläche, während ChatGPT 5.2 funktional, aber schlichter gestaltet ist.
Wie gut verarbeiten die Modelle physikalische Simulationen?
Claude Opus zeigt teils realistische Ergebnisse in Bezug auf das Kollisionverhalten, während ChatGPT 5.2 sehr gute physikalische Korrektheit und Stabilität aufweist.
Was sind die wirtschaftlichen Vorteile der beiden Modelle?
Claude Opus eignet sich ideal für kundennahe Projekte mit Fokus auf Usability, während ChatGPT 5.2 durch solide Testabdeckung und sauberes Vorgehen in komplexen Softwareprojekten überzeugt.



