
.png&w=64&h=64&output=jpg)
Wie führe ich mein störrisches LLM auf den richtigen Weg? mit Oliver Jägle und Ralf D. Müller
Sep 13, 2025
Oliver Jägle, Senior Engineer bei DB Systel mit Schwerpunkt auf AI-gestützten Entwicklungsworkflows, diskutiert, wie Missverständnisse bei der Kommunikation mit LLMs zu unstrukturiertem Code führen. Er stellt sein Tool Responsible Vibe MCP vor, das durch klare Anforderungen und kontextbezogene Anweisungen die Code-Generierung verbessert. Statt sofortiger Code-Dumps ermöglicht das Tool gezielte Rückfragen und schafft ein Langzeitgedächtnis für die Interaktion mit LLMs. So wird aus einem LLM ein durchdachter Entwicklungspartner.
AI Snips
Chapters
Transcript
Episode notes
Schnelle Codeausgabe ≠ Erwartungskonformität
- LLMs liefern schnell funktionierenden Code, aber oft ohne die erwartete Architektur oder Begründung.
- Oliver Jägle erkennt, dass das Problem meist schlechte Kommunikation über Workflow-Phasen ist.
Kontext Zum Richtigen Zeitpunkt Geben
- Teile Kontextinformationen phasenorientiert ein und liefere sie zum richtigen Zeitpunkt an das LLM.
- Vermeide große Anfangs-Prompts, die Kohärenz und Inferenzqualität beeinträchtigen.
Workflows Statt Megaprompts Nutzen
- Führe LLMs mit Workflows statt riesigen Megaprompts und expose den aktuellen Conversation State.
- Nutze ein persistentes Prozessgedächtnis, damit das Modell weiß, in welchem Schritt es ist.