
Working Draft
Working Draft ist der deutschsprachige Podcast für Frontend-Entwicklung, Webdesign und UI Engineering.
Bei uns geht’s um HTML, CSS, JavaScript, Frameworks wie React, Vue und Angular, Responsive Webdesign, User-Interfaces, moderne UI-Patterns, Barrierefreiheit, Tooling, Design-Systeme, Webstandards und mehr.
Unser Team besteht aus erfahrenen Frontend-Entwickler:innen aus Deutschland und Österreich – mit Gästen aus der Praxis, die regelmäßig Einblicke in aktuelle Tech-Themen geben. Ob neue CSS-Features, die Zukunft von JavaScript, KI im Frontend-Workflow oder einfach gute UI-Erfahrungen: Wir reden drüber – jede Woche neu.
Latest episodes

Jul 15, 2025 • 1h 29min
Revision 670: Neuerungen in WebKit
In dieser Folge widmen wir uns erneut ganz WebKit – und dem, was sich dort aktuell alles tut und in den letzten Monaten getan hat. Schepp und Peter diskutieren neue Features, (alte) Probleme sowie APIs, die bereits in Safari gelandet sind oder bald landen werden.
Schaunotizen
[00:01:09] Google I/O 2025 & CSS-only Carousels
Zum Einstieg beklagen wir wie themenarm die Google I/O dieses Jahr für uns Frontend-Menschen war. Das einzig wirklich spannende Ding waren die Vorstellung der CSS-Primitiven für den Bau von Karussells. Allerdings steckt in dem Thema noch sehr viel Arbeit an der Barrierefreiheitsfront, wie Sara Soueidan dargelegt hat. Der Rest bestand aus eilig herbei-geprototypeten Demos.
[00:19:34] Multipage View Transitions
Mit nur zwei Zeilen Code aus dem WebKit-Blogpost lassen sich flüssige Seitenübergänge realisieren. Wir berichten von unseren eigenen Versuchen mit View Transitions und verweisen auf die Library ramjet, die ähnliche Effekte wie die View Transitions schon seit zehn Jahren ermöglicht.
[00:25:46] (Root) Line-Height Units: lh/rlh
WebKit führt neue Einheiten für die Zeilenhöhe ein, die konsistentere Text-Layouts erlauben. Wir schweifen an dieser Stelle kurz ab und sprechen darüber, wie das CSS Typed OM funktioniert.
[00:29:24] margin-trim
Mit margin-trim lassen sich über den Rand ragende Margins von Kind-Elementen abschneiden, was bestimmte Layouts gegenüber der :first-child/:last-child-Technik deutlich robuster umsetzbar werden lässt.
[00:33:52] text-wrap: pretty
Das neue Umbruch-Verhalten text-wrap: pretty sorgt für elegantere Zeilenumbrüche und optimierte Worttrennung. Die WebKit-Menschen haben es aber nicht dabei belassen, mit Chrome nachzuziehen, sondern haben noch kräftig „Gold-Plating“ betrieben ‐ mit sehenswertem Ergebnis! Wem das nicht reicht, der kann in Zukunft vielleicht auf Machine-Learning zurückgreifen, um Text nach seinen Vorstellungen zu formatieren, wie es jemand in diesem Video namens „Badness 0“ demonstriert.
[00:35:20] WebKit-Bug bei Ligaturen
So stark WebKit allerdings bei Typografie sonst ist, bei einer Sache verkackt er hart: Bei der Berechnung der Laufweite von Ligaturen. Ligaturen sind eine fantastische Sache und ermöglichen es, Fonts regelrecht zu programmieren. Schrift-Entwicklerin Ulrike Rausch bildet hier die Speerspitze mit ihren „Liebe“-Fonts und dem Font „Liebe Heide“ im Speziellen. Ein wenig in das Thema eingetaucht ist Schepp neulich auch, als er mit Hilfe eines SVG und OpenType.js (master Branch) eine Ligatur in eine Schrift eingebaut hat, welche alle Vorkommen eines bestimmten Wortes im Text-Rendering automatisch durch die SVG-Grafik ersetzt. Diese Grafik läuft allerdings weiter als der damit ersetzte Text. Chrome und Firefox bemerken das und passen den Textfluss entsprechend an. Nur WebKit leider nicht, wo nachfolgender Text rechts in die Grafik ragt oder ohne Abstand an der Grafik klebt. Text Rendering Hates You!
[00:56:35] Neue Farb-Features
Safari kennt nun die (neue) contrast-color()-Funktion, welche automatisch eine kontrastreiche Schriftfarbe basierend auf einer Input-Farbe zurückgibt. Dabei beschränkt sie sich derzeit noch auf die Rückgabe von Weiß oder Schwarz. Wir sprechen über die bewegte Vergangenheit dieser Funktion, die eigentlich mal als color-contrast()-Funktion das Licht der Welt erblicken sollte, und was die Web Accessibility Initiative (WAI) und die Farbkontraste-Berechnung nach APCA mit den aktuellen Limitationen zu tun haben. Das Kontraste-Thema führt uns auch zu Lighthouse und seinen Barrierefreiheits-Checks, die viele Problemfälle nicht erkennen (können). Aus dieser Tatsache hat Manuel Matuzović sogar ein ganzes Projekt gemacht: Building the most inaccessible site possible with a perfect Lighthouse score (hier als Video).
Ebenfalls neu ist ein Upgrade des Color-Inputs, welcher jetzt die HTML-Attribute colorspace sowie das boolsche alpha versteht. Wir finden das gut, allerdings sind wir der Meinung, dass insbesondere die neuen Farbräume mit Bedacht eingesetzt werden sollten, weil eine ganze Kette von Erfordernissen für einen erfolgreichen Einsatz erfüllt sein muss. Hier stößt man aber auf das Problem, dass HTML selbst keine Möglichkeit zum Feature-Testen und des Alternativ-Pfads kennt, anders als JavaScript oder CSS. Das Problem hat man genauso bei dem relativ neuen switch-Attribut bei Checkbox-Inputs. Schepp hat das Problem in der Praxis darüber hinaus auch bei Hauptmenüs, die auf Desktop-Geräten einfache <nav>-Elemente sein sollten, auf Mobile aber <dialog>-Elemente, wenn sie sich UI-mäßig in Offcanvas-Menüs umwandeln. Peter berichtet, wie er Menüs unkompliziert (aber semantisch grenzwertig) mit dem <details>-Element auf- und zuklappen lässt. Für solch einen Ansatz spielt einem auch das neue ::details-content-Pseudo-Element in die Karten.
[01:15:42] Declarative WebPush
Mit der Declarative Web Push API lassen sich Push-Nachrichten in Zukunft ganz ohne (schwer zu handhabende) Service Worker konfigurieren. Juhuuu! Wer dennoch lieber Service Worker verwenden möchte, dem empfehlen wir zumindest den Einsatz der Library Workbox, um es erträglich zu machen.
[01:18:51] SVGs d-Property in CSS
WebKit erlaubt nun endlich als letzter Browser im Bunde, das d-Attribut von SVG-Pfaden direkt via CSS zu verändern. Auf diesen Tag hat Peter sehr lange hingefiebert ‐ und sich anderweitig beholfen! Schepp bringt das auf die Idee, ob die Custom Highlight API nicht auch ein guter Kandidat für Peters Problem hätte sein können.

Jul 10, 2025 • 22min
On Tour @ #headinthecloud – Web Sustainability mit Thorsten Jonas & Marvin Hötger
Dieses Interview ist der letzte von 3 Teilen unserer Serie On Tour @ #headinthecloud. Head in the Cloud ist eine Konferenz von Mittwald, die am 13. Juni 2025 in Espelkamp stattfand.
Web Sustainability
Mit Thorsten Jonas & Marvin Hötger.
Eigentlich muss man sich vielmehr Gedanken machen, welchen Einfluss unsere Webseiten auf die Umwelt haben. Durch Chatbots, Bilder und vieles mehr kann man als Entwickler großen Einfluss auf den CO₂-Fußabdruck einer Webseite haben. Thorsten erklärt, warum das der Fall ist und welche Maßnahmen man noch so ergreifen kann. Marvin gibt einige Beispiele aus der Praxis.
Das Video zum Talk wird zeitnah auf dem YouTube Kanal von Mittwald verfügbar sein. Den Sustainable UX Podcast wiederum findet ihr hier.

Jul 8, 2025 • 55min
Revision 669: Chat-Applikationen mit gängigen LLM-APIs
In dieser Revision sprechen Vanessa und Schepp mit Jannik Lehmann (LinkedIn), Senior Frontend Developer bei GitLab, darüber, wie man Chat-Applikationen mit gängigen LLM-APIs erstellt. Dabei geht er auf verschiedenste Stolpersteine ein, spricht über Streaming und warum der Kontext so wichtig ist.
Unser Sponsor
Maximale Performance für all deine Projekte? Bei mittwald brauchst du dir nie wieder Sorgen um Performance-Einbrüche machen. Der Traffic kann ruhig durch die Decke gehen, deine Seite bleibt immer rasend schnell.
mittwald hat Hosting neu gedacht und alles auf die besonderen Anforderungen und Workloads von Agenturen und Freelancern optimiert – inklusive Infrastruktur, benutzerfreundlicher Oberfläche und flexiblen Tarifen. Egal, ob du deinen Server selbst konfigurieren möchtest oder das mittwald-Team sich um die optimalen Specs kümmern soll. Der persönliche Kundenservice unterstützt dich 24/7 bei allen Fragen rundum WordPress, TYPO3, Shopware oder was auch immer dich gerade beschäftigt. Im firmeneigenen und TÜV-zertifizierten Rechenzentrum sind deine Daten in sicheren Händen. Und das Beste? Wer seine Projekte bei mittwald hostet bekommt nicht nur die besten Server, sondern auch 100% CO2-neutrales Hosting. Also, worauf wartest du? Geh jetzt auf mittwald.de/workingdraft und buch dein erstes Projekt!
Schaunotizen
[00:01:42] Chat-Applikationen mit gängigen LLM-APIs
LLM-APIs unterscheiden sich in zwei zentralen Punkten von klassischen APIs: Erstens sind die Antworten nicht deterministisch – das bedeutet, dass ein identischer Prompt bei jedem Request ein anderes Ergebnis liefern kann. Zweitens kommen die Antworten gestreamt an – oft in Form von Text-Chunks, die schrittweise per Server Sent Events (SSE) an den Client geliefert werden.
Ein typischer Request beginnt mit einem einfachen Prompt als Plaintext. Die Antwort wird dann dynamisch in Markdown-Form gestreamt. Doch genau dieses gestreamte Markdown bringt etliche Stolperfallen mit: Von XSS- und Prompt-Injection-Risiken über unvollständige Mermaid-Diagramme bis hin zu halbfertigen Flowcharts und weiteren seltsamen Markdown-Konstrukten, die ein LLM ausgeben kann.
Hier lohnt ein Exkurs in das Thema streambare vs. nicht streambare Dateiformate: HTML ist beispielsweise streambar, da der Browser Bit für Bit lesen und direkt rendern kann. Deshalb gibt es auch Metriken wie „First Meaningful Paint“ und Gründe dafür, warum ein Script-Tag lieber am Ende statt am Anfang einer HTML-Datei stehen sollte. Markdown hingegen ist nicht streambar – es braucht oft Kontext über mehrere Zeilen hinweg, bevor eine Darstellung sinnvoll möglich ist. Genau deshalb ist Markdown als Streaming-Format nicht ganz trivial zu handhaben.
Ein weiteres zentrales Thema ist der Kontext – oder vielmehr: wie wir mit ihm umgehen. Denn LLMs sind per se stateless. Das bedeutet: Jeder einzelne Request muss alles enthalten, was das Modell wissen soll – den Prompt, die bisherige Konversation, den System Prompt und ggf. auch hochgeladene Dateien. Aus Erfahrung wissen wir: Alle nutzen am Ende dieselben Modelle, aber wie der Kontext behandelt wird, entscheidet darüber, ob der AI-Assistent genial oder nutzlos wirkt.
Apropos Kontext: LLMs haben ein beschränktes Kontextfenster – je nach Modell unterschiedlich groß, aber immer begrenzt. Was tun, wenn dieses Limit erreicht ist? Strategien wie Sliding Windows (ältere Nachrichten rauswerfen), automatische Zusammenfassungen oder manuelle Priorisierung helfen weiter. Wichtig ist: Mehr Kontext kostet nicht nur mehr Tokens, sondern macht die Anwendung auch langsamer und teurer.
Unser Fazit: Die Komplexität solcher Systeme ist hoch – aber genau deshalb ist es so wichtig, mit kleinsten Prototypen zu starten. Sie helfen, zentrale Probleme frühzeitig sichtbar zu machen. Wer Lust bekommen hat, sich einmal ein wenig inspirieren zu lassen, dem sei der GitLab Duo Chat ans Herz gelegt. Es befindet sich als Open-Source-Projekt im GitLab Repository – man freut sich über jeden Merge Request.
Links
Server-sent Events auf MDN
Eine Einführung in Server-sent Events für die Einweg-Kommunikation vom Server zum Client.
HTMLPurifier
Ein Filter zur sicheren Bereinigung von HTML – ideal bei Benutzereingaben.
Chrome Platform Status: Sanitizer API
Die Sanitizer API erlaubt sicheres Einfügen von HTML-Inhalten direkt im Browser – ohne eigenes Parsen.
Tailwind CSS Typography
Tailwinds Lösung für schöne Standard-Typografie mit dem `@tailwindcss/typography` Plugin.
Content Security Policy auf MDN
Leitfaden zu CSP zur Vermeidung von XSS und zur Härtung von Webanwendungen.
LangChain
Ein Framework, das beim Bau komplexer Anwendungen mit Sprachmodellen hilft.
GitLab
Der Quellcode der beliebten DevOps-Plattform GitLab – vollständig open source.
Contributor Success Team bei GitLab
Das Team hinter GitLabs Bemühungen, externe Beiträge erfolgreich zu integrieren.

27 snips
Jul 1, 2025 • 1h 40min
Revision 668: KI im Alltag: Werkzeug, Hype oder Risiko?
In dieser Folge spricht Jürgen Geuter, der die Forschungsabteilung eines Medienstudios leitet, über den Einsatz von KI in der Softwareentwicklung. Er erklärt, wie KI-Tools wie GitHub Copilot die Produktivität beeinflussen, aber oft eher Ergänzungen als Ersatz sind. Geuter thematisiert auch die Herausforderungen, die KI mit sich bringt, insbesondere im Hinblick auf Code-Qualität und ethische Fragen. Er warnt vor langfristigen Abhängigkeiten und reflektiert die Rolle von KI für Junior Engineers in ihrem Entwicklungsprozess.

Jun 26, 2025 • 22min
On Tour @ #headinthecloud – Women in Tech mit Myrna Gönnemann, Luisa Faßbender & Anna Maier
Dieses Interview ist einer von 3 Teilen unserer Serie On Tour @ #headinthecloud. Head in the Cloud ist eine Konferenz von Mittwald, die am 13. Juni 2025 in Espelkamp stattfand.
Women in Tech
Mit Myrna Gönnemann, Luisa Faßbender & Anna Maier.
Wie ist es eigentlich in der Tech-Szene als Frau aktiv zu werden? Das besprechen wir mit Myrna, Luisa und Anna. Praktische Tipps, wie man es als Arbeitgeber und Konferenz-Veranstalter inklusiver werden kann. Myrna und Luisa berichten aus ihrer Erfahrung im TYPO3 Team.
Das Video zum Talk wird zeitnah auf dem YouTube Kanal von Mittwald verfügbar sein.

Jun 24, 2025 • 1h 8min
Revision 667: Kann eine KI Entwickler:innen ersetzen?
Nach mehreren Folgen im KI-Block zu Tools und Technik sprechen wir diesmal mit Markus Oberlehner über eine grundlegendere Frage: Kann eine KI Entwickler:innen ersetzen? Markus war schon zweimal bei uns zu Gast – in Revision 473 zu Vue 3 und Revision 535 über Testing mit Cypress und Vitest. Diesmal geht’s um das Spannungsfeld zwischen KI-Hype, echtem Mehrwert im Alltag und langfristigen Auswirkungen auf die Branche.
Unser Sponsor
Die KI-Revolution ist da – bist du bereit, sie aktiv zu gestalten?
Workshops.DE macht dich fit für die Praxis: In intensiven Schulungen lernst du, Künstliche Intelligenz nicht nur zu verstehen, sondern gezielt in Projekten einzusetzen. Ob vor Ort, remote oder als individuelle Firmenschulung – bring dein Team auf das nächste Level!Informier dich jetzt über die aktuellen Kurse und sichere dir deinen Platz auf workshops.de/ki.
Mit dem Rabatt-Code WORKINGDRAFT sparst du außerdem 10 % auf alle Schulungen!
Schaunotizen
[00:01:33] Kann eine KI Entwickler:innen ersetzen?
Markus erzählt, wie er anfangs begeistert war – besonders mit dem Sprung von ChatGPT 3 zu [ChatGPT 4](https://openai.com/gpt-4). Für einen Moment schien es, als müsste bald niemand mehr selbst coden. Doch dann kam die Ernüchterung. Neue [agentic Modelle](https://www.talkdesk.com/de-de/blog/agentic-ai/) und Tools wie [Gemini 2.5](https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/), [Claude 4](https://www.anthropic.com/news/claude-4) oder [DeepSeek R1](https://deepseek-r1.com/de/) machen Hoffnung – aber die Realität bleibt durchwachsen.
Die zentrale Frage ist: Ersetzt KI den ganzen Job – oder „nur“ das Coden? Wir sind uns einig: Entwickler:innen machen weit mehr als nur Code zu schreiben. Kommunikation, Konzeption, QA-Abstimmung – all das bleibt. Dass KI etwa 20 % der Arbeit übernehmen kann, klingt für Markus realistisch. Beim schnellen Prototyping hilft KI bereits enorm.
Aktuell arbeitet Markus wieder mit [GitHub Copilot](https://github.com/features/copilot), nachdem er [Cursor](https://www.cursor.so/) eine Weile ausprobiert hatte. Autovervollständigung ist für ihn mittlerweile Alltag. Aber: Macht das wirklich produktiver? Ob KI-Nutzung ein echter Wettbewerbsvorteil ist, bleibt unklar.
Spannend wird es bei der Frage: Was passiert, wenn KI Junior-Entwickler:innen ersetzt? Denn wo keine Juniors nachrücken, fehlen später auch Seniors. KI könnte also nicht nur Arbeitskraft, sondern auch Ausbildungspfade gefährden.
Ein sinnvolles Einsatzgebiet sieht Markus bei Aufgaben, die sonst eher lästig sind – etwa Refactorings oder Library-Upgrades. Doch genau da hapert’s noch. Seine Erfahrungen bei der Migration von [Nuxt 2 auf 3](https://nuxt.com/docs/migration/overview) waren eher ernüchternd. Auch bei komplexen Kombinationen – etwa [React 19](https://react.dev/blog/2024/12/05/react-19) mit [Next.js 15](https://nextjs.org/blog/next-15) oder [Remix](https://remix.run/) – liefern KI-Tools oft Mischmasch aus alten und neuen Patterns.
Unterschiede gibt’s auch zwischen den Frameworks: [React](https://react.dev/) wird gut unterstützt, [Vue](https://vuejs.org/) weniger, bei [Svelte](https://svelte.dev/) wird’s noch dünner. Der Grund: KI kann nur gut, was sie oft genug gesehen hat.
Markus‘ Fazit ist realistisch: Für schnelle MVPs ist KI ein gutes Tool. Für langfristige Architektur oder Legacy-Code eher nicht. Zwischen Hype und Ernüchterung bleibt KI ein mächtiges Werkzeug – aber nur, wenn man es gezielt und reflektiert einsetzt.
Links
Microsoft CEO says up to 30% of the company’s code was written by AI
Ein Interview mit Satya Nadella über den aktuellen Einfluss von KI auf Softwareentwicklung bei Microsoft.
1,3 Millionen Dollar gespart: 37signals zieht Daten von AWS auf eigene Server um
Ein Erfahrungsbericht darüber, wie 37signals mit eigener Infrastruktur massiv Kosten senkt.

Jun 19, 2025 • 23min
On Tour @ #headinthecloud – Platform Engineering mit Mathias Gebbe & Aljoscha Bollmann
Dieses Interview ist einer von 3 Teilen unserer Serie On Tour @ #headinthecloud. Head in the Cloud ist eine Konferenz von Mittwald, die am 13. Juni 2025 in Espelkamp stattfand.
Women in Tech
Mit Mathias Gebbe & Aljoscha Bollmann.
Aljoscha und Matze sprechen über die Learnings ihres Platform Engineering Teams – was hat gut geklappt, was funktioniert vielleicht auch nicht so einfach. Neben praktischen Tipps, gibt’s auch einige Insights aus der Arbeit für den Logistik-Dienstleister Hellmann und vor allem erfahrt ihr auch, was es mit Stück-, Gefahr- und Sammelgut auf sich hat.
Das Video zum Talk wird zeitnah auf dem YouTube Kanal von Mittwald verfügbar sein.

Jun 17, 2025 • 1h 25min
Revision 666: KI in der Webentwicklung
In unserem KI-Block geht’s diesmal wieder um den Einsatz von Künstlicher Intelligenz in der Webentwicklung – von Codegenerierung über Tool-Integrationen bis hin zu lokalen Modellen und neuen Standards, die die Zusammenarbeit zwischen Mensch und Maschine verändern könnten. Dazu haben wir Max Marschall eingeladen (Consultant bei ThinkTecture, LinkedIn), der mit Vanessa und Schepp über seine Erfahrungen spricht. Wir diskutieren Tooling, werfen einen kritischen Blick auf technische und ethische Grundlagen – und Max bringt’s auf den Punkt: Wir arbeiten immer mehr mit „Sprache als Interface“.
Unser Sponsor
Die KI-Revolution ist da – bist du bereit, sie aktiv zu gestalten?
Workshops.DE macht dich fit für die Praxis: In intensiven Schulungen lernst du, Künstliche Intelligenz nicht nur zu verstehen, sondern gezielt in Projekten einzusetzen. Ob vor Ort, remote oder als individuelle Firmenschulung – bring dein Team auf das nächste Level!Informier dich jetzt über die aktuellen Kurse und sichere dir deinen Platz auf workshops.de/ki.
Mit dem Rabatt-Code WORKINGDRAFT sparst du außerdem 10 % auf alle Schulungen!
Schaunotizen
[00:06:15] LLMs
Wir sprechen über die Basis fast aller heutigen KI-Anwendungen: LLMs. Schepp erinnert sich an seine ersten Gehversuche mit der Tabnine-Erweiterung für JetBrains, Max bringt die aktuelle Entwicklung ein – von klassischem Machine Learning bis zu ChatGPT. Dabei bleibt klar: Die Vorschläge sollte man nicht blind übernehmen. Und auch das Thema Urheberrecht beim Training von Modellen lassen wir nicht außen vor.
[00:13:15] Komplexität der Aufgaben
Je komplexer die Aufgabe, desto schwieriger tut sich KI. Das stellen Max und Vanessa schnell fest. Bei einfachen Problemen funktioniert’s oft erstaunlich gut – bei größeren Projekten sinkt der Nutzen oder es schleichen sich Fehler ein.
[00:21:42] Agentic Code Editors
Wir werfen einen Blick auf Editoren, die mehr können als einfache Prompts: sogenannte Agentic Code Editors. Max hat verschiedenste Tools ausprobiert – von NeoVim über VS Code bis JetBrains. Tools wie Windsurf oder Cursor liefern echte Kontextunterstützung. Vanessa bleibt lieber bei ChatGPT, weil dort klar ist: Kontext gibt’s keinen. Wir reden auch über @commands zur gezielten Aufgabensteuerung und Use Cases wie Variablennamen oder Talktitel finden.
[00:30:47] Coding Rules
Wir sprechen über CodingRules.ai und ähnliche Tools, mit denen wir einmal definieren können, welche Stilregeln gelten – z. B. ob fat arrow functions oder ECMAScript-Imports verwendet werden sollen. Max nutzt solche Tools projektbezogen – und schaltet z. B. in einen „Architekturmodus“ oder „Doku-Modus“ um.
[00:34:45] Memory Bank
Langfristiger Kontext ist das Stichwort: Mit Tools wie Cursor Memory Bank oder Cline.bot lassen sich Informationen dauerhaft speichern – z. B. welche Tools im Projekt verwendet werden. Cline legt dafür Markdown-Dateien an, wie in den Cline Docs beschrieben.
[00:39:56] Lokale LLMs
Datenschutz ist ein großes Thema – gerade im Unternehmenskontext. Wir sprechen über lokale LLMs mit Ollama oder ChatGPT via Azure. So lassen sich Modelle datenschutzkonform nutzen – ohne dass Inhalte ins Training einfließen.
[00:45:18] MCP (Model Context Protocol)
Max bringt MCP ins Spiel – das Model Context Protocol von Anthropic. Eine neue Schnittstelle, mit der sich LLMs standardisiert mit externen Tools wie Datenbanken oder Backends verbinden lassen.
[00:51:02] Generatoren
Wir reden über Tools wie V0, Lovable, Bolt.new und Builder.io. Sie liefern per Prompt komplette Frontends – oft als React-Komponenten. Das spart Zeit, ist aber in der Praxis oft auf generische Anwendungen begrenzt. Kevin hat in Revision 665 ähnliche Erfahrungen gemacht.
[01:00:31] Chrome Dev Tools
Auch die Chrome DevTools bekommen KI-Funktionen. Max berichtet, dass man dort künftig Fragen zum Code stellen oder Styles ändern kann – spannend, auch wenn er selbst das lieber direkt in der IDE macht. Firefox testet laut Support-Artikel eigene KI-Features.
[01:13:39] CLI Integration
Wer im Terminal zu Hause ist, schaut sich Tools wie Aider oder Warp an. Wir sprechen über diesen Medium-Artikel mit 5 Must-Have CLI-AI-Tools, in dem praktische Tools gesammelt sind.
[01:15:57] Platform Tooling
Auch rund um GitHub, Jira & Co. zieht KI ein. Automatische Pull Request Reviews, Ticket-Zusammenfassungen, Textoptimierungen – das verändert unsere Workflows und spart Zeit.
Links
LLM Visualization

Jun 10, 2025 • 1h 17min
Revision 665: Wie ich mit KI 3x schneller Apps programmiere
Weiter in unserem KI-Block geht es mit Kevin Chromik (Webseite, LinkedIn), Content Creator (YouTube). Kevin berichtet Hans und Vanessa seine Erfahrungen darüber, wie er mit KI Tools 3x schneller Apps programmieren kann.
Unser Sponsor
Am 13. Juni 2025 lädt mittwald zum Head in the Cloud Summit ein – ein Tag voller
Inspiration und Austausch auf dem mittwald Campus. Hier treffen sich Webworker, Developer und Digitalagenturen, um
voneinander zu lernen.
Freu dich auf spannende Talks und Sessions zu Cloud & DevOps, Technology und
Culture & Creativity. Von den Herausforderungen der digitalen Arbeitswelt bis hin zu den Trends
von morgen – hier bekommst du Einblicke von den klügsten Köpfen der Branche.
Die Tickets sind begrenzt, also schnell buchen auf mittwald.de/hitc.
Schaunotizen
[00:01:30] Wie ich mit KI 3x schneller Apps programmiere
3x schneller entwickeln! Ja, das ist eine YouTube-Clickbait Headline! Es wird schnell klar: Die KI übernimmt zwar nicht alles, aber sie kann an vielen Stellen den Entwicklungsprozess deutlich beschleunigen – manchmal sogar um das Dreifache. Kevin berichtet über eine App, die er zusammen mit einem anderem YouTuber in Flutter mit Hilfe von KI-Tools gebaut hat. Der Anwendungsfall ist hierbei, dass sie nur zu zweit an dieser App schreiben, und beide zuvor nicht mit Flutter gearbeitet haben. Sie müssen bei dieser App auch keinen strikten Design Richtlinien folgen, sondern können der KI mehr Freiheiten geben.
Ein großes Thema ist die Frage nach dem Kontext: Tools wie ChatGPT liefern oft brauchbare Antworten, kennen aber die eigene Codebase nicht. Das macht ihre Vorschläge schnell unbrauchbar oder zumindest nicht optimal integrierbar. Ganz anders sieht es bei Tools wie Cursor oder Windsurf aus, die direkt in die IDE eingebunden werden – z. B. in VS Code – und Zugriff auf das gesamte Projekt haben. Damit können sie nicht nur präziser helfen, sondern auch bessere Architekturvorschläge machen oder konkrete Codeabschnitte erklären.
Besonders spannend ist Kevins Ansatz, KI nicht unbedingt zum „schnelleren Programmieren“ im klassischen Sinne zu nutzen, sondern vielmehr für alles drumherum. Beim Prototyping etwa hilft KI, Ideen schnell zu visualisieren – auch wenn der produzierte Code am Ende verworfen wird. Kevin erzählt von einem Beispiel, als er ein Award-System in seine Habit-Tracker-App einbauen wollte: Die Idee war noch nicht ausgereift, doch Windsurf konnte dennoch eine erste Oberfläche erzeugen, mit der man experimentieren konnte – inklusive Animationen. Der Code war nicht perfekt, aber als Sparringspartner war die KI extrem hilfreich.
Wir sprechen auch über den Unterschied zwischen eigenen Programmiersprachen und fremden: Ist man mit KI auch in der eigenen Sprache wirklich schneller? Und wie sinnvoll ist KI eigentlich für Junior-Entwickler:innen? Kevin und Vanessa sehen hier Chancen, aber auch Risiken. Während Stack Overflow oft ein notwendiger Umweg ist, bei dem man sich zwangsläufig mit dem Problem auseinandersetzt, liefern KI-Tools direkte Lösungen – ohne Umweg, ohne Kontext. Das kann zu schnellen Ergebnissen führen, aber auch dazu, dass Lernprozesse übersprungen werden.
Trotzdem: Gute Tools wie Windsurf ermöglichen inzwischen Rückfragen zur Codebase wie „Erklär mir mal die Architektur dieser App“ – und das kann gerade für weniger erfahrene Entwickler:innen ein echter Gewinn sein.
Ein weiteres Thema ist Codequalität. Kevin berichtet, dass er seine Habit-Tracker-App bewusst mit einer sauberen Architektur gebaut hat – auch wenn sie funktional simpel ist. Er merkt an: Je besser man selbst entwickelt, desto mehr stört einen der Output von KI, weil viele Vorschläge einfach qualitativ nicht mithalten können. Viel Code im Netz ist schlicht schlecht – und KI reproduziert diesen leider oft. Gute Entwickler:innen sind in den meisten Fällen noch deutlich besser als jede KI.
Zum Abschluss diskutieren wir noch mit Hans, ob man heute noch zusätzliche Libraries braucht – oder ob KI-Tools wie V0 von Vercel mit ihren fertigen Komponenten schon ausreichen, um direkt damit zu starten.
Links
Windsurf vs. Cursor (Builder.io)
Ein Vergleich zweier KI-gestützter Entwicklungsumgebungen, die im Podcast thematisiert werden.
Cucumber
Testing-Tool für verhaltensgesteuerte Entwicklung – im Gespräch als potenzieller KI-Anwendungsfall erwähnt.
v0 von Vercel
KI-gestütztes Tool zum Erzeugen von UI-Komponenten – im Gespräch als Beispiel für automatisierte Entwicklung.

Jun 3, 2025 • 1h 6min
Revision 664: TYPO3-Extensions bauen mit AI
Extensions für TYPO3 entwickeln – klingt erstmal nach Handarbeit. Aber was passiert, wenn man gängige KI-Tools wie ChatGPT oder Codegenerierungsdienste an den Prozess lässt? Martin Helmich hat’s ausprobiert – und berichtet von den praktischen Herausforderungen, Erfolgen und Fallstricken beim Einsatz von KI im TYPO3-Kontext.
Unser Sponsor
Die KI-Revolution ist da – bist du bereit, sie aktiv zu gestalten?
Workshops.DE macht dich fit für die Praxis: In intensiven Schulungen lernst du, Künstliche Intelligenz nicht nur zu verstehen, sondern gezielt in Projekten einzusetzen. Ob vor Ort, remote oder als individuelle Firmenschulung – bring dein Team auf das nächste Level!
Informier dich jetzt über die aktuellen Kurse und sichere dir deinen Platz auf workshops.de/ki.
Mit dem Rabatt-Code WORKINGDRAFT sparst du außerdem 10 % auf alle Schulungen!
[00:01:36] TYPO3-Extensions bauen mit AI
Martin erklärt, wie er ein KI-gestütztes Projekt aufgesetzt hat, das TYPO3-Extensions auf Basis von Prompts generiert. Ziel war es nicht, produktiven Code zu erzeugen, sondern auszuloten, was mit heutigen Tools bereits möglich ist – und wo man mit durchdachten Prompts tatsächlich Zeit und Struktur gewinnt.
Wir diskutieren, welche Aufgaben sich für KI besonders eignen – z. B. die Generierung von TCA-Definitionen, Sprachdateien oder Konfigurationsklassen – und wie sich generierter Code später weiterverwenden lässt. Dabei wird klar: Ohne ein tiefes Verständnis des TYPO3-Ökosystems bringt die beste KI wenig.
Ein spannender Punkt: Wie lassen sich Prompt-Vorlagen standardisieren? Könnte man daraus ein öffentliches Tool bauen, das TYPO3-Entwicklung beschleunigt – ohne dass es gleich „AI-first“ wird?
Daneben geht’s um die Frage, wie man mit Blackbox-Code umgeht, der nicht aus dem Editor kommt, sondern aus einem Prompt. Und wie viel man einer KI zutrauen will, wenn es nicht nur um technische Korrektheit, sondern auch um konzeptuelle Entscheidungen geht.
Zum Schluss wagen wir noch einen kleinen Ausblick: Wo geht das hin – in TYPO3, aber auch allgemein im Web-Stack? Und was braucht es, damit KI bei der Extension-Entwicklung mehr wird als nur ein Gimmick?
Links
TYPO3 Association
Martin ist dort im Vorstand aktiv
Smart Extension Builder von Mittwald
KI-gestütztes Tool zum Generieren von TYPO3-Extensions
Dify
Tool zum Erstellen eigener KI-Anwendungen – als Backend für Martins Projekt im Einsatz
Rector
Automatisiertes Refactoring-Tool für PHP
WebDev Arena
Plattform zum Vergleichen von KI-Modellen beim Webdesign – man gibt einen Prompt ein und sieht, wie verschiedene Modelle daraus eine Website bauen (erwähnt in Front-End Fire #94).