
Data Science Deep Dive
Wir machen Data Science. Und in unserem Podcast Data Science Deep Dive reden wir darüber.
Du bist ebenfalls Data Scientist oder interessierst dich für Daten, ML und AI? Dann ist dieser Podcast für dich. Wir teilen unsere Learnings aus über 180 Projekten, du bekommst Infos und Anregungen zu spannenden Themen rund um Daten.
Wir klären auf, geben Hinweise und teilen unsere Erfahrungen, die wir in über 10 Jahren als Data Scientists im B2B Bereich gesammelt haben.
Wir decken auf, was wirklich hinter den Hypes und Trends der Data Science Branche steckt.
Wir hinterfragen, was ein Data Science Projekt erfolgreich macht und welche Faktoren es zum Scheitern verurteilen.
Latest episodes

Jul 10, 2025 • 38min
#76: Digitale Souveränität: Risiken verstehen, souverän handeln
Wer seine gesamte Infrastruktur in US-Clouds betreibt, begibt sich in gefährliche Abhängigkeiten. Im Podcast diskutieren wir, wie real die Risiken internationaler Machtspiele und Datenschutzprobleme sind und was Unternehmen dagegen tun können. Zwischen Know-how-Drain, geopolitischen Spannungen und drohenden Exportstopps braucht es einen klaren Blick auf die eigene IT-Landschaft. Unser Fazit: Resilienz beginnt mit bewusstem Design, nicht mit blindem Aktionismus.
**Zusammenfassung**
Digitale Souveränität ist für Unternehmen essenziell, um geopolitische Risiken und Lock-in-Effekte zu minimieren
Aktuelle Gefahren entstehen durch internationale Konflikte, politisch motivierte Eingriffe in IT-Infrastruktur und den Weggang von Know-how
Besonders kritisch: die Abhängigkeit von US-Clouds und SaaS-Lösungen – auch in puncto Datenschutz und Compliance
Die DSGVO-Lage ist trotz "EU-U.S. Data Privacy Framework" instabil und hängt stark von politischen Entwicklungen in den USA ab
Unternehmen sitzen oft tiefer in der Abhängigkeit, als sie denken – selbst intern ist oft alles von wenigen Cloud-Anbietern abhängig
Lösungsansätze sind u.a. europäische Cloud-Angebote, Open Source Software und Infrastructure as Code – allerdings mit vielen praktischen Grenzen
Ein sofortiger Komplettausstieg ist unrealistisch, sinnvoller sind inkrementelle Anpassungen bei neuen Projekten
Wichtig: Risiken realistisch bewerten und bewusste Designentscheidungen treffen, statt nur auf Komfort und Geschwindigkeit zu optimieren
**Links**
[Artikel] Strafgerichtshof: Microsofts E-Mail-Sperre als Weckruf für digitale Souveränität https://www.heise.de/news/Strafgerichtshof-Microsofts-E-Mail-Sperre-als-Weckruf-fuer-digitale-Souveraenitaet-10387368.html
[Artikel] Tagesschau-Artikel zu US-Exportbeschränkungen für KI-Chips https://www.tagesschau.de/wirtschaft/unternehmen/ki-chips-export-usa-nvidia-biden-100.html
[Tool] FreeIPA Projekt (Open Source Identity Management) https://www.freeipa.org/
[Tool] Pangolin Projekt (Open Source API Gateway / Identity) https://github.com/fosrl/pangolin
[Podcast] #29: Die Qual der Wahl: Data Science Plattform vs. Customized Stack https://inwt.podbean.com/e/29-die-qual-der-wahl-data-science-plattform-vs-customized-stack/
📬 Fragen, Feedback oder Themenwünsche?
Schreibt uns gern an: podcast@inwt-statistics.de

Jun 26, 2025 • 51min
#75: Refactoring done right: Strategien, Risiken und Best Practice
Michelle, Data Engineer bei INWT, erörtert das oft missverstandene Thema Refactoring. Sie erklärt, dass es nicht um Fehlerbehebung geht, sondern um die strategische Verbesserung von Code für bessere Wartbarkeit. Die Bedeutung von Tests und einheitlichen Standards stehen im Fokus. Interessante Einblicke in Gelegenheits- vs. geplantes Refactoring und die Herausforderungen im Data-Science-Kontext runden das Gespräch ab. Zudem werden kreative Ansätze zur Kommunikation von Refactoring als Qualitätsinvestition beleuchtet.

Jun 12, 2025 • 28min
#74: [PAIQ1] Predictive AI Quarterly
Predictive AI Quarterly ist unser neues Format im Data Science Deep Dive. Alle 3 Monate sprechen wir über Entwicklungen im Bereich Predictive AI - kompakt, kritisch und praxisnah.
Wir starten mit einem Überblick zu den aktuellen News und Trends, danach wird's hands-on: Wir berichten, was wir selbst ausprobiert haben, was gut funktioniert hat und was nicht.
**Zusammenfassung**
TabPFN ist ein Foundation-Modell speziell für tabulare Daten, das Prognose- und Klassifikationsaufgaben ohne Finetuning lösen kann
Finetuning-Optionen: Neben dem kostenpflichtigen Angebot von PriorLabs existiert ein Open-Source-Repo zum Finetuning von TabPFN, das aktiv weiterentwickelt wird
mit TabICL gibt es ein weiteres Foundation-Modell für tabulare Daten, das synthetisch trainiert ist, sich auf Klassifikation konzentriert und auch bei großen Datensätzen (bis 500k Zeilen) schnelle Inferenz verspricht
Foundation-Modelle für Zeitreihen: Unternehmen wie IBM, Google und Salesforce entwickeln eigene Foundation-Modelle für Time-Series Forecasting (z. B. TTMs, TimesFM, Moirai), diese werden bislang auf echten Zeitreihen trainiert
der GIFT-Benchmark dient als Standard zum Vergleich von Zeitreihenmodellen – hier zeigt sich, dass ein angepasstes TabPFN auch für Zeitreihen überraschend leistungsfähig ist
Hands On:
TabPFN lässt sich analog zu scikit-learn einsetzen und ist besonders dann praktisch, wenn eine GPU vorhanden ist, die Einstiegshürde ist sehr niedrig
in Zukunft wird mit multimodalen Erweiterungen (z. B. Bilder), quantisierten Varianten und weiteren Alternativen zu TabPFN gerechnet, der Bereich Foundation Models für strukturierte Daten entwickelt sich rasant
**Links**
Podcastfolge #72: TabPFN: Die KI-Revolution für tabulare Daten mit Noah Hollmann
TabPFN:
Finetuning Angebot von Prior Labs
GitHub-Repo: Finetune TabPFN v2
GitHub-Repo: Zero-Shot Time Series Forecasting mit TabPFNv2
TabICL:
GitHub-Repo: TabICL – Tabular In-Context Learning
Workshop @ ICML 2025: Foundation Models for Structured Data (18. Juli 2025 in Vancouver)
Blogartikel & Studien:
Tiny Time Mixers (TTMs) von IBM Research
Moirai: A Time Series Foundation Model by Salesforce
Blogartikel von inwt: "TabPFN: Die KI-Revolution für tabulare Daten"
Huggingface Spaces & Modelle:
TimesFM Foundation Model für Zeitreihen von Google Research
GIFT-Eval Forecasting Leaderboard
📬 Fragen, Feedback oder Themenwünsche?
Schreibt uns gern an: podcast@inwt-statistics.de

May 29, 2025 • 45min
#73: Korrelation vs. Kausalität: Was braucht es für fundierte Entscheidungen?
Korrelation ist nicht gleich Kausalität, und wer fundierte Entscheidungen treffen will, braucht mehr als gute Vorhersagen. In dieser Folge geht es um Confounder, Spurious Correlations und die Frage, wann Machine Learning kausale Einsichten liefern kann. Mit dabei: DoubleML als Brücke zwischen klassischer Statistik und Machine Learning.
**Zusammenfassung**
Unterscheidung zwischen Vorhersage und Intervention: Nur Kausalität beantwortet die "Was-wäre-wenn?"-Frage
Praxisbeispiele: Bugs & Discounts, Eiskonsum & Kriminalität, Salzgehalt & Flussmenge
Wichtig: Confounder identifizieren und herausrechnen, z. B. durch Zeitreihenzerlegung
Einführung in Double ML: ML-Modelle für Response und Treatment, Effektschätzung über Residuen
Herausforderungen: Overfitting-Bias, Regularisierung, verzerrte Effekte bei hoher Komplexität
Alternativen & Ergänzungen: A/B-Tests, strukturelle Gleichungsmodelle, Kausaldiagramme
Fazit: Vorsicht bei Spurious Correlations, Ceteris-paribus-Fallen und Feature-Interpretation - Kausalität braucht Kontext und Methode
**Links**
Blogartikel von Scott Lundberg:
Be Careful When Interpreting Predictive Models in Search of Causal Insights
https://medium.com/data-science/be-careful-when-interpreting-predictive-models-in-search-of-causal-insights-e68626e664b6
ICECREAM-Datensatz (verfügbar über das tsapp R-Paket):
https://search.r-project.org/CRAN/refmans/tsapp/html/ICECREAM.html
Victor Chernozhukov et al. (2018):
Double/debiased machine learning for treatment and structural parameters, The Econometrics Journal, Volume 21, Issue 1
https://doi.org/10.1111/ectj.12097
Matheus Facure Alves (2022):
Causal Inference for The Brave and True (kostenfreies Online-Buch)
https://matheusfacure.github.io/python-causality-handbook/landing-page.html
DoubleML (Python & R):
https://docs.doubleml.org/stable/index.html
EconML (Microsoft Research):
https://econml.azurewebsites.net/index.html
Causal ML (Uber Engineering):
https://causalml.readthedocs.io/en/latest/
Vortragsfolien von Prof. Dr. Steffen Wagner:
"Navigating the Ocean of Correlations to the Islands of Causality – Time Series Analyses at its Best", gehalten bei der Machine Learning Week München 2024
https://de.slideshare.net/secret/aArFURFQSBxrzB
📬 Fragen, Feedback oder Themenwünsche?
Schreibt uns gern an: podcast@inwt-statistics.de

May 15, 2025 • 51min
#72: TabPFN: Die KI-Revolution für tabulare Daten mit Noah Hollmann
Noah Hollmann, Mitbegründer von Prior Labs und einer der Entwickler von TabPFN, spricht über die revolutionäre Technologie zur Analyse tabellarischer Daten. Er erklärt, wie In-Context Learning und Transformer-Architekturen eingesetzt werden, um Vorhersagen zu verbessern. Hollmann beleuchtet die Herausforderungen bei der Anwendung und die beeindruckenden Benchmarking-Ergebnisse des Modells, das sogar auf Consumer-Hardware läuft. Zudem diskutiert er die zukünftigen Entwicklungen und die Bedeutung von Open Source für die Datenwissenschaft.

May 1, 2025 • 26min
#71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek
Die Größe von Sprachmodellen spielt eine überraschende Rolle: Ein kleineres 8B-Modell übertrifft ein 70B-Modell bei Fahrzeugpreisprognosen. Herausforderungen beim Feintuning auf Multi-GPU-Setups auf AWS werden angesprochen, und die Reproduzierbarkeit ist ein heißes Thema. GPUs sind für effizientes Feintuning unerlässlich, während CPU-Inferenzen deutlich langsamer sind. Zudem werden die Vorteile der Quantisierung von Modellen diskutiert, und ein Ausblick auf TabPFN zeigt neue spannende Entwicklungen in der Datenwissenschaft.

Apr 17, 2025 • 46min
#70: Der Aufstieg zur Datenreife – Stufe für Stufe zur Data Maturity
Unternehmen stehen oft vor der Herausforderung, ihre Datenreife zu steigern. Die fünf Stufen reichen von manueller Datensammlung bis zur datengetriebenen Kultur. Kultur spielt eine entscheidende Rolle, während 'Death by Dashboards' und Datensilos häufige Stolpersteine sind. Agile Ansätze und klare Phasen von Prototypen zu Produkten sind entscheidend. Zudem können KI und Self-Service BI wertvolle Werkzeuge sein, wird jedoch auf Risiken und die Notwendigkeit von Fachwissen hingewiesen.

Apr 3, 2025 • 47min
#69: AI Agents verstehen und evaluieren mit Matthäus Deutsch
AI Agents sind mehr als nur Chatbots – aber wie bewertet man sie richtig? Wir sprechen über die Herausforderungen beim Testen von AI im Kundenservice, warum falsche API-Parameter ins Chaos führen und wieso "mysteriöser Fleischeintopf" ein PR-Desaster wurde. Matthäus Deutsch von Parloa berichtet, wie flexible Plattformintegrationen und evaluative Ansätze (z.B. assertion-based Testing und Simulationen) den Einsatz von AI Agents vorantreiben. Außerdem: welche Metriken wirklich zählen, was Multi-Agent-Setups leisten und warum der Preisverfall bei Open-Source-Modellen das Game verändert.
Zusammenfassung
AI Agents erweitern klassische Chatbots im Kundenservice, insbesondere im Telefonbereich, durch GenAI-basierte, dynamische Lösungen
Parloa demonstriert flexible Plattformintegrationen und den Einsatz von Evaluationsmethoden wie assertion-based Testing und Simulationen
Die Evaluation von AI Agents erfordert spezielles Benchmarking auf Plattform- und individueller Ebene
Typische Herausforderungen sind Integrationsprobleme, fehlerhafte API-Calls und unzureichendes Instruction Following
Tests erfolgen sowohl auf Konversationsebene als auch durch deterministische Ansätze und LLMs als Judge
Es müssen komplexe Metriken und Trade-offs beachtet werden, wobei häufig binäre Testansätze aggregiert werden
Schnelle Updates auf neue Modellversionen sind möglich, allerdings steigen langfristig die Kosten durch umfangreiche Testzyklen
Innovationen wie optimierte Speech-to-Speech-Technologien und Open-Source-Lösungen (z. B. DeepSeek) bieten Potenzial zur Kostenreduktion
Der Einsatz von Operatoren-Modellen und Tool-Integrationen ermöglicht auch die Anbindung an Legacy-Systeme, z.B. SAP
Ziel ist es, den Automatisierungsanteil im Kundenservice zu erhöhen und eine Balance zwischen bewährter Qualität und neuen Features zu finden
Links
Matthäus Deutsch auf LinkedIn: https://www.linkedin.com/in/matth%C3%A4us-d-928864ab/
Parloa Contact-Center-AI-Plattform https://www.parloa.com/de/
Stellenangebote bei Parloa https://www.parloa.com/company/careers/#jobs
#55: Alle machen XGBoost, aber was macht eigentlich XGBoost? Mit Matthäus Deutsch https://www.podbean.com/ew/pb-6gvc6-16d5018
#64: Predictive LLMs: Übertreffen Open-Source-Modelle jetzt OpenAI und XGBoost bei Preisprognosen? https://www.podbean.com/ew/pb-m5qr2-17c425d
heise online: "Aromatisches" Chloramingas, Eintopf aus Menschenfleisch: KI-Rezepte irritieren https://www.heise.de/news/Aromatisches-Chlorgas-Eintopf-aus-Menschenfleisch-KI-irritiert-mit-Rezepten-9242991.html
Feedback, Fragen oder Themenwünsche gern an podcast@inwt-statistics.de

Mar 20, 2025 • 41min
#68: CI/CD für Daten: Datenversionierung für stabile & nachvollziehbare Systeme
Daten(banken) versionieren – klingt maximal unsexy, spart aber Stress im Deployment. Warum ohne Schema-Versionierung selbst kleine Änderungen große Probleme verursachen und was ORMs, Flyway oder Liquibase damit zu tun haben, erfahrt ihr hier. Daten historisieren ist ein Must-have für Compliance, Reproduzierbarkeit und Modellierung. Aber Achtung: Nicht jede Lösung passt für jede Datenbank und den Live-Betrieb. Wir geben Tipps, wie ihr eure Datenprodukte systematisch und effizient im Griff behaltet.
**Zusammenfassung**
Schema-Versionierung ist essenziell, um Änderungen an Datenbanken nachvollziehbar und reibungslos ins Deployment einzubinden
Fehlende Versionierung kann zu kaputten Prozessen führen, wenn Schema-Änderungen nicht dokumentiert und automatisiert umgesetzt werden
Werkzeuge wie ORMs, Flyway oder Liquibase helfen dabei, Änderungen an Datenbankschemata strukturiert zu verwalten
Historisierung von Daten ist für Compliance, Reproduzierbarkeit und Modellierung entscheidend
Ansätze zur Datenhistorisierung: Append-only-Strategien vs. System-Versionierung
Herausforderungen: Performance-Engpässe, hohe Pflegekosten und Kompatibilitätsprobleme je nach Datenbank und Migrationstool
Best Practices: Versionierung systematisch einführen, Automatisierung priorisieren und sicherstellen, dass Downgrades funktionieren.
**Links**
#58: Arm, aber sexy: Data Warehousing at Scale ohne Budget https://www.podbean.com/ew/pb-gywt4-1719aef
#52: In-process Datenbanken und das Ende von Big Data https://www.podbean.com/ew/pb-tekgi-16896e4
#36: Der Data Mesh Hype und was davon bleibt https://www.podbean.com/ew/pb-7er7v-15080c1
Flyway: https://www.red-gate.com/products/flyway/
Liquibase: https://www.liquibase.com/
Alembic (für SQLAlchemy): https://alembic.sqlalchemy.org/en/latest/
MariaDB: https://mariadb.org/
ClickHouse: https://clickhouse.com/
Fragen, Feedback und Themenwünsche gern an podcast@inwt-statistics.de

Mar 6, 2025 • 35min
#67: "It works on my machine" war gestern – Docker Best Practices für Data Science
Dieser Satz "it works on my machine" hat IT-Teams und Data Scientists lange Nerven gekostet. Früher war Deployment ein mühsames Zusammenspiel aus Setup-Anleitungen, inkompatiblen Umgebungen und endlosen Rückfragen. Docker bringt endlich Ordnung ins Chaos: Anwendungen laufen isoliert, reproduzierbar und unabhängig vom Host-System. Warum Containerisierung für Data Science ein echter Gamechanger ist und welche Best Practices du kennen solltest, erfährst du in dieser Folge!
Zusammenfassung
Früher war Deployment umständlich: lange Setup-Anleitungen, inkompatible Umgebungen, viele Rückfragen
Virtuelle Maschinen haben das Problem teilweise gelöst, sind aber ressourcenintensiv und unflexibel
Data Scientists arbeiten oft mit R/Python, was IT-Abteilungen vor Herausforderungen stellt
Fehlende Reproduzierbarkeit führt zu Stress, Verzögerungen und hohem Kommunikationsaufwand
Docker schafft eine standardisierte, isolierte und reproduzierbare Umgebung für Anwendungen
Container laufen direkt auf dem Host-OS, sind schlanker als VMs und starten schneller
Mit Dockerfiles lassen sich Umgebungen als Code definieren und automatisch deployen
Best Practices: schlanke Base-Images, .dockerignore, nur benötigte Abhängigkeiten installieren
Automatisierung mit CI/CD-Pipelines beschleunigt den Entwicklungs- und Deploy-Prozess
Containerisierung ist für moderne Data-Science-Workflows unverzichtbar und spart IT sowie Data Science viel Zeit
Links
Offizielle Docker Dokumentation https://docs.docker.com/
Docker Hub https://hub.docker.com/
[Blog] Die Welt der Container: Einführung in Docker https://www.inwt-statistics.de/blog/die-welt-der-container-einfuehrung-in-docker
[Podcast] #14: Kubernetes https://www.podbean.com/ew/pb-m5ggz-13454c7
[Podcast] #59: Besser mit Helm: komplexe Deployments einfach(er) umsetzen https://www.podbean.com/ew/pb-txhnf-17314de
[Video] Solomon Hykes stellt Docker vor (2013) "The future of Linux Containers" https://www.youtube.com/watch?v=wW9CAH9nSLs&t=158s
Fragen, Feedback und Themenwünsche gern an podcast@inwt-statistics.de