Data Science Deep Dive

#71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek

May 1, 2025
Die Größe von Sprachmodellen spielt eine überraschende Rolle: Ein kleineres 8B-Modell übertrifft ein 70B-Modell bei Fahrzeugpreisprognosen. Herausforderungen beim Feintuning auf Multi-GPU-Setups auf AWS werden angesprochen, und die Reproduzierbarkeit ist ein heißes Thema. GPUs sind für effizientes Feintuning unerlässlich, während CPU-Inferenzen deutlich langsamer sind. Zudem werden die Vorteile der Quantisierung von Modellen diskutiert, und ein Ausblick auf TabPFN zeigt neue spannende Entwicklungen in der Datenwissenschaft.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Modellgröße nicht gleich Qualität

  • Größere LLMs mit mehr Parametern liefern nicht zwangsläufig bessere Prognosen.
  • In unserem Fahrzeugpreisprognose-Experiment war ein 8B-Modell besser als ein 70B-Modell.
ADVICE

Modellselektion bei Feintuning

  • Feintuning-Ergebnisse von LLMs sind oft nicht reproduzierbar, selbst mit gleichem Seed.
  • Empfehlungen: Mehrfache Feintunings laufen lassen und das beste Modell anhand Validierungsdaten selektieren.
INSIGHT

CPU für Prognosen möglich

  • Feintuning auf der CPU ist derzeit nicht praktikabel, GPU wird dafür benötigt.
  • Für Prognosen kann die CPU genutzt werden, ist aber ca. 30-mal langsamer als die GPU.
Get the Snipd Podcast app to discover more snips from this episode
Get the app