

#71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek
May 1, 2025
Die Größe von Sprachmodellen spielt eine überraschende Rolle: Ein kleineres 8B-Modell übertrifft ein 70B-Modell bei Fahrzeugpreisprognosen. Herausforderungen beim Feintuning auf Multi-GPU-Setups auf AWS werden angesprochen, und die Reproduzierbarkeit ist ein heißes Thema. GPUs sind für effizientes Feintuning unerlässlich, während CPU-Inferenzen deutlich langsamer sind. Zudem werden die Vorteile der Quantisierung von Modellen diskutiert, und ein Ausblick auf TabPFN zeigt neue spannende Entwicklungen in der Datenwissenschaft.
AI Snips
Chapters
Transcript
Episode notes
Modellgröße nicht gleich Qualität
- Größere LLMs mit mehr Parametern liefern nicht zwangsläufig bessere Prognosen.
- In unserem Fahrzeugpreisprognose-Experiment war ein 8B-Modell besser als ein 70B-Modell.
Modellselektion bei Feintuning
- Feintuning-Ergebnisse von LLMs sind oft nicht reproduzierbar, selbst mit gleichem Seed.
- Empfehlungen: Mehrfache Feintunings laufen lassen und das beste Modell anhand Validierungsdaten selektieren.
CPU für Prognosen möglich
- Feintuning auf der CPU ist derzeit nicht praktikabel, GPU wird dafür benötigt.
- Für Prognosen kann die CPU genutzt werden, ist aber ca. 30-mal langsamer als die GPU.