Data Science Deep Dive cover image

#71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek

Data Science Deep Dive

00:00

Wirksamkeit der Quantisierung in Modellen

In diesem Kapitel werden die Vorteile der Quantisierung von Modellen untersucht, wobei 16-Bit-Modelle sich als deutlich schneller im Vergleich zu 32-Bit-Modellen erweisen. Zudem wird die Herausforderung des Feintunings ohne GPU thematisiert und auf neue Erkenntnisse zu TabPFN eingegangen.

Transcript
Play full episode

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app