
KI-Update kompakt: OpenAI o3 und Operator, Microsoft, KI-Phishing, Claude
KI-Update – ein heise-Podcast
00:00
Effizientes Training von Sprachmodellen durch Knowledge Distillation
Dieses Kapitel erklärt das Konzept der Knowledge Distillation, bei dem kleinere Modelle von größeren lernen und deren Wissen nutzen. Es wird auch die neue Methode SOLDDS vorgestellt, die darauf abzielt, kleinere Institutionen beim Training leistungsfähiger Sprachmodelle zu unterstützen.
Transcript
Play full episode