Radio Naukowe

#283 Sztuczna matematyka – modele językowe zaczynają zawstydzać matematyków | prof. Bartosz Naskręcki

6 snips
Jan 8, 2026
Bartosz Naskręcki, profesor matematyki i prodziekan Wydziału Matematyki i Informatyki UAM, omawia rewolucję, którą modele językowe wprowadzają do matematyki. Podejmuje temat testowania takich modeli na nowych problemach matematycznych, gdzie LLM-y osiągnęły średnio 20% poprawności. Opowiada o weryfikowaniu prac matematycznych i naprawianiu błędów, w tym w wielkim twierdzeniu Fermata. Naskręcki replikuje, że te narzędzia mogą zrewolucjonizować sposób, w jaki postrzegamy rolę matematyków w przyszłości.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Nowe Zadania By Ocenić Prawdziwe Rozumienie

  • Modele językowe uczą się z internetu, więc benchmarki muszą zawierać nowe, nigdzie niepublikowane zadania.
  • FrontierMath tworzy zadania z liczbową odpowiedzią, by jednoznacznie ocenić, czy model naprawdę rozumie problem.
INSIGHT

Dlaczego Modele 'Ściemniają'

  • Modele często „ściemniają”: generują przekonujące, lecz niepewne rozumowania.
  • Dlatego testy wybierają liczby jako odpowiedzi, aby zapewnić jednoznaczną weryfikację.
INSIGHT

Modele Zaskakują Szybkim Postępem

  • Eksperymenty pokazały, że modele rozwiązują zadania, które autorzy uważali za trudne.
  • To sugeruje, że LLM-y potrafią łączyć tokeny w nieoczywisty sposób, osiągając prawidłowe wyniki.
Get the Snipd Podcast app to discover more snips from this episode
Get the app