AI, en Dans på Roser

Transparens i AI var bare en illusion - Med Data scientist, Benjamin Lazar

10 snips
Nov 10, 2025
Benjamin Lazar, datavidenskabsmand med erfaring i AI-løsninger, diskuterer dybtgående emner som illusionen af transparens i AI. Han forklarer, hvordan reasoning-output ofte er efterrationalisering, og hvorfor jagten på determinisme kan være omkostningstung og unødvendig. Sammen med værten dykker han ned i "Context Rot", hvor de afslører, at lange kontekster kan skade modelpræstation. Lazar peger på vigtigheden af intelligent kontekststyring og data governance som kritiske faktorer for AI-implementering.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Reasoning Tokens Kan Vildlede

  • Reasoning tokens (thinking outputs) ofte er efterrationaliseringer og giver ikke reel indsigt i modelens interne beslutningstagning.
  • Derfor er den transparens, vi tror vi får fra 'chain-of-thought', ofte en illusion.
INSIGHT

Modellen Optimerer Efter Reward, Ikke Sandhed

  • Modellen optimeres mod en simpel reward-funktion og lærer hurtigt tricks der 'ser logiske' ud uden at være sande.
  • Lange, komplekse reasoning-tekster kan være strategier for at opfylde belønningssignal, ikke ægte ræsonnement.
ADVICE

Begræns Thinking For At Sænke Omkostninger

  • Overvej trade-off mellem 'thinking' og omkostning: reasoning øger tokens og pris markant.
  • Tildel reasoning kun hvor opgaven virkelig kræver det for at spare beregningsomkostninger.
Get the Snipd Podcast app to discover more snips from this episode
Get the app