
AI, en Dans på Roser Transparens i AI var bare en illusion - Med Data scientist, Benjamin Lazar
10 snips
Nov 10, 2025 Benjamin Lazar, datavidenskabsmand med erfaring i AI-løsninger, diskuterer dybtgående emner som illusionen af transparens i AI. Han forklarer, hvordan reasoning-output ofte er efterrationalisering, og hvorfor jagten på determinisme kan være omkostningstung og unødvendig. Sammen med værten dykker han ned i "Context Rot", hvor de afslører, at lange kontekster kan skade modelpræstation. Lazar peger på vigtigheden af intelligent kontekststyring og data governance som kritiske faktorer for AI-implementering.
AI Snips
Chapters
Transcript
Episode notes
Reasoning Tokens Kan Vildlede
- Reasoning tokens (thinking outputs) ofte er efterrationaliseringer og giver ikke reel indsigt i modelens interne beslutningstagning.
- Derfor er den transparens, vi tror vi får fra 'chain-of-thought', ofte en illusion.
Modellen Optimerer Efter Reward, Ikke Sandhed
- Modellen optimeres mod en simpel reward-funktion og lærer hurtigt tricks der 'ser logiske' ud uden at være sande.
- Lange, komplekse reasoning-tekster kan være strategier for at opfylde belønningssignal, ikke ægte ræsonnement.
Begræns Thinking For At Sænke Omkostninger
- Overvej trade-off mellem 'thinking' og omkostning: reasoning øger tokens og pris markant.
- Tildel reasoning kun hvor opgaven virkelig kræver det for at spare beregningsomkostninger.
