

ChatGPT-tegenhanger GPT-NL gestart met trainen
Jun 26, 2025
De training van GPT-NL, de Nederlandse tegenhanger van ChatGPT, is in volle gang en richt zich op ethische en transparante taalmodellen. Ontwikkeld door TNO en SURF, wordt er gebruikgemaakt van een enorme dataset van 285 miljard woorden. Daarnaast wordt er gesproken over vier mannen die veroordeeld zijn voor het illegaal streamen van films en series, wat interessante vragen oproept over de impact van dergelijke praktijken op de media-industrie.
AI Snips
Chapters
Transcript
Episode notes
Ethisch Nederlands taalmodel GPT-NL
- GPT-NL is een Nederlands taalmodel dat ethisch en juridisch verantwoord getraind wordt.
- Het gebruikt alleen rechtmatig verkregen data en wordt lokaal in Amsterdam getraind.
Kwaliteit boven kwantiteit in AI
- GPT-NL gebruikt 285 miljard woorden terwijl GPT-4 circa 10 biljoen woorden kent.
- Grootte is niet alles; kwaliteit van data is cruciaal voor AI-resultaten.
Illegale streaming via algoritme-hacks
- Vier Nederlanders manipuleerden acht jaar lang algoritmen van streamingdiensten om illegaal films aan te bieden.
- Ze creëerden zo hun eigen streamingplatform met betaalde klanten.