

Prosto i praktycznie wyjaśniamy: AI
18 snips Jan 10, 2025
Autorzy omawiają kluczowe pojęcia związane z modelami językowymi, skupiając się na promptach i tokenizacji. Wnikliwie analizują techniki RAG oraz różne modele osadzające jak BERT i GPT. Poruszają rolę wektorów w wyszukiwaniu dokumentów oraz detekcji anomalii. Wyjaśniają znaczenie integracji danych w AI, w tym wykorzystanie JSON. Na koniec poznajemy agentów AI i ich wpływ na doświadczenia użytkownika. Przygotuj się na burzę informacyjną pełną praktycznych porad i tajników AI!
AI Snips
Chapters
Transcript
Episode notes
Tokenizacja i tokeny
- Tokenizacja tekstu na poziomie podsłów pozwala na obsługę nieznanych słów i kontekstu.
- Tokeny umożliwiają modelom rozumienie znaczenia i relacji między słowami.
Kontekst w modelach LLM
- Modele LLM są bezstanowe, a wrażenie kontekstu uzyskuje się poprzez dodawanie historii konwersacji do prompta.
- Suma tokenów wejściowych i wyjściowych nie może przekroczyć okna kontekstowego.
Fine-tuning vs. prompting i RAG
- Skup się na dobrych promptach i RAG, zamiast na fine-tuningu.
- Fine-tuning wymaga dużego, wysokiej jakości zestawu danych i ciągłej aktualizacji.