
DevTalk DevTalk #129 – O Programowaniu z AI z Tomaszem Ducinem
18 snips
Oct 13, 2025 Tomasz Ducin, architekt i deweloper specjalizujący się w AI, wraca, aby podzielić się swoimi spostrzeżeniami na temat praktycznego wykorzystania modelów LLM w programowaniu. Rozmawia o tym, jak AI może pełnić rolę "zespołu juniorów" i kiedy najlepiej delegować zadania. Dowiedz się, co oznacza "higiena kontekstu" i jak unikać marnowania tokenów. Tomasz porusza także Vertical Slices Architecture, wskazując na jej efektywność dla LLM-ów oraz zalety precyzyjnych poleceń w pracy z agentami.
AI Snips
Chapters
Books
Transcript
Episode notes
LLM To Napęd Dla Wykonania, Nie Zastępca Myślenia
- LLMy najlepiej przyspieszają pracę w zadaniach po fazie koncepcyjnej, gdy problem jest już dobrze zdefiniowany.
- Tam, gdzie wymagane jest głębokie rozumienie architektury, nadal potrzebny jest człowiek jako kierownik decyzji.
Konfiguruj I Weryfikuj Agenta
- Personalizuj agenta: używaj reguł, subagentów i plików konfiguracyjnych dostosowanych do projektu.
- Zawsze weryfikuj plan i nie klikaj od razu execute bez sprawdzenia szczegółów.
Higiena Kontekstu
- Traktuj kontekst jako budżet: dołączaj tylko to, co naprawdę potrzebne do zadania.
- Często startuj nowe wątki i czyść kontekst, żeby nie przepalać tokenów.


