Jak zredukować obszar pracy agenta do kilku plików
Korzyści z granularnych slice'ów, kompromisy i integracja między slice'ami przez eventy.
Transcript
chevron_right
Play full episode
chevron_right
Transcript
Episode notes
Czy Twoja praca wygląda dziś tak samo jak 3 lata temu? A może już teraz sam robisz tyle, co kiedyś cały zespół? Jeśli korzystasz z AI w kodowaniu, ale masz wrażenie, że przepalasz tokeny bez większego efektu, a agenci „odpływają” i robią co chcą – ten odcinek pomoże Ci zrozumieć dlaczego i co z tym zrobić.
Tomasz Ducin wraca do DevTalk, tym razem z kontynuacją tematu LLM-ów, ale o poziom głębiej. To już nie tylko nauka z AI – to praktyka kodowania, gdzie LLM-y mogą być Twoim zespołem juniorów… jeśli wiesz, jak nimi zarządzać. Tomek jako architekt, developer i konsultant, intensywnie pracuje z systemami agentowymi i zna ich możliwości, ale też ograniczenia – bo rozumie, jak to działa od środka.
Z tego odcinka dowiesz się:
Czy AI to faktycznie „osobisty zespół juniorów” i w jakich taskach naprawdę może przypieszyć Twoją pracę;
Dlaczego „jesteś ekspertem od Reacta” to nienajlepszy początek prompta;
Co to jest „higiena kontekstu” i dlaczego większość ludzi przepala niepotrzebnie swoje tokeny;
Dlaczego execute() bez myślenia to przepis na katastrofę;
Czym jest Vertical Slices Architecture i dlaczego LLM-y pracują z nią o wiele efektywniej;
Jak naprawdę działają modele, czyli macierze, wagi, kwantyzacja i co to oznacza dla Twojej pracy;
Dlaczego przyszłość to zarządzanie kontekstem, a nie większe okna;
Kiedy AI działa jako pair-programmer, a kiedy to tylko iluzja współpracy?
i najważniejsze! W ramach projektu Developer Jutra zapraszamy Cię na [LIVE] DeepDive do serca LLMów w programowaniu • 20 października (poniedziałek), 20:00;
Koniecznie zostaw komentarz: jak Ci się podoba odcinek?