Wie man in ChatGPT, Gemini und Co hineinschreibt, so schallt es heraus. Bestimmte Methoden und Tricks verbessern die Ausgabe solcher KI-Sprachmodelle (LLMs) deutlich. Hilft es, eine KI emotional unter Druck zu setzen? Braucht es künftig noch Prompt-Engineers? Moritz Metz und Ralf Krauter probieren verschiedenste Prompts.
Kapitelmarken(00:00) Ralf hat eine Überraschung
(01:23) Wie nutze ich generative KI effizient?
(04:45) Ziel setzen, Rolle vorgeben, Kontext geben
(07:32) Vorteile und Vorurteile beim Prompting mit Rollen
(09:30) Prompting mit Beispielen, Referenzen und Formatvorgaben
(12:05) Nilpferde, Token, Kontextfenster und der Recency Bias
(15:13) Kann KI die eigenen Prompts optimieren?
(18:18) Hilft Motivieren, Bedrohen und Bestrafen?
(22:45) Sollten wir zu Chatbots sein sein?
(24:19) Promt-Engineering könnte überflüssig werden
Weiterführende LinksMehr zum Thema KI in der Dlf AudiothekWenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an
kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von
Apple und
Google.
Folgt dem Deutschlandfunk auch auf
Instagram oder
Facebook.