Prompt Flow: The Complete Guide
v1.13 — 2026 Edition. Ein umfassender Leitfaden zu Prompt Flow v1.13, einer Suite von Entwicklungstools, die den End-to-End-Entwicklungszyklus von LLM-basierten KI-Anwendungen optimieren soll. Erfahren Sie, wie Sie Ihre KI-Apps entwerfen, testen, tracen, evaluieren und deployen.
Episoden
Die Philosophie von Prompt Flow
3m 58sDiese Episode behandelt die zentralen Designprinzipien hinter Prompt Flow und warum die Sichtbarkeit von Prompts priorisiert wird. Die Zuhörer erfahren den Unterschied zwischen dem Verbergen von Prompts in Frameworks und deren Offenlegung für kontinuierliches Experimentieren und Tuning.
Flows und die DAG-Architektur
4m 36sDiese Episode behandelt das übergeordnete mentale Modell, LLM-Anwendungen als Directed Acyclic Graphs (DAGs) zu betrachten. Die Zuhörer lernen den Unterschied zwischen Flex flows und DAG flows kennen und erfahren, wie Standard, Chat und Evaluation flows unterschiedlichen Zwecken dienen.
Die Bausteine: Tools
3m 47sDiese Episode behandelt Tools, die grundlegenden ausführbaren Einheiten in Prompt Flow. Die Zuhörer lernen, wie sie die drei integrierten Kern-Tools nutzen können: LLM, Python und Prompt.
Secrets verwalten mit Connections
3m 59sDiese Episode behandelt, wie Connections Anmeldeinformationen für externe Dienste in lokalen und Cloud-Umgebungen sicher verwalten. Die Zuhörer erfahren, warum das Hardcoden von API-Keys gefährlich ist und wie Prompt Flow Secrets isoliert.
Die Prompty-Spezifikation
4m 01sDiese Episode behandelt den Aufbau einer .prompty-Datei, einschließlich ihres YAML-Frontmatters und Jinja-Templates. Die Zuhörer lernen, wie man das Prompt-Management in einem einzigen, versionskontrollierbaren Markdown-Asset standardisiert.
Dynamische Prompty-Ausführung
3m 38sDiese Episode behandelt die dynamische Ausführung von Prompty-Dateien in Python. Die Zuhörer lernen, wie man Modellkonfigurationen zur Laufzeit überschreibt und Prompty-Dateien über die CLI testet.
Flex Flows: Funktionsbasierte Entwicklung
3m 52sDiese Episode behandelt die Kapselung von LLM-Anwendungslogik durch reine Python-Funktionen. Die Zuhörer lernen, wie sie den @trace-Decorator für reibungslose Einstiegspunkte in Flex flows nutzen können.
Flex Flows: Klassenbasierte Entwicklung
4m 25sDiese Episode behandelt die Verwaltung von State und Lifecycle mithilfe von Python-Klassen in Flex Flows. Die Zuhörer lernen, wie man komplexe Conversational Agents entwickelt, die Verbindungen und Historie aufrechterhalten.
DAG Flows: Erstellung aus YAML
4m 36sDiese Episode behandelt die explizite Definition von Logik mithilfe von flow.dag.yaml-Dateien. Die Zuhörer lernen, wie man Funktionen und Tools über Input/Output-Abhängigkeiten verbindet und visuelle Editoren nutzt.
Tracing von LLM-Interaktionen
3m 44sDiese Episode behandelt das Tracking und Debugging von LLM-Aufrufen mithilfe des promptflow-tracing-Pakets. Die Zuhörer lernen, wie man Tracing nach der OpenTelemetry-Spezifikation implementiert, um tiefe Einblicke in Ausführungslatenzen und Inputs zu erhalten.
Erweitertes Tracing: LangChain und AutoGen
3m 37sDiese Episode behandelt, wie sich das Tracing von Prompt Flow in Orchestrierungs-Bibliotheken von Drittanbietern integriert. Die Zuhörer lernen, wie sie die Ausführung von LangChain- und AutoGen-Skripten ohne massives Umschreiben sichtbar machen können.
Skalierung: Batch Runs mit Daten
4m 12sDiese Episode behandelt die Ausführung von Flows gegen große Datensätze mithilfe von JSONL-Dateien. Die Zuhörer lernen, wie man Inputs Daten-Spalten zuordnet und Batch-Prozesse ausführt, um ihre Prompts gegen Edge Cases zu validieren.
Das Evaluierungs-Paradigma
4m 07sDiese Episode behandelt die Verwendung von Evaluation Flows zur Berechnung von Metriken für die Outputs eines Batch Runs. Die Zuhörer lernen, wie sie vom traditionellen Unit-Testing zur statistischen Bewertung stochastischer LLM-Antworten übergehen.
Flows in die Produktion bringen
4m 07sDiese letzte Episode behandelt die unzähligen Deployment-Optionen, die für einen fertigen Flow zur Verfügung stehen. Die Zuhörer lernen, wie ein Flow als produktionsreifes Artefakt dient, das auf Docker, Kubernetes oder App Services bereitgestellt werden kann.