Prompt Flow: The Complete Guide
v1.13 — Édition 2026. Un guide complet sur Prompt Flow v1.13, une suite d'outils de développement conçue pour rationaliser le cycle de développement de bout en bout des applications d'IA basées sur les LLM. Apprenez à concevoir, tester, tracer, évaluer et déployer vos applications d'IA.
Épisodes
La philosophie de Prompt Flow
3m 35sCet épisode aborde les principes de conception fondamentaux de Prompt Flow et les raisons pour lesquelles il privilégie la visibilité des prompts. Les auditeurs découvriront la différence entre cacher les prompts dans les frameworks et les exposer pour une expérimentation et un ajustement continus.
Les flows et l'architecture DAG
3m 48sCet épisode aborde le modèle mental de haut niveau consistant à traiter les applications LLM comme des Directed Acyclic Graphs (DAGs). Les auditeurs apprendront la différence entre les Flex flows et les DAG flows, et comment les Standard, Chat et Evaluation flows servent des objectifs différents.
Les blocs de construction : Tools
3m 14sCet épisode couvre les Tools, les unités exécutables fondamentales dans Prompt Flow. Les auditeurs apprendront à tirer parti des trois principaux Tools intégrés : LLM, Python et Prompt.
Gérer les secrets avec les Connections
3m 30sCet épisode explique comment les Connections gèrent de manière sécurisée les identifiants des services externes dans les environnements locaux et cloud. Les auditeurs découvriront pourquoi le codage en dur des clés API est dangereux et comment Prompt Flow isole les secrets.
La spécification Prompty
3m 20sCet épisode détaille l'anatomie d'un fichier .prompty, y compris son front matter YAML et son template Jinja. Les auditeurs apprendront comment standardiser la gestion des prompts dans un seul fichier Markdown contrôlable par version.
Exécution dynamique de Prompty
3m 26sCet épisode explique comment exécuter dynamiquement des fichiers Prompty en Python. Les auditeurs apprendront à surcharger les configurations du modèle à l'exécution et à tester les fichiers Prompty via la CLI.
Flex Flows : Développement basé sur les fonctions
3m 24sCet épisode explique comment encapsuler la logique d'une application LLM à l'aide de fonctions Python pures. Les auditeurs apprendront à utiliser le décorateur @trace pour créer des points d'entrée sans friction dans les Flex flows.
Flex Flows : Développement basé sur les classes
3m 53sCet épisode aborde la gestion de l'état et du cycle de vie à l'aide de classes Python dans les Flex Flows. Les auditeurs apprendront à créer des agents conversationnels complexes qui maintiennent les connexions et l'historique.
DAG Flows : Construction à partir de YAML
3m 38sCet épisode explique comment définir la logique de manière explicite à l'aide de fichiers flow.dag.yaml. Les auditeurs apprendront à connecter des fonctions et des Tools via des dépendances d'entrée/sortie et à utiliser des éditeurs visuels.
Traçage des interactions LLM
3m 11sCet épisode couvre le suivi et le débogage des appels LLM à l'aide du package promptflow-tracing. Les auditeurs apprendront à implémenter le traçage selon la spécification OpenTelemetry pour obtenir une visibilité approfondie sur la latence d'exécution et les entrées.
Traçage avancé : LangChain et AutoGen
3m 22sCet épisode explique comment le traçage de Prompt Flow s'intègre aux bibliothèques d'orchestration tierces. Les auditeurs apprendront à obtenir une visibilité d'exécution sur les scripts LangChain et AutoGen sans avoir à tout réécrire.
Passage à l'échelle : Batch runs avec des données
3m 55sCet épisode explique comment exécuter des flows sur de grands jeux de données à l'aide de fichiers JSONL. Les auditeurs apprendront à mapper les entrées aux colonnes de données et à exécuter des processus par lots pour valider leurs prompts face aux cas limites.
Le paradigme de l'évaluation
3m 34sCet épisode explique comment utiliser les Evaluation flows pour calculer des métriques sur les sorties d'un batch run. Les auditeurs apprendront comment passer des tests unitaires traditionnels à l'évaluation statistique des réponses stochastiques des LLM.
Mettre les flows en production
3m 11sCe dernier épisode couvre la multitude d'options de déploiement disponibles pour un flow terminé. Les auditeurs apprendront comment un flow sert d'artefact prêt pour la production qui peut être déployé sur Docker, Kubernetes ou App Services.