Prompt Flow: The Complete Guide
v1.13 — Edición 2026. Una guía exhaustiva sobre Prompt Flow v1.13, un conjunto de herramientas de desarrollo diseñado para optimizar el ciclo de desarrollo integral de aplicaciones de IA basadas en LLM. Aprende a diseñar, probar, trazar, evaluar y desplegar tus aplicaciones de IA.
Episodios
La filosofía de Prompt Flow
4m 03sEste episodio cubre los principios de diseño fundamentales de Prompt Flow y por qué prioriza la visibilidad de los prompts. Los oyentes aprenderán la diferencia entre ocultar los prompts dentro de los frameworks y exponerlos para su experimentación y ajuste continuo.
Los flujos y la arquitectura DAG
4m 48sEste episodio cubre el modelo mental de alto nivel que trata las aplicaciones LLM como grafos acíclicos dirigidos (DAGs). Los oyentes aprenderán la diferencia entre los Flex flows y los DAG flows, y cómo los Standard, Chat y Evaluation flows sirven para diferentes propósitos.
Los bloques de construcción: Tools
3m 32sEste episodio cubre las Tools, las unidades ejecutables fundamentales en Prompt Flow. Los oyentes aprenderán a aprovechar las tres Tools integradas principales: LLM, Python y Prompt.
Gestión de secretos con Connections
4m 06sEste episodio cubre cómo Connections gestiona de forma segura las credenciales para servicios externos en entornos locales y en la nube. Los oyentes aprenderán por qué codificar las API keys directamente en el código (hardcoding) es peligroso y cómo Prompt Flow aísla los secretos.
La especificación Prompty
4m 17sEste episodio cubre la anatomía de un fichero .prompty, incluyendo su front matter en YAML y su plantilla Jinja. Los oyentes aprenderán a estandarizar la gestión de prompts en un único recurso Markdown controlable por versiones.
Ejecución dinámica de Prompty
4m 05sEste episodio cubre cómo ejecutar ficheros Prompty dinámicamente en Python. Los oyentes aprenderán a sobrescribir las configuraciones del modelo en tiempo de ejecución y a probar ficheros Prompty a través de la CLI.
Flex Flows: Desarrollo basado en funciones
4m 26sEste episodio cubre cómo encapsular la lógica de las aplicaciones LLM utilizando funciones puras de Python. Los oyentes aprenderán a aprovechar el decorador @trace para crear puntos de entrada sin fricción en los Flex flows.
Flex Flows: Desarrollo basado en clases
4m 16sEste episodio cubre la gestión del estado y el ciclo de vida utilizando clases de Python en los Flex Flows. Los oyentes aprenderán a construir agentes conversacionales complejos que mantienen las conexiones y el historial.
DAG Flows: Construyendo desde YAML
4m 41sEste episodio cubre cómo definir la lógica explícitamente utilizando ficheros flow.dag.yaml. Los oyentes aprenderán a conectar funciones y Tools a través de dependencias de entrada/salida y a utilizar editores visuales.
Trazabilidad de interacciones LLM
3m 37sEste episodio cubre el seguimiento y la depuración de llamadas a LLM utilizando el paquete promptflow-tracing. Los oyentes aprenderán a implementar el tracing de la especificación OpenTelemetry para obtener una visibilidad profunda de la latencia de ejecución y los inputs.
Tracing avanzado: LangChain y AutoGen
3m 51sEste episodio cubre cómo el tracing de Prompt Flow se integra con bibliotecas de orquestación de terceros. Los oyentes aprenderán a obtener visibilidad de ejecución en scripts de LangChain y AutoGen sin necesidad de una reescritura masiva.
Escalando: Batch Runs con datos
4m 39sEste episodio cubre la ejecución de flujos contra grandes conjuntos de datos utilizando ficheros JSONL. Los oyentes aprenderán a mapear inputs a columnas de datos y a ejecutar procesos batch para validar sus prompts frente a casos extremos (edge cases).
El paradigma de la evaluación
4m 00sEste episodio cubre el uso de Evaluation Flows para calcular métricas sobre los resultados de un batch run. Los oyentes aprenderán cómo hacer la transición de los tests unitarios tradicionales a la calificación estadística de respuestas estocásticas de LLM.
Llevando los flujos a producción
4m 26sEste episodio final cubre la gran variedad de opciones de despliegue disponibles para un flujo completado. Los oyentes aprenderán cómo un flujo sirve como un artefacto listo para producción que puede ser desplegado en Docker, Kubernetes o App Services.