Prompt Flow: The Complete Guide
v1.13 — Edizione 2026. Una guida completa a Prompt Flow v1.13, una suite di strumenti di sviluppo progettata per semplificare il ciclo di sviluppo end-to-end delle applicazioni AI basate su LLM. Scopri come progettare, testare, tracciare, valutare e distribuire le tue app AI.
Episodi
La filosofia di Prompt Flow
4m 02sQuesto episodio copre i principi di progettazione fondamentali alla base di Prompt Flow e il motivo per cui dà priorità alla visibilità dei prompt. Gli ascoltatori impareranno la differenza tra nascondere i prompt all'interno dei framework ed esporli per la sperimentazione e l'ottimizzazione continue.
I flow e l'architettura DAG
3m 53sQuesto episodio illustra il modello mentale di alto livello che tratta le applicazioni LLM come Directed Acyclic Graphs (DAG). Gli ascoltatori impareranno la differenza tra Flex flows e DAG flows, e come i flow Standard, Chat ed Evaluation servano a scopi diversi.
I blocchi costitutivi: i Tools
3m 20sQuesto episodio tratta i Tools, le unità eseguibili fondamentali in Prompt Flow. Gli ascoltatori impareranno come sfruttare i tre tools integrati principali: LLM, Python e Prompt.
Gestire i segreti con le Connections
3m 43sQuesto episodio illustra come le Connections gestiscono in modo sicuro le credenziali per i servizi esterni in ambienti locali e cloud. Gli ascoltatori impareranno perché l'hardcoding delle chiavi API è pericoloso e come Prompt Flow isola i segreti.
La specifica Prompty
3m 39sQuesto episodio analizza l'anatomia di un file .prompty, inclusi il suo front matter YAML e il template Jinja. Gli ascoltatori impareranno come standardizzare la gestione dei prompt in un singolo asset markdown controllabile tramite versione.
Esecuzione dinamica di Prompty
3m 27sQuesto episodio illustra come eseguire dinamicamente i file Prompty in Python. Gli ascoltatori impareranno come sovrascrivere le configurazioni del modello a runtime e testare i file Prompty tramite la CLI.
Flex Flows: Sviluppo basato su funzioni
3m 44sQuesto episodio illustra come incapsulare la logica dell'applicazione LLM utilizzando funzioni Python pure. Gli ascoltatori impareranno come sfruttare il decoratore @trace per creare punti di ingresso con il minimo attrito nei Flex flows.
Flex Flows: Sviluppo basato su classi
3m 59sQuesto episodio tratta la gestione dello stato e del ciclo di vita utilizzando le classi Python nei Flex flows. Gli ascoltatori impareranno come creare agenti conversazionali complessi che mantengono connessioni e cronologia.
DAG Flows: Costruire da YAML
4m 00sQuesto episodio illustra come definire la logica in modo esplicito utilizzando i file flow.dag.yaml. Gli ascoltatori impareranno come connettere funzioni e tools tramite dipendenze di input/output e utilizzare editor visivi.
Tracciare le interazioni LLM
3m 40sQuesto episodio tratta il tracciamento e il debug delle chiamate LLM utilizzando il pacchetto promptflow-tracing. Gli ascoltatori impareranno come implementare il tracing con la specifica OpenTelemetry per ottenere una profonda visibilità sulla latenza di esecuzione e sugli input.
Tracing avanzato: LangChain e AutoGen
3m 32sQuesto episodio illustra come il tracing di Prompt Flow si integra con librerie di orchestrazione di terze parti. Gli ascoltatori impareranno come ottenere visibilità sull'esecuzione degli script LangChain e AutoGen senza dover riscrivere enormi porzioni di codice.
Scalare: Esecuzioni batch con i dati
4m 04sQuesto episodio illustra l'esecuzione dei flow su grandi dataset utilizzando file JSONL. Gli ascoltatori impareranno come mappare gli input sulle colonne dei dati ed eseguire processi batch per convalidare i propri prompt rispetto ai casi limite.
Il paradigma dell'Evaluation
3m 24sQuesto episodio illustra l'utilizzo degli Evaluation flows per calcolare le metriche sugli output di un'esecuzione batch. Gli ascoltatori impareranno come passare dal tradizionale unit testing alla valutazione statistica delle risposte stocastiche degli LLM.
Portare i flow in produzione
3m 53sQuesto episodio finale illustra la miriade di opzioni di distribuzione disponibili per un flow completato. Gli ascoltatori impareranno come un flow funga da artefatto pronto per la produzione che può essere distribuito su Docker, Kubernetes o App Services.