v6.2 — Edizione 2026. Una guida completa al BMad Method, un framework di sviluppo guidato dall'AI. Scopri come utilizzare la sua metodologia agile in 4 fasi, sfruttare agenti AI specializzati, gestire il project context e utilizzare strumenti per power-user per orchestrare progetti software complessi.
Esploriamo la filosofia di base del BMad Method: il context engineering. Scopri come suddividere lo sviluppo in Analysis, Planning, Solutioning e Implementation assicuri che gli agenti AI sappiano sempre cosa costruire e perché.
3m 32s
2
La Guida Intelligente e l'Installazione
Scopri come iniziare con il BMad Method senza memorizzare comandi complessi. Trattiamo il processo di installazione, le directory del workspace generate e come utilizzare bmad-help come navigatore intelligente del progetto.
3m 32s
3
Forgiare Idee con l'AI Brainstorming
Scopri il vero potere dell'AI nella fase di Analysis. Invece di chiedere una lista di idee, scopri come il workflow bmad-brainstorming agisce come un coach creativo, tirando fuori da te concetti unici utilizzando protocolli anti-bias.
3m 37s
4
Il Test della PRFAQ contro il Product Brief
Prima di scrivere un Product Requirements Document, hai bisogno di basi solide. Confrontiamo la scoperta graduale di un Product Brief con il rigoroso stress-test di una PRFAQ in stile Working Backwards di Amazon.
3m 25s
5
Blindare il PRD
Passando alla Fase 2, esploriamo come l'agente Product Manager trasforma idee grezze in un Product Requirements Document strutturato. Scopri come l'applicazione di requisiti funzionali e non funzionali protegge il tuo progetto.
3m 42s
6
Prevenire i Conflitti tra Agenti con l'Architecture
La Fase 3 di Solutioning è dove vengono prese le decisioni tecniche. Discutiamo perché gli Architecture Decision Records (ADRs) espliciti sono fondamentali per impedire a più agenti AI di fare scelte tecniche contrastanti.
3m 45s
7
La Costituzione del Project Context
Scopri come redigere il regolamento definitivo per i tuoi agenti AI utilizzando project-context.md. Questo file impone il tuo tech stack specifico, convenzioni di coding non ovvie e regole di implementazione critiche in tutti i workflow.
3m 22s
8
Suddividere il Lavoro e il Gate Check
Concludiamo la Fase 3 traducendo l'architettura in unità di lavoro implementabili. Scopri come gli agenti PM e Architect collaborano per creare Epic e Story, e perché il controllo di Implementation Readiness non è negoziabile.
3m 23s
9
Il Build Cycle e lo Sprint Tracking
La Fase 4 è dove viene scritto il codice. Analizziamo il disciplinato Build Cycle: inizializzare lo sprint planning, creare story atomiche, implementarle con il DEV agent e condurre rigorose code review.
3m 28s
10
Il Quick Dev Track per Modifiche Zero-Blast
Quando il processo agile completo in 4 fasi è eccessivo, il Quick Dev track è il tuo migliore amico. Scopri come bmad-quick-dev comprime intenti disordinati in una spec pulita, esegue in autonomia e gestisce le proprie review.
3m 37s
11
Onboarding di Codebase Esistenti
BMad non è solo per progetti greenfield. Trattiamo le strategie per inserire il framework in enormi legacy codebase non documentate utilizzando la context discovery e un cleanup strategico.
4m 13s
12
Comandare gli Agenti: Skills vs Triggers
Capire come interagire con il sistema è fondamentale. Analizziamo la differenza tra le IDE Skills che avviano workflow rigidi e gli Agent Menu Triggers che ti permettono di conversare dinamicamente con le personas AI.
3m 45s
13
Adversarial Review e Edge Case Hunting
È ora di smettere di lasciare che l'AI sia educata. Esploriamo due potenti Core Tools: un adversarial reviewer profondamente cinico che cerca ciò che manca, e un edge-case hunter meccanico che mappa le boundary condition non gestite.
3m 59s
14
Gestire il Context: Distillation e Sharding
Gli LLM soffrono di context blindness quando vengono alimentati con documenti enormi. Scopri come BMad risolve questo problema utilizzando la distillation lossless per comprimere il testo in token densi e il document sharding fisico per frammentare i monoliti.
3m 26s
15
Elicitation Avanzata e Party Mode
Nel finale della nostra serie, esploriamo tecniche per power-user. Scopri come costringere gli LLM a ripensare al proprio output utilizzando framework di structured reasoning e come orchestrare dibattiti multi-agente con la Party Mode.
4m 27s
Episodi
1
Context Engineering e le 4 Fasi
3m 32s
Esploriamo la filosofia di base del BMad Method: il context engineering. Scopri come suddividere lo sviluppo in Analysis, Planning, Solutioning e Implementation assicuri che gli agenti AI sappiano sempre cosa costruire e perché.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 1 di 15. La maggior parte degli AI coding assistant fallisce al terzo giorno perché dimentica il motivo per cui ha scritto il codice il primo giorno. Ti ritrovi con un mucchio di script isolati che non si integrano tra loro. Per risolvere questo problema, non ti serve un prompt migliore, ti serve il Context Engineering e le quattro fasi.
Un errore comune è trattare il metodo BMad come un semplice code generator. Non lo è. È una pipeline agile di Context Engineering. Se chiedi semplicemente a un agente IA di sviluppare una feature, lui tirerà a indovinare i limiti. BMad lo impedisce costruendo e bloccando progressivamente il contesto attraverso quattro fasi distinte. L'agente non perde mai il filo perché ogni fase passa regole rigide e documentate a quella successiva.
Prendi l'esempio dello sviluppo di un'applicazione SaaS. Se salti direttamente al codice, l'IA potrebbe scegliere un database che viola i tuoi requisiti di data residency. Il Context Engineering lo impedisce.
La pipeline inizia con la fase di Analisi. Qui, l'IA agisce da Business Analyst. Elabora le tue idee grezze e produce un Product Requirements Document. Questa fase fissa i vincoli principali. Cattura le user persona, le regole di compliance e i workflow principali. Il documento risultante diventa la base per tutto il resto.
Poi c'è la fase di Pianificazione. L'agente passa al ruolo di Product Owner. Prende il documento dei requisiti e lo scompone in Epic e User Story. I requisiti astratti si trasformano in task discreti e actionable. Il contesto si restringe. L'IA non pensa più all'intero prodotto, ma solo a specifiche unità deliverable mappate su una timeline chiara.
È qui che la cosa si fa interessante. La terza fase è il Solutioning. L'IA assume il ruolo di Architect. Guarda le User Story della fase di Pianificazione e i vincoli della fase di Analisi per creare il technical design. Decide i data model, gli endpoint API e le strutture delle cartelle. Per la tua applicazione SaaS, i vincoli di business definiti nella fase uno dicono all'Architect nella fase tre esattamente quali sono i limiti. Questo garantisce che l'architettura scelta si adatti davvero alle regole di business originali.
Infine, arriviamo alla fase di Implementazione. Ora l'IA assume il ruolo di Developer. L'agente Developer non deve indovinare l'architettura o farsi domande sulla business logic. Riceve il blueprint tecnico esatto dall'Architect. Scrive il codice per completare una specifica User Story, seguendo i data model e i path dei file precisi definiti nello step precedente.
Questa chain di contesto è il punto di tutto. Le informazioni fluiscono a valle attraverso una documentazione persistente. L'output di una fase diventa il limite di input rigido per la successiva. L'agente Developer ha successo perché l'agente Architect ha spianato la strada, e l'Architect ha avuto successo perché il Business Analyst ha mappato il territorio. Stai facendo engineering del contesto a ogni livello, in modo che l'IA si concentri interamente sull'execution.
Il tratto distintivo di un workflow IA resiliente non è la velocità con cui genera testo, ma la rigidità con cui impone i limiti tra i diversi stage di pensiero.
Se vuoi supportare lo show, puoi cercare DevStoriesEU su Patreon. Questo è tutto per questo episodio. Grazie per l'ascolto, e continua a sviluppare!
2
La Guida Intelligente e l'Installazione
3m 32s
Scopri come iniziare con il BMad Method senza memorizzare comandi complessi. Trattiamo il processo di installazione, le directory del workspace generate e come utilizzare bmad-help come navigatore intelligente del progetto.
Ciao, sono Alex di DEV STORIES DOT EU. BMad Method, episodio 2 di 15. Potresti pensare che adottare un nuovo framework di sviluppo AI richieda di memorizzare un'enorme sequenza di comandi specifici e fasi rigide di workflow. Non è così. Non devi memorizzare una singola sequenza di comandi in questo framework, perché il sistema ispeziona fisicamente la tua cartella locale e ti dice esattamente cosa digitare subito dopo. Questo è il processo di Guida Intelligente e Installazione.
Per iniziare basta un solo passaggio. Nel terminale, esegui il comando del package executor npx bmad-method install. Questo comando inizializza il workspace e prepara strutturalmente il tuo repository. Lo fa creando due directory specifiche nella tua cartella di root.
La prima directory è underscore bmad. Questa cartella è il cervello del tuo framework locale. Contiene le skill principali, le definizioni dei prompt e i template contestuali che l'AI utilizza per fare il suo lavoro. La seconda directory è underscore bmad dash output. Questa funge da cartella di destinazione dedicata. Ogni volta che il framework genera nuovi asset, che si tratti di documenti sui requisiti di prodotto, specifiche delle feature o codice vero e proprio, questi vengono depositati in questa directory di output, isolati in modo sicuro dal tuo source code esistente.
Ecco il punto chiave. Una volta che queste cartelle esistono, gli sviluppatori spesso commettono un errore comune. Presumono di dover aprire la documentazione ufficiale, studiare le diverse fasi del framework e memorizzare gli esatti comandi da terminale necessari per passare da una fase all'altra. Si preoccupano di saltare accidentalmente un passaggio o di eseguire un comando nell'ordine sbagliato. Non devi fare nulla di tutto questo. Il framework si auto-documenta a runtime grazie a una skill integrata chiamata bmad-help.
Bmad-help è una guida attiva che elimina il carico cognitivo di navigare la metodologia. Non è un manuale statico. Quando la richiami, la skill analizza attivamente lo stato attuale del tuo workspace. Controlla cosa c'è attualmente dentro le tue cartelle per determinare esattamente a che punto ti trovi nel ciclo di sviluppo.
Considera uno scenario concreto. Hai appena finito di eseguire il comando di installazione. Il tuo workspace è vuoto, a eccezione delle nuove cartelle di configurazione. Hai un'idea per un prodotto software, ma non hai idea di quale comando digitare dopo. Ti basta avviare la CLI e digitare bmad-help seguito dalla tua domanda in inglese semplice. Ad esempio, digiti bmad-help I have an idea for a SaaS, where do I start?
La skill elabora la tua domanda, si accorge che non ci sono ancora documenti di pianificazione nella tua cartella di output e ti dice esattamente cosa fare. Ti risponde con il comando specifico che devi eseguire per avviare la prima fase. Non ti dà una lista generica di tutti i comandi disponibili. Ti dà la singola istruzione precisa per il tuo contesto immediato.
Man mano che procedi con la metodologia, creando documenti e codice, bmad-help si adatta. Se finisci di generare l'architettura e chiedi cosa fare dopo, vede i file di architettura e prescrive il comando per la fase successiva appropriata. Il framework ispeziona fisicamente i tuoi progressi e guida dinamicamente la tua prossima mossa.
Non devi mai tirare a indovinare se sei pronto a scrivere codice o se devi prima perfezionare i tuoi requisiti, perché l'installazione locale legge costantemente il tuo ambiente per mantenerti sul percorso corretto. Vorrei prendermi un momento per ringraziarti per l'ascolto, ci aiuta tantissimo. Buona giornata!
3
Forgiare Idee con l'AI Brainstorming
3m 37s
Scopri il vero potere dell'AI nella fase di Analysis. Invece di chiedere una lista di idee, scopri come il workflow bmad-brainstorming agisce come un coach creativo, tirando fuori da te concetti unici utilizzando protocolli anti-bias.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 3 di 15. Se chiedi a un large language model dieci idee, di solito ottieni dieci idee perfettamente nella media, fondamentalmente banali. Il sistema è progettato per prevedere la parola successiva più probabile, il che significa che tende alla banalità. Per ottenere risultati davvero innovativi, devi costringere l'IA ad agire come un coach che estragga i concetti da te. Questo è esattamente ciò che fa il workflow Forging Ideas with AI Brainstorming.
La maggior parte delle persone associa l'AI brainstorming allo zero-shot prompting. Scrivi una richiesta di idee in una chat box e ricevi in cambio una lista generica. Questo approccio fallisce perché tratta l'IA come un oracolo. Il brainstorming coach del Metodo BMad opera secondo il principio opposto. È un framework di facilitazione guidato e multi-turn, in cui l'IA non genera affatto le idee principali. Al contrario, fornisce un attrito cognitivo strutturato per costringerti a pensare lateralmente.
Il workflow si basa fortemente su due meccanismi specifici: i protocolli anti-bias e il domain shifting. Quando inserisci un'idea iniziale, il protocollo anti-bias impedisce all'IA di darti semplicemente ragione. Se proponi una soluzione standard a un problema, l'IA è programmata per metterla in discussione. Potrebbe chiederti cosa succede se la soluzione che hai proposto fallisce completamente, o come un competitor potrebbe sfruttare le falle evidenti nella tua logica. Il domain shifting fa un passo avanti, costringendoti a guardare il tuo problema attraverso la lente di un settore completamente diverso.
Considera uno scenario concreto in cui vuoi esplorare dei modi per migliorare l'onboarding degli sviluppatori. Un'IA standard ti darebbe una lista su come scrivere una documentazione migliore e assegnare dei mentor. Il brainstorming coach di BMad, invece, potrebbe avviare un esercizio con la tecnica SCAMPER. SCAMPER è un framework che ti chiede di Sostituire, Combinare, Adattare, Modificare, Proporre per un altro uso, Eliminare o Invertire gli elementi di un processo.
Ecco l'intuizione chiave. L'IA non scorrerà l'intero acronimo in una volta sola riversandoti addosso un wall of text. Gestisce il ritmo passo dopo passo. Ti chiede come potresti eliminare del tutto la fase di lettura della documentazione dall'onboarding. Tu dai una risposta basata sulla tua domain expertise. Poi, l'IA ti fa un prompt per combinare l'onboarding con un task di engineering non correlato, come la live incident response. Tu rispondi di nuovo. L'IA mantiene stabile il framework mentre tu fornisci l'insight vero e proprio.
Inizi il workflow definendo il tuo problem space di partenza. L'IA risponde con un vincolo specifico o una domanda mirata. Tu rispondi. L'IA elabora la tua risposta, applica il suo controllo anti-bias, e poi ribatte o applica un domain shift. Questo loop multi-turn continua finché non hai esaurito le risposte ovvie e inizi a produrre concetti veramente nuovi. L'IA agisce come un facilitatore instancabile che si rifiuta di farti accontentare della prima cosa che ti viene in mente.
Il valore di un'IA nelle prime fasi del product design non sta nella sua capacità di inventare cose da zero, ma nella sua infinita pazienza nell'applicare un attrito cognitivo strutturato alla tua expertise. Per questo episodio è tutto. Grazie per l'ascolto, e continua a sviluppare!
4
Il Test della PRFAQ contro il Product Brief
3m 25s
Prima di scrivere un Product Requirements Document, hai bisogno di basi solide. Confrontiamo la scoperta graduale di un Product Brief con il rigoroso stress-test di una PRFAQ in stile Working Backwards di Amazon.
Ciao, sono Alex di DEV STORIES DOT EU. BMad Method, episodio 4 di 15. Amazon è famosa per scrivere la press release prima di sviluppare il prodotto. E se un'IA mettesse implacabilmente alla prova quella press release prima di farti toccare la codebase? Scegliere il formato del documento giusto fin dall'inizio determina se svilupperai un tool di cui le persone hanno davvero bisogno o se sprecherai mesi su qualcosa che non vuole nessuno. Il BMad Method gestisce questa divergenza attraverso due distinti output della fase di analisi: il PRFAQ Gauntlet e il Product Brief.
Spesso gli utenti non sanno quale formato scegliere. La regola è semplice. Se hai già le idee chiare su cosa stai costruendo e ti serve solo l'allineamento del team, usa il Product Brief. Se invece devi capire se il prodotto merita persino di esistere, usa il PRFAQ.
Il Product Brief è un processo di discovery morbido e collaborativo. Pensalo come una conversazione guidata. Tu e l'IA lavorate insieme per delineare il problem space, gli utenti target, le feature principali e le metriche di successo. L'IA agisce da co-pilot di supporto. Prende le tue idee abbozzate, le struttura in modo logico e ti fa domande in modo educato per riempire i dettagli mancanti. È la strada con meno attrito. Lo usi quando la direzione è chiara e ti serve semplicemente un documento professionale e organizzato per ottenere l'approvazione o passare al technical design.
Il PRFAQ, che sta per Press Release and Frequently Asked Questions, è un meccanismo completamente diverso. Questo è uno stress test rigoroso, in ottica customer-first. Ti costringe a lavorare a ritroso partendo da un ipotetico giorno di lancio. Inizi scrivendo una press release concisa che annuncia il prodotto finito alla tua target audience. A questo punto, l'IA abbandona il ruolo di co-pilot collaborativo e diventa uno stakeholder scettico. Legge la tua press release e genera un gauntlet di domande brutali e incalzanti.
Immagina uno scenario in cui vuoi creare un nuovo tool di deploy interno. Scrivi una press release in cui ti vanti che i deploy ora richiederanno un solo click anziché dieci. In un Product Brief, l'IA potrebbe semplicemente chiederti di elencare le piattaforme supportate. Nel PRFAQ Gauntlet, l'IA ti chiederà come intendi gestire i rollback automatici quando quel singolo click fa il deploy di un bug critico. Pretenderà di sapere perché il team di infrastruttura dovrebbe adottare questo tool al posto dei loro script esistenti e collaudati. Devi rispondere a queste domande in modo soddisfacente. Se le tue risposte sono vaghe, l'IA fa pushback. Sei costretto a difendere la value proposition, l'usabilità e la fattibilità tecnica prima ancora di spendere del vero tempo di engineering.
Ecco l'insight chiave. Il Product Brief si concentra su cosa sia il prodotto, mentre il PRFAQ si concentra sul perché al cliente dovrebbe importare e se il tuo piano di execution è realistico. Il Brief crea consenso. Il PRFAQ demolisce le assumption deboli. Usi il PRFAQ quando un'idea è costosa, controversa o altamente ambigua.
Alla fine, sopravvivere al PRFAQ Gauntlet dimostra che il tuo concept può resistere allo scrutinio del mondo reale, fungendo da difesa assoluta contro lo sviluppo di feature che nessuno ha effettivamente chiesto. Per questo episodio è tutto. Grazie per l'ascolto, e continua a sviluppare!
5
Blindare il PRD
3m 42s
Passando alla Fase 2, esploriamo come l'agente Product Manager trasforma idee grezze in un Product Requirements Document strutturato. Scopri come l'applicazione di requisiti funzionali e non funzionali protegge il tuo progetto.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 5 di 15. Il modo più rapido per costruire il sistema sbagliato è lasciare che un'IA allucini i tuoi requisiti basandosi su un prompt vago. Devi limitare l'IA entro confini precisi prima che venga scritta anche solo una riga di codice. Blindare il PRD è il processo che stabilisce questi confini.
Spesso le persone confondono il project planning con il technical solutioning. Pensano che pianificare significhi scegliere un database o mappare i microservizi. Questo è sbagliato. La pianificazione riguarda interamente la business logic. Non detta alcuna esecuzione tecnica. La fase di pianificazione si concentra esclusivamente sul Cosa e sul Perché. Il Come appartiene a una fase completamente diversa.
Nel Metodo BMad, questo avviene nella Fase Due. L'attore responsabile è l'agente product manager, John. John prende gli output della fase uno, nello specifico il tuo PRFAQ approvato e i documenti di brainstorming, e li elabora. Inneschi questo processo usando un comando chiamato bmad dash create dash prd.
John prende la vision dal PRFAQ e la traduce in un file di testo rigido chiamato PRD punto md. Questo documento funge da source of truth assoluta per il resto del progetto. Per farlo, John suddivide i requisiti in due categorie rigorose. Queste sono i Functional Requirements, o FR, e i Non-Functional Requirements, o NFR.
I Functional Requirements definiscono esattamente cosa deve fare il sistema. I Non-Functional Requirements definiscono i vincoli operativi del sistema, come le soglie di performance, le regole di compliance o l'availability.
Considera uno scenario concreto. Stai costruendo un modulo di billing SaaS. Dai in pasto il tuo PRFAQ approvato all'agente PM. John produce in output dei Functional Requirements che stabiliscono che il modulo deve permettere agli utenti di fare l'upgrade del loro abbonamento, e deve fare automaticamente il downgrade degli utenti se un pagamento fallisce tre volte. Poi, John produce in output dei Non-Functional Requirements che stabiliscono che tutti gli aggiornamenti di stato dei pagamenti devono riflettersi nella dashboard dell'utente entro due secondi.
Ecco l'intuizione chiave. Nota cosa manca in quei requisiti. John non menziona Stripe, non menziona PostgreSQL e non progetta un payload API. Se il tuo PRD menziona una specifica tecnologia di database, il processo ha fallito. Il PRD blinda solo le aspettative di business.
Una volta blindato il PRD, la Fase Due passa al workflow di UX Design. Questo step prende la business logic grezza e mappa l'interazione umana. Se un Functional Requirement dice che un utente deve fare l'upgrade di un abbonamento, il workflow di UX Design detta l'esatta sequenza di schermate, pulsanti e messaggi di errore che l'utente incontrerà. Proprio come il PRD, questo workflow UX non fa alcuna scelta di frontend framework. Non gli importa se alla fine userai React o Vue. Gli importa solo dello user journey passo dopo passo.
Forzando l'agente PM a generare un PRD e un workflow UX rigorosi e agnostici rispetto alla tecnologia, crei un'ancora. I Large Language Models subiscono naturalmente un drift nel tempo. Più avanti nel progetto, i tuoi agenti di engineering saranno costretti a verificare le loro soluzioni tecniche rispetto a questi esatti FR e NFR. Se una feature non è nel PRD, gli agenti non la costruiranno.
Il PRD non è un documento di suggerimenti casuali; è un confine rigido per i tuoi agenti AI che isola completamente i tuoi bisogni di core business dall'eventuale implementazione tecnica.
Vorrei prendermi un momento per ringraziarti per l'ascolto: ci aiuta tantissimo. Buona giornata!
6
Prevenire i Conflitti tra Agenti con l'Architecture
3m 45s
La Fase 3 di Solutioning è dove vengono prese le decisioni tecniche. Discutiamo perché gli Architecture Decision Records (ADRs) espliciti sono fondamentali per impedire a più agenti AI di fare scelte tecniche contrastanti.
Ciao, questo è Alex di DEV STORIES DOT EU. Metodo BMad, episodio 6 di 15. Se assegni a due agenti IA lo sviluppo di due feature diverse senza un documento di architettura condiviso, inevitabilmente si faranno la guerra sul codice a vicenda. Prenderanno decisioni tecniche contrastanti che romperanno la tua applicazione. Il meccanismo per fermare tutto questo è la Fase 3 di Solutioning, che si concentra nello specifico sul prevenire i conflitti tra gli agenti usando l'architettura.
Gli esseri umani che lavorano a un progetto software parlano tra loro. Condividono le loro assunzioni davanti a un caffè o tramite messaggi in chat. Gli agenti IA che operano in parallelo non hanno una coscienza condivisa. Operano in context window completamente isolate. Assegna all'Agente A il task di implementare una user dashboard, e potrebbe decidere che una REST API e Redux siano la scelta migliore. Assegna all'Agente B il task di creare una pagina di user settings, e potrebbe decidere in autonomia di tirare su GraphQL e Zustand. Quando provi a fare il merge di queste due feature nel main branch, ti ritrovi davanti a un problema di integrazione enorme. Entrambi gli agenti hanno fatto esattamente quello che gli hai chiesto, ma le loro ottimizzazioni isolate hanno creato un caos sistemico.
Spesso i developer vogliono saltare la documentazione formale dell'architettura perché sembra solo overhead aziendale. Se stai buttando giù un piccolo script isolato, ci può stare. Il Metodo BMad include un Quick Flow specifico per i piccoli task che bypassa deliberatamente questa fase. Ma per i progetti complessi, saltare la fase di architettura garantisce l'agent drift. Non puoi affidarti al comportamento di default dei Large Language Model sperando che si allineino per caso sullo stesso tech stack in sessioni diverse.
Per forzare l'allineamento tecnico, il metodo usa un workflow specifico chiamato bmad create architecture. Esegui questo workflow prima ancora che venga scritta una singola riga di codice dell'applicazione. Analizza i requisiti del tuo progetto e genera degli Architecture Decision Record.
Gli Architecture Decision Record sono file di testo leggeri e strutturati. Registrano le scelte tecniche definitive per il progetto. Un record detta la libreria di state management. Un altro specifica il pattern esatto per il data fetching. Un terzo definisce il testing framework. Stabiliscono le regole rigide e inflessibili del sistema.
Ecco il punto chiave. Nel software engineering tradizionale, un Architecture Decision Record è principalmente un log storico per aiutare i nuovi developer umani a capire le scelte passate. In un sistema IA multi-agente, è un meccanismo di controllo attivo.
I Large Language Model non hanno memoria di ciò che ha deciso un altro modello, a meno che tu non inserisca esplicitamente quell'informazione nel contesto del loro prompt. Quando fai girare il workflow di architettura, i documenti risultanti vengono salvati direttamente nel repository del tuo progetto. Più tardi, quando fai il deploy dell'Agente A per creare la dashboard e dell'Agente B per creare i settings, il sistema passa questi stessi identici record decisionali a entrambi gli agenti prima che inizino a scrivere codice.
I file di architettura fungono da ground truth assoluta. L'Agente A legge il record che impone Redux e REST, e sviluppa di conseguenza. L'Agente B legge lo stesso identico record, e sviluppa anche lui con Redux e REST. I confini architetturali costringono modelli indipendenti ad agire come un team coeso. Rimuovendo il peso della scelta durante la fase di implementazione delle feature, riduci drasticamente le hallucinations e previeni dipendenze in conflitto.
I documenti di architettura in un workflow IA non sono solo note passive per gli umani; sono vincoli programmabili che costringono agenti non deterministici a costruire un sistema deterministico.
Per questo episodio è tutto. Grazie per l'ascolto, e continua a sviluppare!
7
La Costituzione del Project Context
3m 22s
Scopri come redigere il regolamento definitivo per i tuoi agenti AI utilizzando project-context.md. Questo file impone il tuo tech stack specifico, convenzioni di coding non ovvie e regole di implementazione critiche in tutti i workflow.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 7 di 15. Gli agenti IA di default usano best practice generiche, il che significa che scrivono codice che sembra una tipica risposta di Stack Overflow, non la tua codebase. Se vuoi che scrivano codice esattamente come il tuo team di senior engineer, devi imporre le tue regole. Questo è ciò che fa la Project Context Constitution.
In sostanza, si tratta di un file chiamato project-context.md. Lo metti nella root del tuo repository. Pensalo come il documento di riferimento definitivo per qualsiasi IA che interagisce con il tuo progetto. Quando un agente legge il tuo repository, carica prima questo file per comprendere i limiti non negoziabili della tua architettura.
Puoi creare questo file manualmente oppure puoi generarne uno di partenza eseguendo il comando bmad-generate-project-context nel tuo terminale. In entrambi i casi, il documento deve contenere due sezioni specifiche: il Tech Stack e le Critical Rules.
La sezione Tech Stack è semplice ma richiede precisione. Non devi limitarti a elencare React o Node. Devi specificare le versioni esatte, il paradigma di routing e le librerie di styling. Se usi Next.js con l'App Router e Tailwind, indicalo chiaramente. L'IA usa queste informazioni per filtrare i suoi vasti training data fino ad arrivare alla sintassi specifica richiesta dal tuo progetto.
Ora, la seconda parte è la sezione Critical Rules. Fai molta attenzione a questo punto. Un errore molto comune che fanno i developer è riempire questa sezione con consigli generici come scrivi clean code o usa i principi DRY. Non farlo. L'IA conosce già il clean code generico. Devi scrivere i pattern meno ovvi e specifici del progetto, che l'agente non potrebbe mai indovinare da solo.
È qui che stabilisci delle rigide leggi architetturali. Ad esempio, scrivi una regola che impone la strict mode di TypeScript per ogni nuovo file. Istruisci l'agente che tutti gli integration test devono usare Mock Service Worker. Cosa ancora più importante, puoi vietare determinati comportamenti. Se il tuo progetto ha un API client singleton custom, scrivi esplicitamente una regola che dice di non usare mai direttamente la fetch nativa o Axios, ma di importare sempre l'API client custom dalla cartella delle network utility.
Quando l'IA genera una nuova feature, confronta il suo output con queste regole. Poiché il project context si trova in cima alla gerarchia del prompt, queste istruzioni sovrascrivono le tendenze di base dell'IA. Se un agente tenta di scrivere una API fetch diretta, la Project Context Constitution lo obbliga a riscrivere quella logica usando il tuo custom wrapper prima ancora di generare il codice in output.
L'obiettivo di questo file non è insegnare all'IA a programmare, ma insegnarle a programmare qui, in questo specifico repository.
Se apprezzi questi episodi e vuoi supportare il podcast, puoi cercare DevStoriesEU su Patreon. Vorrei prendermi un momento per ringraziarti per l'ascolto: ci aiuta tantissimo. Buona giornata!
8
Suddividere il Lavoro e il Gate Check
3m 23s
Concludiamo la Fase 3 traducendo l'architettura in unità di lavoro implementabili. Scopri come gli agenti PM e Architect collaborano per creare Epic e Story, e perché il controllo di Implementation Readiness non è negoziabile.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 8 di 15. Prima di lasciare che un'IA scriva centinaia di righe di codice, c'è un passaggio fondamentale che devi eseguire per evitare uno sprint disastroso. Questo passaggio è il Breaking Work Down e il Gate Check.
In questa fase del workflow, hai un Product Requirements Document finalizzato e un Architecture design completo. Ora ti servono i ticket. È qui che entra in gioco l'agente Project Manager. Il suo compito è eseguire il processo di creazione di Epic e User Story. L'agente PM legge il documento dei requisiti, ma non opera nel vuoto. Incrocia queste esigenze di business con i vincoli definiti nella documentazione della tua architettura.
L'agente PM traduce le feature di alto livello in Epic. Poi suddivide questi Epic in User Story specifiche e realizzabili. Scrive i criteri di accettazione e il contesto tecnico per ogni task. Consultando i documenti di architettura, il PM si assicura che i data model e le interazioni tra i componenti richiesti dalla story esistano effettivamente nel piano tecnico. Questo garantisce che ogni ticket soddisfi un reale requisito di business, rispettando rigorosamente i limiti del system design. L'output di questo passaggio è un backlog completamente popolato.
Ecco il punto chiave. Una volta che il backlog esiste, la tentazione di iniziare subito a generare codice è fortissima. Le persone di solito saltano il passaggio successivo per pura impazienza. Vogliono vedere del software funzionante, quindi passano i nuovi ticket direttamente allo sviluppo. Non farlo. Saltare il readiness check è il modo in cui finisci per bruciare costosi token API su codice che non può essere integrato.
Ecco perché l'agente Architect interviene di nuovo per eseguire la fase di check implementation readiness. Questa è la tua rete di sicurezza definitiva. Funziona come un rigoroso gate check prima che inizi qualsiasi programmazione. L'Architect legge ogni singolo Epic e User Story generati dal PM e li valida direttamente rispetto all'architettura.
L'Architect cerca prerequisiti tecnici mancanti, contraddizioni architetturali o assunzioni implicite. Verifica che ogni struttura dati menzionata in una story abbia un database schema corrispondente. Controlla che i service endpoint necessari siano effettivamente definiti. Considera uno scenario specifico. Esegui il gate check e l'Architect segnala un Epic per una nuova feature di notifica utente. Il ticket presuppone l'utilizzo di una specifica API di messaggistica di terze parti. Tuttavia, l'Architect fa notare che questa integrazione non è mai stata discussa o approvata negli Architecture Decision Record. Il gate check blocca immediatamente il processo. Hai appena risparmiato ore di tempo di sviluppo sprecato cercando di creare una feature basata su una dipendenza non approvata o non documentata.
Questa collaborazione tra esigenze di business e realtà tecnica è il fulcro di questa fase. L'agente PM definisce il lavoro in base a ciò che l'utente richiede. L'agente Architect verifica il lavoro in base a ciò che il sistema può effettivamente supportare. Vai avanti solo quando l'Architect dà la sua approvazione, dimostrando che il backlog è completamente implementabile. Un product requirement perfetto è completamente inutile se l'architettura di sistema sottostante non può supportarlo, e questo gate check è l'unica prova oggettiva che i tuoi ticket sono effettivamente pronti per lo sviluppo.
Questo è tutto per questo episodio. Grazie per l'ascolto e continua a sviluppare!
9
Il Build Cycle e lo Sprint Tracking
3m 28s
La Fase 4 è dove viene scritto il codice. Analizziamo il disciplinato Build Cycle: inizializzare lo sprint planning, creare story atomiche, implementarle con il DEV agent e condurre rigorose code review.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 9 di 15. Non puoi semplicemente dire a un'IA di creare un'applicazione. Se chiedi a un modello linguistico di implementare un'intera feature di prodotto o un Epic in una sola volta, otterrai una logica incompleta, file mancanti e un groviglio di codice. Per ottenere un output production-grade dall'IA, devi imporre la stessa identica disciplina che ti aspetti da un team di engineering umano altamente performante. Oggi vediamo il Build Cycle e lo Sprint Tracking, ovvero il loop meccanico e disciplinato per eseguire l'implementazione della fase quattro.
L'errore più grande che i developer commettono con i tool di IA è chiedere troppo in una volta sola. Il Build Cycle si basa interamente su un'esecuzione rigorosa, una story alla volta. Tieni traccia dello state, prendi in carico una singola story, la esegui, la validi e aggiorni il tuo state. Questo processo richiede personas distinte che gestiscono parti specifiche della pipeline, assicurando che non si perda context e che lo scope non si gonfi.
Il loop inizia con lo sprint planning. Esegui il prompt bmad sprint planning, che genera un file chiamato sprint status yaml. Questo file è la tua source of truth assoluta. Elenca esplicitamente ogni story nel tuo sprint corrente e segna il suo status come pending, in progress o done. Questo documento mantiene l'IA ancorata alla realtà. Impedisce al modello di avere allucinazioni sui progressi o di dimenticare le dipendenze, perché l'IA deve leggere costantemente questo file per capire lo state attuale del progetto.
Una volta pianificato il tuo sprint, avvii l'execution loop. Per prima cosa, coinvolgi la persona dello Scrum Master, Bob, usando il prompt bmad create story. Dici a Bob di guardare il file sprint status yaml e di prendere il primo item pending. Bob non scrive alcun codice applicativo. Invece, genera un file markdown altamente focalizzato, dedicato esclusivamente a quella singola user story. Questo documento delinea gli acceptance criteria specifici, i vincoli tecnici e i test scenario necessari per completare il task.
Successivamente, passi quel file della story isolato alla persona Developer, Amelia. Usi il prompt bmad dev story per avviare questo step. Amelia legge il file della story, analizza la codebase attuale e implementa la logica. Dato che il suo context è artificialmente ristretto solo alle istruzioni di Bob e ai file applicativi rilevanti, non riscriverà accidentalmente moduli non correlati e non uscirà dallo scope del task immediato.
Dopo che Amelia ha scritto il codice, la story non è ancora done. Invochi il prompt bmad code review. Questo funge da quality gate automatizzato. Il processo di review verifica il codice di Amelia rispetto ai rigorosi acceptance criteria definiti nel file della story di Bob. Fa emergere edge case mancanti, difetti di logica o incongruenze di formattazione. Correggi eventuali problemi trovati durante questa review. Solo quando il codice passa il controllo aggiorni il file sprint status yaml, cambiando manualmente la story da in progress a done. Poi, torni da Bob per prendere il prossimo item pending.
Ecco il punto chiave. La forza di questo loop non sta nella generazione del codice in sé, ma nella rigorosa separation of concerns che costringe l'IA a pianificare, eseguire e fare la review come step distinti e isolati. Questo è tutto per questo episodio. Grazie per l'ascolto, e continua a sviluppare!
10
Il Quick Dev Track per Modifiche Zero-Blast
3m 37s
Quando il processo agile completo in 4 fasi è eccessivo, il Quick Dev track è il tuo migliore amico. Scopri come bmad-quick-dev comprime intenti disordinati in una spec pulita, esegue in autonomia e gestisce le proprie review.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 10 di 15. A volte, l'intero processo agile è overkill per un fix localizzato. Hai un bug report disordinato su Jira e vuoi solo che venga fixato e revisionato senza verificare manualmente ogni step. Ecco come passare da quel ticket grezzo a una pull request revisionata in un singolo run autonomo, usando la Quick Dev Track per le modifiche Zero-Blast.
Spesso vedi il Quick Dev solo come un generico prompt di codice in cui lanci un ticket a un Large Language Model e speri in bene. Non è così. Il Quick Dev isola esplicitamente l'intent clarification dall'execution. Dà al sistema un confine rigido entro cui lavorare, invece di mischiare la definizione del problema direttamente nello step di code generation.
La track agile standard si basa pesantemente su checkpoint rigidi. Ti fermi, verifichi il piano, verifichi i test e verifichi l'implementazione. Il Quick Dev elimina questi checkpoint. Si fida di più del modello e risparmia la tua attenzione umana per i momenti ad alto impatto. Usi questa track solo per modifiche con blast radius a zero. Meccanicamente, questo significa che le modifiche devono essere isolate a un singolo component o function. La modifica non può alterare le interfacce pubbliche, modificare i database schema o riscrivere utility function condivise usate da altri domini. Se una modifica tocca il core state management, appartiene alla track standard.
Considera lo scenario in cui passi un link di un bug ticket di Jira frammentato nel tool bmad-quick-dev. La prima cosa che il sistema esegue è l'intent compression. Legge i commenti sparsi, gli steps to reproduce e le lamentele dell'utente. Forza il modello a risolvere le contraddizioni prima di toccare qualsiasi codice. Se il ticket ha istruzioni in conflitto, lo step di compressione le sintetizza in un singolo goal definitivo. Questo output è in plain text, e definisce esattamente cosa comporta il fix e, cosa fondamentale, quali sono i confini del fix.
Ecco il punto chiave. Poiché l'intento ora è compresso e isolato, la fase di execution autonoma ha una specifica rigorosa da seguire. Il sistema scrive il fix, genera o aggiorna i test localizzati e fa una self-review contro quell'intento compresso iniziale. Fa un loop continuo attraverso questi step. Ti allontani mentre lavora, e torni trovando una pull request finita.
Il Quick Dev è veloce, ma quando un run autonomo fallisce, devi diagnosticare accuratamente i layer di errore. Guardi dove si è rotto il processo. Se il codice finale risolve un problema completamente sbagliato, il fallimento è avvenuto al layer di intent compression. Probabilmente il ticket Jira era troppo ambiguo, portando il modello ad allucinare il goal. Risolvi la cosa riscrivendo l'input iniziale. Se l'intento è corretto ma i nuovi test falliscono o la build si rompe, il fallimento è nell'execution layer. Risolvi i fallimenti di execution dando un nudge al modello per riprovare quello specifico logic block.
Se l'execution layer fallisce due volte di fila, il problema non è più il prompt. Il blast radius della modifica era semplicemente più grande di quanto pensassi all'inizio, e devi tornare alla track standard con i checkpoint. L'autonomia funziona solo quando il confine del task è più piccolo della context window del modello che lo risolve.
Questo è tutto per questo episodio. Grazie per l'ascolto, e continua a sviluppare!
11
Onboarding di Codebase Esistenti
4m 13s
BMad non è solo per progetti greenfield. Trattiamo le strategie per inserire il framework in enormi legacy codebase non documentate utilizzando la context discovery e un cleanup strategico.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 11 di 15. La maggior parte dei framework di programmazione AI dà per scontato che tu parta da una directory completamente vuota. Vogliono generare lo scaffolding, dettare l'architettura e controllare l'intero processo fin dal primo giorno. Ma quando inserisci un agent AI in un enorme monolith Rails di cinque anni con naming convention non documentate, quell'approccio da tabula rasa rompe tutto. L'onboarding di codebase esistenti è il modo in cui fai funzionare BMad con quello che hai già.
Un'assunzione frequente che fanno i developer è che BMad sia esclusivamente per lo sviluppo greenfield. Questo è sbagliato. BMad non ti forza a fare un rewrite né impone una struttura esterna. È progettato per adattarsi, rispettando e scoprendo la tua architettura esistente per integrarsi in modo pulito. Tuttavia, fare l'ingestion di un repository esistente richiede un workflow specifico per evitare che l'AI adotti il tuo technical debt.
Il primissimo passo è fare pulizia degli artefatti. I modelli AI sono essenzialmente motori avanzati di pattern matching. Se li punti verso un repository pieno di blocchi di codice commentati, chiamate API deprecate e file naming incoerente, l'agent darà per scontato che quelli siano gli standard accettati. Prima di introdurre l'agent, devi rimuovere il dead code, applicare le tue regole di linting e assicurarti che la tua test suite passi effettivamente. Stai definendo lo standard di base. Più pulito è lo stato di input, meglio l'agent si allineerà alle tue reali intenzioni.
Una volta che il repository è pulito, lo mappi usando un comando chiamato bmad-generate-project-context. È qui che avviene l'adattamento. Invece di scrivere a mano pagine di documentazione su come è strutturata la tua applicazione, lanci questo tool per scansionare i tuoi pattern legacy. Pensa a quel monolith Rails di cinque anni. Il generatore di contesto legge il file tree, fa il parsing delle astrazioni e deduce le tue regole non documentate. Determina se il tuo team preferisce fat model o service object. Analizza la tua directory di test per vedere come fai il mock delle chiamate al database.
Prende tutte queste deduzioni e le scrive in un documento di contesto centralizzato. Questo file diventa il prompt fondamentale per l'AI. Quando chiedi all'agent di sviluppare una nuova feature, legge prima questo contesto. Comprende l'architettura esistente e genera codice che sembra scritto esattamente da un senior engineer del tuo team.
Con il contesto generato, scegli come applicare gli update usando il Quick Dev o il Full Method. La tua scelta dipende interamente dalla complessità del task. Se stai fixando un bug localizzato o aggiungendo un singolo query parameter a un endpoint esistente, usa il Quick Dev. L'agent legge il tuo file di contesto, applica la patch mirata, la verifica con i tuoi test locali ed esce. È un'operazione rapida e a basso overhead.
Ora, la seconda parte gestisce gli update complessi. Se devi sviluppare un modulo di billing completamente nuovo all'interno di quel monolith, passi al Full Method. L'agent sfrutterà il file di contesto per scrivere prima un design document completo. Descrive come il nuovo modulo interagirà con i tuoi componenti esistenti. Scrive failing test che corrispondono al tuo stile di testing legacy, implementa la business logic e itera finché i test non passano. Il framework scala il suo rigore in base a ciò che il task richiede.
Ecco il punto chiave. Il successo di un agent AI in un repository legacy dipende interamente dalla qualità dei pattern che rileva, il che significa che una rigorosa pulizia iniziale e un file di contesto accurato sono le uniche cose che si frappongono tra l'aggiunta fluida di una feature e il caos architetturale.
Vorrei prendermi un momento per ringraziarti per l'ascolto — ci aiuta tantissimo. Buona giornata!
12
Comandare gli Agenti: Skills vs Triggers
3m 45s
Capire come interagire con il sistema è fondamentale. Analizziamo la differenza tra le IDE Skills che avviano workflow rigidi e gli Agent Menu Triggers che ti permettono di conversare dinamicamente con le personas AI.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 12 di 15. Apri il terminale, digiti un comando per formattare il codice e ricevi un errore completamente generico. Stai cercando di usare un comando interno dell'agente, ma l'agente non è ancora in esecuzione. Esistono due modi distinti per comandare la tua forza lavoro IA, e confonderli è il punto di attrito più comune nel sistema. Oggi parliamo di come comandare gli agenti: Skill contro Trigger.
La prima categoria sono le Skill. Pensa alle Skill come ai tuoi entry point globali. Sono i comandi che digiti nel terminale del tuo IDE o da riga di comando per lanciare un'azione da zero. Quando digiti bmad-help o lanci uno script di avvio specifico per un agente dal tuo IDE, stai usando una Skill. Inizializza l'ambiente. Carica il contesto necessario. Porta l'agente online. Le Skill vivono al di fuori della conversazione con l'agente. Sono i meccanismi che accendono il motore.
Questo ci porta alla trappola più comune. Una volta che il motore gira e stai chattando con un agente, le regole cambiano. Smetti di usare le Skill e inizi a usare i Trigger. Un Trigger è un breve codice digitato direttamente in una sessione di chat attiva per comandare un agente che è già in ascolto. Se digiti un trigger del menu dell'agente nel tuo terminale standard, il sistema non ha idea di cosa tu intenda. Se provi a lanciare una Skill dell'IDE dall'interno di una chat con l'agente, fallisce. Il confine è assoluto. Le Skill avviano la sessione. I Trigger controllano la sessione attiva.
Una volta all'interno della chat, i Trigger si dividono in due categorie: Workflow Trigger e Conversational Trigger. I Workflow Trigger lanciano sequenze rigide e predefinite. Digiti il trigger, l'agente esegue uno specifico processo multi-step passo dopo passo, restituisce l'output e la sequenza termina.
I Conversational Trigger sono molto più fluidi. Ti permettono di fare task-switching dinamico senza rompere la persona dell'agente. Rimani nella chat, ma cambi il focus attivo.
Prendi uno scenario concreto. Hai bisogno di nuova documentazione. Inizi usando una Skill dell'IDE per lanciare Paige, l'agente Technical Writer. La Skill avvia Paige, e lei ti chiede di cosa hai bisogno. Ora è attiva. Ora, invece di scrivere un prompt enorme per spiegare che ti serve un tipo specifico di documento formattato in un certo modo, digiti semplicemente il Conversational Trigger W D nel prompt della chat attiva. Questo sta per Write Docs. Paige passa immediatamente alla sua modalità predefinita di stesura della documentazione. Ti chiede le tue note grezze, le elabora e genera il testo.
Leggi il testo e ti rendi conto che ti serve un diagramma dell'architettura da allegare. Non chiudi la chat. Non lanci una nuova Skill dal terminale. Digiti semplicemente un altro Conversational Trigger, M G, che sta per Mermaid Graph. Paige cambia direzione all'istante. Rimane nel personaggio della tua Technical Writer, mantiene il contesto del documento che ha appena scritto e genera il codice del diagramma Mermaid corrispondente. Stai indirizzando dinamicamente le sue capacità al volo, senza mai perdere il contesto.
Ecco il punto chiave. Il vero potere di questo sistema duale non è solo avere meno cose da digitare, ma mantenere un contesto persistente e intelligente mentre cambi all'istante la modalità operativa interna di un agente.
Per questo episodio è tutto. Grazie per l'ascolto, e continua a sviluppare!
13
Adversarial Review e Edge Case Hunting
3m 59s
È ora di smettere di lasciare che l'AI sia educata. Esploriamo due potenti Core Tools: un adversarial reviewer profondamente cinico che cerca ciò che manca, e un edge-case hunter meccanico che mappa le boundary condition non gestite.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 13 di 15. Probabilmente le tue code review con l'IA sono fin troppo indulgenti. Quando chiedi semplicemente a un modello di cercare bug, ti fornisce suggerimenti gentili e controlli di sintassi generici. Per trovare difetti catastrofici, hai bisogno di motori diagnostici specializzati e opinionated. Questo episodio tratta proprio di questo: Adversarial Review ed Edge Case Hunting.
Spesso si considera la code review con l'IA come un singolo passaggio general-purpose. Dai in pasto un diff a un modello e speri che trovi tutto. Raramente funziona bene. Un prompt generico non ha un modello mentale specifico, e questo porta a un feedback superficiale. La metodologia BMad risolve questo problema utilizzando personas specializzate e con uno scope ben definito. Analizzeremo due tool di review distinti che operano con metodologie completamente diverse.
Innanzitutto, consideriamo l'adversarial reviewer. Questo tool è guidato dall'attitudine ed è estremamente scettico. Non si fida del tuo codice, della tua infrastruttura o dei tuoi utenti. Dà per scontato che la tua implementazione sia fondamentalmente rotta e cerca attivamente modi in cui può essere exploitata. Ignora completamente le scelte stilistiche, il naming delle variabili o le piccole ottimizzazioni di performance. Al contrario, va a caccia esclusivamente di falle nella business logic, privilege escalation e assunzioni di trust violate. L'adversarial reviewer esamina i perimetri della tua API e si chiede come un malintenzionato potrebbe bypassare il flusso previsto. Legge il tuo codice con profondo cinismo, trattando ogni input come un potenziale vettore di attacco e ogni data boundary come una debolezza.
Poi abbiamo l'edge case hunter. Questo tool opera con una personalità diametralmente opposta. È matematicamente freddo, privo di contesto e interamente meccanico. Non gli importa degli utenti malintenzionati o degli intenti di business. Esegue invece un rigoroso path-tracing. Costruisce mentalmente un control flow graph del tuo codice e segue ogni singolo branch fino alla sua conclusione logica. L'edge case hunter si concentra esclusivamente su mutazioni di stato, boundary conditions e tipi di dato. Cerca i path di esecuzione oscuri che causano silent failure, memory leak o eccezioni non gestite.
Per vedere la differenza, applica entrambi i tool a un singolo frammento di codice, come ad esempio un diff di autenticazione complesso. Passi prima questo codice all'adversarial reviewer. Dato che opera con cinismo, ignora la sintassi meccanica e individua un vincolo di business logic mancante. Nota che, sebbene il token di autenticazione sia validato correttamente, il sistema si fida implicitamente del ruolo utente incorporato in quel token senza controllare il database live. L'adversarial reviewer la segnala come una vulnerabilità critica di trust.
Ora passi esattamente lo stesso diff di autenticazione all'edge case hunter. Questo tool ignora completamente la logica di trust del token. Invece, tramite una derivazione meccanica dei path, traccia il ciclo di vita di ogni variabile. Trova una funzione di validazione profondamente annidata a cui manca un type check esplicito. Segnala una type coercion implicita non gestita. Se il payload di input contiene un oggetto null invece di una string in quello specifico indice, l'applicazione lancerà un'eccezione non gestita e andrà in crash.
Ecco il punto chiave. Non usi questi tool per individuare errori di battitura. Li usi per forzare due framework analitici distinti sulla tua codebase. Uno attacca le tue assunzioni sul trust di sistema e sul comportamento umano. L'altro attacca le tue assunzioni sui path di esecuzione e sugli stati dei dati. Separando l'attaccante cinico dal path-tracer meccanico, smetti di affidarti alla ricerca generica di bug e inizi a esporre vulnerabilità strutturali profonde prima ancora che arrivino in produzione.
Grazie per averci seguito. Alla prossima!
14
Gestire il Context: Distillation e Sharding
3m 26s
Gli LLM soffrono di context blindness quando vengono alimentati con documenti enormi. Scopri come BMad risolve questo problema utilizzando la distillation lossless per comprimere il testo in token densi e il document sharding fisico per frammentare i monoliti.
Ciao, sono Alex di DEV STORIES DOT EU. BMad Method, episodio quattordici di quindici. Se dai in pasto un documento di cinquanta pagine direttamente a un Large Language Model, questo soffrirà quasi immediatamente di context blindness. Perderà i dettagli a metà del testo, avrà delle allucinazioni sui fatti e degraderà la sua capacità di ragionamento. Per risolvere questo problema, ti serve un trucco di compressione lossless. Oggi parliamo di gestione del context: Distillation e Sharding.
Molti developer pensano che la distillation sia solo un riassunto. Ma non è così. La summarization scarta intenzionalmente dei dati per dare a un essere umano una panoramica veloce. La distillation è un processo di compressione lossless e verificabile. Ecco il punto chiave. Il tool di distillation prende la prosa umana prolissa, elimina le transizioni, gli aggettivi e i riempitivi colloquiali, e la converte in un formato a elenchi puntati ad altissima densità. Questo formato è pensato esclusivamente per il machine reading. Mantieni ogni singolo fatto, ma abbassi drasticamente il token count.
Prendi quel massiccio whitepaper tecnico di cinquanta pagine. Se lo passi nel tool di distillation, puoi ottenere un compression ratio di circa tre virgola due a uno. La dimensione complessiva del payload crolla di oltre due terzi, eppure il modello mantiene l'accesso a ogni specifica tecnica e decisione architetturale. L'IA legge i raw data più velocemente ed elabora la logica con maggiore precisione, senza affogare in paragrafi formattati per gli umani.
Questo gestisce la densità del testo, ma il volume complessivo potrebbe essere ancora troppo grande per entrare in modo pulito nel context di un singolo prompt. È qui che entra in gioco il tool di shard document. Lo sharding spezza meccanicamente il tuo whitepaper distillato in file di testo più piccoli e standalone, basandosi su confini logici come capitoli o sezioni distinte. Lanci il comando di shard, lo punti verso il tuo documento pesante, e lui ti restituisce in output una sequenza numerata di file leggeri. Invece di forzare l'IA a tenere l'intero whitepaper nella working memory, ora hai dei pezzi modulari.
Una volta che hai venti file shard in una directory, il sistema ha bisogno di un modo per navigarli. Gestisci questa cosa con il tool di index documents. Punti il comando di index verso la cartella che contiene i tuoi nuovi shard. Il tool scansiona la directory e genera un singolo file master index. Questo file master funge da mappa di routing, elencando ogni shard insieme a una breve descrizione di cosa contiene.
In pratica, per prima cosa dai in pasto questo index leggero al language model. Il modello legge la mappa, determina quale capitolo specifico contiene le informazioni necessarie per rispondere a un prompt, e poi richiede solo quello specifico shard. Il ragionamento rimane lucido perché la context window resta interamente focalizzata sui dati rilevanti.
La cosa più utile da ricordare qui è che una context window enorme non è una scusa per buttare raw file in un prompt. Strutturare i tuoi input attraverso la distillation meccanica e gli shard indicizzati forza il modello a leggere sistematicamente invece di scansionare alla cieca.
Se trovi utili questi episodi e vuoi supportare lo show, puoi cercare DevStoriesEU su Patreon. Questo è tutto per questo episodio. Grazie per l'ascolto, e continua a sviluppare!
15
Elicitation Avanzata e Party Mode
4m 27s
Nel finale della nostra serie, esploriamo tecniche per power-user. Scopri come costringere gli LLM a ripensare al proprio output utilizzando framework di structured reasoning e come orchestrare dibattiti multi-agente con la Party Mode.
Ciao, sono Alex di DEV STORIES DOT EU. Metodo BMad, episodio 15 di 15. Non chiedere mai a un modello linguistico di migliorare semplicemente qualcosa. Richieste vaghe producono revisioni pigre e generiche. Se vuoi dei miglioramenti strutturali, devi forzare il modello in un framework di ragionamento rigido, o meglio ancora, generare tre diverse personas IA e osservarle mentre discutono dei difetti. Questo è esattamente il dominio dell'Advanced Elicitation e del Party Mode.
Una trappola comune quando affini gli output, come un Product Requirements Document appena generato, è inviare un prompt al modello per fargli rivedere e migliorare il proprio lavoro. I modelli linguistici sono progettati per essere utili e accondiscendenti. Quando chiedi un miglioramento generico, di solito il modello modifica alcuni aggettivi, ristruttura una frase e te la restituisce. Non riscriverà la logica di base. L'Advanced Elicitation risolve questo problema applicando modelli mentali formali e riconosciuti all'output dell'IA. Smetti di chiedere un feedback generico. Invece, istruisci il modello a eseguire uno specifico framework cognitivo.
Prendi ad esempio l'analisi Pre-mortem. Dai in pasto al modello il tuo documento dei requisiti appena generato. Lo istruisci a presumere che il progetto sia stato sviluppato, lanciato, e che sia un fallimento totale e catastrofico. Il modello deve quindi procedere a ritroso per diagnosticare con precisione cosa ha causato il fallimento, basandosi esclusivamente sul documento attuale. Poiché hai vincolato il prompt a uno specifico stato di fallimento, il modello aggira i suoi guardrail di cortesia e cerca aggressivamente le lacune logiche. Un altro framework potente è l'Inversion. Invece di chiedere come rendere sicura una migrazione del database, chiedi al modello di delineare i passaggi esatti necessari per garantire la massima perdita di dati durante la migrazione. I framework di ragionamento con un nome specifico producono risultati di gran lunga superiori, perché costringono il modello a uscire dai suoi percorsi di generazione del testo di default, altamente probabili, per entrare in percorsi analitici altamente specifici.
Una volta identificati questi fallimenti garantiti, devi progettare il fix. Potresti chiedere a una singola persona di risolvere il problema, ma i problemi architetturali complessi richiedono tensione. Questo ci porta al Party Mode. Il tool Party Mode orchestra una discussione di gruppo multi-agente. Non interagisci più con un singolo assistente. Configuri una stanza virtuale piena di personas specifiche e specializzate, passi loro il problema e fai un passo indietro per lasciarle discutere.
Ecco il flusso logico. Lanci il tool Party Mode e definisci i tuoi partecipanti. Potresti istanziare un Senior Solutions Architect, un Security Engineer paranoico e un Frontend Developer pragmatico. Passi loro le vulnerabilità scoperte durante la tua analisi Pre-mortem. Il tool gestisce quindi il loop di conversazione in modo autonomo. L'Architect propone un fix robusto e complesso. Il tool passa quell'output al Security Engineer, che attacca la proposta cercando potenziali vettori di exploit. Il tool passa poi il contesto al Developer, che si lamenta della complessità di implementazione e suggerisce un approccio più semplice. Iterano su questi argomenti, sfidandosi a vicenda senza il tuo intervento, finché non raggiungono un consenso o un limite di turni definito. Osservi il dibattito ed estrai la soluzione finalizzata e battle-tested dalla trascrizione.
Questo approccio ti trasforma da scrittore di prompt a regista di motori di ragionamento. Usi l'Advanced Elicitation per smontare sistematicamente le tue idee, e il Party Mode per ingegnerizzare la ricostruzione attraverso l'attrito sintetico. Il cambiamento più prezioso nel lavorare con i modelli linguistici è rendersi conto che il disaccordo ingegnerizzato produce sempre un'architettura tecnica migliore rispetto a un'immediata e cortese accondiscendenza. Dato che questo è l'ultimo episodio della serie, ti incoraggiamo vivamente a leggere la documentazione ufficiale del BMad, a provare a orchestrare questi dibattiti in modo hands-on, o a visitare devstories dot eu per suggerire argomenti per la nostra prossima serie. Vorrei prendermi un momento per ringraziarti per l'ascolto: ci aiuta tantissimo. Buona giornata!
Tap to start playing
Browsers block autoplay
Share this episode
Episode
—
Copy this episode in another language:
Questo sito non utilizza cookie. Il nostro fornitore di hosting potrebbe registrare il tuo indirizzo IP a fini statistici. Scopri di più.