v6.2 — Edición 2026. Una guía exhaustiva del BMad Method, un framework de desarrollo impulsado por IA. Aprende a utilizar su metodología agile de 4 fases, aprovechar los AI agents especializados, gestionar el contexto del proyecto y utilizar herramientas de power-user para orquestar proyectos de software complejos.
Exploramos la filosofía central detrás del BMad Method: el Context Engineering. Descubre cómo dividir el desarrollo en Analysis, Planning, Solutioning e Implementation asegura que los AI agents siempre sepan qué construir y por qué.
3m 45s
2
La Guía Inteligente y la Instalación
Aprende cómo empezar con el BMad Method sin memorizar comandos complejos. Cubrimos el proceso de instalación, los directorios del workspace generados y cómo usar bmad-help como tu navegador de proyectos inteligente.
4m 00s
3
Forjando Ideas con el Brainstorming de IA
Descubre el verdadero poder de la IA en la fase de Análisis. En lugar de pedir una lista de ideas, aprende cómo el workflow bmad-brainstorming actúa como un coach creativo, extrayendo conceptos únicos de ti mediante protocolos anti-sesgo.
3m 47s
4
El Desafío del PRFAQ vs El Product Brief
Antes de escribir un Product Requirements Document, necesitas una base. Comparamos el descubrimiento suave de un Product Brief con el riguroso stress-test de un PRFAQ al estilo Working Backwards de Amazon.
4m 12s
5
Asegurando el PRD
Avanzando hacia la Fase 2, exploramos cómo el Product Manager agent convierte ideas en bruto en un Product Requirements Document estructurado. Aprende cómo la aplicación estricta de requisitos funcionales y no funcionales protege tu proyecto.
4m 23s
6
Previniendo Conflictos entre Agentes con la Arquitectura
La Fase 3 de Solutioning es donde se toman las decisiones técnicas. Discutimos por qué los Architecture Decision Records (ADRs) explícitos son críticos para evitar que múltiples AI agents tomen decisiones técnicas contradictorias.
4m 32s
7
La Constitución del Project Context
Aprende a redactar el manual de reglas definitivo para tus AI agents utilizando project-context.md. Este archivo impone tu tech stack específico, convenciones de código no obvias y reglas de implementación críticas en todos los workflows.
4m 15s
8
Desglosando el Trabajo y el Gate Check
Concluimos la Fase 3 traduciendo la arquitectura en unidades de trabajo implementables. Descubre cómo los agentes PM y Architect colaboran para crear Epics y Stories, y por qué el check de Implementation Readiness es innegociable.
4m 01s
9
El Build Cycle y el Seguimiento de Sprints
La Fase 4 es donde se escribe el código. Desglosamos el disciplinado Build Cycle: inicializar el sprint planning, crear stories atómicas, implementarlas con el DEV agent y llevar a cabo rigurosas code reviews.
4m 05s
10
El Quick Dev Track para Cambios Zero-Blast
Cuando el proceso agile completo de 4 fases es excesivo, el Quick Dev track es tu mejor amigo. Aprende cómo bmad-quick-dev comprime una intención desordenada en una spec limpia, se ejecuta de forma autónoma y gestiona sus propias revisiones.
3m 49s
11
Onboarding de Codebases Establecidos
BMad no es solo para proyectos greenfield. Cubrimos las estrategias para introducir el framework en legacy codebases masivos e indocumentados utilizando el context discovery y la limpieza estratégica.
4m 27s
12
Comandando Agentes: Skills vs Triggers
Entender cómo interactuar con el sistema es crucial. Desglosamos la diferencia entre las IDE Skills que lanzan workflows rígidos, y los Agent Menu Triggers que te permiten conversar dinámicamente con las AI personas.
3m 44s
13
Adversarial Review y Búsqueda de Edge Cases
Es hora de dejar de permitir que la IA sea educada. Exploramos dos potentes Core Tools: un adversarial reviewer profundamente cínico que busca lo que falta, y un edge-case hunter mecánico que mapea las boundary conditions no controladas.
4m 28s
14
Gestionando el Contexto: Distillation y Sharding
Los LLMs sufren de context blindness cuando se les alimentan documentos masivos. Aprende cómo BMad soluciona esto utilizando lossless distillation para comprimir el texto en tokens densos, y el document sharding físico para dividir monolitos.
4m 04s
15
Elicitation Avanzada y Party Mode
En el final de nuestra serie, exploramos técnicas de power-user. Aprende cómo obligar a los LLMs a replantearse su propio output utilizando frameworks de structured reasoning, y cómo orquestar debates multi-agente con el Party Mode.
4m 47s
Episodios
1
Context Engineering y las 4 Fases
3m 45s
Exploramos la filosofía central detrás del BMad Method: el Context Engineering. Descubre cómo dividir el desarrollo en Analysis, Planning, Solutioning e Implementation asegura que los AI agents siempre sepan qué construir y por qué.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 1 de 15. La mayoría de los asistentes de código por IA fallan al tercer día porque olvidan por qué escribieron el código el primer día. Acabas con un desastre de scripts aislados que no encajan entre sí. Para solucionar esto, no necesitas un mejor prompt, necesitas Context Engineering y las cuatro fases.
Un error común es tratar el método BMad como un simple generador de código. No lo es. Es un pipeline ágil de Context Engineering. Si simplemente le pides a un agente de IA que desarrolle una feature, intentará adivinar los límites. BMad evita esto construyendo y fijando progresivamente el contexto a lo largo de cuatro fases distintas. El agente nunca pierde el hilo porque cada fase le pasa reglas estrictas y documentadas a la siguiente.
Pongamos el ejemplo de crear una aplicación SaaS. Si saltas directamente al código, la IA podría elegir una base de datos que incumpla tus requisitos de residencia de datos. El Context Engineering evita eso.
El pipeline empieza con la fase de Análisis. Aquí, la IA actúa como Business Analyst. Procesa tus ideas en bruto y genera un Documento de Requisitos del Producto. Esta fase fija las restricciones principales. Captura los user personas, las reglas de compliance y los workflows principales. El documento resultante se convierte en la base de todo lo demás.
La siguiente es la fase de Planificación. El agente pasa al rol de Product Owner. Coge el documento de requisitos y lo desglosa en Epics y User Stories. Los requisitos abstractos se convierten en elementos discretos y accionables. El contexto se acota. La IA ya no piensa en todo el producto, solo en unidades entregables específicas mapeadas a un timeline claro.
Aquí es donde la cosa se pone interesante. La tercera fase es el Solutioning. La IA asume el rol de Arquitecto. Analiza las User Stories de la fase de Planificación y las restricciones de la fase de Análisis para crear el diseño técnico. Decide los modelos de datos, los endpoints de la API y las estructuras de carpetas. Para tu aplicación SaaS, las restricciones de negocio definidas en la primera fase le indican al Arquitecto en la tercera fase cuáles son los límites exactos. Esto asegura que la arquitectura elegida realmente encaje con las reglas de negocio originales.
Finalmente, llegamos a la fase de Implementación. Ahora la IA asume el rol de Desarrollador. El agente Desarrollador no necesita adivinar la arquitectura ni preguntarse por la lógica de negocio. Recibe el plano técnico exacto del Arquitecto. Escribe el código para completar una User Story específica, siguiendo los modelos de datos y las rutas de archivos exactas definidas en el paso anterior.
Esta cadena de contexto es la clave de todo. La información fluye en cascada a través de documentación persistente. El output de una fase se convierte en el límite de input estricto para la siguiente. El agente Desarrollador tiene éxito porque el agente Arquitecto allanó el camino, y el Arquitecto tuvo éxito porque el Business Analyst mapeó el terreno. Estás haciendo Context Engineering en cada nivel para que la IA se centre por completo en la ejecución.
El rasgo distintivo de un workflow de IA resiliente no es lo rápido que genera texto, sino lo estrictamente que impone los límites en las diferentes etapas de pensamiento.
Si quieres apoyar el programa, puedes buscar DevStoriesEU en Patreon. Eso es todo por este episodio. ¡Gracias por escuchar, y a seguir programando!
2
La Guía Inteligente y la Instalación
4m 00s
Aprende cómo empezar con el BMad Method sin memorizar comandos complejos. Cubrimos el proceso de instalación, los directorios del workspace generados y cómo usar bmad-help como tu navegador de proyectos inteligente.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 2 de 15. Quizás pienses que adoptar un nuevo framework de desarrollo de IA requiere memorizar una secuencia enorme de comandos específicos y fases rígidas de workflow. No es así. No necesitas memorizar ni una sola secuencia de comandos en este framework, ya que el sistema inspecciona físicamente tu carpeta local y te indica exactamente qué escribir a continuación. Este es el proceso de Guía Inteligente e Instalación.
Para empezar, solo necesitas un paso. En tu terminal, ejecutas el comando del package executor npx bmad-method install. Este comando inicializa el workspace y prepara estructuralmente tu repositorio. Hace esto creando dos directorios específicos en tu carpeta root.
El primer directorio es guion bajo bmad. Esta carpeta es el cerebro de tu framework local. Contiene las skills principales, las definiciones de prompts y las plantillas contextuales que la IA utiliza para hacer su trabajo. El segundo directorio es guion bajo bmad guion output. Esta sirve como la carpeta de destino dedicada. Cada vez que el framework genera nuevos assets, ya sean documentos de requisitos de producto, especificaciones de features o código real, se depositan en este directorio de output, aislados de forma segura de tu source code existente.
Aquí está la clave. Una vez que existen esas carpetas, los desarrolladores suelen cometer un error común. Asumen que necesitan abrir la documentación oficial, estudiar las distintas fases del framework y memorizar los comandos exactos de terminal necesarios para pasar de una fase a otra. Les preocupa saltarse un paso por accidente o ejecutar un comando en el orden incorrecto. No necesitas hacer nada de esto. El framework se autodocumenta en runtime gracias a una skill integrada llamada bmad-help.
Bmad-help es una guía activa que elimina la carga cognitiva de navegar por la metodología. No es un manual estático. Cuando la invocas, la skill analiza activamente el estado actual de tu workspace. Comprueba lo que hay actualmente dentro de tus carpetas para determinar exactamente en qué punto del ciclo de desarrollo te encuentras.
Imagina un escenario concreto. Acabas de terminar el comando de instalación. Tu workspace está vacío, excepto por las nuevas carpetas de configuración. Tienes una idea para un producto de software, pero no sabes qué comando escribir a continuación. Simplemente abres la CLI y escribes bmad-help seguido de tu pregunta en inglés sencillo. Por ejemplo, escribes bmad-help tengo una idea para un SaaS, ¿por dónde empiezo?
La skill procesa tu pregunta, se da cuenta de que aún no hay documentos de planificación en tu carpeta de output, y te dice exactamente qué hacer. Responde con el comando específico que necesitas ejecutar para iniciar la primera fase. No te da una lista genérica de todos los comandos disponibles. Te da la única instrucción precisa para tu contexto inmediato.
A medida que avanzas en la metodología, creando documentos y código, bmad-help se adapta. Si terminas de generar tu arquitectura y preguntas qué hacer a continuación, ve los archivos de arquitectura y te prescribe el comando para la siguiente fase adecuada. El framework inspecciona físicamente tu progreso y guía dinámicamente tu próximo movimiento.
Nunca tienes que adivinar si estás listo para escribir código o si necesitas refinar tus requisitos primero, porque la instalación local lee constantemente tu entorno para mantenerte en el camino correcto. Me gustaría tomarme un momento para agradecerte por escuchar, nos ayuda muchísimo. ¡Que tengas un gran día!
3
Forjando Ideas con el Brainstorming de IA
3m 47s
Descubre el verdadero poder de la IA en la fase de Análisis. En lugar de pedir una lista de ideas, aprende cómo el workflow bmad-brainstorming actúa como un coach creativo, extrayendo conceptos únicos de ti mediante protocolos anti-sesgo.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 3 de 15. Si le pides diez ideas a un Large Language Model, normalmente obtienes diez ideas perfectamente promedio, fundamentalmente aburridas. El sistema está diseñado para predecir la siguiente palabra más probable, lo que significa que tiende a lo mundano. Para obtener resultados verdaderamente innovadores, tienes que obligar a la IA a actuar como un coach que extraiga los conceptos de ti. Esto es exactamente lo que hace el workflow de Forging Ideas with AI Brainstorming.
La mayoría de la gente asocia el brainstorming con IA con el zero-shot prompting. Escribes una petición de ideas en un chat y recibes una lista genérica a cambio. Ese enfoque falla porque trata a la IA como un oráculo. El coach de brainstorming del Método BMad funciona con el principio opuesto. Es un framework de facilitación guiado y multi-turn donde la IA no genera las ideas principales en absoluto. En su lugar, proporciona una fricción cognitiva estructurada para obligarte a pensar lateralmente.
El workflow se basa en gran medida en dos mecanismos específicos, que son los protocolos anti-bias y el domain shifting. Cuando introduces un pensamiento inicial, el protocolo anti-bias evita que la IA simplemente te dé la razón. Si propones una solución estándar a un problema, la IA está programada para cuestionarla. Podría preguntarte qué pasa si tu solución propuesta falla por completo, o cómo un competidor podría explotar los fallos evidentes de tu lógica. El domain shifting va un paso más allá al obligarte a ver tu problema a través de la lente de una industria completamente diferente.
Imagina un escenario concreto en el que quieres explorar formas de mejorar el onboarding de desarrolladores. Una IA estándar te daría una lista sobre cómo escribir mejor documentación y asignar mentores. Sin embargo, el coach de brainstorming de BMad podría iniciar un ejercicio de la técnica SCAMPER. SCAMPER es un framework que te pide Sustituir, Combinar, Adaptar, Modificar, Darle otro uso, Eliminar o Revertir elementos de un proceso.
Aquí está la clave. La IA no va a repasar todo el acrónimo de golpe ni te va a soltar un muro de texto. Gestiona el ritmo paso a paso. Te pregunta cómo podrías eliminar por completo la fase de lectura de documentación del onboarding. Das una respuesta basada en tu expertise en el dominio. Luego, la IA te lanza un prompt para combinar el onboarding con una tarea de ingeniería que no tiene nada que ver, como la respuesta a incidentes en vivo. Vuelves a responder. La IA mantiene el framework estable mientras tú aportas el insight real.
Empiezas el workflow definiendo tu espacio del problema en bruto. La IA responde con una restricción específica o una pregunta dirigida. Tú respondes. La IA procesa tu respuesta, aplica su comprobación anti-bias, y luego te rebate o hace un domain shifting. Este bucle multi-turn continúa hasta que agotas las respuestas obvias y empiezas a producir conceptos genuinamente novedosos. La IA actúa como un facilitador incansable que se niega a dejar que te conformes con lo primero que se te viene a la cabeza.
El valor de una IA en las primeras fases del diseño de producto no es su capacidad para inventar cosas desde cero, sino su infinita paciencia para aplicar fricción cognitiva estructurada a tu propio expertise. Eso es todo por este episodio. ¡Gracias por escuchar, y sigue construyendo!
4
El Desafío del PRFAQ vs El Product Brief
4m 12s
Antes de escribir un Product Requirements Document, necesitas una base. Comparamos el descubrimiento suave de un Product Brief con el riguroso stress-test de un PRFAQ al estilo Working Backwards de Amazon.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 4 de 15. Amazon es famosa por escribir el comunicado de prensa antes de crear el producto. ¿Y si una IA cuestionara implacablemente ese comunicado de prensa antes de dejarte tocar el codebase? Elegir el formato de documento adecuado desde el principio determina si construyes una herramienta que la gente realmente necesita o si pierdes meses en algo que nadie quiere. El Método BMad gestiona esta divergencia a través de dos outputs distintos en la fase de análisis: el PRFAQ Gauntlet y el Product Brief.
A los usuarios a menudo les cuesta elegir qué formato usar. La regla es muy simple. Si ya tienes una convicción fuerte sobre lo que estás construyendo y solo necesitas alineación en el equipo, usa el Product Brief. Si necesitas averiguar si el producto siquiera merece existir, usa el PRFAQ.
El Product Brief es un proceso de descubrimiento suave y colaborativo. Piénsalo como una conversación guiada. La IA y tú trabajáis juntos para definir el espacio del problema, los usuarios objetivo, las core features y las métricas de éxito. La IA actúa como un copiloto de apoyo. Coge tus conceptos iniciales, los estructura de forma lógica y te hace preguntas educadamente para rellenar los detalles que faltan. Es el camino de menor resistencia. Lo usas cuando la dirección está clara y simplemente necesitas un documento profesional y organizado para conseguir la aprobación o pasar al diseño técnico.
El PRFAQ, que significa Press Release and Frequently Asked Questions, es un mecanismo completamente distinto. Esta es una prueba de estrés rigurosa, donde el cliente es lo primero. Te obliga a trabajar hacia atrás desde un día de lanzamiento imaginario. Empiezas escribiendo un comunicado de prensa conciso anunciando el producto terminado a tu público objetivo. En este punto, la IA abandona su papel de copiloto servicial y se convierte en un stakeholder escéptico. Lee tu comunicado de prensa y genera un gauntlet de preguntas brutales e incisivas.
Imagina un escenario en el que quieres construir una nueva herramienta interna de deploy. Escribes un comunicado de prensa presumiendo de que los deploys ahora costarán un solo clic en lugar de diez. En un Product Brief, la IA podría simplemente pedirte que listes las plataformas soportadas. En el PRFAQ Gauntlet, la IA te preguntará cómo planeas gestionar los rollbacks automáticos cuando ese único clic haga deploy de un bug crítico. Exigirá saber por qué el equipo de infraestructura debería adoptar esta herramienta por encima de sus scripts actuales, ya curtidos en batalla. Debes responder a estas preguntas de forma satisfactoria. Si tus respuestas son vagas, la IA te presiona. Te ves obligado a defender la propuesta de valor, la usabilidad y la viabilidad técnica antes de gastar tiempo real de ingeniería.
Aquí está la clave. El Product Brief se centra en qué es el producto, mientras que el PRFAQ se centra en por qué debería importarle al cliente y si tu plan de ejecución es realista. El Brief genera consenso. El PRFAQ destruye las suposiciones débiles. Haces deploy del PRFAQ cuando una idea es cara, controvertida o muy ambigua.
Al final, sobrevivir al PRFAQ Gauntlet demuestra que tu concepto puede soportar el escrutinio del mundo real, actuando como una defensa absoluta contra la construcción de features que nadie ha pedido realmente. Eso es todo por este episodio. Gracias por escuchar, ¡y a seguir construyendo!
5
Asegurando el PRD
4m 23s
Avanzando hacia la Fase 2, exploramos cómo el Product Manager agent convierte ideas en bruto en un Product Requirements Document estructurado. Aprende cómo la aplicación estricta de requisitos funcionales y no funcionales protege tu proyecto.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 5 de 15. La forma más rápida de construir el sistema equivocado es dejar que una IA alucine tus requisitos basándose en un prompt vago. Tienes que restringir a la IA a unos límites exactos antes de que se escriba nada de código. Fijar el PRD es el proceso que construye esos límites.
La gente suele confundir la planificación del proyecto con el diseño de la solución técnica. Piensan que planificar implica elegir una base de datos o mapear microservicios. Eso es incorrecto. La planificación trata enteramente sobre la lógica de negocio. No dicta absolutamente nada de la ejecución técnica. La fase de planificación se centra exclusivamente en el Qué y el Por qué. El Cómo pertenece a una fase completamente distinta.
En el Método BMad, esto ocurre en la Fase Dos. El actor responsable es el agente product manager, John. John coge los resultados de la fase uno, en concreto tu PRFAQ aprobado y los documentos de brainstorming, y los consume. Activas este proceso usando un comando llamado bmad guion create guion prd.
John coge la visión del PRFAQ y la traduce a un archivo de texto rígido llamado PRD punto md. Este documento sirve como la fuente de la verdad absoluta para el resto del proyecto. Para hacer esto, John desglosa los requisitos en dos categorías estrictas. Estas son los Requisitos Funcionales, o FRs, y los Requisitos No Funcionales, o NFRs.
Los Requisitos Funcionales definen exactamente lo que debe hacer el sistema. Los Requisitos No Funcionales definen las restricciones operativas del sistema, como los umbrales de rendimiento, las reglas de compliance o la disponibilidad.
Piensa en un escenario concreto. Estás construyendo un módulo de facturación SaaS. Le pasas tu PRFAQ aprobado al agente PM. John genera Requisitos Funcionales que establecen que el módulo debe permitir a los usuarios hacer un upgrade de su suscripción, y debe hacer un downgrade automático a los usuarios si un pago falla tres veces. Luego, John genera Requisitos No Funcionales que establecen que todas las actualizaciones del estado de pago deben reflejarse en el dashboard del usuario en menos de dos segundos.
Aquí está la clave. Fíjate en lo que falta en esos requisitos. John no menciona Stripe, no menciona PostgreSQL, y no diseña un payload de la API. Si tu PRD menciona una tecnología de base de datos específica, el proceso ha fallado. El PRD solo fija las expectativas de negocio.
Una vez que el PRD está cerrado, la Fase Dos pasa al workflow de diseño UX. Este paso coge la lógica de negocio en bruto y traza la interacción humana. Si un requisito funcional dice que un usuario necesita hacer un upgrade de una suscripción, el workflow de diseño UX dicta la secuencia exacta de pantallas, botones y mensajes de error que el usuario se va a encontrar. Al igual que el PRD, este workflow UX no toma ninguna decisión sobre el framework de frontend. Le da igual si al final usas React o Vue. Solo le importa el user journey paso a paso.
Al forzar al agente PM a generar un PRD y un flujo UX estrictos y agnósticos a la tecnología, creas un ancla. Los modelos de lenguaje grandes se desvían de forma natural con el tiempo. Más adelante en el proyecto, tus agentes de ingeniería se verán obligados a comprobar sus soluciones técnicas contra estos FRs y NFRs exactos. Si una feature no está en el PRD, los agentes no la construirán.
El PRD no es un documento de sugerencias informal; es un límite rígido para tus agentes de IA que aísla por completo las necesidades core de tu negocio de la futura implementación técnica.
Me gustaría tomarme un momento para agradecerte que nos escuches; nos ayuda muchísimo. ¡Que tengas un gran día!
6
Previniendo Conflictos entre Agentes con la Arquitectura
4m 32s
La Fase 3 de Solutioning es donde se toman las decisiones técnicas. Discutimos por qué los Architecture Decision Records (ADRs) explícitos son críticos para evitar que múltiples AI agents tomen decisiones técnicas contradictorias.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 6 de 15. Si asignas dos agentes de IA para desarrollar dos features diferentes sin un documento de arquitectura compartido, inevitablemente le declararán la guerra al código del otro. Tomarán decisiones técnicas contradictorias que romperán tu aplicación. El mecanismo para evitar esto es la Fase 3 de Solutioning, centrándose específicamente en prevenir conflictos entre agentes usando la arquitectura.
Los humanos que trabajan en un proyecto de software hablan entre ellos. Comparten suposiciones tomando un café o por mensajes de chat. Los agentes de IA que operan en paralelo no tienen una conciencia compartida. Operan en context windows completamente aisladas. Dale al Agente A la tarea de implementar un dashboard de usuario, y podría decidir que una REST API y Redux son la mejor opción. Dale al Agente B la tarea de crear una página de settings de usuario, y podría decidir de forma independiente montar GraphQL y Zustand. Cuando esas dos features intentan hacer merge en la main branch, te enfrentas a un problema de integración masivo. Ambos agentes hicieron exactamente lo que les pediste, pero sus optimizaciones aisladas crearon un caos sistémico.
Los desarrolladores a menudo quieren saltarse la documentación formal de arquitectura porque parece overhead corporativo. Si estás picando un script pequeño y aislado, es aceptable. El Método BMad incluye un Quick Flow específicamente para tareas pequeñas que se salta deliberadamente esta fase. Pero para proyectos complejos, saltarse la fase de arquitectura garantiza el agent drift. No puedes confiar en el comportamiento por defecto de los Large Language Models para que se alineen accidentalmente en el mismo tech stack en diferentes sesiones.
Para forzar la alineación técnica, el método usa un workflow específico llamado bmad create architecture. Ejecutas este workflow antes de que se escriba una sola línea de código de la aplicación. Analiza los requisitos de tu proyecto y genera Architecture Decision Records.
Los Architecture Decision Records son archivos de texto estructurados y ligeros. Capturan las decisiones técnicas definitivas del proyecto. Un record dicta la librería de state management. Otro especifica el patrón exacto para el data fetching. Un tercero define el framework de testing. Establecen las reglas estrictas e inflexibles del sistema.
Aquí está la clave. En la ingeniería de software tradicional, un Architecture Decision Record es principalmente un log histórico para ayudar a los nuevos desarrolladores humanos a entender las decisiones pasadas. En un sistema de IA multiagente, es un mecanismo de control activo.
Los Large Language Models no tienen memoria de lo que decidió otro modelo a menos que les pases explícitamente esa información en su prompt context. Cuando ejecutas el workflow de arquitectura, los documentos resultantes se guardan directamente en el repositorio de tu proyecto. Más tarde, cuando haces deploy del Agente A para construir el dashboard y del Agente B para construir los settings, el sistema le pasa exactamente estos mismos decision records a ambos agentes antes de que empiecen a escribir código.
Los archivos de arquitectura actúan como la ground truth definitiva. El Agente A lee el record que dicta Redux y REST, y construye en consecuencia. El Agente B lee exactamente el mismo record, y también construye con Redux y REST. Los límites arquitectónicos obligan a los modelos independientes a actuar como un equipo cohesionado. Al eliminar la carga de tener que elegir durante la fase de implementación de la feature, reduces drásticamente las alucinaciones y evitas dependencias conflictivas.
Los documentos de arquitectura en un workflow de IA no son solo notas pasivas para humanos; son restricciones programables que obligan a agentes no deterministas a construir un sistema determinista.
Eso es todo por este episodio. Gracias por escuchar, ¡y sigue construyendo!
7
La Constitución del Project Context
4m 15s
Aprende a redactar el manual de reglas definitivo para tus AI agents utilizando project-context.md. Este archivo impone tu tech stack específico, convenciones de código no obvias y reglas de implementación críticas en todos los workflows.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 7 de 15. Los agentes de IA suelen seguir las mejores prácticas genéricas, lo que significa que escriben código similar a una respuesta típica de Stack Overflow, no a tu codebase. Si quieres que programen exactamente como tu equipo de ingeniería senior, debes imponer tus propias leyes. Eso es lo que hace la Constitución del Project Context.
En esencia, se trata de un fichero llamado project-context.md. Debes colocarlo en la raíz de tu repositorio. Piensa en él como el documento de gobierno definitivo para cualquier IA que interactúe con tu proyecto. Cuando un agente lee tu repositorio, carga primero este fichero para comprender los límites innegociables de tu arquitectura.
Puedes crear este fichero manualmente o generar un punto de partida ejecutando el comando bmad-generate-project-context en tu terminal. En cualquier caso, el documento debe contener dos secciones específicas: el Tech Stack y las Reglas Críticas.
La sección del Tech Stack es sencilla, pero requiere precisión. No basta con listar React o Node. Especifica las versiones exactas, el paradigma de routing y las librerías de estilos. Si usas Next.js con el App Router y Tailwind, indícalo claramente. La IA utiliza esta información para filtrar sus enormes datos de entrenamiento y obtener la sintaxis específica que requiere tu proyecto.
Ahora bien, la segunda parte es la sección de Reglas Críticas. Presta atención a este punto. Un error muy común entre los desarrolladores es llenar esta sección con consejos genéricos como escribir código limpio o usar principios DRY. No lo hagas. La IA ya conoce el código limpio genérico. Debes escribir los patrones específicos del proyecto, esos que no son obvios y que el agente nunca podría adivinar por sí solo.
Aquí es donde estableces leyes arquitectónicas estrictas. Por ejemplo, escribes una regla que exige el strict mode de TypeScript para cada fichero nuevo. Indicas al agente que todos los tests de integración deben usar Mock Service Worker. Y lo más importante, puedes prohibir comportamientos. Si tu proyecto tiene un singleton de API client personalizado, escribes explícitamente una regla que indique que nunca use fetch nativo ni Axios directamente, sino que siempre importe el API client personalizado desde la carpeta de utilidades de red.
Cuando la IA genera una nueva feature, compara su output con estas reglas. Dado que el project context se encuentra en la parte superior de la jerarquía del prompt, estas instrucciones anulan las tendencias básicas de la IA. Si un agente intenta escribir un fetch directo a la API, la constitución del project context lo obliga a reescribir esa lógica utilizando tu wrapper personalizado antes de generar el output del código.
El objetivo de este fichero no es enseñar a la IA a programar, sino enseñarle a programar aquí, en este repositorio específico.
Si disfrutas de estos episodios y quieres apoyar el programa, puedes buscar DevStoriesEU en Patreon. Me gustaría aprovechar este momento para agradecerte que nos escuches; nos ayuda muchísimo. ¡Que tengas un buen día!
8
Desglosando el Trabajo y el Gate Check
4m 01s
Concluimos la Fase 3 traduciendo la arquitectura en unidades de trabajo implementables. Descubre cómo los agentes PM y Architect colaboran para crear Epics y Stories, y por qué el check de Implementation Readiness es innegociable.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 8 de 15. Antes de dejar que una IA escriba cientos de líneas de código, hay un paso fundamental que debes ejecutar para evitar un sprint catastrófico. Ese paso es desglosar el trabajo y el Gate Check.
En esta etapa del flujo de trabajo, ya tienes un Product Requirements Document finalizado y un diseño de arquitectura completo. Ahora necesitas tickets. Aquí es donde entra en juego el agente PM. Su función es ejecutar el proceso de crear epics y stories. El agente PM lee el documento de requisitos, pero no opera en el vacío. Cruza esas necesidades de negocio con las restricciones definidas en tu documentación de arquitectura.
El agente PM traduce las features de alto nivel en epics. Luego, divide esos epics en user stories específicas y accionables. Redacta los criterios de aceptación y el contexto técnico para cada tarea. Al consultar los documentos de arquitectura, el PM se asegura de que los modelos de datos y las interacciones de componentes que requiere la story existan realmente en el plan técnico. Esto garantiza que cada ticket sirva a un requisito de negocio real, ajustándose estrictamente a los límites del diseño del sistema. El resultado de este paso es un backlog completamente lleno.
Aquí está la clave. Una vez que ese backlog existe, la tentación de empezar a generar código de inmediato es enorme. La gente suele saltarse el siguiente paso por pura impaciencia. Quieren ver software funcionando, así que pasan los nuevos tickets directamente a desarrollo. No hagas esto. Saltarte el readiness check es como acabas quemando caros tokens de API en código que no se puede integrar.
Por eso, el agente Architect vuelve a intervenir para realizar la fase de check implementation readiness. Esta es tu red de seguridad definitiva. Funciona como un estricto Gate Check antes de que empiece cualquier programación. El Architect lee cada epic y user story generados por el PM y los valida directamente contra la arquitectura.
El Architect busca prerrequisitos técnicos que falten, contradicciones arquitectónicas o suposiciones implícitas. Verifica que cada estructura de datos mencionada en una story tenga su correspondiente esquema de base de datos. Comprueba que los endpoints de los servicios necesarios estén realmente definidos. Imagina un escenario específico. Ejecutas el Gate Check, y el Architect marca un epic para una nueva feature de notificación de usuario. El ticket asume el uso de una API de mensajería de terceros específica. Sin embargo, el Architect señala que esta integración nunca se discutió ni aprobó en los Architecture Decision Records. El Gate Check detiene el proceso de inmediato. Te acabas de ahorrar horas de tiempo de desarrollo perdido intentando construir una feature contra una dependencia no aprobada o no documentada.
Esta colaboración entre las necesidades de negocio y la realidad técnica es el núcleo de esta fase. El agente PM define el trabajo basándose en lo que el usuario requiere. El agente Architect verifica el trabajo basándose en lo que el sistema realmente puede soportar. Solo avanzas cuando el Architect da el visto bueno, demostrando que el backlog es completamente implementable. Un requisito de producto perfecto es completamente inútil si la arquitectura del sistema subyacente no puede soportarlo, y este Gate Check es la única prueba objetiva de que tus tickets están realmente listos para construirse.
Eso es todo por este episodio. ¡Gracias por escuchar, y sigue construyendo!
9
El Build Cycle y el Seguimiento de Sprints
4m 05s
La Fase 4 es donde se escribe el código. Desglosamos el disciplinado Build Cycle: inicializar el sprint planning, crear stories atómicas, implementarlas con el DEV agent y llevar a cabo rigurosas code reviews.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 9 de 15. No le dices simplemente a una IA que construya una aplicación. Si le pides a un modelo de lenguaje que implemente una funcionalidad completa de un producto o una Epic de golpe, obtendrás una lógica a medias, archivos que faltan y un lío de código. Para obtener resultados con calidad de producción de la IA, tienes que aplicar exactamente la misma disciplina que esperas de un equipo de ingeniería humano de alto rendimiento. Hoy veremos el Build Cycle y el Sprint Tracking, que es el bucle mecánico y disciplinado para ejecutar la implementación de la fase cuatro.
El mayor error que cometen los developers con las herramientas de IA es pedir demasiado de golpe. El ciclo de build se basa completamente en una ejecución estricta, de una story a la vez. Haces un seguimiento del estado, coges una sola story, la ejecutas, la validas y actualizas tu estado. Este proceso requiere roles distintos que manejen partes específicas del pipeline, asegurando que no se pierda contexto y que el scope no se infle.
El ciclo empieza con el sprint planning. Ejecutas el prompt bmad sprint planning, que genera un archivo llamado sprint status yaml. Este archivo es tu fuente de la verdad absoluta. Lista explícitamente cada story de tu sprint actual y marca su estado como pending, in progress o done. Este documento mantiene a la IA centrada. Evita que el modelo alucine con el progreso o se olvide de las dependencias, porque la IA tiene que leer este archivo constantemente para entender el estado actual del proyecto.
Una vez que tu sprint está planificado, empiezas el bucle de ejecución. Primero, involucras al rol de Scrum Master, Bob, usando el prompt bmad create story. Le indicas a Bob que mire el archivo sprint status yaml y coja el primer elemento pendiente. Bob no escribe nada de código de la aplicación. En su lugar, genera un archivo markdown muy enfocado, dedicado exclusivamente a esa única user story. Este documento detalla los criterios de aceptación específicos, las restricciones técnicas y los escenarios de test necesarios para completar la tarea.
A continuación, le pasas ese archivo de story aislado al rol de Developer, Amelia. Usas el prompt bmad dev story para iniciar este paso. Amelia lee el archivo de la story, analiza el codebase actual e implementa la lógica. Como su contexto está artificialmente reducido solo a las instrucciones de Bob y a los archivos relevantes de la aplicación, no reescribirá por accidente módulos que no tengan nada que ver, ni se saldrá del scope de la tarea inmediata.
Después de que Amelia escriba el código, la story todavía no está terminada. Invocas el prompt bmad code review. Esto actúa como un quality gate automatizado. El proceso de revisión comprueba el código de Amelia contra los estrictos criterios de aceptación definidos en el archivo de la story de Bob. Saca a la luz edge cases que faltan, fallos de lógica o inconsistencias de formato. Corriges cualquier problema que se encuentre durante esta revisión. Solo cuando el código pasa la revisión, actualizas el archivo sprint status yaml, cambiando manualmente la story de in progress a completed. Luego, vuelves a Bob para coger el siguiente elemento pendiente.
Aquí está la clave. El poder de este bucle no está en la generación de código en sí, sino en la estricta separación de responsabilidades que obliga a la IA a planificar, ejecutar y revisar como pasos distintos y aislados. Eso es todo por este episodio. Gracias por escuchar, ¡y sigue construyendo!
10
El Quick Dev Track para Cambios Zero-Blast
3m 49s
Cuando el proceso agile completo de 4 fases es excesivo, el Quick Dev track es tu mejor amigo. Aprende cómo bmad-quick-dev comprime una intención desordenada en una spec limpia, se ejecuta de forma autónoma y gestiona sus propias revisiones.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 10 de 15. A veces, el proceso agile completo es excesivo para un fix localizado. Tienes un bug report de Jira desordenado y solo quieres que se arregle y se revise sin tener que verificar manualmente cada paso. Aquí tienes cómo pasar de ese ticket en crudo a una pull request revisada en una sola ejecución autónoma usando el track de Quick Dev para cambios con blast radius cero.
La gente suele ver Quick Dev como un simple prompt de código genérico donde le tiras un ticket a un Large Language Model y esperas lo mejor. No lo es. Quick Dev aísla explícitamente la clarificación de la intención de la ejecución. Le da al sistema un límite estricto con el que trabajar, en lugar de mezclar la definición del problema directamente en el paso de generación de código.
El track agile estándar depende muchísimo de checkpoints estrictos. Haces una pausa, verificas el plan, verificas los tests y verificas la implementación. Quick Dev elimina esos checkpoints. Confía más en el modelo y guarda tu atención humana para los momentos de mayor impacto. Solo usas este track para cambios con blast radius cero. Mecánicamente, esto significa que las modificaciones deben estar aisladas en un único componente o función. El cambio no puede alterar interfaces públicas, modificar esquemas de base de datos ni reescribir funciones utility compartidas que usen otros dominios. Si un cambio toca el state management principal, pertenece al track estándar.
Imagina el escenario donde le pasas un enlace de un ticket de bug de Jira fragmentado a la herramienta bmad-quick-dev. Lo primero que ejecuta el sistema es la compresión de intención. Lee los comentarios dispersos, los pasos para reproducir y las quejas de los usuarios. Obliga al modelo a resolver contradicciones antes de tocar nada de código. Si el ticket tiene instrucciones contradictorias, el paso de compresión las sintetiza en un único objetivo definitivo. Este output es texto plano, definiendo exactamente qué implica el fix y, lo más importante, cuáles son los límites del fix.
Aquí está la clave. Como la intención ahora está comprimida y aislada, la fase de ejecución autónoma tiene una especificación estricta que seguir. El sistema escribe el fix, genera o actualiza los tests localizados y ejecuta una self-review contra esa intención comprimida inicial. Hace un loop por estos pasos continuamente. Te alejas mientras trabaja, y vuelves a una pull request terminada.
Quick Dev es rápido, pero cuando una ejecución autónoma falla, tienes que diagnosticar las capas de fallo con precisión. Miras dónde se rompió el proceso. Si el código final resuelve un problema totalmente equivocado, el fallo ocurrió en la capa de compresión de intención. Probablemente el ticket de Jira era demasiado ambiguo, haciendo que el modelo alucinara el objetivo. Arreglas esto reescribiendo el input inicial. Si la intención es correcta pero los nuevos tests fallan o la build se rompe, el fallo está en la capa de ejecución. Arreglas los fallos de ejecución dándole un empujoncito al modelo para que reintente el bloque de lógica específico.
Si la capa de ejecución falla dos veces seguidas, el problema ya no es el prompt. El blast radius del cambio era simplemente mayor de lo que pensabas al principio, y tienes que volver al track estándar con checkpoints. La autonomía solo funciona cuando el límite de la tarea es más pequeño que la context window del modelo que la resuelve.
Eso es todo por este episodio. ¡Gracias por escuchar, y seguid programando!
11
Onboarding de Codebases Establecidos
4m 27s
BMad no es solo para proyectos greenfield. Cubrimos las estrategias para introducir el framework en legacy codebases masivos e indocumentados utilizando el context discovery y la limpieza estratégica.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 11 de 15. La mayoría de los frameworks de codificación de IA asumen que partes de un directorio completamente vacío. Pretenden generar el scaffolding, dictar la arquitectura y controlar todo el proceso desde el primer día. Pero cuando metes un agente de IA en un monolito de Rails enorme de cinco años con convenciones de nomenclatura sin documentar, ese enfoque de empezar de cero lo rompe todo. Hacer el onboarding de codebases ya establecidos es cómo consigues que BMad funcione con lo que ya tienes.
Una idea muy común entre los developers es que BMad es estrictamente para desarrollo greenfield. Eso es incorrecto. BMad no te obliga a reescribir el código ni impone una estructura externa. Está diseñado para adaptarse, respetando y descubriendo tu arquitectura existente para integrarse limpiamente. Sin embargo, procesar un repositorio ya establecido requiere un workflow específico para evitar que la IA adopte tu deuda técnica.
El primerísimo paso es limpiar los artefactos. Los modelos de IA son, en esencia, motores avanzados de pattern-matching. Si los apuntas a un repositorio lleno de bloques de código comentados, llamadas a la API deprecadas y nombres de archivo inconsistentes, el agente asumirá que esos son los estándares aceptados. Antes de introducir al agente, tienes que eliminar el código muerto, aplicar tus reglas de linting y asegurarte de que tu suite de tests realmente pasa. Estás estableciendo el estándar base. Cuanto más limpio esté el estado de entrada, mejor se alineará el agente con tus intenciones reales.
Una vez que el repositorio está limpio, lo mapeas usando un comando llamado bmad-generate-project-context. Aquí es donde ocurre la adaptación. En lugar de escribir a mano páginas de documentación sobre cómo está estructurada tu aplicación, ejecutas esta herramienta para escanear tus patrones legacy. Acuérdate de ese monolito de Rails de cinco años. El generador de contexto lee el árbol de archivos, parsea las abstracciones y deduce tus reglas sin documentar. Determina si tu equipo prefiere fat models o service objects. Analiza tu directorio de testing para ver cómo haces mock de las llamadas a la base de datos.
Coge todas estas deducciones y las escribe en un documento de contexto centralizado. Este archivo se convierte en el prompt fundacional para la IA. Cuando le pides al agente que construya una nueva feature, primero lee este contexto. Entiende la arquitectura existente y genera código que parece exactamente escrito por un ingeniero senior de tu equipo.
Con el contexto generado, eliges cómo aplicar las actualizaciones usando Quick Dev o el Full Method. Tu elección depende totalmente de la complejidad de la tarea. Si estás arreglando un bug localizado o añadiendo un solo query parameter a un endpoint existente, usa Quick Dev. El agente lee tu archivo de contexto, aplica el parche específico, lo verifica contra tus tests locales y termina. Es una operación rápida y con poco overhead.
Ahora, la segunda parte de esto gestiona las actualizaciones complejas. Si necesitas construir un módulo de facturación completamente nuevo en ese monolito, cambias al Full Method. El agente aprovechará el archivo de contexto para escribir primero un documento de diseño exhaustivo. Ahí detalla cómo interactuará el nuevo módulo con tus componentes existentes. Escribe tests que fallan y que encajan con tu estilo de testing legacy, implementa la lógica de negocio, e itera hasta que los tests pasan. El framework escala su rigor basándose en lo que pide la tarea.
Aquí está la clave. El éxito de un agente de IA en un repositorio legacy depende totalmente de la calidad de los patrones que detecta, lo que significa que una limpieza inicial rigurosa y un archivo de contexto preciso son lo único que se interpone entre añadir una feature sin problemas y el caos arquitectónico.
Me gustaría tomarme un momento para darte las gracias por escuchar, nos ayuda muchísimo. ¡Que tengas un buen día!
12
Comandando Agentes: Skills vs Triggers
3m 44s
Entender cómo interactuar con el sistema es crucial. Desglosamos la diferencia entre las IDE Skills que lanzan workflows rígidos, y los Agent Menu Triggers que te permiten conversar dinámicamente con las AI personas.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 12 de 15. Abres tu terminal, escribes un comando para formatear tu código y recibes un error completamente genérico. Estás intentando usar un comando interno del agente, pero el agente ni siquiera está en ejecución todavía. Hay dos maneras distintas de darle comandos a tu equipo de IA, y mezclarlas es el punto de fricción más común en el sistema. Hoy cubrimos cómo dar comandos a los agentes: Skills contra Triggers.
La primera categoría son las Skills. Piensa en las Skills como tus entry points globales. Son lo que escribes en la terminal de tu IDE o en la línea de comandos para lanzar una acción desde cero. Cuando escribes bmad-help o lanzas un script de inicio de un agente específico desde tu IDE, estás usando una Skill. Arranca el entorno. Carga el contexto necesario. Pone al agente online. Las Skills pertenecen fuera de la conversación del agente. Son los mecanismos que arrancan el motor.
Esto nos lleva a la trampa más común. Una vez que el motor está en marcha y estás chateando con un agente, las reglas cambian. Dejas de usar Skills y empiezas a usar Triggers. Un Trigger es un código corto que escribes directamente en una sesión de chat activa para darle un comando a un agente que ya está escuchando. Si escribes un trigger del menú del agente en tu terminal estándar, el sistema no tiene ni idea de lo que quieres decir. Si intentas ejecutar una Skill del IDE desde dentro del chat de un agente, falla. El límite es absoluto. Las Skills inician la sesión. Los Triggers controlan la sesión activa.
Una vez que estás dentro del chat, los Triggers vienen en dos sabores: Triggers de Workflow y Triggers Conversacionales. Los Triggers de Workflow lanzan secuencias rígidas y predefinidas. Escribes el trigger, el agente ejecuta un proceso específico de múltiples pasos, paso a paso, entrega el output, y la secuencia termina.
Los Triggers Conversacionales son mucho más fluidos. Permiten hacer task-switching dinámico sin romper el rol del agente. Te quedas en el chat, pero pivotas el foco activo.
Piensa en un escenario concreto. Necesitas nueva documentación. Empiezas usando una Skill del IDE para lanzar a Paige, la agente Technical Writer. La Skill arranca a Paige, y ella te pregunta qué necesitas. Ahora está activa. Ahora, en lugar de escribir un prompt enorme explicando que necesitas un tipo de documento específico formateado de una manera específica, simplemente escribes el trigger conversacional W D en el prompt del chat activo. Esto significa Write Docs. Paige cambia inmediatamente a su modo predefinido de redacción de documentación. Te pide tus notas en bruto, las procesa y genera el texto.
Lees el texto y te das cuenta de que necesitas un diagrama de arquitectura para acompañarlo. No cierras el chat. No lanzas una nueva Skill desde la terminal. Simplemente escribes otro trigger conversacional, M G, que significa Mermaid Graph. Paige pivota al instante. Se mantiene en su rol de Technical Writer, guarda el contexto del documento que acaba de escribir, y genera el código del diagrama de Mermaid correspondiente. Estás enrutando sus capacidades dinámicamente sobre la marcha sin perder nunca el contexto.
Aquí está la clave. El verdadero poder de este sistema dual no es solo tener cosas más cortas que escribir, sino mantener un contexto persistente e inteligente mientras cambias instantáneamente el modo de operación interno de un agente.
Eso es todo por este episodio. Gracias por escuchar, ¡y seguid construyendo!
13
Adversarial Review y Búsqueda de Edge Cases
4m 28s
Es hora de dejar de permitir que la IA sea educada. Exploramos dos potentes Core Tools: un adversarial reviewer profundamente cínico que busca lo que falta, y un edge-case hunter mecánico que mapea las boundary conditions no controladas.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 13 de 15. Probablemente, las code reviews de tu IA son demasiado permisivas. Cuando simplemente le pides a un modelo que busque bugs, te ofrece sugerencias amables y syntax checks genéricos. Para encontrar fallos catastróficos, necesitas motores de diagnóstico especializados y con criterio propio. Este episodio trata precisamente de eso: Adversarial Review y búsqueda de edge cases.
A menudo, la gente trata la code review con IA como una única pasada de propósito general. Le tiran un diff a un modelo y esperan que lo detecte todo. Esto rara vez funciona bien. Un prompt genérico carece de un modelo mental específico, lo que lleva a un feedback superficial. La metodología BMad resuelve esto mediante el uso de personas especializadas y con un scope muy definido. Vamos a analizar dos herramientas de revisión distintas que operan con metodologías completamente diferentes.
Primero, consideremos el adversarial reviewer. Esta herramienta se basa en la actitud y es muy escéptica. No confía en tu código, tu infraestructura ni tus usuarios. Asume que tu implementación está fundamentalmente rota y busca activamente formas de explotarla. Ignora por completo las decisiones estilísticas, el naming de variables y las optimizaciones menores de rendimiento. En cambio, busca exclusivamente fallos en la lógica de negocio, escaladas de privilegios y suposiciones de confianza rotas. El adversarial reviewer examina los perímetros de tu API y se pregunta cómo un atacante podría eludir tu flow previsto. Lee tu código con profundo cinismo, tratando cada input como un posible vector de ataque y cada data boundary como una debilidad.
A continuación, tenemos el edge case hunter. Esta herramienta opera con una personalidad completamente opuesta. Es matemáticamente fría, carece de contexto y es totalmente mecánica. No le importan los usuarios malintencionados ni las intenciones de negocio. En cambio, realiza un path-tracing estricto. Construye un control flow graph mental de tu código y sigue cada branch hasta su conclusión lógica. El edge case hunter se centra exclusivamente en las mutaciones de estado, las boundary conditions y los data types. Busca los execution paths oscuros que causan silent failures, memory leaks o unhandled exceptions.
Para ver la diferencia, aplica ambas herramientas a un único fragmento de código, como un diff de autenticación complejo. Primero, le pasas este código al adversarial reviewer. Dado que opera con cinismo, ignora la sintaxis mecánica y detecta una restricción de lógica de negocio que falta. Observa que, si bien el token de autenticación se valida correctamente, el sistema confía implícitamente en el user role incrustado en ese token sin verificar la live database. El adversarial reviewer marca esto como una vulnerabilidad crítica de confianza.
Ahora le pasas ese mismo diff de autenticación al edge case hunter. Esta herramienta ignora por completo la lógica de confianza del token. En cambio, mediante la derivación mecánica de paths, rastrea el ciclo de vida de cada variable. Encuentra una función de validación profundamente anidada que carece de un type check explícito. Señala una type coercion implícita no controlada. Si el input payload contiene un objeto null en lugar de un string en ese índice específico, la aplicación lanzará una unhandled exception y crasheará.
Aquí está la clave. No usas estas herramientas para detectar typos. Las usas para imponer dos frameworks analíticos distintos a tu codebase. Uno ataca tus suposiciones sobre la confianza del sistema y el comportamiento humano. El otro ataca tus suposiciones sobre los execution paths y los data states. Al separar al atacante cínico del path-tracer mecánico, dejas de depender del bug-finding genérico y comienzas a exponer vulnerabilidades estructurales profundas antes de que lleguen a producción.
Gracias por escuchar. ¡Hasta la próxima!
14
Gestionando el Contexto: Distillation y Sharding
4m 04s
Los LLMs sufren de context blindness cuando se les alimentan documentos masivos. Aprende cómo BMad soluciona esto utilizando lossless distillation para comprimir el texto en tokens densos, y el document sharding físico para dividir monolitos.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 14 de 15. Si le pasas un documento de cincuenta páginas directamente a un modelo de lenguaje, sufrirá casi de inmediato de ceguera de contexto. Pierde detalles del medio del texto, alucina datos y degrada su propia capacidad de razonamiento. Para solucionar esto, necesitas un truco de compresión sin pérdida. Hoy vamos a ver cómo gestionar el contexto: destilación y sharding.
Muchos desarrolladores piensan que la destilación es solo resumir. Eso es incorrecto. Resumir descarta datos a propósito para darle a un humano una visión general rápida. La destilación es un proceso de compresión verificable y sin pérdida. Aquí está la clave. La herramienta de destilación coge la prosa humana extensa, elimina las transiciones, los adjetivos y el relleno conversacional, y lo convierte en un formato de viñetas muy denso. Este formato está creado estrictamente para que lo lea una máquina. Conservas absolutamente todos los datos, pero reduces drásticamente el número de tokens.
Coge ese enorme whitepaper técnico de cincuenta páginas. Si lo pasas por la herramienta de destilación, puedes conseguir un ratio de compresión de algo así como tres coma dos a uno. El tamaño total del payload cae más de dos tercios, y aun así el modelo mantiene el acceso a cada especificación técnica y decisión de arquitectura. La IA lee los raw data más rápido y procesa la lógica con mayor precisión sin ahogarse en párrafos formateados para humanos.
Eso soluciona la densidad del texto, pero el volumen total todavía podría ser demasiado grande para caber bien en el contexto de un solo prompt. Aquí es donde entra en juego la herramienta de shard document. El sharding rompe mecánicamente tu whitepaper destilado en archivos de texto más pequeños e independientes, basándose en límites lógicos como capítulos o secciones distintas. Ejecutas el comando shard, apuntas a tu documento pesado, y te devuelve una secuencia numerada de archivos ligeros. En lugar de obligar a la IA a mantener todo el whitepaper en la memoria de trabajo, ahora tienes piezas modulares.
Una vez que tienes veinte archivos shard en un directorio, el sistema necesita una forma de navegar por ellos. Esto lo gestionas con la herramienta de index documents. Apuntas el comando index a la carpeta que contiene tus nuevos shards. La herramienta escanea el directorio y genera un único archivo index maestro. Este archivo maestro actúa como un mapa de enrutamiento, listando cada shard junto a una breve descripción de lo que contiene.
En la práctica, primero le pasas este index ligero al modelo de lenguaje. El modelo lee el mapa, determina qué capítulo específico contiene la información necesaria para responder a un prompt, y luego pide solo ese shard en concreto. El razonamiento se mantiene afinado porque la context window permanece completamente enfocada en los datos relevantes.
Lo más útil que debes recordar aquí es que una context window enorme no es una excusa para volcar raw files en un prompt. Estructurar tus inputs mediante destilación mecánica y shards indexados obliga al modelo a leer sistemáticamente en lugar de escanear a ciegas.
Si estos episodios te resultan útiles y quieres apoyar el programa, puedes buscar DevStoriesEU en Patreon. Eso es todo por este episodio. ¡Gracias por escuchar, y a seguir programando!
15
Elicitation Avanzada y Party Mode
4m 47s
En el final de nuestra serie, exploramos técnicas de power-user. Aprende cómo obligar a los LLMs a replantearse su propio output utilizando frameworks de structured reasoning, y cómo orquestar debates multi-agente con el Party Mode.
Hola, soy Alex de DEV STORIES DOT EU. Método BMad, episodio 15 de 15. Nunca le pidas a un modelo de lenguaje que simplemente mejore algo. Los prompts vagos producen revisiones flojas y genéricas. Si quieres mejoras estructurales, tienes que forzar al modelo a usar un framework de razonamiento rígido, o mejor aún, instanciar tres personas de IA diferentes y ver cómo debaten los fallos. Este es precisamente el dominio de Advanced Elicitation y Party Mode.
Una trampa común al refinar outputs, como un Product Requirements Document recién generado, es hacerle un prompt al modelo para que revise y mejore su propio trabajo. Los modelos de lenguaje están diseñados para ser útiles y complacientes. Cuando pides una mejora general, el modelo normalmente modificará algunos adjetivos, reestructurará una oración y te la devolverá. No reescribirá la lógica central. Advanced Elicitation resuelve esto aplicando modelos mentales formales y reconocidos al output de la IA. Dejas de pedir feedback general. En su lugar, le indicas al modelo que ejecute un framework cognitivo específico.
Tomemos como ejemplo el análisis Pre-mortem. Le pasas al modelo tu documento de requisitos recién generado. Le indicas que asuma que el proyecto se ha construido, se ha lanzado y es un fracaso absoluto y catastrófico. El modelo debe entonces trabajar hacia atrás para diagnosticar exactamente qué causó el fallo, basándose únicamente en el documento actual. Como has restringido el prompt a un estado de fallo específico, el modelo se salta sus guardrails de cortesía y busca agresivamente lagunas lógicas. Otro framework potente es la Inversión. En lugar de preguntar cómo hacer que una migración de base de datos sea segura, le pides al modelo que describa los pasos exactos necesarios para garantizar la máxima pérdida de datos durante la migración. Los frameworks de razonamiento con nombre dan resultados muy superiores porque fuerzan al modelo a salir de sus rutas de generación de texto por defecto, que son altamente probables, y a entrar en rutas analíticas muy específicas.
Una vez que identificas esos fallos garantizados, tienes que diseñar la solución. Podrías pedirle a una sola persona de IA que resuelva el problema, pero los problemas arquitectónicos complejos requieren tensión. Esto nos lleva a Party Mode. La herramienta Party Mode orquesta una discusión grupal multiagente. Ya no interactúas con un solo asistente. Configuras una sala virtual llena de personas específicas y especializadas, les pasas el problema y te haces a un lado para dejar que discutan.
Así es como fluye la lógica. Lanzas la herramienta Party Mode y defines a tus participantes. Podrías instanciar un Senior Solutions Architect, un Security Engineer paranoico y un Frontend Developer pragmático. Les pasas las vulnerabilidades descubiertas durante tu análisis Pre-mortem. La herramienta entonces gestiona el loop de conversación de forma autónoma. El Architect propone una solución robusta y compleja. La herramienta le pasa ese output al Security Engineer, quien ataca la propuesta buscando posibles vectores de exploit. Luego, la herramienta le pasa el contexto al Developer, quien se queja de la complejidad de la implementación y sugiere un enfoque más sencillo. Iteran sobre estos argumentos, desafiándose mutuamente sin tu intervención, hasta que llegan a un consenso o alcanzan un límite de turnos definido. Tú puedes observar el debate y extraer la solución final, probada en batalla, de la transcripción.
Este enfoque te hace pasar de actuar como un escritor de prompts a un director de motores de razonamiento. Utilizas Advanced Elicitation para romper sistemáticamente tus propias ideas, y Party Mode para diseñar la reconstrucción mediante fricción sintética. El cambio más valioso al trabajar con modelos de lenguaje es darte cuenta de que el desacuerdo diseñado siempre produce una mejor arquitectura técnica que la complacencia inmediata y cortés. Como este es el último episodio de la serie, te animamos encarecidamente a leer la documentación oficial de BMad, a intentar orquestar estos debates de forma práctica, o a visitar devstories dot eu para sugerir temas para nuestra próxima serie. Me gustaría tomarme un momento para darte las gracias por escucharnos; nos ayuda muchísimo. ¡Que tengas un buen día!
Tap to start playing
Browsers block autoplay
Share this episode
Episode
—
Copy this episode in another language:
Este sitio web no utiliza cookies. Nuestro proveedor de alojamiento puede registrar tu dirección IP con fines analíticos. Saber más.