El uso de metodologías ágiles como Scrum y Kanban en proyectos de gestión de datos representa una evolución necesaria frente a enfoques tradicionales como el modelo en cascada. En mi experiencia académica y profesional, uno de los principales problemas del enfoque tradicional es que se intenta definir completamente los requerimientos de datos desde el inicio, algo poco realista cuando las necesidades analíticas cambian constantemente. En cambio, con Scrum es posible trabajar mediante sprints cortos donde se entregan incrementos funcionales, como un pipeline ETL inicial, un modelo dimensional parcial o un dashboard validado por usuarios. Esta entrega incremental permite recibir retroalimentación temprana y ajustar rápidamente el rumbo del proyecto.
Por ejemplo, utilizando Jira para gestionar el backlog, las iniciativas de gobernanza de datos pueden dividirse en épicas como “Implementación de catálogo de datos” y en historias específicas como “Como analista, necesito visualizar el linaje de datos para garantizar trazabilidad”. Esta estructura facilita priorizar tareas según el valor de negocio y el riesgo asociado. Asimismo, el enfoque DataOps integra principios ágiles y DevOps para automatizar pruebas de calidad, integración continua y despliegue continuo, reduciendo errores y acelerando la entrega de valor. Según Eckerson (2020), DataOps mejora la colaboración entre equipos de datos y negocio al incorporar automatización, monitoreo continuo y ciclos rápidos de retroalimentación.
En cuanto a métricas relevantes para evaluar la calidad y gobernanza en entornos ágiles, considero fundamentales al menos tres. Primero, la exactitud (accuracy), que mide qué tan correctamente los datos representan la realidad; sin exactitud, cualquier análisis pierde credibilidad. Segundo, la completitud (completeness), que evalúa el porcentaje de datos no nulos o faltantes, especialmente crítica en modelos predictivos y reportes ejecutivos. Tercero, la latencia de datos (data latency), que indica el tiempo que transcurre desde que el dato se genera hasta que está disponible para su uso. En entornos ágiles, donde la toma de decisiones debe ser rápida, la latencia es un indicador estratégico. Estas métricas pueden visualizarse en tableros de control y revisarse en cada sprint como parte del proceso de inspección y adaptación. Como señalan Turban, Sharda y Delen (2021), la calidad del dato es un factor determinante en la efectividad de los sistemas de inteligencia de negocios y soporte a decisiones.
Además, la filosofía de mejora continua del enfoque ágil se relaciona directamente con el ciclo de vida de los datos. Cada iteración permite evaluar fuentes, transformaciones, reglas de calidad y resultados analíticos. Las retrospectivas no solo aplican al desempeño del equipo, sino también a la calidad de los datos y a los procesos de gobierno implementados. Esta conexión entre iteración y aprendizaje organizacional fortalece una cultura basada en evidencia, donde las decisiones no se toman por intuición sino por información validada. Estudios recientes destacan que la combinación de prácticas ágiles con gestión disciplinada de datos incrementa la capacidad organizacional para generar valor estratégico (Khatri & Brown, 2020).
Referencias
Eckerson, W. (2020). DataOps: A new methodology for data analytics. TDWI Best Practices Report.
Khatri, V., & Brown, C. V. (2020). Designing data governance. Communications of the ACM, 63(1), 76–83.
Turban, E., Sharda, R., & Delen, D. (2021). Decision support and business intelligence systems (10th ed.). Pearson.