El purismo metodológico vs. la realidad de la implementación: ¿rigor o resultados?
- Diego Vásquez
- 21 abr
- 4 Min. de lectura
“Todos los modelos son falsos; algunos son útiles”. — George Box
La frase del estadístico británico resuena con fuerza cada vez que un proyecto aterriza sobre nuestra mesa —sea una evaluación de impacto, el rediseño de un programa social o la construcción de un dashboard de control— la tensión entre la elegancia técnica y la urgencia práctica reaparece como un déjà vu inevitable. En un extremo, el laboratorio metodológico, con sus supuestos cuidadosamente controlados y su promesa de validez interna impecable. En el otro, el terreno de la implementación: datos incompletos, equipos con rotación constante, objetivos que cambian con la coyuntura política.
La pregunta no es nueva, pero sí vigente: ¿Cuánta “pureza” podemos exigir sin traicionar la utilidad?

Dos mundos que hablan idiomas distintos
El laboratorio metodológico es un espacio mental donde la regresión discontinua se aplica con manual en mano y la base de datos llega sin errores tipográficos. Allí, los intervalos de confianza son tan precisos como las instrucciones de un relojero suizo.
Fuera de esa burbuja, la trinchera de la implementación opera con una lógica radicalmente diferente: las bases de datos se recompilan “sobre la marcha”, los lineamientos se reinterpretan en cada región y el plazo para entregar resultados suele adelantarse “por razones estratégicas”.
Ambos mundos comparten un objetivo —mejorar decisiones— pero rara vez se sientan en la misma mesa a discutir prioridades. La brecha lingüística se hace evidente cuando el evaluador habla de “validez estadística” y el gestor, de “qué hago el lunes a primera hora para corregir el desvío”.
La tensión aparece cuando intentamos transplantar sin anestesia marcos teóricos (diagramas lógicos, regresiones cuasi‑experimentales, marcos de resultados) a contextos donde levantar una línea de base ya es una odisea. El riesgo: terminar midiendo lo que es más fácil capturar —o lo que cabe en nuestro software favorito— en vez de lo que realmente importa para la toma de decisiones.
El costo del purismo
Mantener la vara metodológica en su punto máximo no es gratis. Lo pagamos en tiempo, en dinero y, sobre todo, en pertinencia. Revisemos tres síntomas habituales y su factura posterior:
Síntoma | Lo que parece | Lo que termina ocurriendo |
Un diseño de evaluación con requisitos de datos inalcanzables | Rigor sin compromisos | El estudio se posterga o se publica cuando la ventana de decisión ya se cerró |
Indicadores tan sofisticados que solo entiende el equipo técnico | Avance intelectual | Desconexión entre el reporte y la acción correctiva: nadie “en terreno” sabe qué significa un “índice G” de 0,37 |
Planificación plagada de jerga metodológica | Lenguaje experto | Pérdida de legitimidad: la implementación percibe la metodología como un obstáculo, no como un aliado |
No se trata de renunciar al método —sería suicida— sino de alinearlo con un propósito claro. Un P‑value impecable aporta poco si la decisión de financiar (o no) un programa ya se tomó por razones ajenas a la evidencia.
¿Dónde está el equilibrio?
Preguntas primero, métodos después: el camino inverso
Una de las lecciones más valiosas que nos dejó la medicina basada en evidencia es que “la pregunta clínica antecede al diseño del ensayo”. En política pública y gestión, deberíamos replicar el mantra: define primero la pregunta estratégica y recién entonces selecciona la herramienta adecuada.
Si la duda es “¿llegamos al público objetivo?”, quizá un análisis de cobertura sea suficiente. Si queremos estimar el cambio atribuible, un experimento natural o un diseño cuasi‑experimental podrían bastar. Exigir un RCT en todos los casos es tan absurdo como pretender usar un bisturí para cortar pan.
Iteración pragmática
Nada desgasta más la confianza institucional que un estudio que nunca ve la luz. Frente a esa amenaza, la respuesta no es bajar la exigencia sino fragmentar la ambición en ciclos breves de aprendizaje.
Piloto con un subconjunto de indicadores disponibles.
Ajuste metodológico tras los primeros hallazgos.
Escala gradual cuando la calidad de datos y la capacidad de gestión lo permitan.
Así, la perfección se vuelve incremental en lugar de inalcanzable, y cada ronda aporta valor tangible.
Rigor adaptable: grados en lugar de absolutos
A veces, la dicotomía “purista vs. práctico” se plantea como un todo‑o‑nada injusto. Pero el rigor es un continuo más que un interruptor binario. Podemos graduar la intensidad según el contexto:
Cuasi‑experimentos cuando la aleatorización es políticamente inviable.
Indicadores proxy para periodos intermedios siempre y cuando se valide su correlación con el outcome final.
Triangulación cualitativa para iluminar mecanismos donde el número no alcanza.
Documentar cada decisión —y sus limitaciones— es parte de la honestidad científica; pero postergar la publicación hasta obtener data perfecta suele ser, paradójicamente, la forma más sutil de esconder el polvo bajo la alfombra.
Orientación a resultados, siempre
El propósito final no es publicar un paper ni presumir un indicador; es mejorar decisiones y generar efectos.
Un caso rápido: el índice de desempeño municipal
Un equipo técnico diseñó un índice compuesto de 20 variables ponderadas para medir la eficiencia de los municipios en la gestión de residuos. La metodología era impecable… sobre el papel.
Problema: 40 % de las comunas no reportaban seis de las variables clave; otras enviaban datos con tres años de desfase. Resultado: el índice quedaba “en pausa” hasta nuevo aviso.
La salida fue reducir el indicador a ocho variables de alta disponibilidad y organizar un taller exprés con gestores locales para validar relevancia. Tres meses después, el tablero interactivo se publicaba trimestralmente, activando planes de mejora concretos y condicionando la asignación de recursos.
¿Se perdió precisión? Sin duda. ¿Se ganó poder de acción? También, y en buena medida, pero se logró generar planes de mejora concretos y —dato no menor— empezó a influir en la asignación de recursos.
Reflexión: métodos al servicio del propósito
La dualidad entre purismo técnico y aplicación práctica no es un dilema win‑lose, sino un balance dinámico. La consigna debería ser simple:
“Tan riguroso como sea necesario, tan sencillo como sea posible.”
Si la metodología no impulsa mejores decisiones, carece de sentido; pero sin un mínimo de rigor, navegamos a ciegas. En el fondo, somos artesanos de la evidencia: necesitamos herramientas afiladas, sí, pero sobre todo disposición a usarlas para tallar resultados tangibles.
Comentários