Hay una escena bastante común en cualquier organización, pública o privada.
Tenemos una diapositiva con indicadores impecables, series temporales bien alineadas y porcentajes que, a simple vista, parecen incuestionables. Todo encaja. Todo es correcto. Y, sin embargo, algo no termina de cuadrar en la realidad que estos datos pretenden describir. Las decisiones se toman, los programas se evalúan, pero los resultados sobre el terreno no siempre acompañan. No porque los datos estén mal, sino porque quizá están diciendo menos de lo que creemos… o algo distinto.
Durante años hemos insistido —con razón— en la importancia de decidir con datos y no solo con intuiciones. Pero hay un terreno intermedio mucho menos explorado: qué ocurre cuando los datos son técnicamente correctos, pero conceptualmente frágiles. Cuando no mienten, pero inducen a error.
Un primer problema habitual es la agregación. Los indicadores agregados son útiles para tener una visión general, pero peligrosos cuando se convierten en el único marco de decisión. Pensemos en una tasa de empleo que mejora a nivel regional. El dato es real. La metodología es sólida. Pero ¿qué ocurre si esa mejora se concentra en determinados perfiles o territorios, mientras otros siguen estancados o incluso empeoran? El indicador “funciona”, pero oculta dinámicas internas relevantes. La política pública, guiada por ese buen dato, puede concluir que el problema está resuelto cuando, en realidad, solo se ha desplazado.

No hay comentarios:
Publicar un comentario