Archivos de la categoría Indicador Único

Indicador Único

Tras publicar el Ranking de Encuestas 2.0, me llegaron varias comentarios vía e-mail. Una de las preguntas más recurrentes fue respecto a la utilidad del ranking. En este artículo contesto esa pregunta. Explico que su principal uso será para crear un indicador único de intención de voto. Para esto, voy a combinar el error-no-forzado de cada encuestadora con las características particulares de sus respectivas encuestas.

En términos prácticos, la lógica es la siguiente. Todas las encuestadoras tratan de predecir el resultado de una elección por medio de encuestas. Una forma de interpretar estos resultados es individual y directamente. Sin embargo, porque existen varias encuestas podemos usarlas todas para extraer la información relevante que nos entrega cada una. Para hacer esto, se agregan los datos de todas las encuestas en un indicador único (en este caso de intención de voto).

Ahora bien, dado las características particulares de cada encuesta (diseño metodológico, tamaño de muestra y fecha de trabajo de campo), es metodológicamente incorrecto ponderar sus datos mediante una regresión local o una media aritmética. Al agregar las encuestas, sin considerar sus características particulares, se introduce error. Por eso, propongo ponderar sus diferencias de acuerdo al error que suelen introducir, de forma que:

PESO DE CADA ENCUESTA =  Tamaño de la Muestra + Encuestadora + Fecha de Trabajo de Campo

En esencia, esta fórmula sostiene que existen tres fuentes de error en cualquier encuesta. La primera fuente de error es el tamaño de la muestra. Esto es funcional al margen de error. Por ejemplo, solo por diseño metodológico una encuesta que entrevista a 800 personas va fallar en sus predicciones por 3,4%, mientras que una encuesta que entrevista a 1,500 personas va fallar en sus predicciones por 2,5%. Esto se calcula con la siguiente fórmula (con nivel de confianza de 95%):

98 * n ^ (-.5)

La segunda fuente de error es el diseño metodológico particular de cada encuestadora. Este es el error que no explica el margen de error, o lo que yo denomino el error-no-forzado. Por ejemplo, si una encuesta con margen de error de 3% estima que la diferencia entre el candidato favorito y el segundo lugar es de 11%, y en la elección la diferencia es de 14,5%, esa encuesta tiene un error-no forzado de 0,5% ([14,5-11]-3). Esto se calcula a partir del ranking de encuestas.

La tercera fuente de error es la fecha del trabajo de campo de cada encuesta. Mientras más lejos sea de la elección, aumenta la probabilidad que sus predicciones estén más lejos de la realidad. Por ejemplo, si la misma encuesta de arriba fue hecha en Octubre para una elección en Diciembre, puede ser que los 2 meses entremedio la encuesta y la elección expliquen el 0,5% de su error-no-forzado. Esto se calcula dándole una esperanza de vida a cada encuesta:

0.8 ^ Número de meses desde que la encuesta fue publicada

Indicador Único

A medida que una encuesta se publica, se agrega a la matriz de datos. Por ejemplo, si la encuesta es nueva se le asigna un peso de 1. Si su encuestadora tiene un error-no forzado de 2,5%, se calcula su peso en relación a la mejor encuesta (que tiene un error-no-forzado de 0,7%), en este caso 0,007/0,025 = 0,28. Y si su tamaño de muestra es 1,505, se calcula su peso a partir de lo que se estima sería un tamaño de muestra promedio, 0,0294/0,0253=1,16.

Luego, se multiplican el peso de cada fuente de error de esa encuesta (1*0,28*1,16=0,32) para dar con un peso para esa encuesta. Eso se normaliza (dividiendo el peso de esa encuesta con el promedio del peso de todas las encuestas) para dar con la ponderación final. Finalmente, se multiplica el parámetro estimado de esa encuesta con su ponderación final para calcular su estimación ponderada. Esto se hace con todas las encuestas, y luego se promedia.