Las encuestas del CIEP y del IDESPO muestran por qué, en tiempos electorales, tan importante son los datos cómo la estricta explicación de cómo se construyen… y además nos recuerdan que la única encuesta que vale será la del 1 de febrero.
En época electoral, las encuestas vuelven a ocupar un lugar central en la conversación pública. Se citan porcentajes, se comparan resultados y se construyen titulares que pretenden resumir el clima político del país. En ese contexto, dos estudios recientes elaborados por universidades públicas —uno del CIEP-UCR y otro del IDESPO-UNA— invitan a una reflexión que va más allá de quién va adelante o atrás en la carrera electoral.
No porque las encuestas no sirvan. Sirven, y mucho. El problema aparece cuando la forma en que se explican los datos termina siendo más confusa que esclarecedora.
Cuando la aclaración queda escondida
El estudio del CIEP combina dos instrumentos distintos: un panel, que sigue a las mismas personas a lo largo del tiempo, y una encuesta transversal, que toma una “fotografía” del momento. Ambos enfoques son metodológicamente válidos y bien conocidos en investigación social. Sin embargo, cuando el público llega al dato que más circula —la intención de voto—, no siempre queda claro que esos porcentajes no provienen del panel, sino únicamente de la encuesta transversal.
El informe lo aclara, sí, pero lo hace en una nota al pie, en letra pequeña y sin desarrollo en el texto principal. Para el lector común, la impresión que queda es simple: “esto es lo que dice la encuesta del CIEP”. La diferencia entre panel y transversal, que es clave para entender qué se está midiendo, se diluye. No es un error técnico, pero sí un problema de comunicación, especialmente en un contexto en el que cada cifra se convierte rápidamente en munición política.
A esto se suma una disonancia adicional. El panel ocupa un lugar protagónico en la explicación metodológica, pero sus resultados no aparecen con la misma claridad en la sección de hallazgos. Se explica mucho el instrumento, pero poco lo que efectivamente aporta al debate público. El resultado es una sensación de desbalance entre lo que se anuncia y lo que se muestra.
Un solo número, demasiadas lecturas
El caso del IDESPO es todavía más delicado. El informe indica que la encuesta se aplicó a 1.101 personas, pero cuando presenta la intención de voto presidencial, los porcentajes se calculan sobre 805 casos. El documento no explica qué ocurrió con las casi 300 entrevistas restantes.
Ese silencio abre un abanico de interpretaciones. Tal vez se excluyó a personas con baja probabilidad de votar. Tal vez se dejaron fuera entrevistas incompletas. Tal vez se aplicó algún filtro técnico adicional. Todo eso es posible. Lo que no es aceptable es que no se diga.
Lo más llamativo es que las personas indecisas sí aparecen en el gráfico, representando más de un tercio del total. Por lo tanto, la reducción de la muestra no puede atribuirse simplemente a “no respuesta”. El lector queda sin saber cuál es el universo real al que se refiere ese porcentaje tan citado.
Llevado a números concretos, el problema se vuelve evidente. El 39,9% de apoyo a Laura Fernández puede significar cosas muy distintas según cómo se interprete el estudio. Puede leerse como un 39,9% calculado sobre 805 personas, dentro de un subconjunto cuya composición no se explica. Puede convertirse en aproximadamente 29% si ese mismo apoyo se expresa sobre la muestra total de 1.101 entrevistas. O puede transformarse en cerca de 66% si alguien decide excluir indecisos, no respondientes y votos blancos o nulos para hablar solo de “votantes decididos”.
Todas esas lecturas pueden salir del mismo informe. Y ese es precisamente el problema, cuando un solo dato permite titulares tan distintos —sin que el propio estudio indique cuál interpretación corresponde—, el debate público se vuelve frágil. El número deja de informar y pasa a ser una herramienta moldeable según el interés de quien lo cite.
Aquí hay una responsabilidad compartida. Las universidades públicas tienen la obligación de explicar con total claridad cómo se construyen sus cifras, especialmente cuando estas influyen en la percepción del escenario electoral. Pero los medios también juegan un rol clave. Simplificar es necesario. Omitir lo esencial, no. Repetir porcentajes sin aclarar sobre cuántas personas se calculan o a quiénes dejan fuera contribuye —aunque no sea intencionalmente— a confundir al electorado.
Lo que ninguna encuesta puede decidir
Todo lo anterior importa por una razón simple: ninguna encuesta define una elección. Las encuestas describen un momento, no un destino. Son fotografías parciales, tomadas con instrumentos imperfectos y leídas —muchas veces— con más certeza de la que realmente ofrecen.
Hoy, días del 1 de febrero, Costa Rica no tiene una elección definida. Los altos niveles de indecisión, las distintas interpretaciones posibles de los datos y la volatilidad del escenario político así lo confirman. Ningún porcentaje publicado hasta ahora es un resultado. Ninguna gráfica es una sentencia.
Conviene decirlo con claridad: la única encuesta que realmente cuenta es la del día de las elecciones. La que se hace con papeleta en mano, en secreto, con millones de decisiones individuales que no pueden ponderarse, filtrarse ni reinterpretarse después.
Por eso es importante no sobredimensionar los números ni permitir que se conviertan en profecías autocumplidas. Cuando una encuesta se presenta como algo definitivo, corre el riesgo de desalentar la participación, de generar apatía o de instalar la idea de que “todo está decidido”. Y eso, en democracia, es peligroso.
Las encuestas deben informar, no sustituir al voto. Deben ayudar a entender el clima político, no a resignarse frente a él.
Al final, el rumbo del país no lo definen los márgenes de error ni los titulares del momento. Lo define la ciudadanía cuando decide participar. Ahora es el momento, después puede ser demasiado tarde para nuestra democracia.
