INTRODUCCIÓN
En términos de una lógica eminentemente democrática, una de las conquistas inherentes a la alternancia política alcanzada con las elecciones federales de 2000, fue la posibilidad de corroborar que aquello que prevalecía en la opinión pública, plasmado en las encuestas electorales y de salida, compaginaba con todos los resultados de aquel proceso electoral organizado por una institución autónoma del Estado Mexicano, el Instituto Federal Electoral (IFE). La génesis de la transición política traía consigo altos niveles de confianza ciudadana, y las dos instituciones con mejor evaluación desde la sociedad eran el IFE y los medios de comunicación. La primera con legitimidad emanada de la generación de certeza y respeto irrestricto a la ley; la segunda por la objetividad del análisis y difusión oportuna de los datos del proceso electoral correspondiente.
Sin embargo, la concordancia en los resultados de encuestas de salida y conteos rápidos institucionales no fue la misma en las dos elecciones presidenciales subsiguientes. Si en 2006 fue la proximidad de la preferencia electoral de los candidatos punteros, en 2012 fue para muchos la evidente intervención mediática a favor de un candidato; aunadas ambas a la ausencia de una cultura de la precisión estadística (Salazar, 2018), fue lo que desencadenó que la información de casas encuestadoras y medios de comunicación no sólo fuera imprecisa, sino catalogada como carente de imparcialidad y objetividad.
Con la reforma electoral de 2014, se fundó un modelo de regulación de encuestas electorales basado en un régimen de transparencia en el que el Instituto Nacional Electoral (INE) es la institución encargada de recopilar y difundir los estudios metodológicos que respaldan los resultados publicados de las casas encuestadoras (Flores Thomas, 2018, 11). Sin embargo, aunque dicha implementación permite nutrir el debate colectivo con elementos propios de calidad y rigor metodológico de los distintos sondeos, la cada vez más notoria falta de precisión de muchos ejercicios demoscópicos ha conducido a una gran variedad de resultados imprecisos, que han provocado altos niveles de desconfianza desde la opinión pública, a partir de los cuales se arremete directamente contra el valor en sí mismo de las encuestas y sondeos, en lugar fundar la crítica en lo concerniente a los diseños particulares y específicos de los mismos.
Y es que, para el componente explicativo de la ciencia política, especialmente aquel afianzado a las teorías de comportamiento electoral y de análisis de la opinión pública, las encuestas son una de las principales herramientas para conocer las características políticas y sociodemográficas de los votantes.
Así, el objetivo del trabajo es demostrar la importancia de las encuestas de salida y conteos rápidos como instrumentos que tienen la capacidad de informar a la ciudadanía acerca de las tendencias de los resultados electorales. Así, la pregunta que guía a la investigación es la siguiente: ¿De qué manera se explica la eficacia de los instrumentos de resultados preliminares, y cuáles son los elementos necesarios para la publicación de las tendencias con alto grado de confianza en contextos electorales locales? Por lo anterior, la hipótesis de trabajo sostiene que la falta de precisión de los ejercicios de tendencia electoral se debe a incorrecciones de tipo metodológico, particularmente en términos de muestreo, niveles de significancia y márgenes de error en su ventana metodológica, aunada a la incapacidad operativa de cubrir significativamente los diferentes estratos de una muestra representativa (como las encuestas de salida), lo que por su diseño y naturaleza sí permiten los conteos rápidos institucionales, sin importar que se realicen desde el ámbito local.
Así, para demostrar el supuesto anterior, el presente trabajo se compone de tres apartados centrales: en la primera parte se aborda una sucinta exposición teórica de los principales rasgos del comportamiento electoral, para decantar en la explicación de la importancia de los sondeos y encuestas de opinión con un énfasis en la diferencia entre encuestas de salida y los conteos rápidos institucionales en México. La segunda parte explica de manera clara y precisa, la importancia de los niveles de significancia y márgenes de error en el levantamiento de datos, y las implicaciones científicas que puede aportar un buen cimiento cuantitativista en el análisis politológico. Finalmente, la tercera sección analiza tres casos concretos en los que se realizaron encuestas de salida y conteos rápidos luego de la implementación de la reforma electoral de 2014, a través de un despliegue estadístico de análisis de datos: los casos de la elección de gobernador en Nayarit, Coahuila, Estado de México en 2017. Lo anterior da paso a las conclusiones del estudio.
ENCUESTAS DE SALIDA Y CONTEOS RÁPIDOS: IMPORTANCIA METODOLÓGICA EN EL ANÁLISIS DEL COMPORTAMIENTO ELECTORAL
Con el año 2000 inició lo que para muchos autores es el siglo de la democracia, el cual ha desatado el potenciamiento de una serie de derechos inalienables como sin duda lo es el derecho a estar informados.
Asimismo, el creciente acceso de la ciudadanía a una variedad de fuentes de información, las cuales, si bien tienen la capacidad de conseguir altos niveles de influencia en la sociedad, son esenciales para el pleno funcionamiento de una democracia, ha provocado, entre otras cosas, una atención significativa en los procesos políticos y electorales que acontecen al menos cada tres años en nuestro país. La cantidad de medios y la pluralidad en la oferta han incrementado la capacidad y la velocidad de la transmisión de información, y aunque la situación de la democracia en México aún no goza de plenitud en la difusión de los valores democráticos ni de independencia de los medios de comunicación hacia el gobierno, siguen siendo centrales para influir e incidir en la percepción de la política, así como la formación de la opinión pública (Cuna, 2009).
Dicho proceso de formación tiene diferentes vetas de análisis, sobre todo si se incluye la variable de las redes sociales, ya que éstas han comenzado a ocupar un lugar trascendental en la competencia político-electoral. Para algunos autores, dicha herramienta sienta las bases simbólicas de la crítica o apoyo a los asuntos de la arena pública (Sánchez, Aguilar, Cancino, 2016: 83), lo que representa un cambio relevante en la formación de la opinión pública. Fenómenos como las fake news (procesos de distorsión de la información, cuyo objetivo es mediatizar a las audiencias a través de la desinformación), y su concomitante “vacuna”, la interactividad verificable de dichos contenidos (Castillo, 2019: 13). Lo anterior proviene directamente de los usuarios de las redes sociales, de acuerdo con el INEGI (2019) el 97% de los mexicanos conectados a Internet tienen alguna cuenta en redes sociales (equivalente % de la población total.). Ello es en parte, la comprobación de la tesis de Castells (2009, 108), en la que sostiene que la comunicación de masas tradicional, ha transitado a un modelo de autocomunicación de masas, en el que la idea de una base informativa oficial se diluye, y da paso a que sean los propios ciudadanos quienes, en diferente medida, construyen y co-construyen el flujo de la información.
Existen muchos instrumentos que intentan ser un termómetro para medir la opinión pública. Tal es el caso de las encuestas de opinión que, aplicadas con una metodología exhaustiva, gozan de capacidad informativa vinculante para convertirse en un reflejo de la realidad, y útiles para la conformación de la opinión pública: una fuente confiable de información. Pero de arrojar resultados contradictorios, a posteriori pierden paulatinamente legitimidad en sí mismas, tal es el caso de las encuestas de opinión levantadas a lo largo del año 2012 para estimar la preferencia electoral en a las elecciones presidenciales correspondientes en México. Algunas casas encuestadoras de prestigio, como Consulta Mitofsky, declararon durante los meses de campaña electoral como sólido primer lugar al candidato de la coalición Compromiso por México, mientras que, en el mismo periodo de tiempo, al candidato de la coalición Movimiento progresista con una preferencia menor a los 20 puntos porcentuales. Aunque los resultados compilaron respecto al candidato ganador y el margen de no respuesta superaba los 15 puntos porcentuales, las posiciones entre el segundo y tercer lugar fueron objeto de un claro error de precisión (gráfica 1).1
Lo anterior es uno de muchos ejemplos de la importancia del diseño de los procedimientos e instrumentos para recopilar datos, no sólo en las ciencia política o en las ciencias sociales (de orientación empírica), sino para recuperar fehacientemente la opinión pública, la cual ha sido caracterizada desde distintas vertientes del pensamiento, más que como la suma de opiniones individuales, como un espacio de reflexión colectiva y plural sobre los asuntos públicos que son constitutivos y co-constructivos de una comunidad democrática funcional (Habermas, 1990, 268). Para George Gallup, uno de los fundadores del método de recolección de datos, las encuestas bien aplicadas, son un método fundamentalmente democrático ya que le daba voz a la gente de menor importancia (Fernández, 2015, 39).
Así, en el caso de la ciencia política de corte empírico, los métodos demoscópicos y las encuestas poseen un fuerte arraigo en los estudios de comportamiento electoral, es decir, aquel comportamiento multifactorial que los ciudadanos despliegan, y que determina no sólo a los partidos políticos más exitosos, sino que condiciona la conformación misma del sistema de partidos (Ruiz, 2015, 20-21); y que es determinado por una diversidad de factores: la investigación electoral distingue por lo general, entre determinantes de largo plazo e influencias de corto tiempo, e interpreta el comportamiento electoral como un acto tanto expresivo como instrumental y orientado por ponderaciones racionales de costo-beneficio (Moreno, 2009, 23). Entre las primeras se encuentran las condiciones macrosociales y políticas, la estructura del ámbito público y el universo de los medios de comunicación. También cabe considerar el arraigo socio-estructural de los electores en entornos primarios y secundarios, a través de los cuáles se produce la relación con los conflictos de la sociedad entera.3
Partiendo de las anteriores premisas, es importante recordar que en nuestro país históricamente existe una deuda institucional para fortalecer la organización republicana del Estado. Esto se refleja en los niveles de desconfianza hacia los partidos políticos y las instituciones del sistema electoral, puesto que al ser la normatividad electoral la cristalización del acuerdo entre los partidos políticos, no es difícil inferir una relación directa entre ambos subsistemas del espectro político.4 De esta manera, para afianzar la confianza en la institución electoral en términos de la jornada electoral, la Ley General de Instituciones y Procedimientos Electorales (LGIPE) contempla dos ejercicios paramétricos estadísticamente representativos realizados por la autoridad electoral con el objetivo de proveer por medio de estimaciones puntuales un cálculo confiable de los resultados de los comicios durante las 24 horas subsiguientes a la jornada electoral.
El primero de dichos ejercicios son los denominados “conteos rápidos”, los cuales son dispositivos estadísticos cuyo objetivo principal es estimar, a partir una muestra significativa de casillas (es decir, una pequeña parte del total de las casillas instaladas para votar) el porcentaje mínimo y máximo de votación para cada candidato que se obtendría del cómputo del total de las actas antes de tener los resultados de los cómputos distritales, con la ventaja de hacerlo la misma noche de la elección.5 En segundo lugar, el “Programa de resultados electorales preliminares” (PREP), el cual registra los votos asentados en las actas para cada candidato en cada elección. La información se recibe una vez que se terminan de contar las boletas en las casillas y se llenan las actas entre las 18 horas del día de la elección y las 18 horas del día siguiente, y su objetivo radica en tener un registro poblacional de los resultados preliminares de todas las elecciones en cada distrito electoral, sea local o federal.6
Por otro lado, las casas encuestadoras, así como algunos medios de comunicación, han implementado la aplicación de “encuestas de salida” también denominadas exit polls o encuestas a “boca de urna”, las cuales se realizan el día de la elección inmediatamente después de que los votantes abandonan el local de votación. Al ser una forma especial de las encuestas tradicionales, las encuestas de salida se basan en una muestra de circunscripciones electorales cuyo objetivo deseablemente es expresar representatividad. Dentro de esta selección de circunscripciones, los votantes son encuestados siguiendo un procedimiento establecido con anterioridad, por el voto que acaban de emitir. A diferencia de las encuestas previas de las elecciones, las encuestas de salida presentan una ventaja fundamental: se pregunta por un comportamiento político real y no por la intención de voto que desde un punto de vista metodológico de medición, se presta mucho más a errores. Aunque sirven sobre todo para el análisis electoral, las prioridades cambiarán a favor de un cuestionario que puede preguntar acerca de partidos, candidatos, issues y características sociodemográficas del elector, con lo que es posible realizar estudios sociológicos de mayor amplitud (Abundis 2017, 32-37).
Sin embargo, las casas encuestadoras difícilmente cuentan con el despliegue institucional que sí tienen el INE y los Organismos Públicos Locales Electorales (Oples), por lo que en ocasiones las encuestas de salida carecen de representatividad o difieren significativamente de los resultados finales. Uno de los motivos anteriores, radica metodológicamente en las unidades de análisis: para los conteos rápidos, la unidad de análisis son las casillas electorales, mientras que en las encuestas de salida son principalmente los electores. Lo anterior no desestima la valía metodológica de las encuestas de salida, ya que, como afirman Abundis y Penagos, la riqueza de esos ejercicios estadísticos dejó de ser la precisión y pasó a ser su carácter explicativo (Abundis, 2017, 32). Así, en un país como México, en el que ya es una tradición que todos los candidatos se declaren ganadores luego de la jornada electoral, merece la pena destacar las principales características de los conteos rápidos y de las encuestas de salida (cuadro 1).
Cuadro 1
Dicho lo anterior, antes de analizar datos empíricos de tres casos reales en los que se realizaron encuestas de salida y conteos rápidos, es importante dilucidar la relevancia de los márgenes de error y niveles de significancia, así como los diferentes métodos de muestreo, pues dichos elementos son el sustento estadístico en la construcción de encuestas, así como conteos rápidos.
NIVELES DE SIGNIFICANCIA Y MÁRGENES DE ERROR: LA ESTADÍSTICA INFERENCIAL EN EL ANÁLISIS POLÍTICO
Para que la ciencia política desarrolle plenamente su potencial explicativo, es decir, que encuentre las causas de los fenómenos políticos y con ello demostrar postulados a través de hipótesis de trabajo (en lugar de caer en la conjetura de la hermenéutica), es trascendental estimular el interés por temas cuantitativos, así como investigaciones comparadas. Para investigadores de talla nacional, es necesaria la cuantificación y la matematización de la disciplina, pues la ciencia política de hoy no valora aportes sustantivos si éstos carecen de alguna formulación de apoyo estadístico: el valor del dato (Alarcón, 2009, 79).
En el último diagnóstico de las licenciaturas en ciencia política realizado por la Universidad Nacional Autónoma de México en 2014, para el área de investigación técnica o cuantitativa7, se advierte una seria debilidad en las materias de matemáticas y estadística, puesto que no están ofreciendo buenos resultados en términos de la habilitación de los alumnos en el manejo de las herramientas necesarias para el análisis (UNAM, 2014).
Sugerido lo anterior, el presente apartado aspira a conseguir explicar dos términos relevantes para la estadística inferencial8 de manera sucinta y concisa: los conceptos de margen de error y niveles de significancia, ambos intrínsecamente ligados al tema central de estudio, por lo que con la misma concisión se explicarán términos asociados como lo es el de diseño muestral o el de errores no paramétricos. Para cortar con la navaja de Occam y hacer la explicación más sencilla, lo siguiente procura ser ilustrativo sin sacrificar la precisión.
El tópico central en el que se centra la estadística inferencial es precisamente el de probabilidad el cual es, en términos escuetos, la posibilidad de que un evento suceda. En otras palabras, tener una probabilidad cero significa que algo nunca va a suceder, y por el contrario, una probabilidad de uno indica que ese algo va a suceder absolutamente (Levin y Rubin, 2010, 129). Uno de los principios básicos de la probabilidad radica en que si la muestra es lo suficientemente grande y conforme aumente el tamaño de la misma, la distribución de la media muestral se aproxima por medio de una distribución normal a la media de la población, incluso si la población no está distribuida normalmente: conocido como el teorema del límite central.9
Precisamente, una de las principales funciones de la estadística inferencial es el uso de datos muestrales para estimar un parámetro poblacional. Para ello, la herramienta central para comprobar hipótesis, que en términos estadísticos son afirmaciones matemáticas acerca de una propiedad de una población, son las pruebas de significancia estadística, que son los procedimientos para comprobar una hipótesis y que en el presente caso de estudio son realizadas tanto en encuestas de salida como en los conteos rápidos y demás ejercicios demoscópicos, los cuales se utilizan para el diseño de la investigación. En la investigación politológica cuantitativa, tanto el análisis como la interpretación de los datos se realizan a partir de la prueba de hipótesis.
Para probar una hipótesis de investigación, existen varias pruebas de significancia estadística que buscan comprobar si los datos obtenidos en una muestra compilan con la hipótesis.10 Naturalmente todas estas estimaciones contienen errores, caracterizados como la diferencia entre los valores que se producen del análisis de una muestra frente a una población. En resumen, es saber con qué grado de certidumbre, la diferencia observada entre un estadístico y un parámetro puede deberse a una fluctuación aleatoria (Vilalta, 2016, 146).
El método inicia definiendo la hipótesis nula () que es aquella que busca falsear la prueba. Frente a ella se busca una hipótesis alternativa () que afirma una diferencia estadística respecto a la hipótesis nula. Fueron Neyman y Pearson, los que propusieron el modelo dominante de la prueba de hipótesis, aunado a la consideración estadística de los errores tipo I y II (cuadro 2).11
Tabla 1
Modelo de prueba de media muestral | Modelo de diferencia de proporciones |
---|---|
H 0 : M = μ | H 0 : p = π |
H a : M ≠ μ | H a : p ≠ π |
Así, para el diseño de la investigación, con el objetivo de estimar si una muestra es representativa de una población o si difiere de otra, la probabilidad (p) es aquella que a partir de una prueba estadística tiene una probabilidad de suceder menor al porcentaje del total de los posibles sucesos, por lo que es importante construir intervalos de confianza, los cuales son un subconjunto probable de los valores posibles en la prueba. Los niveles de significancia en la investigación social son aquellos en los que la probabilidad de que un parámetro caiga dentro del intervalo de confianza establecido a partir de una muestra con el 90% (si α < 0.1), 95% (cuando α < 0.05) y en casos deseables hipotéticamente 99% (cuando α < 0.01). siendo α el nivel de significancia, este nos indica la probabilidad de obtener un resultado al azar a partir de una muestra (Peña y Romo, 1997, 302). De manera sucinta, la significancia estadística es un nivel predefinido por el investigador con el que se rechaza una hipótesis nula (). Para calcular los intervalos de confianza, las fórmulas son las siguientes:
Tabla 2
Como se analizó en líneas anteriores, si se estudia un número grande de medias de muestras de una población la distribución se aproxima a una curva normal. Al ser una aproximación, existe la posibilidad de dispersión, la cual se conoce como error estándar de la media (Levin y Rubin, 2010, 281). Esta estimación se conoce como error muestral o error de estimación, y es el error que se encuentra en función de la variabilidad de la población, del tamaño de la muestra y de cómo son seleccionadas las observaciones. Hay que tener en cuenta que es un tipo de error de medición que deriva en una diferencia entre el valor real y el observado.
Entonces, si el error estándar es la aproximación al error proveniente de la relación entre la variabilidad de la variable bajo estudio y del tamaño de la muestra; y el nivel de confianza es una medición predefinida de la probabilidad que el intervalo de confianza contenga el valor del parámetro que se busca estimar, entonces ambos conforman el margen de error (Vilalta, 2016, 117).
Es importante mencionar que para la investigación social basada en encuestas existen otros tipos de errores: el de cobertura, de muestreo, de no respuesta y de medición. El primero se presenta cuando el diseño muestral no incluye de manera representativa la consideración de individuos en la muestra. El error muestral ocurre cuando un subconjunto de la población es utilizado para representar las características de la población entera. El relativo a la no respuesta es el resultado de no obtener la información que se buscaba; y el error de medición es cuando l valor observado difiere de su valor real.12
Finalmente, para el tema del cálculo del tamaño de una muestra, se debe retomar lo anteriormente dicho: que la variable se distribuya normalmente, que la varianza de la muestra representa fielmente la balanza de la población; y que se conoce el tamaño de la población. Así, el margen de error puede obtenerse de la siguiente forma:
Derivado de lo anterior y tomando en cuenta que α es la probabilidad de cometer un error tipo I y representa una medida de confianza en la ejecución de la prueba, adicional al margen de error, el tamaño de la muestra puede obtenerse de las siguientes formas más comunes:
Para cerrar el presente apartado el último concepto que hay que tener presente es el de muestreo el cual se utiliza por el investigador para la selección de las observaciones. Entre los estudiosos de la estadística se afirma que el proceso más riguroso que acompaña al tamaño de la muestra debe ser el desarrollo de una forma correcta y rigurosa del procedimiento de muestreo, el cual tiene la capacidad de dotar de validez científica los resultados de una investigación estadística (Izcara, 2007, 50). Tradicionalmente existen varios métodos de muestreo, el aleatorio simple, el cual considera todas las observaciones de una población como idénticas para propósitos del estudio; el muestreo aleatorio sistemático, que es una variación del anterior, y que permite la selección al azar a todos los eventos, el muestreo por conglomerados, que consiste en elegir todas las unidades muestrales en un solo lugar; o el muestreo aleatorio estratificado que se complejiza en función de las características demográficas de la población con el objetivo de dotar de mayor representatividad de los subgrupos en la muestra. La estratificación implica la inclusión de uno o varios criterios en el diseño muestral y por tanto ofrece una mayor precisión que los anteriores tipos de muestreo (Vilalta, 2016, 117-136).
ENCUESTAS DE SALIDA Y CONTEOS RÁPIDOS EN ELECCIONES LOCALES: NAYARIT, ESTADO DE MÉXICO Y COAHUILA
Después de explicar la importancia y efectividad de los métodos estadísticos en la sección anterior, así como las características particulares de las encuestas de salida y los conteos rápidos en tanto herramientas demoscópicas con deseable capacidad predictiva en los procesos electorales, llegó el momento de aplicar el análisis en casos empíricos semejantes con evidencia heterogénea. Así, en la presente sección se exponen tres casos de elecciones para gobernador celebradas en 2017: Nayarit, Estado de México y Coahuila.
En la elección local de Nayarit, la cual fue organizada por el Instituto Electoral Estatal de Nayarit (IEE) con apoyo del INE a raíz de la facultad de asunción parcial, se llevaron a cabo tanto un ejercicio de conteo rápido como una encuesta de salida registrada ante la autoridad electoral. Ambos ejercicios -con distintos márgenes de precisión- pronosticaron y empalmaron con el resultado electoral final. De manera muy similar, en el Estado de México dos casas encuestadoras registraron encuestas de salida ante la autoridad electoral, y el Instituto Electoral del Estado de México (IEEM) realizó su propio conteo rápido. La particularidad es que, si bien en Nayarit hubo una clara ventaja entre el primer y segundo lugar, las elecciones del Estado de México fueron bastante cerradas. Aun así, las encuestas de salida y en especial el conteo rápido reflejaron resultados confiables dentro de los márgenes de error. Finalmente, el caso de Coahuila tiene un significado sui generis, pues la autoridad electoral no registró encuestas de salida, y el conteo rápido no coincidió con el resultado final de la elección. Sin embargo, la explicación de ello no tiene que ver con el diseño de la muestra, sino con cuestiones de índole operativo en la aplicación del instrumento. Los detalles de cada uno de los casos expuestos serán explicados a detalle en el respectivo subapartado.
NAYARIT
Contexto electoral
Nayarit es una entidad que alberga a menos de 1% del total de la ciudadanía inscrita a nivel nacional. Con poco más de 730 mil ciudadanos inscritos, en 2017 celebraron la elección local y se llevaron a cabo comicios para elegir al Ejecutivo y al Congreso locales (18 diputaciones de mayoría relativa y 12 de representación proporcional), además de 20 ayuntamientos. Siendo una entidad que ya ha experimentado la alternancia tanto en el Ejecutivo local, como la rotación de mayorías partidistas en su Congreso, Nayarit continúa transitando en el camino de la consolidación de su democracia electoral.13En el ámbito de la elección del Ejecutivo local, se dio la segunda alternancia en el estado nayarita, en una elección en la que votó el 62.38% de la Lista Nominal de Electores (lne), la diferencia entre el primero y el segundo lugar superó los 11 puntos porcentuales. Cabe señalar que fue una elección en la que hubo un atípico candidato independiente: Hilario Ramírez “Layín”. A pesar de la participación de Morena como partido político, en Nayarit el PRI y el PAN continúan siendo los partidos a vencer (Navarrete, 2018: 143).
Encuestas de salida en Nayarit
Ante la autoridad electoral nayarita, únicamente se registró un medio de comunicación para realizar encuestas de salida: El Financiero. El diseño metodológico le permitió determinar que el ganador de la contienda sería el candidato por la coalición PAN-PRD-PT-PRS. Los datos arrojados en la encuesta de salida tuvieron precisión en función de su marco metodológico a pesar de que sólo tomaron información de votantes en 50 secciones electorales. No hay que olvidar que, en una encuesta de salida, la unidad de muestra es el ciudadano que votó.
Conteo rápido en Nayarit
El Conteo Rápido en Nayarit, el cual fue responsabilidad del INE se dio a conocer aproximadamente a las 23.55 pm del domingo 5 de junio de 2017.
A esa hora se había recibido información de 220 casillas (de un total de 440 en muestra), lo que representaba un 50% de la muestra total.
En este caso, la información necesaria para hacer el Conteo fluyó con regularidad y la distancia entre el primero y segundo lugar hizo posible emitir una estimación a pesar de tener sólo el 50% de la muestra. Nuevamente hay dos datos en los que es importante prestar atención:
1) Los intervalos del primer y segundo lugar NO se cruzan. Para el caso del candidato de la coalición liderada por el PAN, el mínimo de votación se estimó en 37.96% y el máximo en 41.4%. Para el caso del candidato de la coalición liderada por el PRI, el mínimo de votación se estimó en 24.84% y el máximo en 28.2%. Es decir, con esos resultados se pudo decir que la coalición liderada por el PAN tenía la mayoría relativa de los votos.
2) Los intervalos estimados por el conteo rápido SÍ incluyeron el resultado final de los cómputos, en todos los casos. Es decir, el conteo rápido fue preciso y cumplió con su objetivo (gráfica 2).
Tabla 2
Para finalizar el caso de Nayarit, vale la pena hacer uso de elementos gráficos para comparar el resultado de los conteos rápidos versus el resultado oficial de la elección en los dos candidatos punteros para comprobar la aproximación del ejercicio muestral (conteo rápido) con el poblacional (cómputos distritales). Resulta trascendental observar el inicio y el final de las gráficas, así como la apertura de las diferencias al momento de iniciar la separación, pues es el momento en el que inicia una tendencia clara entre el ganador y el segundo lugar (gráficas 3 y 4).
ESTADO DE MÉXICO
Contexto electoral en el Estado de México
Si bien en el caso de Nayarit se trató de una elección abierta, no fue así en el caso del Estado de México. La entidad del Presidente de la República en turno, fue el tema central de los medios de comunicación de circulación nacional en el 2017. El triunfo del candidato priista ocurrió por una serie de variables contextuales de suma importancia: un quiebre en la izquierda partidista, que se manifestó en la candidatura de Delfina Gómez por Morena, mientras que Juan Zepeda -un candidato popular y carismático- contendió por parte del PRD. Además, la concentración de votos en contra del PRI, fue mayor en las zonas urbanas que en las rurales de la entidad (Navarrete, 2017: 151), lo que de alguna manera muestra el descontento con el partido que tradicionalmente ha gobernado la entidad. Además, fue la ocasión en que el candidato priista ha obtenido menos votos, menor preferencia electoral, y la brecha más pequeña en la historia, entre el candidato ganador y el segundo lugar, así como una participación histórica del 53.7 por ciento.
Encuestas de salida Estado de México
Para las elecciones de gobernador del Estado de México, se registraron ante la autoridad electoral local dos empresas para realizar exit polls, por un lado, el periódico El Financiero y, por otro, la encuestadora meba. Sin embargo, a pesar de haber acertado en el resultado del segundo lugar (y sobre-representado al primero), la encuestadora omitió detalles metodológicos en su informe ante el Instituto Electoral del Estado de México (IEEM). En contraste, El Financiero -al igual que en Nayarit- tuvo una precisión casi dentro del margen de error propuesto.
Conteos rápidos Estado de México
El Conteo Rápido del Estado de México (responsabilidad del Instituto Electoral del Estado de México y no del INE) se dio a conocer aproximadamente a las 21:45 pm del domingo 5 de junio de 2017. A esa hora se había recibido información de 1347 casillas (de un total de 1818 en muestra), lo que representaba un 74.1% de la muestra total. Hay dos datos en los que es importante prestar atención:
1) Los intervalos del primer y segundo lugar nunca se cruzan. Para el caso de la candidata de Morenna, el mínimo de votación se estimó en 30.73% y el máximo en 31.53%. Para el caso del candidato de la coalición liderada por el PRI, el mínimo de votación se estimó en 32.75% y el máximo en 33.59%. Es decir, con esos resultados se pudo decir que la coalición liderada por el PRI tenía la mayoría relativa de los votos.
2) Los intervalos estimados por el conteo rápido SÍ incluyeron el resultado final de los cómputos, excepto por el caso del candidato de la coalición liderada por el PRI, quien tuvo una décima más de porcentaje de votación de la estimada. Es decir, el conteo rápido tuvo una muy alta precisión y cumplió con su objetivo (gráfica 5).
Aunque la elección del Estado de México fue bastante cerrada, los conteos rápidos respondieron en todo momento con lo establecido en su metodología, sin modificar los resultados finales. A pesar de lo cerrado de la elección, en un ejercicio gráfico, es posible observar el empalme entre la muestra y la población (gráficas 6 y 7).
COAHUILA
Contexto electoral en Coahuila
Coahuila es otra entidad que no ha conocido la alternancia política en el Ejecutivo local. El excesivo número de partidos políticos y candidaturas independientes que se presentaron en la boleta (16), provocó que el escrutinio en las casillas fuera un proceso sumamente lento. Coahuila fue otra entidad en la que la presencia de Morena como contendiente a la gubernatura no tuvo un efecto de arrastre del voto popular. Sin embargo, también se presentó una brecha histórica entre el primero y el segundo lugar, ya que el hartazgo del partido tradicional, valió que tuviera que realizar negociaciones con dos partidos de carácter nacional, y con cuatro fuerzas políticas locales (Navarrete, 2018: 159). Asimismo, el candidato priista, Miguel Riquelme Solís, tenía cierta animadversión desde la ciudadanía. De esta manera, ninguna empresa de encuestas decidió registrarse para realizar los ejercicios de salida.
Conteo rápido Coahuila
El caso de Coahuila es bastante interesante de analizar, pues en primer lugar no hubo ninguna empresa que se registrara para realizar encuestas de salida, únicamente casas encuestadoras para encuestas de opinión. En segundo lugar y quizás más importante, es que, por el diseño de las coaliciones electorales, un candidato abanderaba a siete partidos políticos, mientras que otro candidato lo era por cuatro. Lo anterior generó una dificultad al momento del conteo de votos en las casillas, ya que había más de 130 combinaciones posibles de votar por el candidato que al final resultó ganador. Ante esa situación, los resultados de las casillas demoraron más de lo esperado, y el conteo rápido perdía su significado con el paso del tiempo.
El Conteo Rápido de Coahuila (responsabilidad del Instituto Electoral de Coahuila y no del INE) se dio a conocer aproximadamente a las 2:45 am del lunes 5 de junio de 2017. A esa hora se había recibido información de 379 casillas (de un total de 694 en muestra), lo que representaba un 54.61% de la muestra total. Como puede observarse, en el caso de los dos candidatos con más votos ocurren dos fenómenos importantes:
1) Los intervalos del primer y segundo lugar se cruzan. Para el caso de la coalición liderada por el PAN, el mínimo de votación se estimó en 36.64% y el máximo en 39.08%. Para el caso de la coalición liderada por el PRI, el mínimo de votación se estimó en 34.75% y el máximo en 37.34%. Es decir, con esos resultados no era posible distinguir al candidato ganador.
2) Los intervalos estimados por el conteo rápido no incluyeron el resultado final de los cómputos. El resultado de los cómputos para la coalición liderada por el PAN fue menor al estimado en el conteo mientras que el resultado de los cómputos para la coalición liderada por el PRI fue mayor al estimado en el conteo. Es decir, el conteo rápido falló en su precisión.
3) Para todos los otros candidatos, el intervalo estimado por el Conteo Rápido fue preciso y coincidió con los resultados del PREP y los Cómputos Distritales (gráfica 8).
Si se realiza el mismo ejercicio gráfico que en los anteriores ejemplos, es posible ver en este caso la inconsistencia entre los cómputos distritales y el conteo rápido (gráficas 9 y 10).
Sin embargo, hay que tener en cuenta que la muestra, aunque estadísticamente representativa en su diseño, perdió representatividad al anunciarse los resultados del conteo rápido antes de que éstos generaran una tendencia sólida. Así, si se realiza un experimento completando la muestra ex post únicamente a partir de números aleatorios simples, en cinco oportunidades la muestra retoma la probabilidad y empalma con los resultados: fue un problema logístico-operativo y no metodológico ni estadístico (gráfica 11).
Entonces, los conteos rápidos y encuestas de salida tienen la capacidad de dotar de información confiable a la ciudadanía pocas horas después del cierre de las casillas, sin importar si ello sucede en contextos de alta competitividad, como el caso del Estado de México, como en espacios de mayor claridad en la contienda política, como es el caso de Nayarit. Sin embargo, es de trascendental relevancia que el diseño estadístico de la muestra de las casillas, sea respetado en términos de los niveles de significancia y márgenes de error plasmados en el diseño metodológico del instrumento estadístico, puesto que, de no hacerlo, existe una amplia probabilidad de modificar la tendencia sin importar que sea un contexto competitivo o no, como lo fue el caso de Coahuila.
La eficacia de los instrumentos de resultados preliminares resulta de una gran utilidad sobre todo en contextos como el que se viven en México, en el que la desconfianza hacia los partidos tradicionales y el ascenso de formaciones partidistas relativamente nuevas, como es el caso de Morena.
EPÍLOGO: LOS CONTEOS RÁPIDOS EN LOS OPLES, REIVINDICACIÓN DE FUNCIONES LOCALES
Los ejercicios de este tipo cumplen con varios fines. Uno de ellos, quizá el más importante, es el de informar con prontitud y celeridad a la ciudadanía con respecto a las tendencias electorales de la jornada electoral. Los conteos rápidos -al ser una herramienta institucional- requieren de los más altos estándares metodológicos para su realización, ya que por su naturaleza es la primera publicación de resultados electorales que ocurre por parte de las instituciones electorales.
Asimismo, haciendo uso de las facultades derivadas de la Reforma Electoral del 2014 que el INE posee (atracción, asunción y delegación), el 22 de noviembre de 2017 determinó, por decisión unánime del Consejo General, asumir los conteos rápidos para las elecciones de gubernatura y jefatura de gobierno en ocho entidades federativas (INE/SE/ASP-06/2017). Aunque todos los Oples involucrados emitieron argumentos para ejercer los conteos en la jornada electoral del 2018, el INE los realizó.
La realización de los conteos rápidos de las ocho gubernaturas y la Jefatura de Gobierno de la Ciudad de México, corrió a cargo del INE. Sin embargo, esto fue más por una cuestión logística centralizadora emanada del control estructural -que legalmente posee el INE- que por cuestiones de incapacidad institucional por parte de los Oples. Una de las mayores evidencias de ello fue la respuesta que emitió el Instituto Electoral de la Ciudad de México (IECM). Dicha institución argumentó al INE que cuenta con una serie de características que cumplen a la perfección con los requisitos necesarios para la realización de dichos ejercicios demoscópicos:
Personal altamente calificado.
No requiere de terceros ni de empresas externas para la realización de los conteos rápidos.
Cuenta con un sistema computacional desarrollado para la realización de conteos rápidos, el cual fue auditado y verificado por la UNAM.
El IECM cuenta con la infraestructura informática para operar dicho sistema.
Cuenta además con infraestructura alterna para casos extraordinarios.
El IECM cuenta con experiencia y personal para dar seguimiento e implementar centros de atención telefónica para la recepción de datos.14
De esta manera, el organismo local electoral de la Ciudad de México acató la indicación del INE de asumir el conteo rápido para la elección de Jefatura de Gobierno para el Proceso Electoral 2017-2018. Sin embargo, también determinó que contaban con la capacidad de replicar los ejercicios de conteos rápidos a nivel alcaldía (IECM, 2018). De esta manera, el Ople de la Ciudad de México convocó a un comité de expertos académicos, y con un trabajo institucional de cinco meses antes de la jornada electoral, realizaron dieciséis muestras. Los requerimientos metodológicos fueron los siguientes:
Una muestra para cada una de las alcaldías.
El muestreo es aleatorio estratificado.
Para cada alcaldía un tamaño de muestra que permita un error menor o igual al 2%, con un 95% de confianza.
El tamaño de la muestra de cada alcaldía depende de:
La variación observada entre casillas en elecciones anteriores.
La confiabilidad y precisión.
La cantidad de casillas de cada alcaldía.
Asimismo, para entender la dinámica política de la Ciudad de México, hay que recordar que en 2018 se realizó la primera elección luego de la promulgación de su Constitución local. En el 2018 la Ciudad de México votó 343 cargos de elección popular para renovar distintos niveles de gobierno. En el nivel nacional, Presidencia, Senado y Cámara de Diputados.15 Para el nivel local se renovó, el poder Ejecutivo (bajo la denominación de Jefatura de Gobierno); en el Legislativo, la primera legislatura del Congreso de la Ciudad de México; y finalmente en el nivel municipal, se renovaron las alcaldías y una nueva figura para la capital nacional, las concejalías.
Sin embargo, el contexto vivido en 2015 en la elección de las otrora delegaciones políticas, demostró que si bien la preferencia política en la capital del país era fundamentalmente de izquierda, al ésta dividirse en dos fuerzas políticas principales, se dividió entre ellas la distribución de los gobiernos de las demarcaciones. La elección de las Alcaldías se realizó bajo la misma división territorial delegacional en el 2018, con una nueva figura: los comicios de diez concejalías en cada demarcación, de las cuales, seis se eligieron bajo el principio de mayoría relativa, y cuatro más por el principio de representación proporcional.
Entre los datos más significativos se encuentra la alternancia ocurrida en siete de las dieciséis demarcaciones. Así, la configuración política de las alcaldías quedó de la siguiente manera: once fueron ganadas por la coalición “Juntos Haremos Historia”, cuatro por la coalición “Por la Ciudad de México al Frente”, y una más por el PRI. Destaca que en cinco demarcaciones, la brecha entre el primero y el segundo lugar no superó los diez puntos porcentuales, destacando Milpa Alta, Miguel Hidalgo y Álvaro Obregón, en las cuales la diferencia fue tan cerrada que fue menor al 5% de diferencia (Beltrán, 2019).
De esta manera, con una muestra de 1 694 casillas distribuidas por estratos, el IECM realizó un ejercicio minucioso, detallado, y con un mayor nivel de dificultad, ya que sus unidades eran las demarcaciones territoriales. En un margen de seis horas después del cierre nacional de las casillas, es decir a las 00:30 horas del día 2 de julio de 2018, en el Sistema se habían capturado 1 mil 302 casillas (76.85% del total de muestra). Con este número el IECM consideró que contaba con la información suficiente, la cual tenía la dispersión geográfica y la precisión estadística deseada para poder difundir las estimaciones de los resultados, mismos que aparecen a continuación.16
Si se comparan los resultados finales, el PREP y los conteos rápidos de las alcaldías, es posible ver la alta similitud entre ellos. Si los procesos estadísticos pueden compararse con una fotografía, los resultados de los dos instrumentos de medición frente a los resultados finales, es como tener tres fotografías del mismo paisaje desde perspectivas distintas (tabla 6).
Tabla 6
Es muy importante mencionar que en contextos de consolidación institucional democrática, los instrumentos de medición son sumamente confiables. En el ejemplo de la Ciudad de México, de las dieciséis demarcaciones territoriales ocurrieron 7 alternancias en la titularidad de las alcaldías, incluyendo aquellas históricas como Gustavo A. Madero, Iztacalco o Iztapalapa.
Entonces, en la elección de alcaldías hubo coincidencia en los 16 resultados con los tres ejercicios. Además, es importante mencionar que la Ciudad de México fue la única entidad que realizó conteos rápidos para la elección a nivel municipal. No hay que olvidar que si bien es cierto que hubo tiempos en los que el IECM (y los institutos locales en general) se encontraban bajo la influencia de las fuerzas políticas locales, bajo el modelo actual de federalismo colaborativo implica que la gestión electoral esté regida por principios rectores, entre los cuales la independencia y la imparcialidad son dos de los pilares fundamentales.
Sirvan estas líneas para demostrar una actividad de las tantas que realizan los Oples, en las que se demuestra su pertinencia en el concierto institucional mexicano. Los procesos de innovación electoral han decantado en que cada vez con mayor frecuencia es posible delegar funciones específicas para realizarse desde lo local, sin que ello signifique ceder a la influencia directa de los actores políticos locales.
CONCLUSIONES
Los principales hallazgos de la presente investigación radican en la importancia del diseño de instrumentos metodológicos para la medición de tendencias electorales que doten de certeza en la información que se da a la ciudadanía de manera fiable. La aplicación de conteos rápidos -siendo un mecanismo eminentemente institucional- no depende su eficacia de realizarse por una autoridad federal o una local, sino del profesionalismo matemático con el que se diseñe, y el respeto irrestricto a dicha metodología. Es decir, la inefectividad del conteo realizado en Coahuila no fue a causa de algún problema en el diseño, sino con el contexto político y la premura que generó la necesidad de la publicación de los resultados antes de las 3 de la mañana del día siguiente a la elección. Dicho problema logístico se debió principal -mente a la demora intrínseca al escrutinio en las casillas, asociado principalmente con la cantidad de posibilidades de la emisión de un voto.
El respeto al diseño muestral de los conteos rápidos es trascendental, y si se respeta metodológicamente, no importa si son contextos de clara ventaja partidista, como es el caso de Nayarit; o en casos de alta competitividad, como fue el Estado de México. Además, si se realizan con rigidez metodológica, pueden aplicarse en cualquier nivel de gobierno, como fue el caso de las alcaldías de la Ciudad de México en el 2018.
Aunque los ejemplos anteriores son del Proceso Electoral Local del 2017, lo ocurrido en el del año siguiente fue que el INE ejerció su facultad de asunción parcial en el tema de los conteos rápidos para las elecciones gubernamentales de las ocho entidades que celebraron comicios locales. Sin embargo, el Instituto Electoral de la Ciudad de México determinó realizar conteos rápidos en la elección de las 16 alcaldías realizando un procedimiento profesional, el cual nació con la implementación de un Comité de Expertos, y decantó el día de la elección con resultados sumamente confiables. En los 16 casos, tanto los conteos rápidos como el PREP, fueron imágenes prácticamente fieles a los cómputos distritales. Lo que es un ejemplo claro de la capacidad institucional de los Organismos Públicos Locales Electorales frente a la implementación de mecanismos de resultados preliminares.
Finalmente, en días recientes, la opinión pública ha centrado una vez más su atención en los conteos rápidos. John Ackerman ha atacado con su pluma flamígera, calificando al conteo rápido de “una muestra de un pequeño porcentaje de los resultados electorales asentados en algunas de las actas de escrutinio y cómputo” (Ackerman, 2018).
Como se demostró, la complejidad de los instrumentos institucionales, no sólo gozan de legitimidad estadística, sino que son elaborados con el más cuidadoso criterio científico por grupos de académicos expertos y autónomos. Eso que el investigador de la UNAM ha catalogado como “un ejercicio sin validez alguna” sólo demuestra -cualitativamente- la necesidad de esa cultura mínima estadística en la academia mexicana. Por otro lado, es importante prestar atención a Javier Aparicio -experto en el tema politológico-estadístico- quien sentencia de manera elegante que “las elecciones tienen fuertes componentes aleatorios. Por ello, cada elección es una oportunidad para aprender un poco de estadística” (Aparicio, 2017). Sea como sea, lo que no hay que perder de vista es que hoy en día los datos demoscópicos son indispensables en la política, van de la mano no sólo con los procesos electorales, sino que tienen la capacidad de informar a los gobiernos las pulsiones de la ciudadanía respecto a políticas específicas, proporcionando una imagen de las actitudes generales de los ciudadanos respecto a la cosa pública. Por ello, es válido sentenciar, de manera absoluta, que son un fundamento de la investigación politológica.
Como corolario, hay que establecer que la teoría -basada en una filosofía política- es imprescindible para interpretar el dato. Que esa teoría no es única, sino que hay una enorme pluralidad de teorías políticas para explicar los datos. Eso es lo que da vida a la ciencia política. La ciencia política es una ciencia viva, que evidentemente tiene sus debates internos en términos de teoría y de filosofía política. Paralelo a la teoría, el análisis de los sistemas políticos e institucionales es esencial, porque ahí es donde aterrizan los datos. Es decir, aterrizan en un contexto donde es significativo desde el punto de vista del análisis político, la toma de decisiones o el diseño de políticas públicas. Entonces, el dato es el punto de unión de una constelación compleja para lo que se requiere estudio científico de la política.
¿Cuáles son entonces los extravíos del dato? Desde el punto de vista del autor, son los mismos que los extravíos teóricos: por un lado, el dato sin una teoría política sólida, fuerte, densa y sólida, es un dato vacío; y por otro lado, la teoría que sólo especula está muy bien como ejercicio intelectual pero difícilmente sirve para tomar decisiones, y la vocación de la política es práctica, especialmente para el ejercicio del gobierno; y el dato que no está sustentado en una teoría política sólida, la toma de decisiones no se encuentra fundada en la vocación de la ciencia política. Entonces, la vinculación entre el dato y lo cualitativo muchas veces ha llevado a un falso dilema de decidirse entre lo cualitativo y lo cuantitativo. La ciencia política no sólo debe ser cualitativista o cuantitativista, sino hacer confluir metodológicamente las herramientas disponibles para realizar análisis de manera más compleja, y no una manera reduccionista de analizar el dato.
Así, retomando la esencia científica misma, es posible afirmar que existe la necesidad de reconciliar la matemática y las ciencias sociales. La primera ha heredado a la ciencia política muchas de sus distintas herramientas para contribuir con la aportación de resultados más exactos y sólidos. La ciencia política ha encontrado a un muy buen aliado para robustecer sus explicaciones a partir de la construcción de un puente lógico-metodológico que a veces resulta ser muy evidente, y en otras oportunidades parece un lugar recóndito casi con condiciones arcanas. La complejidad y sofisticación para hacer manejables numéricamente ciertas variables de corte cualitativo, parece ser en muchas ocasiones el amparo para evadir los métodos de índole cuantitativo, pero poco hay de conveniente en ello, pues la construcción de índices que, por más primigenios que sean, son indispensables para respaldar la fuerza explicativa de algunos argumentos, lo cual requiere del despliegue de las necesarias habilidades lógico-matemáticas de cada investigador social. Por ello, una buena forma de aprender de ciencia política es aprehendiendo lo que nos da la matemática.