Hace dos semanas se realizaron en Estados Unidos las elecciones presidenciales. El análisis postelectoral se ha concentrado, principalmente, en los grupos que fueron determinantes en la reelección de Obama: los jóvenes, las mujeres solteras, los afro-americanos y los latinos, entre otros. Sin embargo, muchos analistas han escrito sobre otros protagonistas de las pasadas elecciones: los datos y la estadística. En esta entrada hago un breve recuento del rol del análisis estadístico de los datos en la campaña de Barack Obama. Luego resumo el éxito de los pronosticadores y lo que éstas elecciones nos enseñan sobre las encuestas y las predicciones electorales.
La estrategia de campaña de Obama estuvo guiada por el análisis riguroso de una cantidad inimaginable de datos. Un equipo de estadísticos, reunido en lo que la campaña llamaba “La Cueva”, estuvo a cargo de coordinar la estrategia de captación de donaciones y posteriormente, de movilización de votantes. El primer paso fue generar una única base de datos consolidada. En elecciones anteriores los equipos de campaña de cada estado utilizaban bases de datos diferentes lo cual conllevaba a recomendaciones contradictorias. Dicha base de datos consolidada contiene información para casi todos los ciudadanos adultos de Estados Unidos sobre su afiliación partidista (si se encuentran registrados con alguno de los partidos), su participación en elecciones pasadas, sus contribuciones económicas a la campañas, etc. Además de esta información política, los analistas tienen acceso a bases de datos de consumidores y mercadeo (las mismas que utilizan las agencias evaluadoras de crédito) con detalles sobre el ingreso de cada individuo, dirección de residencia así como información detallada sobre patrones de consumo (qué tipo de bienes y servicios compra el individuo, dónde los compra, etc.) Esto permite a los analistas estimar modelos para calcular para casi todos los individuos de Estados Unidos, la probabilidad de que un individuo vote, y si vota, la probabilidad de que vote demócrata o republicano. Esto permitió realizar una campaña mucho más efectiva que priorizara los recursos en aquellos individuos en quienes había mayor probabilidad de éxito.
Pero el enfoque cuantitativo de la campaña no se limitó al data mining. El equipo de campaña realizaba constantemente experimentos aleatorios para establecer la manera más efectiva de recaudar donaciones. Por ejemplo, en los correos electrónicos enviados a los seguidores se asignaban aleatoriamente distintos contenidos en el asunto o el cuerpo del correo. También se experimentó con quién enviaba el correo: Barack Obama, Michelle Obama o el vice-presidente Joe Biden, por ejemplo. El resultado: el equipo de campaña aprendió qué tipo de correo enviar a distintos tipos de individuos para maximizar las donaciones.
La estrategia de campaña también se apoyó en la investigación sobre el flujo de información en redes económicas y sociales. Por ejemplo, la campaña creó una aplicación en Facebook para que los seguidores de Obama enviaran mensajes únicamente a sus amigos residentes en estados decisivos (swing states) recordándoles de registrarse, de donar, y de votar. Esto con base en hallazgos de que los individuos están más dispuestos a cambiar su comportamiento con base en mensajes recibidos de personas cercanas en quien confían, que en mensajes enviados directamente por la campaña.
La campaña de Romney también hizo uso de información estadística y de las redes sociales por supuesto. Sin embargo, la mayoría coincide en que en este campo la campaña de Obama fue muy superior. Un reflejo de esto fue que el sistema creado por la campaña de Romney para monitorear las elecciones en tiempo real y movilizar a los votantes (Project ORCA), colapsó el día de las elecciones.
Esto genera una área de estudio fascinante para economistas y politólogos en la academia, así como para los estrategas de campaña. El rol de los datos y el análisis cuantitativo será cada vez más importante y más sofisticado. Para los interesados recomiendo el libro The Victory Lab de Sasha Issenberg así como Get Out the Vote de Donald Green y Alan Gerber.
El protagonismo del análisis estadístico en las pasadas elecciones no se limita a los equipos de las distintas campañas. Muchos analistas políticos fueron también declarados los grandes ganadores de estas elecciones tras pronosticar de manera exitosa el resultado electoral en todos los estados. Quizás el más reconocido de todos es Nate Silver y su blog FiveThirtyEight del New York Times. Silver se hizo famoso inicialmente por el diseño de modelos estadísticos para predecir el desempeño de jugadores de béisbol. A partir de las elecciones de 2008 empezó a utilizar sus modelos para pronosticar el resultado de las elecciones. En las elecciones de este año pronosticó correctamente el resultado de las elecciones presidenciales en todos los estados, acertó en su pronostico de 31 de las 33 elecciones al senado, y fue quien más se acercó al porcentaje de votos obtenido por cada candidato. Su libro The Signal and The Noise es un best-seller por estos días. El modelo de Silver y otros analistas similares se basa en combinar las distintas encuestas realizadas en los distintos estados y ponderarlas según su nivel de confiabilidad. Muchos argumentan que el éxito de los “pronosticadores” refleja, en últimas, el éxito y calidad de las encuestas. Sin embargo lo interesante es que en estas elecciones aquellos que utilizaron modelos matemáticos más complejos para predecir las elecciones con base en las encuestas fueron más exitosos que analistas más tradicionales que se basaron en promedios simples de las encuestas (las llamadas “encuestas de encuestas”) o que otros analistas que acudieron a su “instinto político”. Aquí también ganaron las matemáticas y el análisis riguroso de los datos fue más efectivo que la sabiduría tradicional o que otros métodos más artesanales.
Esto nos lleva a las encuestas. Las encuestas en las pasadas elecciones Colombianas y Mexicanas, por ejemplo, fueron el centro de muchas críticas debido a su imprecisión con respecto al resultado electoral. En las pasadas elecciones en Estados Unidos por el contrario, un gran número de encuestas fueron exitosas y se acercaron al resultado electoral. Sin embargo, no todas las lecciones en este tema son aplicables para el caso Colombiano y de otros países de América Latina.
Un primer hecho interesante es que las encuestas más exitosas (en términos de acercarse al resultado electoral) fueron las realizadas en los días antes de las elecciones a través de internet. En países en desarrollo, en los cuales el acceso a internet se concentra principalmente en lugares urbanos y entre votantes jóvenes, es poco probable que encuestas realizadas a través de internet sean exitosas. Sospecho que en encuestas realizadas a través de internet, Mockus habría arrasado en las últimas elecciones presidenciales en Colombia.
El éxito crucial de las encuestas consiste en diseñar “filtros” que determinen qué tan probable es que el encuestado vaya a votar en las elecciones. Sabemos que los encuestados siempre tienden a sobre-reportar su intención de votar (es decir la abstención siempre es mucho mayor a la que predicen las encuestas). En el caso de Estados Unidos el filtro más efectivo sigue siendo el de votantes registrados (es decir, individuos que se encuentran inscritos para votar). Nuevamente, en el caso Colombiano dicho filtro puede no ser tan efectivo debido al proceso de inscripción (votantes no registrados pueden votar, y aquellos que se registran para votar quedan inscritos automáticamente para votar en el futuro en el mismo puesto de votación). No sé qué tan exitoso sea este filtro en otros países de América Latina (ciertamente es inútil en países con voto obligatorio como Ecuador o Perú).
Finalmente las encuestas más exitosas en USA fueron aquellas realizadas personalmente por encuestadores (y no a través de preguntas pre-grabadas) y aquellas realizadas a teléfonos celulares en vez de a teléfonos fijos. Estos resultados aplican en mayor medida para el contexto Latinoamericano aunque sospecho que ya son tenidos en cuenta por los encuestadores.
En conclusión, el análisis formal de los datos parece jugar un rol cada más importante en las elecciones, desde las estrategias de campaña, las predicciones de los analistas, y la precisión de las encuestas. Los mercados de predicción, sobre los cuales no voy a hablar en esta entrada, constituyen también un campo fascinante de estudio (para un resumen de éstos mercados recomiendo este artículo). Vale la pena pensar en la forma en la cual estas tendencias y tipos de análisis van a incidir en la manera de hacer política en el futuro.
Referencias
Stephen Ansolabehere and Eitan Hersh, “Validation: What Big Data Reveal About Survey Misreporting and the Real Electorate”, Political Analysis, 2012.
John Cassidy, “Cassidy’s Count: A Victory for the Pollsters and the Forecasters”, The New Yorker, November 10, 2012.
Sasha Issenberg, The Victory Lab, Crown Publishers, New York, 2012.
Felix Salmon, “When Quants Tell Stories”, Reuters Blog, November 7, 2012.
Nate Silver, The Signal and the Noise: Why So Many Predictions Fail-but Some Don’t, Penguin Publishers, New Yorl, 2012.
Michael Scherer, “Inside the Secret World of the Data Crunchers Who Helped Obama Win”, Time Magazine, November 7, 2012.