El fenómeno de la polarización de opiniones ha sido muy estudiado por los psicólogos, y levantado por economistas y cientistas políticos para aplicarlo a contextos de su interés. Para describirlo, imaginemos que hay dos grupos, que llamaremos de creyentes y no creyentes: los primeros creen que algo es verdadero, mientras que los no creyentes creen que es falso. Por ejemplo, hay quienes creen que la pena de muerte es efectiva para combatir el crimen, mientras que otros no; o hay quienes creen que la energía nuclear es segura, mientras que otros afirman lo contrario. En los experimentos sobre polarización se le pregunta a la gente si creen que algo es cierto, luego se le muestra a todo el mundo la misma evidencia relativa al fenómeno, y sus opiniones se polarizan: los creyentes se vuelven más creyentes, y los no creyentes creen aún más que antes que la proposición es falsa.
Desde siempre se ha señalado que la polarización es imposible en un mundo de gente racional, y la verdad es que sí parece un fenómeno “raro” o poco plausible con gente racional. Algunas líneas de estudio en economía y psicología se han dedicado a ver qué tipo de sesgos en el procesamiento de información darían lugar a este tipo de dinámica. Parte del interés de la economía y la ciencia política surge porque a veces observamos sistemas políticos con posiciones extremas, u opiniones sobre (por ejemplo) el libre mercado que están polarizadas. Estas situaciones pueden llevar a la volatilidad de políticas, o a la inoperancia porque a cualquier medida la tranca el grupo contrario.
Hoy escribo sobre este tema porque se acercan tiempos electorales de los dos lados del plata. En estos períodos sucede que luego de escuchar ciertas declaraciones, o leer un artículo con información sobre algún tema relevante, gente con opiniones contrarias tiende a pensar que la nueva información soporta su visión del mundo. A menudo parece que la gente nunca podrá ponerse de acuerdo. Sin embargo, en un trabajo que estoy realizando en con Jean-Pierre Benoît de la London School of Economics argumentamos que la polarización es no sólo posible, sino esperable, en un mundo racional cuando se trata de temas complejos, con varias aristas. En ese sentido, si las opiniones de dos personas acaban de divergir luego de ver la misma evidencia, no hay por qué pensar que uno es necio, o que lo ciega la ideología. Nuestro argumento indica que si las creencias se separan, es porque las personas tienen opiniones distintas sobre algún aspecto del problema que no tiene nada que ver con la información que han observado en común. Quizás trabajando sobre esas diferencias, se puedan lograr acuerdos.
Posibilidad de Polarización
Para ilustrar por qué es natural la polarización en un mundo donde toda la gente es racional, imaginemos que hay otra “dimensión” del problema, además de la efectividad de la pena de muerte. Por un lado, podría suceder que la adopción de políticas se diera por motivos que no tienen “nada que ver” con el tema de fondo: por ejemplo los estados adoptan la pena capital por motivos ideológicos o políticos (porque “quedan bien” con su base, o porque les parece justo matar a un asesino). Pero también podría ser que la adopción de políticas respondiera a las condiciones del fenómeno sobre el que se intenta influir (que fueran “endógenas”): por ejemplo, los estados adoptan la pena de muerte porque estiman que habrá un aumento en el crimen, y creen que eso lo frenará.
Una descripción “completa” de la realidad sería por ejemplo “las políticas se adoptan endógenamente, y la pena de muerte no es efectiva para combatir el crimen” o “la adopción de políticas es ideológica, y la pena de muerte es efectiva” (los otros dos estados posibles son “endógena, efectiva” e “ideológica, no efectiva”).
Imaginemos ahora que la evidencia típica indica que, cuando los estados adoptan la pena de muerte, se mantiene más o menos constante la criminalidad. Si las políticas son endógenas, eso aumenta nuestra creencia en que la pena de muerte es efectiva: el crimen iba a subir, se adopta la política, y el crimen no sube. Si las políticas se adoptan por motivos ideológicos, una criminalidad constante luego de la adopción de la pena de muerte aumenta nuestra creencia en que ésta no es efectiva: sin la adopción de la política, esperaba que el crimen se mantuviera estable, como se adoptó la política, si no bajó quiere decir que la pena de muerte no es efectiva.
En este contexto, entonces, si una persona nos dice que cree que la pena de muerte es efectiva, podremos deducir que cree que la adopción de políticas es endógena, mientras que si nos dice que cree que la pena de muerte no es efectiva, deduciremos que cree que las políticas se implementan por motivos ideológicos.
Supongamos ahora que a cada persona en un grupo se le pregunta si cree que la pena de muerte es efectiva o no, y luego se les muestra a todos un estudio que presenta datos nuevos, que muestran que luego de adoptar la pena de muerte, en 10 estados de Estados Unidos, el crimen se mantuvo constante. En ese caso tendremos que:
a) los que antes creían que era efectiva, estimaban que la adopción era endógena, y como creían que era endógena, más información que indica que luego de impuesta la pena de muerte el crimen se mantuvo estable aumenta su creencia en que la pena de muerte es efectiva;
b) los que creían que la pena de muerte no era efectiva, estimaban que la adopción de políticas era ideológica, y en ese caso más información que dice que el crimen es constante luego de la adopción aumenta su creencia en que la pena de muerte no es efectiva.
Tenemos entonces polarización racional: los que creían en la pena de muerte, aumentan su creencia en que es efectiva luego de ver la información, mientras que los que creían que no era efectiva creen aún más que antes que no es efectiva luego de ver los mismos datos.
Otro ejemplo donde los psicólogos encontraron polarización es en el caso de la energía nuclear. En ese experimento se le mostró a un grupo un documento con la descripción de un incidente en el cual había habido una falla en una planta nuclear, que se había arreglado a tiempo. Aquellos que creían que la energía nuclear era segura ahora lo creían aún más, y aquellos que creían que no lo era, pasaban a creer aún más que no lo era.
Una explicación natural es que la gente que creía que la energía nuclear era segura era aquella que creía que los controles eran el factor fundamental: para ellos, evidencia anterior de fallas arregladas a tiempo eran evidencia a favor de la seguridad (porque los controles habían funcionado). Por otro lado, para aquellos que creían que la cantidad de fallas en el sistema es el factor fundamental para la seguridad, evidencia previa de fallas arregladas a tiempo, era indicativa de la inseguridad de la energía nuclear (porque indicaba que las fallas eran comunes). Por lo tanto, al mostrarle a la gente un nuevo fallo detectado a tiempo: aquellos que creían en la seguridad (que son aquellos que creían que los controles son el factor fundamental) creen aún más que la energía nuclear es segura, pues ven otro incidente en que los controles funcionan; aquellos que creían que la energía nuclear era insegura (que son los que creen que la cantidad de fallas es el factor fundamental) al ver un episodio de otra falla, aunque fuera detectada a tiempo, creen aún más que antes que la energía nuclear es insegura.
Desde que empecé a trabajar en este proyecto, cada vez que discuto con alguien sobre algo en lo que no estamos de acuerdo, intento ver si hay alguna dimensión “no tan obvia” en la cual no estemos de acuerdo, y que sea esa la causa para el desacuerdo. En los ejemplos anteriores la disputa no es sobre la evidencia, sino sobre creencias dispares en cosas que parecen no ser centrales: si la política es endógena, o si lo fundamental son las fallas o los controles. Si podemos reducir la brecha en esas dimensiones alternativas, podremos ponernos más de acuerdo sobre la discusión central.
Agradezco a los Editores del diario El País, donde publiqué una nota similar a esta.
Muy interesante Juan. Una idea para hacer un test seria proveer información observacional sobre un tema dado (que pueda inducir polarización “racional”). Y luego proveer información experimental, donde está claro que la implementación no fue endógena, y ver que entonces las opiniones convergen.
Saludos!
Hola Sebastian, es un buen comentario, gracias. Supongo que lo que tendría que hacer sería buscar algún tema donde haya esas dos cosas que decís: que tenga el potencial de polarización, y en el que alguien haya hecho un experimento.
Ya hay alguna cosa (no igual, pero similar) con experimentos de Andreoni y Mylovanov, American Economic Journal: Microeconomics 2012, 4(1): 209–232.
Muy interesante! Me surge una pregunta. ¿Que pasaría si la dimensión en la cual se «fundamenta» la creencia fuera endógena? Es decir, ¿podría ser que tengamos un sesgo cognitivo hacia encontrar en la evidencia aquello que fundamenta la propia creencia?
Es interesante. No lo había pensado. Podría haber algo de eso, pero no lo sé. La cosa «última» es averiguar cuánto de la polarización es racional, y cuánto no. En algún «test» de ese tipo, la «irracionalidad» que tu sugerís iría «sumada» a la «irracionalidad» original a la que apuntaban los estudios iniciales.
Juan, el post anterior al tuyo de Marcela, sobre la reforma al sistema de salud y sobre los subisdios a distintos grupos de presión (cafeteros, etc) en Colombia parecería ser otro ejemplo.
Muy interesante Juan! Seria bueno saber si hay evidencia que en situaciones politicas mas polarizadas (en elecciones, o en el Congreso) es mas dificil llegar a un acuerdo que en situaciones mas fragmentadas (caso en el que hay representantes de los 4 casilleros en el ejemplo de la pena de muerte: “endógena, efectiva”, “ideológica, no efectiva”, etc, donde la informacion es mas transparente). Aunque siguiendo el razonamiento de tu articulo, aun teniendo dicha evidencia, alguien podria argumentar que es endogeno (menos acuerdo, mas polarizado), y asi ver la misma evidencia de distinta manera. Supongo que esto habla un poco de la importancia de describir los supuestos de un estudio – o una discusion- con claridad, e intentar comunicarse mejor. Un abrazo!
Hola David. Qué bueno escuchar de ti.
En algunos de los estudios les hacen «debriefing» a los sujetos sobre por qué cambió su opinión (i.e. por qué reforzaron su visión) y eso te puede dar una pauta sobre si en el estudio «te faltó una dimensión». Otro ejemplo que no mencioné es sobre las «Weapons of Mass Destruction»: al entrar al lab le preguntan a la gente si cree que había WMD en Irak o no. Después les muestran a todos dos statements: digamos, uno de Bush diciendo «con la evidencia que tenemos, sabemos que había WMD» y otro de Clinton diciendo lo contrario. La gente se polariza.
En ese caso es «obvio» que la razón de la polarización es que los que creían que había WMD era porque tendían a creerle a los republicanos, y lo contrario a para los que creían que no había. Ahora les muestran más info del mismo tipo, y por supuesto se van a polarizar. La razón es que no «atacaste» la diferencia en la «otra» dimensión (unos creen que los Rep mienten, y otros creen que los Dem son mentirosos).