lunes, 19 de febrero de 2018

¿Por qué no cambiamos de opinión aunque nos demuestren que estamos equivocados? Los datos contrastados convencen menos que los mensajes emocionales. Diversos estudios revelan las limitaciones de la razón.

La primera impresión es la que cuenta. Cuando nuestro cerebro recibe por primera vez información sobre un asunto —“ese de ahí es Juan, es un vago”— deja grabada una silueta que provoca que todo lo que sepamos desde entonces en ese ámbito tenga que encajar en ella. Los humanos vivimos en un relato, necesitamos que las piezas encajen, y por eso nos costará tanto asumir en el futuro que Juan es un currante. “Es como una mancha”, explica la psicóloga Dolores Albarracín, “es mucho más fácil ponerla que eliminarla después”. Si esa mancha forma parte de nuestra visión del mundo, nuestra escala de valores será casi imposible limpiarla, porque sería como replantear nuestra identidad. Por eso nos cuesta horrores cambiar de opinión: los hechos deben encajar en la silueta o ni siquiera los tendremos en cuenta.

Cada vez más estudios muestran las limitaciones de la razón humana. En ocasiones se ignoran los hechos porque no se adaptan a lo que pensamos. La verdad no siempre importa. Hace justo un año, se realizó una prueba muy sencillita. ¿En cuál de estas fotos ve usted a más gente? En la foto A, de la toma de posesión de Donald Trump, se veía a mucha menos gente que en la foto B, de la inauguración de Barack Obama, llena hasta la bandera. El 15% de los votantes de Trump dijo que había más gente en la foto A, un error manifiesto. ¿Tienen un problema de visión, alguna carencia cognitiva, para llevarle la contraria a un hecho tan evidente? Es más sencillo: a veces, cuando discutimos sobre hechos, en realidad no estamos discutiendo sobre los hechos. Ese 15% sabe que dar la respuesta B es reconocer que Trump es un mentiroso y, por tanto, admitir que han votado a un mentiroso. Es decir, si se trata de un enamorado del presidente de EE UU, estamos pidiendo que ponga en tela de juicio su propia identidad.

“Lo más probable es que las personas lleguen a las conclusiones a las que quieren llegar”, dejó escrito la psicóloga social Ziva Kunda al desarrollar la teoría del pensamiento motivado. La idea es sencilla: para defender nuestra visión del mundo, nuestro relato, vamos razonando inconscientemente, descartando unos datos y recogiendo otros, en la dirección que nos conviene hasta llegar a la conclusión que nos interesaba inicialmente. Visto así, parece una flaqueza, un fallo de diseño en el raciocinio. Pero tendría una explicación muy plausible: es un escudo protector contra la manipulación, pues es lógico pensar que las cosas tienen que encajar con lo que ya sabemos del mundo. Si de pronto vemos una piedra elevarse hacia el cielo no dudamos de la existencia de la gravedad; pensamos que hay trampa en la piedra.

Pero hay situaciones preocupantes en las que si los ciudadanos no hacen caso de los hechos pueden poner en riesgo bienes mayores. La salud es uno de los ámbitos más peligrosos, como sucede con el pequeño colectivo que se niega a vacunar a sus hijos. ¿Cómo se puede tomar una decisión así, que pone en riesgo la salud de las criaturas propias y las del resto? “Es una opción irracional que puede ser corregida aportando toda la información necesaria”, dicen médicos, divulgadores y autoridades. Datos históricos, detalles sobre enfermedades, estadísticas consistentes…, pero no, eso no funciona. Es más, como han mostrado algunos estudios, esta forma de abordar el problema no solo no convence, sino que puede provocar un efecto bumerán, reforzando todavía más las creencias de los antivacunas. Es un efecto que el investigador Brendan Nyhan ha registrado en distintos escenarios, desde la política a la salud, y en el caso de las vacunas particularmente. Mostrar folletos con información sobre inmunización no doblega a los recelosos y a algunos los convence más todavía.

Divulgadores, fact-checkers (verificadores de datos), periodistas y políticos asumen, en general, que la gente se equivoca porque les faltan datos. Es un enfoque simplista, llamado de déficit de información, que se empeña en obviar los mecanismos conocidos de una psicología humana que, como explica Nyhan, no va a cambiar. Hay que conocer esas fisuras del cerebro humano y aprovecharlas para colarnos y ser verdaderamente persuasivos. Pero llegados a este punto, es importante preguntarse, qué es convencer ¿Lograr que una familia antivacunas reconozca que está equivocada o conseguir que ponga una, dos o todas las vacunas necesarias a sus hijos?

Esta reflexión tenía en mente el pediatra Roi Piñeiro cuando lanzaron en el Hospital General de Villalba, un municipio de la sierra de Madrid, una consulta pionera que usaría enfoques distintos para convencer a los inconvencibles. “Se trata de conocer los motivos y rebatirlos, pero no desde la lógica sino desde los sentimientos. Mucha empatía y dejarlos hablar”, explica Piñeiro; “porque es muy difícil convencer con datos científicos, suelen ser unos expertos, pero escogiendo los que les interesa”. Piñeiro, jefe asociado del servicio de Pediatría, usó intuitivamente trucos que han mostrado su eficacia en distintos experimentos psicológicos. Ponerse de su parte, dedicarles tiempo, dejar que se expliquen, conectar emocionalmente y abordar los mitos solo cuando hay confianza. “Piensas que si te enfadas y los abroncas entenderán que es grave, pero en realidad pierdes a esa familia, no vuelven”, cuenta el pediatra. Al lanzar esta consulta abierta, recibió a 20 familias recelosas en sesiones individuales de media hora; al final, el 90% aceptó poner alguna vacuna a sus hijos y el 45% accedió a ponérselas todas.

Un experimento realizado el año pasado, sobre racismo y política, obtuvo resultados inquietantes. A un grupo de ciudadanos se les contó algunas de las mentiras habituales de Marine Le Pen sobre los inmigrantes. A otro, esto mismo, pero contrastado con los datos reales. Al tercer grupo se les contó únicamente la información veraz, sin las falsedades de Le Pen. Los “hechos alternativos” de la política francesa lograron mejorar sus opciones de voto por igual (un 7%) en el primer grupo y el segundo, mostrando que el desmentido fue inútil. Lo que es más sorprendente: sus opciones también crecieron (4,6%) entre quienes solo leyeron información real sobre inmigración. Por eso a este tipo de políticos populistas les da igual que les desmientan: han colocado el mensaje, que se hable de lo que les interesa, fijando el marco de la conversación pública: la inmigración como problema. Los investigadores consideran que no basta con el trabajo periodístico con los datos, sino que “para ser efectivo, los hechos deben integrarse en una narrativa con argumentación persuasiva” y “presentados por un político carismático”.

Esta es la paradoja de los verificadores (o fact-checkers), esos periodistas que se dedican a comprobar y desmentir las afirmaciones de los políticos: que solo funcionen con quienes no hace falta. Los primeros trabajos de Nyhan indicaban poca utilidad y que a veces eran contraproducentes, pero en un estudio reciente mostró que gracias al fact-checking se podía conseguir que algunos seguidores de Trump admitieran que sus afirmaciones eran falsas. Eso sí, no movían un milímetro su intención de voto hacia el candidato republicano. “Tienden a ignorar la información disidente. Este escenario fomenta la aparición de una caja de resonancia en torno a narrativas y creencias compartidas. En este punto, la verificación de hechos puede ser percibida como otra tesis de los rivales y por tanto ignorada”, explica Walter Quattrociocchi, especialista en cómo se disemina la desinformación.

“Cuando se trata del bulo de un medicamento retirado o algo así, la gente te cree y lo agradece. Pero si les toca la patata, dejan de discernir entre opinión y datos. Si ya han elegido bando es más complicado sacarles del error”, resume Clara Jiménez, del equipo de Maldito Bulo (MB), un proyecto periodístico creado para combatir la desinformación. Jiménez cuenta que esas disonancias fueron notables durante el 1 de octubre en Cataluña: cada desmentido se negaba por el bando puesto en evidencia, cómo no, dudando de la objetividad de MB. Durante la campaña electoral catalana, surgió el bulo de las tarjetas censales que podrían ser usadas, según algunos independentistas, para provocar un pucherazo. Cuando lo desmentía MB, muchos cargaban contra el mensajero. Pero cuando lo desmintió Josep Costa, candidato de JxC, algunos se lo discutían, pero muchos de sus seguidores optaron por fiarse de él. “Si es tu propio círculo el que te desmiente es mucho más fácil”, explica Jiménez, que forma parte del equipo que asesora contra la desinformación a la Comisión Europea. Además, los portales de verificación de datos tienen otro problema añadido: muy pocos de sus lectores (un 13%) son consumidores de fake news, según otro estudio reciente: no estarían llegando al público que los necesita.

La gente de MB ha puesto en práctica un sistema que encaja muy bien con las recomendaciones de psicólogos expertos: el bulo es como una mancha difícil de quitar, y conviene usar mensajes sencillos y directos, información gráfica o visual, y no repetir la falsedad sino centrarse en la explicación. El mejor quitamanchas es el porqué: cuando a los miembros de un jurado se les dice “no tengan en cuenta esta prueba”, no sirve de nada. Pero serán capaces de borrar esa información si les explican que hubo una motivación sospechosa al intentar incluir la prueba viciada.

El cambio climático es otro experimento natural oportuno para analizar el fenómeno. Los especialistas han probado de todo para convencer a los escépticos y no hay una varita mágica. Pero el papa Francisco nos da una clave: tras escribir una encíclica ecologista, en EE UU creció 10 puntos el porcentaje de convencidos de que el calentamiento será dañino y 13 puntos el bloque de católicos que creen que el cambio climático es real. Líder carismático y que habla desde dentro del círculo identitario. En este ámbito, hablar de catástrofes y amenazas puede ser contraproducente. Sin embargo, funcionan contenidos emocionales que hablan a la gente de cómo encaja el problema en su vida (la salud), o mensajes que indiquen que combatir el calentamiento traerá avances científicos y económicos, y que mejorará la cohesión y los valores de la comunidad.

Muchas de estas estratagemas están destinadas a escuchar al sujeto para aprovechar sus debilidades: a un empresario negacionista del cambio climático no le convencerás hablándole de la crecida de los mares, sino de oportunidades de negocios verdes. Por eso, un equipo de la Universidad de Queensland (Australia) ha acuñado el concepto de persuasión jiu jitsu, en referencia a ese arte marcial que usa contra el rival su propia fuerza. Por ejemplo, dejar que explique cómo funcionaría exactamente paso a paso su idea, para que vea sus flaquezas saliendo de su propia boca.

“Cuando se trata de temas científicos, la gente habla usando evidencias, cuando sus actitudes están motivadas por otra cosa. El divulgador tiene que resistir la tentación natural de debatir las ideas articuladas por el sujeto y en su lugar centrarse en su motivación oculta en la sombra”, explican. “Identifique la motivación subyacente, y luego adapte el mensaje para que se alinee con esa motivación”, sugieren. Por ejemplo, decirle a un votante de Trump que salvar el planeta es la única forma de mantener el estilo de vida americano.

SIGA LEYENDO SOBRE EL TEMA.
El declive de la homeopatía, un negocio fomentado por el sistema. La terapia alternativa más popular y comercial de la pseudociencia no ha podido demostrar que sea curativa en absoluto, y empieza a ser desterrada de las aulas.

Ofensiva contra la ciencia. El rechazo a las vacunas, el ataque a los transgénicos o la negación del cambio climático son la nueva versión del viejo ataque a la ciencia.

El precio de la incultura científica.  Médicos, farmacéuticos, universidades y políticos deberían buscar vías para expulsar a los charlatanes de la vida pública

https://elpais.com/elpais/2018/01/26/ciencia/1516965692_948158.html

Ver también. "ciegos, que viendo, no ven" José Saramago, Ensayo sobre la ceguera. 1995.

No hay comentarios: