*

Tendencias
Compartida
Actualizado el 16/06/2017
Estás leyendo:Cuando no hay dato que valga

Cuando no hay dato que valga

Autor: Tania Opazo

En un mundo cada vez más polarizado y donde internet tiene una teoría para cada gusto, la supuesta racionalidad humana se pone a prueba. Es que pensar críticamente, aceptar nuevas ideas y cambiar de opinión es, para nuestro cerebro, mucho más difícil de lo que creemos.

Cuando no hay dato que valga

“El concepto de calentamiento global fue creado por y para los chinos con el fin de hacer a las manufacturas norteamericanas menos competitivas”, tuiteó el actual presidente de los Estados Unidos, Donald Trump, en noviembre de 2012. Un tuit que ya tiene casi 70 mil “me gusta” y una idea que recientemente lo llevó a determinar la salida de esa nación del Acuerdo de París, a pesar del consenso que existe en la comunidad científica sobre que la causa principal del cambio climático es la actividad humana.

Sea el cambio climático, las vacunas u otro tema, no es poco común participar o al menos observar debates en los que las posturas parecen irreconciliables. En una época donde, de la mano de la internet, nuestras diferencias de opinión se hacen más evidentes y, al parecer, más radicales, quienes llevan años estudiando este tema dicen que para entenderlo hay que analizar cómo pensamos.

Soy lo que creo
En la década del 70 hubo una crítica masiva al concepto del ser humano racional y se comenzó a teorizar sobre la posibilidad de que hubiera elementos en nuestro sistema cognitivo que nos hicieran “pensar mal”. “Surgió la idea de que nuestra mente tenía sesgos y por supuesto la pregunta obvia era si estos sesgos eran malos en sí mismos. Pues la verdad no. Los seres humanos nos enfrentamos a un entorno complejo y es necesario tener respuestas rápidas frente a ciertas situaciones”, dice Claudio Lavín, profesor de Razonamiento de la Facultad de Psicología de la Universidad Diego Portales. “Por ejemplo, si vas caminando por la calle y viene un tipo con pasamontañas, tu sistema nervioso autónomo te dice que salgas corriendo y te alejes, no que te acerques a preguntarle si es realmente un ladrón. En ese caso la verdad como fenómeno pierde relevancia, lo que importa es lo práctico”, agrega.

Daniel Kanhneman y Avos Tversky, que en 2002 ganaron el premio Nobel de Economía con sus hallazgos, explicaron este fenómeno a través de los llamados sistemas cognitivos o de pensamiento: el sistema 1 (intuitivo) es rápido y está preparado para creer, no para dudar. Es el que nos hace arrancar del tipo con el pasamontañas. El sistema 2 (racional) es lento, escéptico y analítico (quizás se preguntaría sobre los prejuicios y los pasamontañas).

La gran parte del tiempo los seres humanos funcionamos en modo 1, porque es más fácil, ya que pensar reflexivamente toma tiempo y energía. “Imagina si tuvieras que preguntarle a la gente todo. Hay mucho que uno asume y eso para la vida cotidiana es muy útil, porque puedes predecir cosas. Sin embargo, el pensamiento rápido es también un terreno fértil para prejuicios, generalizaciones absurdas e irracionalidades”, agrega Lavín. Así es como hay gente que cree que la causa de la pobreza es la flojera, que la homeopatía funciona… o que el mundo se iba a acabar en 2012.

La lección del tipo con el pasamontañas es que sobrevivir es más importante que la verdad. Por eso a medida que crecemos y aprendemos, conformamos una batería propia de creencias. Ese conjunto de pensamientos base nos da un sentido de control y predictibilidad de la vida. Pero más importante aún: estas creencias profundas contribuyen a delinear nuestra identidad, posicionarnos en el mundo y definen nuestras pertenencias. Hay, además, ciertas ideas como las creencias religiosas, que sirven de marco general para evaluar nuevas situaciones y experiencias.

“La gente se encariña con sus ideas y es difícil pedirles que se separen de ellas porque las sienten como parte de lo que son. El problema es que a veces las creencias terminan por poseer a las personas, cuando debería ser al revés y uno poder ponerlas a un lado, elegirlas, cambiarlas”, explica Lavín. Por eso cuando alguien intenta hacernos cambiar de opinión, sobre todo en un tema ideológicamente relevante, se produce inmediatamente un rechazo. “Desestabilizar todo un sistema de ideas por algún dato es tremendamente complejo y difícil. Esto queda en evidencia para muchos dilemas sociomorales, como por ejemplo el aborto, el matrimonio y la adopción de hijos por parte de parejas del mismo sexo. Incluso el divorcio… que en su época fue un tema super controvertido”, argumenta Lavín.

Ahí es cuando, explican los expertos, aplicamos a modo de defensa un “sesgo de confirmación”: el cerebro hace todo lo posible para evitar e ignorar información que contradiga sus creencias, y se enfoca en aprender y analizar las que sí la confirman. Por ejemplo, hoy mucha gente que cree que Aroldo Maciel puede predecir terremotos y decide (consciente o inconscientemente) ignorar a los expertos y autoridades que afirman que eso no es posible.

La otra alternativa es pensar lento. Revisar datos y opiniones, además de estar abiertos a la posibilidad de que nuestra mirada no sea la correcta. “Pero la verdad es que la gente no quiere hacer eso, es mucho trabajo”, agrega Lavín.

circulos2

Los expertos Ana Schmidt, Sander van der Linden y Claudio Lavín.

Una verdad incómoda
– Yo no vacuno a mis hijos porque un estudio demostró que las vacunas provocan autismo.
– Pero el médico que hizo ese estudio fue desacreditado, perdió su licencia y desde entonces una enorme cantidad de investigación confirma que no existe vínculo entre las vacunas y el autismo.
– Bueno, aun así, yo decido sobre mis hijos y no quiero vacunarlos.

Aceptar el error es difícil. Muchas veces significa abrazar conceptos que no conocemos ni entendemos bien (placas tectónicas y zonas de subducción si hablamos de terremotos), creer en instituciones de las que por distintas razones desconfiamos (la medicina tradicional o las farmacéuticas en el caso de las vacunas) e incluso dudar de nuestros sentidos y percepciones (como cuando nos dicen que el planeta se está calentando pero en mi ciudad no veo ningún cambio en el clima). Más difícil todavía si cambiar de idea significa además modificar comportamientos (por ejemplo, en el mismo caso del cambio climático, cambiar esa hermosa camioneta diésel por un horrible city car eléctrico).

Ese esfuerzo, la incomodidad de tener dos ideas en conflicto, se llama disonancia cognitiva, y nuestro cerebro la odia. No por nada Al Gore llamó a su documental sobre el cambio climático Una verdad inconveniente.

Ahora, no se trata de ir por el mundo diciéndoles a los demás que están equivocados. Esto puede provocar el efecto contrario (backfire effect): que la persona reafirme aún más su creencia inicial. D.J Flynn, quien participa en el programa de Ciencias Sociales Cuantitativas del Dartmouth College, hizo junto a su equipo una serie de experimentos con padres antivacunas a los que les presentaron datos y evidencia que demostraban que estas no tenían relación con el autismo. De acuerdo a los investigadores los resultados fueron “deprimentes”, y muestran que para hacer cambiar a alguien de idea se necesitan más que datos y folletos informativos.

Troy Campbell, profesor de Sicología Social y Comportamiento de Consumo, se ha dedicado entender los mecanismos a través de los cuales las personas rechazamos nuevas ideas y ha descubierto que la gente, cuando se enfrenta a datos que no confirman lo que cree, opta por cuestionar la validez de esa información. Por ejemplo, decir que los estudios que afirman que las vacunas son seguras son financiados por quienes las producen. “La verdad es que la gente ama los datos, ama ser crítica y ama la ciencia… cuando no tiene ninguna motivación para negar la verdad, claro”.

Según Stephan Lewandowsky, director de la Escuela de Psicología Experimental de la Universidad de Bristol, para manejar el escepticismo y creciente desconfianza hacia el conocimiento y la ciencia es urgente educar a los ciudadanos. “Ningún científico individual es inmune al error y el sesgo, pero en general, la ciencia proporciona el mejor conocimiento posible”, dice.

Para eso Claudio Lavín, quien enseña pensamiento crítico a alumnos de Psicología e Ingeniería Comercial, explica que “les hace la metáfora de Inception (la película): que sigan alguna idea relevante para ellos y descubran cuándo se instaló en sus cabezas y si podrían cambiarla de alguna forma. Aunque creo que lo ven como un ejercicio más académico, espero que quede una semilla de eso”.

“Debemos tratar de ayudar a la gente a pensar en términos meta, es decir, que la ciencia no se basa en un solo estudio, sino en una gran cantidad de investigación a lo largo del tiempo. Lo importante es comunicar el peso de la evidencia (consenso científico) a la gente, a través de muchos estudios”, agrega Sander van der Linden, director del Social Decision-Making Lab de la Universidad de Cambridge.

circulos1

Los investigadores Troy Campbell, Stephan Lewandowsky y D.J Flynn.

Pasiones en línea
Si hay un terreno en que la polarización ha aumentado es el político, lo que se ha visto en recientes elecciones en distintas partes. Donald Trump conquistó a buena parte de electorado apelando a emociones como la ira y el miedo a los inmigrantes. Algo similar se vio este año en el discurso de la derrotada candidata de la ultraderecha francesa Marine Le Pen.

Según Claudio Lavín, uno tiene derecho a pedirles a las autoridades y personas que toman decisiones vinculantes a pensar con sistema 2. “Si hay personas que debaten y toman decisiones respecto de cosas que no saben o conocen parcialmente, entonces es dejar las decisiones públicas en manos del sistema 1 de los políticos”, explica.

Este mayor agitamiento político, aparentemente, está siendo potenciado por las redes sociales. “Las noticias falsas, las teorías conspirativas y la polarización de los usuarios no son un problema que haya surgido con la internet. Ciertamente el rol que cumplen tiende a agravar la situación, pero el problema de fondo es humano”, dice Ana Lucía Schmidt, que trabaja en el Laboratorio Computacional de Ciencias Sociales del IMT School, de Italia. Su equipo realizó un análisis cuantitativo de 376 millones de usuarios y 920 fuentes de noticias en Facebook, que mostró una fuerte polarización en el consumo de noticias. “Los algoritmos de las redes sociales nos proveen de fuentes de noticias similares con las que hemos interactuado en el pasado, independientemente de su veracidad, las que compartimos con familiares y amigos. Es así que los usuarios tienden a agruparse en comunidades fuertes y bien definidas alrededor de proveedores de noticias que aceptan, generando grupos polarizados, o burbujas de información, donde sus creencias y puntos de vista se ven reforzados y las opiniones disidentes son ignoradas”, explica.

Este efecto llamado “cámara de eco” refleja cómo, tanto en el mundo real como en la web, nos blindamos para tratar de recibir información que confirma nuestros sesgos y nos hace sentir bien. Según Leandro De Brasi, profesor en la Universidad Alberto Hurtado y experto en filosofía de la mente, las redes sociales pueden restringir aún más nuestra habilidad de apreciar posiciones opuestas, perpetuando este sesgo y promoviendo la polarización.

“Los sesgos son una enfermedad que debemos combatir con el sano tratamiento de los datos y educación”, afirma Troy Campbell. Pero es una tarea cuesta arriba, concuerdan los entrevistados. “Ciertos aspectos del pensamiento probablemente no son modificables, pero creo que es posible tener el hábito de pensar más críticamente. Ese es el papel de una buena educación”, dice Gord Pennycook, profesor del Departamento de Sicología de la Universidad de Yale.

Discutir y persuadir
Diez claves para convencer a otro
1- Genere confianza y demuéstrele al otro que le importa. Corrija con amabilidad y sin condescendencia.
2- Busque un terreno común: Trate de convencer al otro de que, en el fondo, ya están de acuerdo en algunas cosas.
3- No espere cambios radicales. Nadie cambia una opinión importante de la noche a la mañana.
4- No ataque, avergüence o insulte. Si los invita “a su lado”, hágalo con respeto. No es una lucha.
5- Cuando repita un mito advierta de antemano que va a dar información errónea, “hay un mito que dice…”. La advertencia permite almacenar el dato como desinformación.
6- Al refutar una idea, explique por qué no es correcta y por qué la gente podría creerlo o tener interés en que otros la crean.
7- Si puede, demuestre cómo una información falsa está basada en un dato engañoso o mal elaborado.
8- Si es posible, ofrezca una explicación alternativa que sea plausible y que explique tanto como (o más que) la idea refutada.
9- Utilice fuentes fidedignas y haga hincapié en la información de consenso si está disponible.
10- Use las normas sociales. Las personas no quieren ser vistas como atípicas, muéstreles lo que la mayoría, e idealmente sus grupos sociales, hacen. Es una señal potente.

Tres claves para mantenerse escéptico en la web
1- Ser consciente del efecto eco de las redes sociales.
2- Sea amigo de la gente del “otro lado” o lea historias que sean contrarias a lo que usted piensa (aunque le cueste).
3- Antes de compartir una información intente chequear si es verdadera. No promueva noticias falsas

Papel digital