¿Por qué la gente inteligente cree/dice/hace cosas irracionales?
¿Cómo puede alguien tan inteligente hacer algo tan tonto? Todos nos hemos hecho esta pregunta en alguna ocasión al ver a algún amigo o pariente, por lo demás perfectamente inteligente, hacer alguna estupidez.
La gente compra caro y vende barato. Creen en el horóscopo. Asumen que “eso”, sea lo que sea, nunca les puede ocurrir a ellos. Lo apuestan todo al negro por que ahora “toca” negro. Piensan que un número concreto de la lotería es trascendente, porque lo relacionan con algo importante o conocido para ellos y que, por esto mismo, es más probable que toque. Se toman una ración extra de tarta pero piden sacarina para el café. Hablan por teléfono o encienden un cigarrillo mientras conducen. Después de perder un buen montón de dinero, siguen metiendo más en lo mismo porque ya llevan mucho “invertido”. Asumen que una burbuja financiera o inmobiliaria no estallará nunca. Vuelve a votar al mismo incompetente que está llevando al país a la ruina. Etcétera.
La razón por la que la gente inteligente hace algunas veces cosas estúpidas es que inteligencia y racionalidad son cosas diferentes. La incapacidad para hacer cosas racionales a pesar de ser inteligente la llamaremos disracionalidad.
Desde que Charles Spearman propusiera allá por el año 1904 la existencia de un “factor general de inteligencia”, g, como base de la función cognitiva, la definición y medición de la inteligencia no ha podido ser algo más controvertido. Por ejemplo, hay quien argumenta que la inteligencia está constituida de muchas capacidades cognitivas diferentes. Hay otros que quieren ampliar la definición de inteligencia para incluir las inteligencias “emocional” y “social”.
Podemos considerar, para lo que nos interesa ahora, la inteligencia medida por los tests de cociente intelectual como un constructo útil. No nos es necesario siquiera entrar a discutirlo ni a matizarlo. La idea importante es que la inteligencia por sí misma no garantiza un comportamiento racional. En otras palabras puedes ser inteligente sin ser racional. Y puedes ser un pensador racional sin ser especialmente inteligente.
Empecemos por dejar estas ideas claras experimentalmente. Intenta resolver este problema antes de seguir leyendo: “Antonio está mirando a Beatriz, pero Beatriz está mirando a Carlos. Antonio está casado, pero Carlos no. ¿Está una persona casada mirando a una persona soltera?”. Las respuestas posibles son: “sí”, “no” y “no puede ser determinado”.
¿Ya tienes tu respuesta? Pues sigue leyendo.
Más del 80 por ciento de las personas contestan incorrectamente. Si llegaste a la conclusión de que la respuesta no puede determinarse, eres una de ellas. La respuesta correcta es, “sí”, una persona casada está mirando a una soltera.
La mayoría de nosotros creemos que necesitamos saber si Beatriz está casada para poder responder a la pregunta. Pero considera todas las posibilidades. Si Beatriz está soltera, entonces una persona casada (Antonio) está mirando a una soltera (Beatriz). Si Beatriz está casada, entonces una persona casada (Beatriz) está mirando a una soltera (Carlos). En cualquier caso la respuesta es “sí”.
La mayoría de la gente tiene inteligencia suficiente para llegar a esta conclusión, basta añadir algo como “piensa lógicamente” o “considera todas las posibilidades” para que lo hagan. Pero si no se indica nada, como ahora, no recurrirán a todas sus capacidades mentales para resolverlo (más sobre esto más abajo).
Esta es una de las mayores fuentes de disracionalidad. Todos somos avaros cognitivos que intentamos evitar pensar demasiado. Esto tiene sentido desde un punto evolutivo. Pensar requiere tiempo, es intensivo en recursos y, algunas veces, contraproducente. Si el problema a resolver es evitar al ataque de un depredador no te puedes permitir perder una fracción de segundo en decidir si saltas al río o trepas a un árbol. Por eso hemos desarrollado una serie de reglas empíricas (heurística) y prejuicios para limitar la cantidad de capacidad mental que empleamos en un problema dado. Estas técnicas proveen respuestas aproximadas y ya preparadas que son correctas muchas veces, pero no siempre.
Por ejemplo, en un experimento, un investigador ofreció a los sujetos un dólar si, a ciegas, sacaban una gominola roja de un recipiente que contenía una mayoría de gominolas blancas. Los voluntarios podían escoger entre dos recipientes: uno con nueve gominolas blancas y una roja y el otro con 92 blancas y ocho rojas. Entre el treinta y el cuarenta por ciento de los sujetos que realizaron el ensayo escogió el recipiente mayor, a pesar de que la mayoría comprendía que una probabilidad del ocho por ciento de ganar era peor que una del diez por ciento. El atractivo visual de ver más gominolas rojas se sobrepuso a su comprensión de la probabilidad.
¿Tú que harías en una situación similar? Hagamos un experimento. Considera el siguiente problema: “Se detecta el brote de una enfermedad que puede matar a 600 personas si no se hace nada. Hay dos tratamientos posibles. El Opción-A salvará a 200 personas. El Opción-B te da un tercio de probabilidades de que se puedan salvar las 600, y dos tercios de que no se salve ninguna. ¿Qué tratamiento eliges?”
Bien, ¿has elegido ya? Continuamos.
La mayoría de las personas que hacen este ejercicio elige la opción A. Es mejor garantizar que 200 personas se salven que arriesgarse a que todo el mundo muera. Pero si formulamos la pregunta de esta manera “La Opción-A significa que morirán 400 personas; la Opción-B te da un tercio de probabilidades de que no muera nadie y dos tercios de que mueran 600”, la mayoría elige la B, es decir, se arriesgan a matar a todos por una probabilidad menor de salvar a todos.
El problema, desde un punto de vista racional, es que las dos situaciones son idénticas. Lo único que varía es que la pregunta se formula de forma diferente para enfatizar que en la opción A morirán con seguridad 400 personas, en vez de que se salvarán 200. Esto se conoce como efecto perspectiva y su uso en publicidad está muy extendido (su descripción cuantitativa le valió un premio Nobel a Daniel Kahneman en 2002): la forma en que se presenta una pregunta afecta de forma dramática a la respuesta que se obtiene y puede llevar incluso a respuestas contradictorias.
Otro efecto es el de obstinación. En un experimento los investigadores hacían girar una ruleta trucada que sólo se paraba en el 10 o en el 65. Cuando la rueda se paraba los investigadores pedían al voluntario una estimación del porcentaje de países africanos en la Naciones Unidas. Los que veían el 65 daban un número mayor que aquellos que veían el 10. El número influía en sus respuestas (las anclaba, de ahí el nombre del efecto en inglés “anchoring”) a pesar de que pensaran que el número era completamente arbitrario y sin significado.
La lista de reglas empíricas y prejuicios cognitivos es muy extensa: buscamos pruebas que confirmen nuestras creencias y descartamos las que no las favorecen, evaluamos las situaciones desde nuestro punto de vista sin considerar la otra parte, nos influye más una anécdota llamativa que las estadísticas, creemos que sabemos más de lo que realmente sabemos, creemos que estamos por encima de la media, estamos convencidos que a nosotros no nos afectan los prejuicios como a los demás, etc., etc.
Finalmente existe otra fuente de disracionalidad, lo que llamaremos “huecos en el equipamiento mental”. Por equipamiento mental entendemos el conjunto de las reglas cognitivas, estrategias y sistemas de creencias aprendidos. Incluye nuestra comprensión de la probabilidad y la estadística así como nuestra disposición a considerar hipótesis alternativas cuando tratamos de resolver un problema. El equipamiento mental forma parte de lo que se suele llamar inteligencia cristalizada. Sin embargo, algunas personas muy educadas y muy inteligentes nunca adquieren un equipamiento mental adecuado. Otra posibilidad es que el equipamiento mental esté “contaminado”, por supersticiones por ejemplo, lo que lleva a decisiones irracionales.
La disracionalidad tiene importantes consecuencias para el día a día. Puede afectar a las decisiones financieras que tomes, a las políticas gubernamentales que apoyes., a los políticos que elijas y, en general, a tu capacidad para construir la vida que quieres. Por ejemplo, los ludópatas obtienen resultados más bajos que la media en varios tests de pensamiento racional. Toman decisiones más impulsivas, es menos probable que consideren las consecuencias futuras de sus acciones y es más probable que crean en números afortunados y desafortunados. También obtienen malos resultados en la comprensión de la probabilidad y la estadística. Así, es menos probable que entiendan que cuando se arroja una moneda al aire, cinco caras seguidas no significa que en la siguiente tirada el que salga cruz sea más probable. Su disracionalidad no les hace sólo malos jugadores, sino jugadores con problemas: personas que continúan jugando a pesar de hacerse daño a ellos mismos y a su familia.
Cuando se comparan los resultados que obtiene una misma persona en los tests de cociente intelectual habituales con los que miden el nivel de racionalidad se encuentra que no tienen por qué estar correlacionados entre sí. En algunas tareas existe una disociación casi completa entre pensamiento racional e inteligencia. Así, por ejemplo, tú puedes pensar más racionalmente que alguien mucho más inteligente que tú. De la misma forma, una persona con disracionalidad es casi tan probable que tenga una inteligencia por encima de la media como que la tenga por debajo.
Para comprender el origen de las diferencias en la racionalidad de las personas pensamos que la teoría de Keith Stanovich, de la Universidad de Toronto (Canadá), y padre del término disracionalidad (dysrationalia), es muy útil y simple. Stanovich sugiere que pensemos en la mente como constituida por tres partes. La primera es la “mente autónoma” que es la que usa la mayor parte de los atajos (prejuicios) cognitivos problemáticos. Stanovich la llama “procesamiento del tipo 1”. Funciona rápida y automáticamente y sin control consciente.
La segunda parte es la “mente algorítmica”. Es la que se embarca en el “procesamiento de tipo 2”, el pensamiento lento, trabajoso y lógico que miden los tests de inteligencia.
La tercera parte es la “mente reflexiva”. Decide cuándo basta con la mente autónoma y cuándo echar mano de la maquinaria pesada de la algorítmica. Es la mente reflexiva la que determinaría hasta qué punto eres racional. Tu mente algorítmica puede estar lista para entrar en combate, pero será de poca ayuda si nunca se la llama.
Cuándo y cómo la mente reflexiva entra en acción está relacionado con una serie de rasgos de personalidad, incluyendo si eres dogmático, flexible, de mente abierta, capaz de tolerar la ambigüedad o concienzudo.
La buena noticia es que el pensamiento racional puede ser aprendido. Una serie de estudios muestra que una buena manera de mejorar el pensamiento crítico y racional es pensar y analizar lo opuesto a tu primera conclusión. Una vez que esta práctica se convierte en hábito te ayuda, no sólo a considerar hipótesis alternativas, sino a evitar trampas como las que tienden los prejuicios cognitivos.
¿Quieres tener una indicación de cómo eres de racional? Aquí tienes un microtest.
Fuente: Experientia docet