Está sentada, con las rodillas juntas y sus manos sobre ellas. No realiza mucho contacto visual al principio y sus movimientos oscilantes (hacia atrás y adelante) sugieren que está nerviosa o ansiosa por salir de allí. Todo eso fue lo que pude detectar de la Dra. Aina Puce, especialista en estudiar cómo realizamos -muchas veces sin pensar- los gestos y acciones que decimos sin palabras.
Aina Puce es académica del Departamento de Psicología y Ciencias del Cerebro de la Universidad de Indiana y coautora de las técnicas de magnetoencefalografía (MEG) y electroencefalografía (EEG) para estudiar la actividad cerebral de forma no invasiva.
Aina Puce, la científica que estudia cómo nos comunicamos mediante lo que no decimos
Su programa de investigación se centra en las bases neuronales de la cognición social: la capacidad de interpretar las acciones, intenciones y emociones de los demás. Los aspectos implícitos y explícitos de la comunicación no verbal son un tema principal, al igual que el contexto en el que ocurre la acción. Utiliza tareas de activación que intentan imitar situaciones de la vida real.
Además, Puce se ha desempeñado como subdirectora del Instituto de Ciencias del Cerebro de la Universidad de Swinburne en Melbourne; directora de neuroimagen de la Facultad de Medicina de la Universidad de Virginia Occidental y directora del Imaging Research Facility de la Universidad de Indiana. Fue editora senior de la revista NeuroImage y editora asociada de Perspectivas sobre la ciencia psicológica.
Estuvo en Chile, invitada a un seminario realizado por la Facultad de Psicología de la Universidad Diego Portales, para crear lazos científicos con dicha casa de estudios. En entrevista con Qué Pasa, la especialista cuenta cómo es posible que podamos comunicarnos sin palabras, y cómo esto es muchas veces determinado por nuestra biología y por nuestra cultura. A medida de que la conversación avanzó, sus manos se relajaron, hubo más contacto visual y su postura dejó de ser tan oscilante.
-¿Cómo nace tu interés por estudiar esta neurociencia social?
Siempre me ha interesado entender cómo funciona nuestro cerebro, y empecé como estudiante de pregrado a interesarme por esto. Completé dos títulos de posgrado, una maestría y un doctorado en neurofisiología humana, y trabajé con pacientes que se sometían a una cirugía de epilepsia y estábamos tratando de estudiar y mejorar su asistencia clínica.
Me mudé a los Estados Unidos, donde continué esos estudios y también comencé a trabajar con un nuevo método de imagen llamado resonancia magnética funcional. Allí comencé a explorar la percepción de los rostros y cómo usamos esa información para interactuar con otras personas, y desde ese momento mi trabajo ha continuado en la exploración de la base cerebral de las interacciones sociales. Saber cómo obtenemos información de la cara, del cuerpo, cómo las personas interactúan entre sí.
-¿Y qué importancia tiene este lenguaje no verbal en nuestra sociedad?
Bueno, ahora mismo para mí, prácticamente es muy importante. En realidad nos enviamos señales no verbales muy poderosas. Y a veces esas señales no coinciden con lo que decimos. Somos muy sensibles a la coincidencia o el desajuste entre lo que decimos y lo que hacemos con nuestros cuerpos.
Usamos esa información para tratar de entender cuáles son las intenciones de otras personas hacia nosotros y hacia los demás, y por eso es muy importante. A veces, la parte más importante de la interacción social proviene de observar las acciones de la otra persona.
-Hay algunas señales que no decimos con palabras, sino que estamos hablando a través de nuestro cuerpo.
Hablamos con nuestros cuerpos y, a veces, cuando vemos a otras personas hablar con sus cuerpos. Pero también podemos usar esa información para obtener impresiones sobre esa persona, y a veces no sabemos por qué pensamos en una persona de una manera particular, pero estamos usando la información de su rostros y cuerpo. De una manera inconsciente para tratar de dar sentido a esa persona y a sus intenciones hacia nosotros.
-¿Existen diferencias entre cómo se comunica nuestro cuerpo, dependiendo de cada cultura?
Hay diferencias en la forma en que se usa, principalmente en los gestos y en la forma en que las personas usan mucho sus manos. Por ejemplo, pareciera ser de mala educación mirar directamente al individuo a los ojos, en algunos países del sudeste asiático y Japón. Incluso eso puede verse como grosero y agresivo.
Tenemos que ser sensibles dondequiera que vayamos. Creo que todos tenemos que hacer un esfuerzo para conocer esas señales que son ofensivas para otras personas, y necesitamos cambiar un poco nuestro comportamiento cuando viajamos.
-¿Cómo podría afectar el aislamiento social que vivimos en la última pandemia a nuestra forma de expresar nuestras palabras a través del lenguaje no verbal?
Creo que con el aislamiento en sí, olvidamos muchas formas de interactuar con los demás porque simplemente no fuimos capaces de hacerlo. Además, creo que algo diferente pasó con la forma en que la gente lee las caras, porque teníamos que leer las caras solo desde los ojos.
-Pues hoy en día con la inteligencia artificial, ¿podríamos pensar que una máquina pueda emular el lenguaje no verbal o que pueda leerlo y hacerlos “más humanos”?
Sí, es una idea muy interesante. Y muchas de las empresas que se ocupan de la inteligencia artificial ahora tienen equipos que están haciendo exactamente eso. Pero pienso en ello desde mucho antes, incluso desde el inicio de este siglo. Recuerdo haber estado en Japón y eso fue allá por el año 2000, cuando ibas a un cajero automático de un banco y tenían una cara y parpadeaba y se movía y trataban de humanizar esta máquina. Para que sea más agradable interactuar con él, y eso fue hace mucho, mucho tiempo.
-¿Y cómo funciona el cerebro cuando estamos frente a un gesto o una sensación de otro y también cuando hacemos algún gesto?
Los sistemas en el cerebro se activan cuando vemos una cara real reconoce que lo que ve está en tres dimensiones. Esos mismos sistemas se activan cuando vemos rostros que son de dibujos animados, o rostros que son presentados por rostros de IA de robots. La activación no es tan fuerte como lo es para una cara real, pero esos mismos sistemas cerebrales están activos. Y creo que esa es la razón. Una cara artificial tiene características tan poderosas que activar automáticamente nuestros sistemas cerebrales que responden a las caras de otras personas.
La científica que estudia cómo nos comunicamos a través de lo que no decimos
-¿Es posible medir cómo actúan las emociones a nivel de nuestro cerebro?
La gente ha estado estudiando eso durante mucho tiempo, midiendo la actividad eléctrica del cerebro. También pueden medir cómo cambia el flujo sanguíneo en ciertas partes del cerebro, con un método llamado resonancia magnética.
Lo interesante es que las emociones también afectan tanto al cuerpo como al cerebro, por lo que a veces cuando tenemos miedo, cuando estamos enojados, cuando estamos felices o cuando estamos tristes, por ejemplo, tendremos ciertas sensaciones en el cuerpo y habrá una interacción entre el cuerpo y el cerebro.
-¿Y hay una emoción en particular que podría afectarnos más que otras?
Creo que desde el punto de vista de la supervivencia, el miedo es probablemente el mejor ejemplo en el que pensar. Tenemos miedo de que si estamos en presencia de una persona o algo que pueda ser peligroso para nosotros, y pensamos que eso podría lastimarnos o lesionarnos.
Por lo tanto, tenemos que ser capaces de movilizar nuestro cuerpo para cualquiera de las dos opciones: escapar o pelear. Y esa es una emoción muy poderosa porque nos ayuda a protegernos.
-Y esta reacción de lucha o huida, ¿es hecha por el contexto cultural o es más una respuesta biológica?
Creo que hay un elemento de ambos, pero creo que fundamentalmente no importa en qué cultura te encuentres. Si alguien está a punto de robarte o lastimarte, no tienes que hacerlo ni siquiera de forma consciente. Creo que ya lo sabes.
-¿Cómo podríamos mejorar el estudio de la lectura o la comprensión de las cosas que no se dicen?
Estamos leyendo entre las palabras. Una vez más, estás buscando el desajuste entre lo que alguien dice y lo que dice el cuerpo, por lo que la prueba clásica del detector de mentiras que se basó en cuánto sudan las palmas de las manos.
Eso sí, el problema con eso es que no siempre detecta específicamente una mentira. Es posible que estés muy ansioso, o que estés molesto por algo y eso puede crear efectos similares. Las palmas sudorosas no significan que estén mintiendo, necesariamente. Podría significar que podrían tener algo que ocultar. Podría significar que están muy preocupados. Es posible que tengan miedo.
-Y en su opinión, ¿cuáles son los próximos retos de la neurociencia social?
Hay un par de cosas. Una de las cosas urgentes, creo, es la comunicación intercultural en este momento, porque en nuestro mundo tenemos sociedades muy mixtas en las que personas de diferentes culturas viven y trabajan juntas y se basan en el momento en que lees las noticias.
Y creo otro problema real a atender es cómo la desinformación ha creado problemas para engañar a la gente. Actualmente es muy difícil distinguir un deep fake de un individuo real. La desinformación a través de estos fenómenos generados por IA creo que es un problema realmente urgente en este momento.