Cada vez que Alejandro Montenegro, quien está haciendo un postdoctorado en la Facultad de Ciencias Biológicas de la Universidad Católica, le cuenta a sus compañeros que va a publicar un artículo, lo primero que le preguntan no es de qué se trata, sino dónde. En los últimos años, hay una idea que se ha popularizado en el mundo universitario en Chile y en el mundo: “Publish or perish”, que es lo mismo que decir que publicas o desapareces.

La frase alude a los artículos académicos (también llamados papers, en inglés), que han existido siempre en la investigación, porque para decirlo en fácil, son un documento que le acredita al mundo que su autor hizo un descubrimiento importante. “El trabajo del científico no es el descubrimiento en sí, sino la difusión y el impacto que tiene. Un paper bueno puede cambiar el mundo, pero tiene que estar publicado, sino ¿cómo lo cambia?”, dice Flavio Salazar, vicerrector de Investigación de la U. de Chile.

Un buen artículo académico o paper debe ser original, novedoso, tener un marco teórico, una hipótesis, una demostración y debe ser replicable, es decir, que cualquiera que repita el proceso llegue a los mismos resultados. Como eso no siempre ocurre hay que acreditarlo, y para eso existen revistas (journals) especializadas por área, a las que los investigadores postulan con sus papers y que se encargan de seleccionar los mejores, tras hacerlos pasar por una revisión anónima de “pares” expertos (peer review). “Esta es su garantía de calidad”, agrega Salazar.

Entonces, astrónomos, historiadores, cientistas políticos, biólogos y un largo etcétera consiguen dinero para hacer una investigación (en su universidad o a través de fondos concursables, como Fondecyt), escriben un artículo con los resultados y tratan de ponerlo en una de estas revistas, lo que a su vez les da currículum para conseguir nuevos fondos. Pero, como queda demostrado con el relato de Alejandro Montenegro, no se trata sólo de publicar, sino de hacerlo en la revista con más impacto posible.

En las últimas décadas el número de publicaciones ha crecido explosivamente. En 2012 se calculaba que había 28 mil activas que usaban el método de la revisión de pares. No todas con la misma calidad y prestigio. En cada área hay algunas que son más estrictas y/o influyentes, por ejemplo, Science y Nature, en ciencia general, The Lancet o The New England Journal of Medicine, en medicina, o Econométrica en economía.

Eugene Garfield trató de poner orden a esta marea de conocimiento y creó en los sesenta el Instituto para la Información Científica (ISI), que luego compró la editorial Thomson Reuters. Lo que hizo fue crear una base de datos de las publicaciones académicas más rigurosas por área que hoy incluye 10 mil revistas.

Por eso, publicar un “paper ISI” no es lo mismo que hacerlo en una que no está en esa base de datos (u otra similar). También diseñó el llamado “factor de impacto”, que mide la importancia de una revista, en base a su nivel de citación. Así hoy, a través del servicio Web of Science (WOS, anteriormente ISI) u otros como Scopus o Scielo, es posible identificar qué revistas o artículos han sido más mencionados.

En los últimos años académicos en todo el mundo han comenzado a criticar la preponderancia que han adquirido estas bases de datos y rankings. “Estábamos acá para reflexionar sobre el mundo y vemos una competencia por quién tiene más puntitos”, dice Carlos Rodríguez, economista y director académico del doctorado en Ciencias de la Complejidad de la UDD.

Privilegiados

La razón por la que estos sistemas, y en particular las publicaciones, han adquirido un lugar preponderante en los centros de investigación es porque permiten medir y comparar el trabajo académico, algo muy importante en el ámbito de la generación de conocimientos donde es difícil encontrar indicadores de productividad. El factor de impacto y el Índice H (que mide la influencia de un investigador según el número de citas a sus artículos), por mencionar algunas métricas, son casi un segundo currículum para muchos académicos, no por un asunto (sólo) de vanidad, sino porque determinan la posibilidad de conseguir financiamiento, becas y ascensos.

“Hace 10 años se tomaban en consideración otras variables para contratar a un académico: dónde hiciste el doctorado, la carrera docente, participar de la discusión en políticas públicas… la investigación no era tan preponderante”, explica Rodríguez. Hoy, publicar lo más que se pueda es una prioridad.

Para las universidades tampoco es fácil escapar a esta presión, ya que sus posiciones en los rankings internacionales pasan en buena parte por la cantidad de publicaciones en revistas de alto impacto. “Esto es como el Simce: en un principio era importante evaluar los aprendizajes de los alumnos, pero se desvirtúa al convertirse en un índice de calidad, en una herramienta de marketing”, dice Flavio Salazar. Sin embargo, María Elena Boisier, directora de investigación de la UC, explica que “se está transitando a valorar otros productos. Es importante que esto se vaya adaptando, porque ahora el ISI impacta mucho. Es necesario un equilibrio”.

Aunque no hay reglas escritas ni taxativas, informalmente se espera que un investigador publique al menos un paper ISI (o Scopus) al año. Para esto, muchas universidades han desarrollado incentivos, que en su mayoría rondan el millón de pesos por paper publicado. “Todas las vicerrectorías de investigación tratamos de crear condiciones para que nuestros académicos publiquen mejor y más”, dice Ariel Orellana, vicerrector académico de la UNAB.

Pero Andrés Navas, subdirector de investigación del departamento de matemáticas y ciencias de la computación de la USACH, afirma que “el pago por paper ha demostrado su nocividad en todas las instituciones que se ha aplicado. Hay otras actividades ligadas a la investigación que son importantes y tienden a ser subvaloradas”.

Los riesgos de la isificación 

Varios académicos se apuran en aclarar que están de acuerdo con que su trabajo sea evaluado y medido, pero critican la excesiva importancia que se le da a este sistema. Y los reclamos vienen desde distintas disciplinas.

“Hay revistas que tienen menor factor de impacto, pero que son muy relevantes en un área en particular”, dice Omar Orellana, director de Investigación de la Facultad de Medicina de la U. de Chile.

En las revistas “más cotizadas”, los tiempos de espera para revisión pueden ser de hasta cuatro años y sólo el tres por ciento de los manuscritos que recibe Science, por ejemplo, pasa finalmente a revisión. “Eso le hace mal a la ciencia. La comunidad no tiene acceso a ese conocimiento y todos se retrasa”, dice el biólogo Alejandro Montenegro.

Por su parte, el economista Dante Contreras, director del Centro de Estudios de Conflicto y Cohesión Social (COES), explica que lograr estas métricas ISI es aún más difícil en las ciencias sociales, porque hay menos revistas en el área y porque es más difícil presentar resultados exactos. “Economía es de lo que más publica, pero aun lejos de las ciencias duras”.

Algo con lo que concuerda Ricardo Greene, sociólogo y antropólogo visual que trabaja en la Universidad Católica del Maule: “Parte importante del trabajo en las ciencias sociales tiene que ver con un conocimiento que es situado histórica y contextualmente, pero por la imposición del ISI, que en su mayoría incluye publicaciones en inglés, los artículos muchas veces no se publican ni en español”.

En las humanidades y las ciencias sociales, entonces, formatos como el libro, el ensayo o incluso el documental pelean por recibir la misma puntuación en las evaluaciones que el paper científico.

Sin embargo, las métricas siguen ganando espacio. Bien lo sabe Erwin Krauskopf, director de la Escuela de Ingeniería en Biotecnología de la UNAB y uno de los pocos expertos en Chile en epistemometría (disciplina que estudia la dinámica de las publicaciones). Para él “la isificación es un tema que los tiene a todos vueltos locos”.

En Chile esto ocurre además en un contexto donde ha crecido el número de investigadores pero los recursos no han aumentado a la par. “Nosotros tenemos una diversidad de programas, pero al final del día tengo una fila de gente postulando a financiamiento. El tema es cómo lo reparto y a quién le entrego esos recursos, asegurando que se haga ciencia de calidad”, dice Christian Nicolai, director ejecutivo de Conicyt, el principal organismo de financiamiento de la investigación en Chile. “Se necesitan métricas para poder ordenar. Es un orden relativo, no absoluto, nos quedan muchos proyectos buenos fuera por falta de recursos”, agrega.

En ese contexto existe preocupación respecto a los efectos que esto tienen entre los académicos jóvenes. “Algunos tienen currículum excelentes y no los contratan sólo porque no tienen ISI. Eso es para llorar”, dice el filósofo de la Universidad de Chile e integrante del consejo de Fondecyt, Pablo Oyarzún. Pero, como explica Alejandro Montenegro, no se puede ir contra el sistema, “o te adaptas o quedas fuera”.

Buenas y malas prácticas 

Dante Contreras explica que en la academia se han ido desarrollando formas interesantes para lograr publicaciones de alto impacto que tienen que ver con potenciar el trabajo colaborativo y asociarse para hacer estudios entre pares, distintas universidades, instituciones o disciplinas. Algo promovido por Fondap, fondo que financia centros de investigación interdisciplinarios de alto nivel, como el que él dirige. “Esta estrategia es una gran oportunidad, sin embargo, muchos de los journals interdisciplinarios exhiben menor impacto que aquellos de especialidad”, explica.

La presión también da paso a prácticas más controvertidas en todo el mundo. Desde subdividir una investigación hasta la mínima unidad publicable para aumentar el número de artículos (la llamada táctica del salame), colocar como coautor de un paper a un colega amigo para que luego él a su turno haga lo mismo, los pactos o mafias de publicación (que se dan tanto entre investigadores como entre editores de revistas), publicar la misma investigación con leves diferencias en distintos idiomas y un largo etcétera.

En ese contexto, ha habido sonados escándalos: varios casos de plagio y de “engaño del peer review”, en el que se descubrió a investigadores que sugerían a pares revisores inventados, para así terminar dándoles la aprobación a sus propios artículos, lo que puso en cuestionamiento el alabado sistema de revisión del mundo científico. Otro fue el de STAP. Publicado en la renombrada revista Nature, el gran hallazgo realizado por la joven científica japonesa Haruko Obokata mostraba un método para reprogramar células adultas y convertirlas en células madre capaces de transformarse en cualquier tejido. La noticia tuvo un gran impacto, sin embargo, el artículo fue duramente criticado y finalmente retirado en julio de 2014, cuando se comprobó que había datos manipulados. Esto no sólo acabó con la carrera de Obokata, sino que se consideró clave en el suicidio de Yoshiki Sasai, renombrado investigador y coautor del estudio.

“Es el efecto de la ley de Campbell”, dice Scott Sadowsky, lingüista y académico de la Universidad de La Frontera. “Mientras más se utilice un indicador cuantitativo en la toma de decisiones, más probable es que el uso del indicador distorsione y corrompa el mismo proceso que pretende medir”.

Cómo mejorar

Reconociendo la importancia del paper como instrumento de la difusión científica, el mundo académico admite también la necesidad de introducir matices. Muchos afirman que ya está ocurriendo, aunque no tan rápido como todos quisieran.

Adaptar los criterios de evaluación a cada disciplina es una de las solicitudes. “Conicyt ha hecho un esfuerzo por mejorar esto a través de los grupos de estudio. Aunque no es un tema sólo de ellos, sino de la complejidad de generar índices que permitan una evaluación más justa”, agrega Flavio Salazar, de la U. de Chile.

En esa casa de estudios y otras, por ejemplo, afirman que han avanzado bastante en incluir otros parámetros, como tener libros revisados en editoriales importantes, la formación de estudiantes, el trabajo transdisciplinario y el impacto en la transferencia tecnológica, entre otros.

En la otra vereda están las revistas. Muchas de las indexadas no son abiertas sino que pagadas. Un gran negocio que ha sido fuertemente criticado porque impide que ese conocimiento esté disponible para todos, algo que captó la atención del ministro de educación de Holanda, Sander Dekker, quien ejemplificó: “En 2014, la solución a la crisis del Ébola se vio obstaculizada por la falta de acceso a las publicaciones y los datos de investigaciones recientes”.

Hoy existe un movimiento global, del que Chile no es ajeno, por democratizar el conocimiento y hacerlo más accesible. Algo que Ricardo Greene ha intentado hacer con Bifurfaciones, revista online de estudios culturales que fundó hace 12 años. “Está casi quebrada, pero la seguimos manteniendo”, dice. En el extranjero están PLOS, bioRxiv, F1000Research, entra otras, que no sólo son de acceso libre, sino que en algunos casos ofrecen revisión de pares abierta y al momento de la publicación.

El impacto de la ciencia es algo en lo que Erwin Krauskopf hace hincapié. “De qué me sirve que me citen tres pelagatos si yo puedo hacer un descubrimiento muy sencillo, pero que va a tener un impacto global, mejorando la calidad de vida de una persona. Eso es importante”, dice. Y agrega un dato sorprendente: en 2007 una investigación que realizó mientras trabajaba en la Fundación Ciencia para la Vida, junto a Bernardita Méndez, determinó que, entre 1987 y 2003, cerca de 500 patentes estadounidenses citaron artículos de autores chilenos, es decir, que los descubrimientos de esos investigadores dieron fruto a invenciones en ese país. “Inventos por los que hoy pagamos royalty, cuando debería ser al revés. Ahí tienes la prueba clara de que el paper no siempre lo es todo”, agrega.

Carlos Peña, rector de la UDP: “Isificar la vida intelectual es un error”

¿Qué lugar ocupan las publicaciones o papers en revistas de alto impacto en el trabajo universitario y la trayectoria académica?

Los niveles de investigación que efectúa una institución universitaria se miden, en términos generales, por los proyectos competitivos que sus académicos se han adjudicado y por el número de publicaciones indexadas que logra el conjunto de sus miembros. ¿Es correcto medir así el trabajo universitario? Pienso que no del todo; pero en esto los académicos y las instituciones están presas del sistema puesto que ese es el mecanismo con que se juzga el desempeño institucional.

¿Hay una estructura de incentivos en la UDP para estas publicaciones?

La UDP posee un sistema de incentivos por publicaciones que no se restringe solamente a las indexadas, sino que también incluye capítulos o libros publicados en editoriales prestigiosas. Se trata de un monto de dinero y por eso en su conjunto puede afirmarse, que los académicos de la UDP tienen una suerte de renta variable conformada por una fija e incentivos por publicaciones, proyectos de investigación, calidad de la docencia.

Hay académicos (en Chile y afuera) que se quejan de que se ha vuelto el único indicador, ¿qué piensa usted?

Hasta donde entiendo (al menos es la situación de la UDP), las publicaciones indexadas son sólo uno de los indicadores del trabajo académico. Este tiene muchas dimensiones, entre ellas, la participación en la esfera pública, el aula, el desarrollo de programas de investigación colaborativos, a veces alguna forma de administración docente, etc. Reducir todo eso al simple número de publicaciones es, obviamente, un error porque eso estimula a que el trabajo universitario se ensimisme y se ponga de espaldas a los problemas del entorno en que la universidad se desenvuelve. “Isificar” la vida intelectual es un error.

¿Cómo se llevan las ciencias sociales y las humanidades con este formato?

Lo que acabo de decir es especialmente relevante para las ciencias sociales que deben ser muy sensibles a los problemas de su entorno. El trabajo intelectual en estas áreas no se mide cabalmente por publicaciones indexadas que leen sólo los partícipes del campo (dando origen a lo que la sociología de estos temas ha llamado la “cultura de campus”, encerrada en sí misma), sino por la escritura de libros que influyen la esfera pública, modelan la cultura y ayudan a que la sociedad, que es siempre un sujeto histórico, reflexione sobre sí misma. Las formas de transmisión de este saber y el debate intelectual que le subyace requieren, pues, formas de medición de desempeño y vehículos de comunicación distintos a las revistas especializadas, que recogen papers interesantes, sin duda, pero que están muy lejos de la influencia que en esta materia ejercen los libros.

Gaspar Galaz,profesor del Instituto de Astrofísica de la UC: “Para mí, las publicaciones son unas palomas mensajeras de la ciencia” 

¿Cómo está influyendo el sistema de publicaciones indexadas en la forma en que se genera conocimiento?

Hay un dicho: “publish or perish”, que significa “publica o muere”. Si un científico no lo hace es como si dejara de existir. Pero publicar es una cosa y presentar algo relevante, es otra. Si sólo miras el número de papers se puede caer en el absurdo de que al final dé lo mismo qué es lo que se escribe. Yo prefiero mirar más bien el impacto.

¿Ha visto que la necesidad de publicar dé espacio para las malas prácticas entre los investigadores?

Por supuesto, y eso es un problema. Están los dos extremos: uno es publicar sólo cuando uno piensa que lo que estudió es casi para ganarse el Premio Nobel y entonces el investigador no presenta más que ladrillos una vez cada 10 años, decenas de páginas, que al final nadie lee. En el otro extremo está mostrar cualquier cosa. Para mí las publicaciones son unas palomas mensajeras de la ciencia, la herramienta que permite un diálogo planetario. Es como si hubiera un teléfono muy caro a través del cual cualquier científico de la misma disciplina, esté donde esté, puede entender qué está haciendo otro. Pero hay que usarlo cuando vale la pena, para comunicar algo importante o interesante, si no, genera ruido.

¿Sirve este mecanismo de las publicaciones indexadas para todas las disciplinas? 

Creo que es imposible aplicar la misma regla a todas. Puede acarrear situaciones injustas. Incluso dentro de las ciencias exactas hay matices: la naturaleza de las publicaciones de la física teórica con la física experimental es diferente. En astronomía está pasando lo mismo en algunas áreas, probablemente también en las ciencias naturales. En este caso, echo de menos la pérdida de la variable exploratoria.

¿Qué significa eso? 

Hay poco espacio para probar equivocándose, en parte empujado por el costo de los equipos (en el caso de la astronomía los telescopios, que son súper caros), pero también porque se olvida la naturaleza de la ciencia. Además creo que hay disciplinas que tienen poco espacio en la academia, que tienen un carácter mucho más exploratorio. La zoología, paleontología, botánica, entomología, arqueología, por mencionar algunas, donde hay mucho descubrimiento, mucha exploración, pero que están menos relacionadas de manera directa con aplicaciones tecnológicas, son disciplinas donde las universidades están casi despobladas.

Alfredo Jocelyn Holt, historiador y profesor de la U. de Chile: “En las humanidades ha sido nefasto el efecto”

¿Por qué tiene una visión crítica del sistema de publicaciones académicas?

Porque atentan en contra de un tipo de reflexión e investigación de largo aliento, como es el caso de los libros, los que a veces pueden tomar toda una vida, ciertamente más tiempo y profundidad que un artículo ocasional para una revista “científica” indexada. Porque estos papers sólo sirven para medir impacto (tantas veces que se consultan, tantas que se citan), por eso las universidades, obsesas con mediciones, los prefieren y apoyan o “premian” financieramente. Porque las revistas que los publican son normalmente redes herméticas, hasta a veces mafias de intereses compartidos (yo te cito, tú me citas). Y, por último, porque rara vez se leen (salvo entre estas mafias que se hacen autobombo), y menos aún hacen grandes contribuciones al conocimiento y la discusión general.

¿Cómo afecta específicamente al mundo de las humanidades?  

Esto de los papers proviene de las ciencias duras y aplicadas, no es tradición en las humanidades, éstas, acostumbradas a pensar escribiendo, no a presentar “resultados”. En las humanidades ha sido nefasto el efecto. Ha significado tener que dedicarse a pelos de la cola y a ahondar en los escolasticismos de moda, para peor, con sospechosa frecuencia, política y sectariamente correctos.

¿Cuándo empezaron a adquirir importancia a nivel universitario? 

Desde el momento que vino la carrera delirante por conseguir fondos, tras el abandono del apoyo estatal directo: los años 80. Ahí se vino la fiebre por la “investigación”, y cómo medirla, para así también poder financiarla.

¿Cuál ha sido su opción al respecto? 

He escrito artículos para revistas indexadas pero no me he dedicado a ello. Tú entras en la lógica de la investigación actual (papers y revistas indexadas) y tienes que armarte de redes de protección (una revista propia), limitarte a un público estrictamente academicista que sólo importa si tú estás dentro de la universidad, de nulo impacto fuera en el mundo profesional y político culto. Y, además, te privas de escribir libros que, por lo mismo que demandan más tiempo, rigor discursivo y esfuerzo, permanecerán en el tiempo. No estar en estos círculos suele significar marginación. Para las nuevas generaciones es hasta más grave: implica no poder entrar en la carrera universitaria. Quienes, en cambio, asumen para sí este esquema contribuyen a que las universidades sean mundillos cada vez más ensimismados, dedicados a hacer aportes intelectuales minúsculos si es que no insignificantes.