¿Está rota “la ciencia”?

¿Tenemos un problema con la ciencia? No me refiero a si el método científico tiene fallos, que por supuesto que los tendrá. Hablo del mundo de la producción científica, desde la generación de conocimientos hasta su comunicación, pasando por los apartados administrativo y social. No me voy a colgar el dudoso mérito de poner esta pregunta sobre la mesa. Bajo el llamativo titular Is science broken? llevan apareciendo ensayos desde hace décadas, si no mucho más tiempo. Pero, ¿lo está? ¿Está rota “la ciencia”?

Un ‘paper’, una Nobel y una pregunta

La reciente retractación de un paper de la prestigiosa revista Science por parte Frances Arnold, ganadora del Premio Nobel de Química de 2018, dio mucho que hablar. A raíz del suceso volvieron a surgir las imperecederas preguntas sobre el bienestar del “hacer ciencia”. Hay que admitir que la actitud y acción de Arnold fue ejemplar, incitando a su equipo a solicitar la retractación (que fue voluntaria) así como informando por prensa y redes de la decisión. Nadie lo discute.

Huelga decir que hubo quien aprovechó para hacer leña del árbol caído de la misma manera que hubo quien defendió a capa y espada el honor de la investigadora. En cualquiera de los casos, hay preguntas que son inevitables: ¿no será esta una prueba más de que algo no anda bien en el sistema de producción científico? A raíz del curioso evento, aproveché para hacer una pequeña encuesta en Twitter en la que preguntaba si la ciencia “está en crisis” o no.

Dio para bastante debate, de hecho. De 444 votos, el 79,5% votó que sí y el 3,8% explicó más abajo (todos coincidiendo), por lo que tenemos un 83,3% de acuerdo: algo pasa con la ciencia. Aprovechando la circunstancia, ¿por qué no revisamos algunos puntos básicos sobre lo que llamamos ciencia y el sistema que tenemos de producirla? Es algo que cualquier profesional que se precie debería plantearse un par de veces, al menos, en su carrera.

“Hacer ciencia”, ¿cómo funciona el sistema?

Pongámonos un momento en la piel de quien no sabe nada de qué es ciencia y cómo “se hace”. Grosso modo, consideramos conocimientos científicos aquellos que pueden ser determinados y examinados mediante el método científico. Esto, en un sentido práctico, aunque no único, lo asociamos con la publicación de artículos científicos. Los papers, usando el anglicismo, son la forma más extendida, y fundamental, podríamos decir, de “hacer ciencia”. Los nuevos conocimientos que no han pasado por el método científico y han sido publicados en un título de cierto prestigio no son considerados “ciencia”.

Podemos identificar tres grandes pilares sosteniendo a este sistema del que hablamos, el de “hacer ciencia”: la experimentación, la publicación y la revisión por pares. En definitiva, todo conocimiento científico se sustenta sobre ellos. La forma de funcionar de estos pilares es lo que el 83,3% de 444 personas ha votado como fallido. No nos confundamos, eso no quiere decir que el sistema no funcione, porque lo hace.

Por otro lado, tampoco quiere decir que 444 personas sean una muestra general nada sesgada, por supuesto. Lo que significa, en resumidas cuentas, y rompiendo un poco la línea del argumento que llevábamos hasta hace poco, es que el sistema de “hacer ciencia” está en una fase de cambio profundo y que, además, está en una situación mala o difícil actualmente, haciendo referencia a dos acepciones semánticas. La cuestión a despejar es, ¿por qué?

No es país para jóvenes (en ciencia)

La cantidad de abusos e injusticias dentro del sistema es innumerable. Tanto que es difícil hacer una correcta radiografía de la situación. Comencemos tratando de hacer una descripción sencilla de los mismos, empezando por la cuestión más evidente: los jóvenes investigadores e investigadoras. La investigación, cuyo objetivo es generar nuevos conocimientos, está lastrada por un sistema poco reconocido, mal pagado, abusivo… que dependiendo del país a veces es contraproducente y repele el talento. ¿Duele escucharlo? Por supuesto.

Pero si tenemos en cuenta que más de una quinta parte de las universidades españolas pertenecen al siglo XX y que en la mayoría de ellas no hay una renovación real del profesorado o de sus puestos titulares podemos comenzar a vislumbrar cierta actitud reaccionaria en el ambiente académico. No quiero pecar de simplista, pero estos datos son un reflejo más que coincide con otra serie de consecuencias relacionadas con la producción científica y el envejecimiento del profesorado universitario (con todo el respeto a este).

Así, encontramos cada vez a más jóvenes que “huyen” de la academia, a pesar de ser investigadores brillantes y con currículos excelsos, porque “no tienen sitio”. La universidad les ahoga con sueldos paupérrimos y condiciones draconianas y ridículas. En vez de abrir plazas para profesorado titular, la práctica más común es poner al becario de turno o al profesor adjunto, dado de alta como autónomo para poder seguir con un pie en la universidad, por 400€ al mes.

En el caso de la propia investigación, asociada indefectiblemente a las clases universitarias, muchos de estos jóvenes ven cómo pasan sus años ejerciendo trabajos hiperespecializados, a caballo entre contratos y becas, y sin estabilidad en el mejor de los casos. En España, salvo contadas excepciones, la investigación privada se aprovecha de la situación precaria de los investigadores para perpetuar un ciclo que solo le sale rentable al sistema y a quien lleva en un puesto estable más de diez años. Insisto, salvo contadas excepciones, que las hay. Todo este panorama está relacionado, sin más remedio, con los siguientes problemas que vamos a ver.

Publica o muere

En inglés existe un curioso término, publish or perish, adaptado a la perfección por la expresión “publica o muere“, que hace referencia a uno de los principales problemas que vive el mundo de la publicación científica. Esta refleja el frenesí de publicación que afecta a los equipos de investigación, incluyendo a los jóvenes investigadores. Básicamente, la financiación pública apoya su peso, en gran medida, en el número de publicaciones y su supuesta calidad.

El prestigio ya no del grupo, ni de la institución a la que representan, sino de los científicos y científicas, de manera casi personal, depende de esto. Por tanto, hay que publicar mucho, y en revistas de calidad, con un alto factor de impacto, para poder conseguir más oportunidades laborales, más fondos, más recursos, y más atención. Es más, el equipo que no cumple con ciertos objetivos de publicación corre el peligro de quedar fuera de la carrera investigadora para siempre. En otras palabras, instituciones, equipos e investigadores se juegan dicho prestigio, lo que genera un estrés considerable.

También alienta las malas prácticas dentro del sistema, tal y como hemos visto últimamente en más de una ocasión. Dichas malas prácticas pueden ir desde una vil manipulación de datos, con todo el interés de generar resultados beneficiosos para el grupo de investigación, a la dejadez e irresponsabilidad. Este último casos, seguramente, es lo que hemos visto con la publicación retractada por el equipo de Arnold. Ella misma admitió no haber cumplido con su cometido de responsable revisando adecuadamente los datos suministrados por sus compañeros.

Esto puede pasarle a cualquiera, y más teniendo en cuenta lo complicado que es revisar todos los datos de tu grupo, en el cual debe existir cierta confianza. Pero no deja de ser un problema de responsabilidad ocurrido, probablemente, por la cantidad de trabajo que debe acumular una investigadora como Francis Arnold. Es solo un ejemplo, pero representa bastante bien la situación general, salvando los matices.

Factor de impacto, el valor del prestigio

El índice de factor de impacto, o IF, es una cifra que indica la posición de una revista en un ranking de importancia. En resumidas cuentas, las revistas muy buenas, como Nature y sus ediciones, son las que tienen los índices más altos. Las menos prestigiosas, supuestamente, tienen un IF muy bajo o ni tienen. Antes hablábamos de prestigio. En ciencia, hablando toscamente, el prestigio se equipara a la posición que te otorga dicho IF. Esta cifra se usa en las becas y financiación como una manera para evaluar a quién se otorgará, por ejemplo. En las bases de muchas convocatorias, publicar en revistas de cierto ranking es una premisa. En otras, un valor añadido. Dicho de otro modo, este número otorga ventajas prácticas.

Como decíamos, además, este IF es un método tácito para determinar el prestigio de un investigador: desde sus colegas hasta los medios que trabajamos en ciencia, el IF impera a la hora de determinar a priori la calidad de una investigación. Sin embargo, en realidad el IF obedece a un algoritmo muchas veces secreto, propietario de las grandes editoriales. A pesar de que todos aceptamos estos números como guías, nadie tiene la certeza de su credibilidad. Es más, este IF desvirtúa, en muchas ocasiones, el verdadero valor de una investigación, ninguneando resultados que abrirán prometedoras vías o hallazgos simplemente por haberse publicado en un Q4.

Q4 es como se conoce al “cuartil cuatro”, el grupo de publicaciones con índice de impacto más bajo de todas las revistas de una temática, divididas en cuatro grupos de forma aritmética. Por otro lado, las publicaciones con resultados negativos, cuya importancia es despreciada e ignorada, no están dentro de este sistema de prestigio artificial. Aun así, es muy difícil concienciar de la naturaleza de este factor y su verdadero valor, pues es una pieza fundamental del sistema de “hacer ciencia”. Los investigadores desconocen muchas veces que estos factores, en realidad, obedecen a algoritmos propietarios de las grandes editoriales, la mayoría de las veces. Sencillamente, participan bajo unas reglas autoimpuestas por la propia comunidad científica para poder mantenerse en la carrera investigadora.

El imperio de las editoriales

Una vez entrados a diseccionar el pilar de la publicación es inevitable resaltar otro gran problema, muy ligado al IF: la revisión por pares o Peer review. Esta consiste en la base del sistema de calidad “para hacer ciencia”. Evolucionado a partir de la aparición de las primeras revistas científicas, en el SXVIII, la revisión por pares consiste, básicamente, en que los resultados de una investigación son revisados por pares, valga la redundancia. Con este término es como se conoce a expertos en el campo de la investigación de una misma área. Normalmente, la editorial se pone en contacto con estos expertos y les ofrece revisar los resultados de un paper para decidir si se admite o no la investigación en la publicación.

Sin entrar en profundidad en cómo funciona la revisión por pares, hay unos puntos clave que hay que resaltar: por ejemplo, el hecho de que no se les paga a los editores por su trabajo ni les sirve para nada a nivel práctico. Hablando de prestigio, esto es lo único que pueden sacar por parte de la editorial, que los reconoce como editores, y poco más. De hecho, es algo muy parecido a lo que ocurre con el factor de impacto: es un prestigio elaborado por las propias editoriales. Vemos por tanto, que ya comienza a asomar el cuerpo del gran problema: el peso de las editoriales en el sistema, ya que controlan el prestigio. Y no solo eso.

Por si todo esto fuera poco, queda la parte de la propiedad intelectual de las publicaciones. En la mayoría de los casos, a pesar de que el trabajo pertenece a los investigadores, la publicación no. El paper suele ser accesible solo durante cierto tiempo para el equipo investigador o bajo suscripción (que no es barata) a pesar de que el 95% del trabajo ha sido realizado por los investigadores. Si estos pierden acceso o quieren compartirlo sin disponer de su propia copia habrán de pagar por su propio trabajo.

Esto, por supuesto, pone trabas a la hora de acceder a las investigaciones y el conocimiento científico, algo especialmente molesto cuando se han financiado con dinero público o cuando eres el propio autor. Para agravar el asunto, muchas publicaciones solicitan una tasa para “cubrir gastos de publicación”. No son todas, ni mucho menos, pero haberlas haylas. Para ponerle la guinda al pastel, este sistema de publicación promueve, gracias al desconocimiento existente entre los equipos de investigación, la existencia de los predatory journals. En definitiva, el funcionamiento de todo el sistema adolece de una serie de deficiencias difíciles de no ver.

¿Necesitamos un cambio?

Para ir acabando, no todo es malo, claro. Como decíamos, también hay un proceso profundo de cambio en el sistema científico, en gran medida para bien. Lo vemos, por ejemplo, en las políticas europeas que adaptarán dicho cambio en el Horizonte Europa. La comunidad científica, por ejemplo, también está pidiendo desde hace tiempo la adopción de un sistema Open Access que permita el acceso de la información científica más fácil y sin tanta carga económica, especialmente en cuanto a las publicaciones financiadas con fondos públicos se refiere.

También se está luchando por mejorar las condiciones de investigación y la juventud investigadora está cada día más convencida de que el sistema puede y debe cambiarse. En definitiva, es cierto que el sistema científico parece estar sufriendo un intenso cambio, que comienza tímido y que probablemente terminará removiendo los cimientos. Es lógico. Dicho sistema tiene cientos de años. Aun así, en pleno 2020 es sorprendente como todavía hay quien niega la necesidad de cambiar algunos de estos puntos, especialmente los que funcionan peor, con argumentos mayormente reaccionarios. También es lógico. El cambio causa terror.

Pero, en todo este cambio, falta una última pieza: la retrospección. La pregunta hacia uno y una misma. ¿Qué papel jugamos en todo este sistema? ¿Estamos viviendo esta crisis en la ciencia? ¿Qué rol hemos desempeñado? ¿Y cuál seguimos desempeñando? Desde la academia más profunda al investigador más novel, pasando por periodistas, por políticos, por ciudadanos de cualquier tipo, todos tenemos un pequeño papel en toda esta historia. ¿Realmente hemos “roto el sistema de hacer ciencia”? Entonces, ¿qué podemos hacer para arreglarlo?

Escrito por:

Divulgador Científico Freelance

1 Comentario

  1. Muy bien resumido. La precarización creo que es el problema más grave que tenemos en la Academia, y no es algo nuevo. Los jóvenes becarios lo ven negro y salen corriendo después de hacer la tesis… si es que la terminan. Algunos incluso lo ven en el máster, y se pasan inmediatamente al sector privado. Hoy, al menos en biomedicina, hay menos doctorandos que hace 10 años y cuesta más encontrar gente que quiera hacer la tesis. En pocos años tendremos un problema de recursos humanos, justamente porque los proyectos (del Ministerio, Comunidades autónomas, etc) dan más dinero para fungible e infraestructura que para contratar gente.

    Una cosa con la que no coincido de tu artículo: El IF no se calcula en base a “un algoritmo secreto” de las editoriales. La forma de calcularlo es bien sencilla: Es la sumatoria de la cantidad de citas a dicho journal en los años n-1 y n-2, dividido por la cantidad de artículos citables publicados por dicho journal en esos mismos años. No es un índice perfecto, pero es el que hay por ahora. Otros índices surgidos últimamente, como Eigenfactor o CiteScore, arrojan resultados mas o menos similares.

    Otra discusión distinta es si algunos journals “manipulan”el impact factor publicando solo reviews, o publicando muy pocos artículos. Con todo, en las evaluaciones de becas y proyectos se tiene en cuenta el impacto real del journal en el campo (Ej: Journal of Neuroscience y su impacto en neurociencias a pesar de haber bajado considerablemente el IF en últimos años). Si bien los números son la forma más objetiva de evaluar y medir la productividad y el prestigio, no son todo números y por lo general se tienen en cuenta otros factores en las evaluaciones. Si sólo fueran números, las evaluaciones las haría un ordenador y el Ministerio no tendría que invertir tiempo y dinero en contratar a expertos.

    Un saludo.

 

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra

política de cookies ACEPTAR
Aviso de cookies