Universo Abierto - Blog
02/02/2026

Los tres grandes de la información científica: una revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, Daniel & Arroyo-Machado, Wenceslao (2026). The ‘Big Three’ of Scientific Information: A Comparative Bibliometric Review of Web of Science, Scopus, and OpenAlex (preprint). arXiv:2601.21908. doi:10.48550/arXiv.2601.21908. https://arxiv.org/abs/2601.21908 Se ofrece un análisis comparativo exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares utilizadas globalmente para la evaluación de la investigación científica: Web of Science Core…

Universo Abierto - Blog
22/01/2026

Las ‘Big Three’ de la información científica: revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, D., & Arroyo-Machado, W. (2026). Las 'Big Three' de la información científica: Revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex (1.2.). InfluScience Ediciones. https://doi.org/10.5281/zenodo.18336510 El informe realiza un análisis exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares que se utilizan en la evaluación de la investigación científica. Su objetivo central es…

Boletín SciELO-México
30/12/2025

Fraude en megarrevista vuelve a exponer el carácter depredador del actual sistema de publicación, evaluación y control comercial de las revistas científicas

Publicado en El Paíshttps://elpais.com/ciencia/2025-11-28/la-caida-de-una-megarrevista-cientifica-expone-el-pelotazo-de-las-editoriales-en-la-ciencia.htmlLa caída de una megarrevista científica expone el pelotazo de las editoriales en la cienciaUna de las cabeceras que más estudios publican en el mundo, expulsada del sistema por irregularidades. Su editorial, Elsevier, supera los 1,300 millones de euros de beneficios al añoManuel AnsedeMadrid - 27 NOV 2025Con la humanidad atemorizada por la mortífera segunda ola del coronavirus, en otoño de 2020, una revista científica publicó un estudio con la solución: los amuletos de jade de la medicina tradicional china podrían prevenir la covid. La propuesta era delirante, pero el editor jefe del semanario, el químico español Damià Barceló, defendió sus filtros de calidad. Aquella revista, Science of the Total Environment —una de las 15 que más estudios publican en el mundo—, acaba de ser expulsada del grupo de cabeceras respetables por una de las principales empresas evaluadoras, tras descubrirse decenas de artículos irregulares. El escándalo expone el pelotazo de las editoriales científicas, que en los últimos años acumulan miles de millones de euros en beneficios procedentes de dinero público destinado a la ciencia.Damià Barceló, nacido en Lleida hace 71 años, asumió la jefatura de la revista en 2012. En apenas dos años duplicó el número de estudios publicados. En una década lo multiplicó por 10, rozando los 10,000 trabajos anuales. A medida que aumentaba el número, bajaba la calidad, porque existía un incentivo perverso para aceptar trabajos mediocres: para publicar una investigación con acceso abierto en la revista, un científico tiene que pagar 3.600 euros más impuestos. Emilio Delgado, catedrático de Documentación de la Universidad de Granada, lo resume así: “Es claramente una revista de puertas abiertas, atrapalotodo. Es lo que yo llamo una megarrevista, esto es, un meganegocio”. La cabecera pertenece al gigante editorial holandés Elsevier, que domina el mundo de la publicación de la ciencia, con un 17% de la cuota de mercado mundial. Sus 3,000 revistas publicaron 720,000 estudios el año pasado. El empresario sueco Erik Engstrom, presidente ejecutivo de RELX (la multinacional propietaria de Elsevier), ganó más de 15 millones de euros en 2024 entre su salario y otras remuneraciones. Delgado y su colega Alberto Martín han analizado el extraño comportamiento de la megarrevista a petición de EL PAÍS. De todos los estudios publicados en Science of the Total Environment, el 40% son de autores chinos y el 8% están firmados por españoles, unos porcentajes que duplican lo habitual en su área temática. La tercera institución que más trabajos publica en esta revista, tras dos organizaciones de China, es el Consejo Superior de Investigaciones Científicas (CSIC), el mayor organismo de ciencia de España, al que perteneció el propio Barceló hasta su jubilación el año pasado. “Con estos patrones podría pensarse en una posibilidad de fraude en la publicación, pero esto es una especulación”, opina Delgado.El sistema científico funciona de un modo controvertido. El dinero y los ascensos de los investigadores dependen en buena medida del número de estudios que publiquen en revistas validadas por un par de empresas privadas. Una de estas compañías, la multinacional londinense Clarivate, expulsó el 18 de noviembre a Science of the Total Environment de su base de datos. “La revista ha sido eliminada porque ya no cumple nuestros criterios de calidad”, explica una portavoz, que rechaza ofrecer más detalles.La calidad de las revistas científicas, en teoría, está garantizada porque otros expertos anónimos aceptan gratuitamente revisar los borradores para decidir si se publican o no. En Science of the Total Environment, este sistema estaba presuntamente corrompido. La propia editorial Elsevier ha retractado medio centenar de estudios publicados por el biólogo brasileño Guilherme Malafaia, tras constatar que sus trabajos recibían revisiones ficticias firmadas por científicos reales sin su consentimiento, como ocurrió con un artículo sobre el coronavirus en los peces y con otro sobre la toxicidad de un herbicida en las tortugas. Malafaia y Barceló son coautores en diversos estudios sobre la contaminación por microplásticos, pero esas investigaciones compartidas no han sido retractadas por el momento.Las cuatro principales editoriales científicas —Elsevier, Springer Nature, Wiley y Taylor & Francis— ingresaron más de 6,000 millones de euros en 2024, con márgenes de beneficio inimaginables en casi cualquier otra industria, superiores al 30%, según un nuevo análisis encabezado por el antropólogo británico Dan Brockington, de la Universidad Autónoma de Barcelona. Este pelotazo colectivo se explica por ese sistema “publica o muere”, que premia incluso a los científicos inverosímilmente prolíficos que firman un estudio cada dos días, pero también por un cambio de modelo de negocio. Antes, los lectores pagaban suscripciones para leer revistas de calidad. Ahora, con la promoción del acceso abierto a la ciencia, son los propios autores los que tienen que pagar para que sus investigaciones se publiquen y los demás puedan leerlas gratis. Ese incentivo perverso —por el que tanto los científicos como las revistas ganan más cuanto más publiquen, sin importar la calidad— ha creado una burbuja de millones de estudios insustanciales.Elsevier es la editorial que más estudios publica y la que más gana, con un 38% de margen de beneficio (1,333 millones de euros en 2024), según el análisis de Brockington y sus colegas. Los autores hacen un llamamiento a “desmantelar el sistema” que hace que miles de millones de euros de dinero público se dediquen a publicar estudios vacuos en beneficio exclusivo de empresas privadas. Según sus cálculos, Elsevier, Springer Nature, Wiley y Taylor & Francis han acumulado más de 12,000 millones de euros de ganancias en los últimos seis años. Entre los coautores del análisis figura el ingeniero español Pablo Gómez Barreiro, de los Reales Jardines Botánicos de Kew, en el sur de Inglaterra.Una portavoz de Elsevier defiende su actuación. “Mantenemos los más altos estándares de rigor y ética en nuestras publicaciones para proteger la calidad y la integridad de la investigación”, afirma. La editorial realizó una primera indagación que culminó en decenas de retractaciones en Science of the Total Environment, oficialmente por la trampa de la falsa revisión de los artículos. “Ahora estamos llevando a cabo una investigación más amplia, centrada en los conflictos de interés, además de revisar los artículos señalados por otros posibles indicios de mala conducta”, añade la portavoz. La editorial pretende “rehabilitar completamente” la revista.Damià Barceló es un científico hiperprolífico, de esos que llegan a publicar un nuevo estudio cada cinco días o incluso menos. Ha firmado unos 1,800 trabajos en su vida, más de 200 de ellos en Science of the Total Environment, su propia revista. Su nombre aparece en numerosas ocasiones como editor de sus propios estudios, como uno sobre fármacos en aguas residuales de México y otro sobre la contaminación química en los ríos Ebro y Guadalquivir.La portavoz de Elsevier detalla que Barceló “renunció a su cargo” de editor jefe en marzo de 2025. “Este cambio formó parte de una iniciativa más amplia para fortalecer la gobernanza de la revista y abordar las inquietudes planteadas”, sostiene la portavoz. Para Elsevier, los “problemas sistémicos” que provocaron la expulsión de Science of the Total Environment “no pueden atribuirse a una sola persona”. Este periódico ha solicitado la valoración del propio Barceló, tanto a través de su WhatsApp personal como en el correo de su actual puesto de profesor honorífico de la Universidad de Almería, sin recibir respuesta.El químico Damià Barceló recibió de manos del rey saudí, Salmán bin Abdulaziz, un premio dotado con 120,000 euros, en 2013. ICRALa hiperproducción de Barceló le ayudó a entrar en la Lista de Científicos Muy Citados, un listado realizado por la multinacional Clarivate que incluye a unos 7,000 investigadores de todo el mundo. Cuantos más científicos muy citados tenga una universidad, más arriba aparecerá en el influyente ranking de Shanghái, que designa a las teóricamente mejores instituciones académicas del mundo. Una investigación de EL PAÍS reveló en 2023 que Arabia Saudí ofrecía sobornos de hasta 70,000 euros al año para que los muy citados mintieran en la base de datos de Clarivate y declarasen falsamente que trabajaban en una universidad árabe, con el fin de auparlas con trampas en el ranking.Damià Barceló figuraba desde 2016 como profesor de la universidad saudí Rey Saúd en primer lugar, pese a que su dedicación principal era ser director del Instituto Catalán de Investigación del Agua, en Girona. Barceló aseguró entonces a este periódico que no había cobrado 70,000 euros anuales. En 2013, el químico español recibió de manos del rey saudí, Salmán bin Abdulaziz, un premio dotado con 120,000 euros por sus investigaciones sobre los contaminantes en el agua.Las universidades españolas, como las de otros países, se han convertido en “macrogranjas de gallinas ponedoras de estudios”, en palabras de Emilio Delgado y Alberto Martín, los expertos en bibliometría de la Universidad de Granada. Profesores con el currículum totalmente hinchado han llegado a catedráticos o incluso a rectores. Impulsada por diferentes manifiestos internacionales, la entidad española que decide si un profesor universitario puede ascender o si merece aumentos salariales, la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA), ha cambiado sus criterios para dejar de evaluar a los científicos al peso. El presidente del Comité Español de Ética de la Investigación, el médico Jordi Camí, ha hecho un llamamiento a ir más lejos. “Hay que limpiar este lodazal”, proclamó en una conferencia en Barcelona el 6 de noviembre. A su juicio, “hay que seguir introduciendo medidas para desincentivar, casi penalizar, el publicar por publicar”.

Boletín SciELO-México
19/12/2025

Indicadores de calidad para revistas de ciencias sociales en la era de la bibliometría narrativa

 Circulado en lista ThinkEPI ThinkEPI <000011958d4229c1-dmarc-request@listserv.rediris.es>Indicadores de calidad para revistas de ciencias sociales en la era de la bibliometría narrativa / Iuliana Botezan-Albu; Rodrigo Sánchez-JiménezIndicadores de calidad para revistas de ciencias sociales en la era de la bibliometría narrativa  Rodrigo Sánchez-Jiménezhttps://www.directorioexit.info/ficha1661https://orcid.org/0000-0002-3685-7060Universidad Complutense de Madridrodsanch@ucm.es Iuliana Botezan Albuhttps://www.directorioexit.info/ficha1690https://orcid.org/0000-0002-0167-8986Universidad Complutense de Madridibotezan@ucm.es  1. IntroducciónEn los últimos años hemos visto manifestaciones crecientes de numerosas agencias e instituciones involucradas en la evaluación, producción y financiación de la ciencia en favor de la implantación de cambios sustanciales en los modelos de evaluación de la ciencia. Este movimiento, del que CoARA es su cara más conocida, hace énfasis en la importancia de la calidad y el impacto de los resultados de investigación, en la conveniencia de adaptarse a las nuevas normas de evaluación, la necesidad de combinar una aproximación cualitativa a la evaluación de la producción científica (teniendo en cuenta la importancia del modelo basado en revisión por pares) con el uso de métodos cuantitativos basados en el uso responsable de indicadores cuantitativos.La conocida como “bibliometría narrativa” aporta un método con el que contextualizar la influencia de las publicaciones mediante análisis cualitativos y narrativos. Las claves del planteamiento de esta metodología son claras ya desde la propia definición del conceptoEl uso de indicadores bibliométricos para generar relatos y narrativas que permitan la defensa y exposición de un currículo científico y/o sus contribuciones individuales en el marco de un proceso de evaluación científica (Torres-Salinas et. Al., 2024). Las propuestas de CoARA están respaldadas por algunas de las agencias más importantes en España desde el punto de vista de la evaluación de la ciencia, como Aneca, Fecyt, ACUEE, ACCUA, AQU, AVAP, etc. En los últimos años, además, se ha podido observar una tendencia progresiva hacia la inclusión de las perspectivas propias de esta forma de ver la evaluación científica en convocatorias públicas, como las acreditaciones y los tramos de investigación (sexenios).Aunque de facto siga siendo imprescindible publicar en buenos cuartiles para tener esperanzas de pasar el trámite sin sobresaltos, lo cierto es que ahora hay más elementos de juicio que pueden utilizarse para explicar, justificar y aclarar las virtudes de la producción científica de los interesados. Estos elementos tienen ahora un valor muy variable, pero indiscutiblemente comienzan a ser tenidos en cuenta y, por tanto, merece la pena revisarlos y explicar cómo van a encajar en el sistema.El aspecto clave para nosotros rodea el concepto un poco vago, pero muy familiar, de “valor curricular de las revistas”. Dicho de otra forma, la relevancia que tiene publicar en uno u otro medio de difusión (fundamentalmente revista, pero no solamente) para la carrera del investigador, bien sea para que comience o se consolide, se vea impulsada por los incentivos que pueda proporcionar el sistema.El valor curricular de las revistas es un concepto que, además, es interesante para un público amplio, ya que concita factores relevantes tanto para el autor como para el editor de revistas y para los que planifican las políticas científicas. En el caso de este trabajo nos centraremos en los intereses del editor y del autor, ya que la metodología que usamos toma como axioma la voluntad y opinión de quienes diseñan la política científica.Los investigadores están razonablemente bien familiarizados con las formas en las que se les evalúa, por motivos evidentes, y, además, existe ya una literatura significativa que debate y analiza la importancia de poner de manifiesto el paradigma de evaluación representado por CoARA y que se puede apreciar (al menos parcialmente) en las últimas revisiones de varias de las convocatorias más importantes de evaluación académica.Por otro lado, el caso de los editores es bastante diferente, ya que hasta la fecha (o al menos hasta donde nuestras pesquisas han podido llegar), no hay mucho publicado. El objetivo de este trabajo es, por tanto, el de contribuir al debate general, introduciendo la perspectiva del editor y de la revista en la conversación. Finalmente, los editores se beneficiarían de la mejora de la sinergia existente entre los intereses de sus publicaciones y los de los autores. Esta sinergia se potencia claramente alrededor del concepto de valor curricular de la revista.Para conseguir este objetivo pretendemos presentar algunas ideas que permitan traducir los principios de la bibliometría narrativa a acciones concretas que las revistas puedan llevar a cabo para facilitar el proceso de construcción de la narración. Las nuevas tendencias en evaluación integran una visión más amplia del impacto científico y social, lo que ofrece nuevas oportunidades para que las revistas, especialmente aquellas dirigidas por equipos editoriales emergentes o con recursos limitados, refuercen su posicionamiento en el ecosistema académico.  2. MetodologíaHemos revisado la documentación publicada por las agencias y organismos más importantes para la evaluación de la actividad investigadora de los autores en España: - Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca), para acreditaciones.https://www.aneca.es - Agencia Estatal de Investigación (AEI), para proyectos.https://www.aei.gob.es - Comisión Nacional Evaluadora de la Actividad Investigadora (CNAI), para sexenios.https://www.aneca.es/sexenios Además, hemos revisado los criterios de agencias autonómicas para la acreditación de profesores. - Agencia para la Calidad Científica y Universitaria de Andalucía (ACCUA).https://ws262.juntadeandalucia.es/accua - Agència per a la Qualitat del Sistema Universitari de Catalunya (AQU).https://www.aqu.cat - Axencia para a Calidade do Sistema Universitario de Galicia (ACSUG).https://www.acsug.es - Agencia Canaria de Calidad Universitaria y Evaluación Educativa (ACCUEE).https://www3.gobiernodecanarias.org/educacion/accuee - Agencia de Calidad del Sistema Universitario de Castilla y León (ACSUCYL).https://www.acsucyl.es - Agencia de Calidad y Prospectiva Universitaria de Aragón (ACPUA).https://acpua.aragon.es - Agència de Qualitat Universitària de les Illes Balears (AQUIB).https://www.aquib.es - Agència Valenciana d’Avaluació i Prospectiva (AVAP).https://avap.es - Agencia de Calidad, Evaluación y Acreditación del Sistema Universitario Vasco (UNIBASQ).https://www.unibasq.eus/ También hemos revisado los requisitos de la convocatoria del sello de calidad Fecyt y los requisitos de indexación de SciELO. -Fundación Española para la Ciencia y la Tecnología (Fecyt).https://calidadrevistas.fecyt.es Como resultado de este análisis hemos creado un listado de ítems a los que hemos asociado un grado diverso de importancia dependiendo del énfasis que se le da en la documentación original que hemos revisado. De entre estos ítems, desarrollamos en la sección de resultados la interpretación de los que creemos que tienen mayor relevancia desde la perspectiva de la bibliometría narrativa, ya que entendemos que están mejor alineados con los principios básicos que impulsan CoARA. También hacemos algunas precisiones sobre cómo podrían ser incorporados por parte de los editores como parte de la información que ofrecen sus revistas.https://www.coara.org/agreement 3. ResultadosPodemos clasificar en cinco grupos fundamentales los ítems que hemos aislado en la documentación revisada: Acceso, apertura e internacionalización; Calidad editorial y prestigio institucional; Ética e integridad científica; Transparencia y procesos editoriales e Impacto; indexación y visibilidad. Hemos reunido estos indicios en una checklist de elementos sobre los que la revista puede trabajar de cara a promover la aplicación de los principios adecuados y también de cara a que los autores puedan explicar y defender sus aportaciones basándose en ellos. Tabla 1. Checklist de elementos a fortalecer por parte de la revistaInformación sobre la publicación en acceso abiertoPara las convocatorias de sexenios y acreditaciones para diferentes figuras de profesorado comienza a ser importante la publicación de acuerdo con los principios de la ciencia abierta. El depósito de la aportación en un repositorio institucional, temático o generalista no se valora porque es ya un requisito imprescindible. En cambio, sí se valora la publicación en una revista en acceso abierto y especialmente si esta sigue la ruta Diamante (sin pago para publicar y para leer). Para hacer esto evidente es necesario explicar las condiciones de acceso y publicación con claridad. Es importante utilizar conceptos reconocidos, como describir a la revista como una revista de Acceso Abierto, referirse a la Vía Diamante o incluir un sello de indexación en DOAJ o la base de datos de revistas diamante de la UNAM, accesible en:https://digitalab-ssie.unam.mx/acuerdos/buscador_diamante Información relevante sobre el prestigio de la editorial que publica la revistaEl prestigio de una editorial es difícil de definir, pero, en general, podemos decir que está fuertemente relacionado con su visibilidad y reconocimiento en el imaginario colectivo, con la pertenencia a una institución que a su vez es prestigiosa (que supondría el mismo “problema”). Sin embargo, es posible encontrar algunas ideas que generarían consenso, como la tradición científica o su volumen de publicación (¿la publica alguna editorial de las Big Five?, ¿se trata de una editorial académica grande y de gran recorrido?, ¿está respaldada por una sociedad científica?, ¿tiene la editorial presencia en bases de datos internacionales?). Información sobre los compromisos éticos de la revistaDeclarar abiertamente la adhesión a códigos internacionales de ética editorial es muy importante. Se recomienda mencionar de forma explícita en la misma revista la adhesión (de la institución, de la editorial o de la revista misma, según el caso) al Committee On Publication Ethics (COPE), un hub internacional que promueve la integridad, la transparencia y las buenas prácticas en la edición académica.https://publicationethics.org La referencia explícita a medidas anti-plagio es también interesante, aunque a día de hoy es mucho menos relevante que hace algunos años por la extensión de las herramientas IA. Precisamente, hacer una referencia a la política sobre IA de la revista es de mucha actualidad.Mencionar abiertamente protocolos de actuación en caso de detección de malas prácticas también sería recomendable. Ausencia de prácticas endogámicasCuando los autores de los trabajos que publica una revista son miembros del consejo editorial o de la institución que edita la revista existe un potencial conflicto de intereses. La publicación sistemática por parte de autores involucrados en el proceso de edición o vinculados a la institución editora suele ser valorada como una práctica endogámica que es importante evitar. Hay advertencias claras en este sentido tanto por parte de agencias como de instituciones que otorgan “sellos” de evaluación y editores de bases de datos.En la convocatoria de sexenios se solicita que el 75% de los autores/as sean externos al comité editorial y a la organización que publica la revista. La Fecyt exige el 80% para la obtención del sello, mientras que SciELO sólo pone acento en justificar los casos en los que la autoría interna supera el 50%. Los requisitos de WoS y Scopus no ofrecen recomendaciones específicas, pero sí una idea genérica de una diversidad geográfica que sea consistente con la política editorial declarada. Publicación de información sobre la contribución de los autoresEs una práctica que se ha extendido y que se requiere a los autores en algunos procesos. Los autores se ven obligados a explicar cuál es su contribución para los artículos que someten a evaluación. Es mucho más creíble cuando esta contribución ha sido publicada explícitamente por la revista. Se puede utilizar la taxonomía CRediT. No es especialmente importante para las fuentes consultadas, pero tampoco especialmente difícil de implementar.https://credit.niso.org Disponibilidad de estadísticas de uso para los autoresEsto permite demostrar a los autores la relevancia de su trabajo en función del número de visualizaciones o descargas. Constituye un indicio diferente con respecto al de las citas, que es independiente de la indexación de la revista y hasta cierto punto del impacto académico del trabajo. Las plataformas de publicación como OJS deben permitir hacerlo. Alternativamente, se pueden obtener en Scopus, pero sólo si la revista está indexada y, en cualquier caso, sería una fracción del total real. Indexación en plataformas que recaban indicios de impacto socialEn los últimos años se ha puesto cierto énfasis en desarrollar procedimientos de evaluación que tengan en cuenta formas alternativas al impacto académico. El impacto social es más difícil de operacionalizar y medir, pero hay plataformas que publican indicios relevantes para revistas científicas. La suscripción de la revista a los servicios de recolección de altmétricas no es gratuita, pero los autores pueden buscar sus propios artículos en bases de datos que recogen información altmétrica. Lo más sencillo es estar indexados en Dimensions (Altmetric.com) o Scopus (PlumX). Esto garantiza la disponibilidad de indicios de impacto social cuando los artículos publicados sean capaces de generarlos. Publicación de datos y códigoLa publicación de datos y código constituye una de las prácticas más visibles de la ciencia abierta y un requisito cada vez más valorado en las convocatorias de evaluación de la actividad investigadora. Depositar los conjuntos de datos, materiales suplementarios o código fuente utilizados en la investigación en el repositorio institucional de la universidad o en repositorios reconocidos (como Zenodo, Figshare, OSF) contribuye a reforzar la transparencia y la replicabilidad de los resultados.Asignar a estos materiales un DOI independiente, mediante servicios como DataCite o Crossref, permite citarlos de forma normalizada y establecer un vínculo verificable entre los datos y el artículo principal.Desde la perspectiva editorial, las revistas pueden fomentar esta práctica incorporando una sección específica en las instrucciones para autores, adoptando políticas de depósito de datos y proporcionando ejemplos de citación de conjuntos de datos o software.Además, integrar en la plataforma de publicación metadatos estructurados que enlacen el artículo con los recursos depositados incrementa la visibilidad de la revista en ecosistemas de indexación que valoran la apertura y la trazabilidad de la investigación. Información sobre la política editorial, el proceso de evaluación e instrucciones para los autoresEsta es una información común en todas las revistas. Es conveniente que sea clara y que se pueda distinguir explícitamente en la página de la revista. Es imprescindible para cualquier mecanismo de evaluación de revistas mencionar el proceso de revisión por pares de manera explícita (doble ciego, independencia de los revisores, revisión abierta, etc.). Aclarar los criterios de aceptación (o rechazo) abiertamente, es un aspecto básico. 4. ConclusionesLos editores de revistas científicas deben ser conscientes de la aparición de nuevas prácticas y requisitos que se están desarrollando en un contexto internacional de reinterpretación de los procesos de evaluación de la investigación. Estos cambios han comenzado a afectar de manera significativa el valor que tiene para los autores publicar en las revistas científicas. Este es un fenómeno que parece estar destinado a extenderse de manera significativa por el mundo y para el que podemos prepararnos mejor si llevamos a cabo una reflexión consciente de sus implicaciones. Este trabajo es un pequeño grano de arena en este sentido.El proceso de transformación de los sistemas de evaluación científica no sólo afecta a los investigadores, sino también a las revistas académicas que deben adaptarse a nuevas expectativas de transparencia, integridad y apertura. Los editores se enfrentan al desafío de traducir los principios de la ciencia abierta y la bibliometría narrativa en prácticas concretas que fortalezcan el valor curricular de sus publicaciones. Dicho de otra forma, facilitar prácticas que favorezcan una mejor justificación de los resultados de las investigaciones por parte de los autores, siendo un proceso en el que todos ganan en calidad, transparencia y valor.La adopción de políticas claras sobre acceso abierto, ética editorial, publicación de datos y código y la comunicación de estadísticas de uso o impacto social no sólo mejoran la posición de las revistas ante los sistemas de evaluación, sino que también contribuyen a una mayor credibilidad del ecosistema científico en su conjunto.En última instancia, la incorporación de estos elementos puede facilitar que los autores construyan narrativas de evaluación más ricas y mejor contextualizadas, en las que la calidad y la contribución social de la investigación pesen tanto como sus indicadores bibliométricos tradicionales. Este trabajo pretende servir como guía preliminar para avanzar hacia ese objetivo compartido por autores y editores. Referencias Torres-Salinas, Daniel; Orduña-Malea, Enrique; Delgado-Vázquez, Ángel; Gorraiz, Juan; Arroyo-Machado, Wenceslao (2024). “Foundations of narrative bibliometrics”. Journal of informetrics, v. 18, n. 3, 101546.https://doi.org/10.1016/j.joi.2024.101546 

Boletín SciELO-México
08/12/2025

Los peligros del uso de IA en la revisión por pares

Publicado en SciELO en Perspectivahttps://blog.scielo.org/es/2025/12/05/los-peligros-del-uso-de-ia-en-la-revision-por-pares/?utm_source=rss&utm_medium=rss&utm_campaign=los-peligros-del-uso-de-ia-en-la-revision-por-paresLos peligros del uso de IA en la revisión por pares[Publicado originalmente en Hora Campinas en diciembre de 2025]Dic 5, 2025 Carmino Antonio de SouzaEn mi intensa vida académica, siempre me encuentro en ambos lados del mostrador, es decir, como autor de artículos e investigaciones y como revisor de artículos enviados a numerosas revistas científicas de todo el mundo para mi opinión. Es un trabajo de gran responsabilidad, ya que siempre estamos comprometidos con la excelencia y la calidad de la información científica y con la mejora del artículo enviado.El estándar actual en la comunidad editorial académica es que los autores pueden utilizar inteligencia artificial generativa (genAI) en la preparación de los envíos (con algunas salvedades; véase esta declaración de posición de COPE, Committee on Publication Ethics, y las editoriales). Sin embargo, existen restricciones estrictas sobre el uso de IA en la revisión por pares.Muchas políticas de revistas especifican que los editores y revisores no deben enviar el contenido de los envíos a herramientas genAI, y algunas prohíben completamente su uso en la revisión por pares (por ejemplo, Science) o permiten casos de uso específicos de IA, como la traducción o edición de los propios comentarios de revisión.¿Por qué este estándar diferente? Las políticas que restringen o prohíben la IA en la revisión por pares mitigan los riesgos que su uso por parte de editores o revisores podría conllevar, como:Violación de la confidencialidad de contenido no publicado y datos sensiblesPérdida de rigor y especificidad en el proceso de evaluaciónRepresentación fraudulenta de los resultados de genAI y de los colaboradores en la revisión por paresPotenciación y aceleración de la manipulación de la revisión por pares (p. ej., por parte de las “fábricas de artículos”)Puede parecer paradójico o incluso hipócrita que revistas y editoriales estén explorando opciones para el uso interno de la IA en la revisión por pares. Una diferencia clave entre el uso interno (por parte del personal de la revista) y el externo (por parte de editores y revisores académicos) es que una revista puede implementar herramientas internas en un entorno tecnológico controlado que protege la seguridad de los datos, de modo que no se inserte contenido confidencial en los conjuntos de entrenamiento, lo que afectaría los resultados de otros usuarios.Cuando se implementan medidas de seguridad de datos, la IA puede ayudar a mejorar la coherencia con la que las revistas aplican sus estándares y políticas. Por ejemplo, la IA puede detectar y generar informes de revisión que cuestionen problemas como referencias incompletas, no verificables o retractadas, análisis estadísticos problemáticos e incumplimiento de los requisitos de disponibilidad de datos y preinscripción.Si bien existen varios casos de uso beneficiosos para la IA en el apoyo a la revisión por pares, las personas siguen siendo indispensables para proporcionar una evaluación rigurosa del contenido. Mientras que la IA Gen detecta y promedia el contenido preexistente, las personas innovan y evalúan. Introducimos nuevas ideas y perspectivas, aportamos creatividad, curiosidad e intelecto, y somos capaces de sintetizar, contextualizar, interpretar y criticar en base a conocimientos que abarcan múltiples dominios.En resumen, las máquinas distan mucho de poder replicar la cognición humana y, por lo tanto, los humanos pueden participar en la revisión por pares y el discurso científico de una manera que las máquinas no pueden. En la práctica, esto significa que las personas pueden identificar problemas que no serían evidentes para un lector automático o un algoritmo, y que pueden ser cruciales para la validez e integridad científicas.Dicho esto, la transición a un modelo híbrido de revisión por pares, con humanos e IA, podría mitigar los problemas conocidos de la revisión por pares, incluyendo la pesada carga que impone a los académicos y los plazos de revisión más largos de lo ideal. Si la IA cubre los aspectos técnicos de la evaluación, quizás podamos utilizar menos revisores para cubrir aspectos de la revisión por pares que requieren capacidades de función ejecutiva exclusivamente humanas.Como prueba de concepto de este modelo, una presentación en el Congreso de Revisión por Pares de 2025 abordó la oferta de revisión por pares “Fast Track” de NEJM AI, en la que las decisiones se emiten en un plazo de una semana desde el envío, basándose únicamente en la evaluación del manuscrito por parte de los editores y dos revisiones generadas por IA. Si bien los plazos de entrega de una semana son atractivos, existen varias razones para incluir al menos dos expertos humanos en la revisión por pares, ya sea como editores y/o revisores.Los autores y los artículos se benefician de evaluaciones que reflejan diferentes perspectivas (humanas); a menudo, se necesitan varias personas para cubrir el tema y la experiencia metodológica necesaria para una evaluación rigurosa. Es importante destacar que contar con dos o más personas involucradas en la revisión por pares también aumenta la probabilidad de que se identifiquen problemas científicos y de integridad importantes, y otorga mayor credibilidad general a las publicaciones y revistas. Además, ofrece cierto grado de protección a los autores, las revistas y la comunidad en general contra problemas que podrían comprometer la revisión por pares, como sesgos personales, conflictos de intereses, revisiones de baja calidad y uso indebido de la revisión por pares para beneficio personal.La era de la IA puede haber llegado para quedarse, y los editores e investigadores continuarán explorando sus usos, pero se requiere precaución y una cuidadosa consideración en cada etapa del proceso de revisión por pares. Y, en última instancia, nunca reemplazará el conocimiento y el criterio de una persona.Artículo original en portuguésOs perigos do uso da IA na revisão por paresAcerca de Carmino Antonio De SouzaCarmino Antonio De Souza es profesor titular de la Unicamp. Fue Secretario de Salud del estado de São Paulo en la década de 1990 (1993-1994) y de la ciudad de Campinas entre 2013 y 2020. Secretario Ejecutivo de la Secretaría Extraordinaria de Ciencia, Investigación y Desarrollo en Salud del gobierno del estado de São Paulo en 2022 y actual Presidente del Consejo Directivo de la Fundación Butantan. Director Científico de la Asociación Brasileña de Hematología, Hemoterapia y Terapia Celular (ABHH). Investigador principal de CEPID-CancerThera, financiado por la FAPESP.Traducido del original en portugués por Ernesto Spinak.

Boletín SciELO-México
04/12/2025

FRANCIA: CNRS cancela Web of Science y desiste de sus indicadores de impacto. Apuesta por OpenAlex

Publicado en National Centre for Scientific Research (CNRS)https://www.cnrs.fr/en/update/cnrs-breaking-free-web-science El CNRS se libera de Web of Science1 de diciembre de 2025A partir del 1 de enero de 2026, el CNRS cortará el acceso a una de las mayores bases de datos bibliométricas comerciales, Web of Science de Clarivate Analytics, junto con Core Collection y Journal Citation Reports.Desde la publicación de la primera Hoja de ruta para la ciencia abierta del CNRS en 2019, la organización ha estado aplicando activamente una política de apertura de los resultados de la investigación y de cambio en la forma de evaluar a los científicos. Al igual que muchas otras organizaciones de investigación, el CNRS se opone a la evaluación cuantitativa basada en indicadores bibliométricos y favorece un enfoque cualitativo. Este es, pues, el contexto que sustenta la decisión del CNRS de suprimir el acceso a Web of Science (WoS) de Clarivate Analytics, que la organización considera un paso esencial para su política de ciencia abierta. El objetivo de esta decisión es ser coherente con los principios declarados por la organización en materia de evaluación de la investigación, que exigen, en primer lugar, un cambio en el uso de indicadores bibliométricos cuantitativos y, en segundo lugar, el desarrollo acelerado de soluciones alternativas centradas en datos abiertos y transparentes.   A favor de la evaluación cualitativaEl uso de factores de impacto en la evaluación de los investigadores ha contribuido a la distorsión de las prácticas de publicación científica y, a su vez, de las prácticas de investigación. Alain Schuhl, director general adjunto de Ciencia (DGDS) del CNRS, explica que «desde hace demasiado tiempo, la investigación está atrapada en indicadores que, en realidad, no tienen nada que ver con la calidad intrínseca de los avances científicos expuestos en una publicación». La DGDS considera que dictar las reglas del juego para la evaluación de los investigadores definiendo el prestigio y el atractivo de las revistas es «una visión reduccionista de la ciencia que ya no debemos tolerar. Esto significa que debemos actuar ahora para garantizar la calidad y la ética del sistema de evaluación de la investigación».Promover el desarrollo de bases de datos abiertas El CNRS inició este proceso en 2024 al darse de baja de la base de datos Scopus de Elsevier y hoy continúa con su política al restringir el acceso a la base de datos bibliométrica de Clarivate Analytics. Alain Schuhl nos recuerda que «otras instituciones prestigiosas han marcado el camino» con este enfoque. Esta decisión del CNRS ayudará a la organización a ahorrar 1,4 millones de euros anuales en cuotas de suscripción, fondos que se redirigirán hacia iniciativas que promuevan la ciencia abierta, en particular el desarrollo de bases de datos abiertas.Así, se anima a los investigadores del CNRS a recurrir a bases de datos abiertas como OpenAlex. Esto ofrece un mayor nivel de visibilidad para las revistas que no están en inglés y un mayor número de revistas que el WoS, que se consideraba insuficientemente representativo para varias disciplinas. Las humanidades y las ciencias sociales estaban poco cubiertas, por ejemplo, al igual que la informática y las matemáticas.   Revertir la ventaja histórica de Web of Science Hasta ahora, una de las principales razones de la posición tan destacada de WoS era la contribución colectiva de los miembros del personal del sector público, que llevan años mejorando la calidad de los datos de afiliación de WoS. Alain Schuhl explica que «hemos trabajado gratis para encerrarnos colectivamente en un sistema de pago cuando todos somos conscientes de sus sesgos y su carácter incompleto. Las instituciones han estado atrapadas en el sistema WoS durante todo este tiempo porque el hecho de que la mayoría de las instituciones de educación superior e investigación del mundo figuren en él permite realizar comparaciones entre ellas». Abandonar el WoS significa perder temporalmente la capacidad de compararnos con otros y posicionarnos en relación con nuestros homólogos a través de esas comparaciones basadas en un ámbito común de evaluación. Alain Schuhl añade que «esta decisión significa que el CNRS acepta que las comparaciones interinstitucionales o interpersonales deberán realizarse ahora sobre la base de otros principios que aún deben reinventarse».    Alain Schuhl es muy consciente de que aún queda mucho trabajo por hacer en cuanto a la curación de metadatos antes de que OpenAlex pueda utilizarse en todo su potencial. Sin embargo, la DGDS cree que «ya es hora de dedicar nuestra energía a mejorar la calidad de las bases de datos bibliométricas abiertas» y destaca que «el CNRS está trabajando activamente para mejorar OpenAlex. Estamos seguros de que esta base de datos pronto será capaz de satisfacer plenamente a todos los científicos en su trabajo de investigación bibliográfica».La emancipación nunca se puede lograr en solitarioEn una era en la que la cooperación científica internacional es cada vez más frágil, el objetivo es, más que nunca, recuperar la soberanía sobre nuestras elecciones y decisiones científicas, de modo que estas se guíen por una mayor transparencia lograda mediante el uso de herramientas abiertas con métodos más transparentes. «Trabajar colectivamente en el desarrollo de bases de datos abiertas se ha convertido en una prioridad e invitamos a todos nuestros socios a que también pongan punto final a Web of Science», concluye Alain Schuhl./////////////////////////////////////////////////The CNRS is breaking free from the Web of ScienceDecember 01, 2025From January 1st 2026, the CNRS will cut access to one of the largest commercial bibliometric databases, Clarivate Analytics' Web of Science, along with the Core Collection and Journal Citation Reports.Since the publication of the CNRS's first Roadmap For Open Science in 2019, the organisation has been actively implementing a policy of opening up research results and changing the way scientists are evaluated. Along with many other research organisations, the CNRS opposes quantitative evaluation based on bibliometric indicators, instead of favouring a qualitative approach. This, then, is the context underpinning the CNRS's decision to cut access to Clarivate Analytics' Web of Science (WoS) which the organisation considers an essential step for its open science policy. The aim of this decision is to be coherent as regards the organisation's stated principles for research evaluation which firstly call for a shift from the use of quantitative bibliometric indicators and secondly for the accelerated development of alternative solutions focusing on open and transparent data.   In favour of qualitative evaluationThe use of impact factors in the evaluation of researchers has contributed to the distortion of scientific publishing practices and, in turn, of research practices. Alain Schuhl, the CNRS's Deputy CEO for Science (DGDS), explains that "for too long now, research has been trapped by indicators that actually have nothing to do with the intrinsic quality of the scientific advances set out in a publication". The DGDS considers that dictating the rules of the game for the assessment of researchers by defining the prestige and attractiveness of journals is "a reductive view of science that we should no longer be condoning. This means we have to take action now to guarantee the quality and the ethics of the research assessment system".Promoting the development of open databases  The CNRS began this process in 2024 by unsubscribing from Elsevier's Scopus database and is pursuing its policy today by cutting access to Clarivate Analytics' bibliometric database. Alain Schuhl reminds us that "other prestigious institutions have led the way" with this approach. This decision by the CNRS will help the organisation save €1.4 million annually in subscription fees, funds that will be redirected towards initiatives promoting open science, particularly the development of open databases.Thus, CNRS researchers are now encouraged to turn to open databases like OpenAlex. This offers a greater level of visibility for non-English-language journals and a larger number of journals than the WoS which was considered to be insufficiently representative for several disciplines. The humanities and social sciences were poorly covered, for example, as were computer science and mathematics.    Reversing the Web of Science's historically constructed advantage Up until now, a major reason for the highly prominent position of the WoS was the collective contribution of public sector staff members who have been enhancing the quality of WoS affiliation data for years. Alain Schuhl explains that "we have worked for free to lock ourselves collectively into a paid system when we are all aware of its biases and incompleteness. Institutions have been trapped in the WoS system for all this time because having the majority of the world's higher education and research institutions listed there means comparisons can be made between them". Leaving the WoS means temporarily losing the ability to compare ourselves with others and position ourselves in relation to our counterparts through such comparisons founded on a common scope for evaluation. Alain Schuhl adds that "this decision means the CNRS therefore accepts that inter-institutional or inter-personal comparisons will now need to be made on the basis of other principles that still need to be reinvented".    Alain Schuhl is well aware that a lot of work remains to be done in terms of metadata curation before OpenAlex can be used to its full potential. However the DGDS believes "it is now high time to consecrate our energy to improving the quality of open bibliometric databases" and stresses that "the CNRS is actively working to improve OpenAlex. We're confident this database will soon be capable of giving full satisfaction to all scientists in their bibliographic research work."Emancipation can never be achieved aloneIn an era of increasingly fragile international scientific cooperation, the objective is more than ever to regain sovereignty over our scientific choices and decision-making so these are guided by enhanced transparency achieved through using open tools with more transparent methods. "Working collectively on the development of open databases has become a priority and we invite all our partners to also draw a line under the Web of Science", concludes Alain Schuhl.

No hay más contenido disponible