Archivado en: Instituciones I+D

Acuerdo de colaboración: Journals & Authors

EC3metrics firma un acuerdo de colaboración con Journals & Authors, empresa especializada en la realización de labores editoriales en revistas científicas. Journals & Authors nace en 2013 con el objetivo de dar cobertura a los problemas técnicos de las revistas surgidos bajo el contexto de su digitalización y las herramientas científicas y requisitos técnicos aparejados. Además, también promueven la colaboración y la creación de encuentros de debate científico como el pasado evento “II Encuentro Regional de Editores de Revistas Académicas“, donde colaboró uno de nuestros socios, Rafael Repiso. El objetivo de este encuentro de editores de publicaciones académicas es eminentemente la colaboración entre revistas, tratándose temas como las novedades técnicas, la divulgación científica, evaluación e impacto tanto de revistas como editoriales académicas. Por tanto, desde una perspectiva diferente, tanto Journals & Author como EC3metrics se dedican a estudiar la comunicación científica, completándose en sus labores. Los servicios más destacados de Journals & Authors que van a complementar los servicios de EC3metrics son: Metodología SciELO, la cual permite a revistas, incluidas en esta base de datos, publicar artículos con calidad, en un tiempo reducido y la corrección de posibles errores editoriales. Open Conference System, herramienta de divulgación, con el objeto de administrar y difundir conferencias académicas. Open Journal System ejecuta la implementación, diseño y capacitación sobre manejo de todos los roles. Su objeto es alcanzar la gestión editorial en línea de revistas. LILACS ofrece un servicio de inclusión de metadatos de artículos en esta base de datos. Corrección de estilo y ortografía de textos finales de ediciones. Esta revisión se genera principalmente en citas y referencias bibliográficas, seguido de su normalización y organización de gráficas. Gestión de contenidos. Diseño de formatos para evaluación, originalidad, edición final de artículos, normalización de referencias y corrección de metadatos normalizados. Diagramación. Proyección de revistas en LATEX y mejora de imagen gráfica de ellas. Preparación de artículos en LATEX. Elaboración de textos en este sistema de composición preciso, y conversión de gráficos en alta calidad. Gestión y asignación del DOI (Journals & Authoes es sponsoring affiiate de Crossref en Colombia). Estamos seguros que este acuerdo redundará en la calidad de los servicios y terminará de completar la oferta de ambas empresas, además de permitirnos hermanarnos con un país que sentimos muy cercano.  

Web of Science, Scopus y la batalla por el “Nuevo Mundo”

De la misma forma que una vez los imperios coloniales de España y Portugal miraron con ávida esperanza a poniente, de similar manera, Elsevier y Thomson Reuters compiten por consolidar sus productos, Scopus y Web of Science, como referentes para Latinoamérica. Aunque la batalla no ha acabado, parece que Scopus, contra todo pronóstico, va ganando. Aquí no hay pacto ni tratado de Tordesillas que valga, ambos productos buscan consolidarse como referentes en el mundo e Iberoamérica es un buen ejemplo de la competencia en los países de la periferia científica. Hasta hace poco, la lucha parecía simplificarse a dos dimensiones, prestigio científico y número de revistas. Web of Science es el producto con mayor reconocimiento internacional, por cuestiones históricas (es el original) y también por mantener unos criterios de inclusión y expulsión transparentes y efectivos. Scopus por el contrario mantiene unos criterios de inclusión más laxos y prácticamente no excluye a revistas ya indexadas, lo que les ha permitido partir desde su nacimiento con una mejor representación de revistas iberoamericanas, aunque la sola presencia de una revista en Scopus no sea un indicador de calidad. Esta lucha por aumentar la cobertura científica hizo que Web of Science declarase en un primer momento su interés por mejorar la representación de países que apenas tenían presencia en Web of Science. Recordemos el incremento de revistas españolas en JCR, pasamos de 43 revistas en 2007 a 125 en el año 2010. Pero esta forma de crecer amenazaba la consistencia del producto y por tanto tenía un límite. ¿Cómo igualar entonces a Scopus sin poner en riesgo el factor elitista? Creando nuevas bases de datos externas a JCR, en este caso SciELO Citation Index y Emerging Source Citation Index. Doce años después del advenimiento de Scopus, parece que WOS tiene de nuevo todos los ases en su manga en la partida iberoamericana; prestigio y un mayor número de revistas indexadas. Sin embargo, la realidad dista mucho de ser así. Mientras WOS se preocupaba por igualar en número de revistas a Scopus, Elsevier ha estado trabajando en aplicaciones. Concretamente la empresa Scimago crea estos años dos productos que explican el éxito de Scopus en Iberoamérica; un ranking de revistas de Scopus, Scimago Journal Rank, y un ranking de universidades (y otras tipologías de instituciones) basado en los artículos publicados en Scopus, Scimago Institutions Rankings. ¿De qué les sirve a los países iberoamericanos tener más revistas si éstas no son medidas? Por tanto, no pueden ser utilizadas plenamente para procesos evaluativos nacionales. Los Ranking de Universidades internacionales, que miden la dimensión científica con los artículos WOS, apenas poseen presencia de universidades iberoamericanas. En cambio, el Scimago Institutions Rankings al basar su datos científicos en Scopus, presenta el más completo mapa de universidades iberoamericanas (si obviamos el ranking web Webometrics). No olvidemos que los presupuestos los gestionan políticos y no científicos, gestores más preocupados por la presencia e imagen de las universidades que por la creación de conocimiento real. Por último, es justo acabar el post llamando la atención sobre un tercer actor que puede determinar el futuro, Google Scholar. Ya existen aplicaciones basadas en Google Scholar que realizan métricas de revistas científicas, ganando en exhaustividad de fuentes a cualquier producto conocido (y en precio). Para las revistas tenemos Journal Scholar Metrics  (Grupo de Investigación EC3) que presenta el más exhaustivo ranking de revistas según Google Scholar Metrics para las áreas de Ciencias Sociales y Humanidades. También comienzan a aparecer productos que demuestran la capacidad de Google Scholar para caracterizar universidades, como el Top 2000 Universities by Google Scholar Citations (Cybermetrics Lab- CSIC).

Curso Virtual: Servicios de asesoramiento en investigación para bibliotecas universitarias

Nos es grato informar que retomamos los cursos de formación de EC3metrics, con un curso clásico, el de “Servicios de asesoramiento en investigación para bibliotecas universitarias (y centros de investigación)“. El curso es completamente virtual, para ello se usarán las plataformas de Moodle y Adobe Connect.  Además ya está disponible la planificación del resto de cursos para el año 2016. En este curso se realiza una introducción muy práctica y con una orientación profesional al mundo de la bibliometría y de la evaluación de la actividad científica. A lo largo del temario se estudian y señalan cuáles son los indicadores bibliométricos fundamentales que debemos conocer; cuáles son los criterios de evaluación de las carreras académicas de investigadores y profesores en el actual sistema universitario y cuáles son las herramientas/plataformes/software básico para calcular los indicadores bibliométricos sin esfuerzo y de manera ràpida. Sin embargo este no es un curso de bibliometría al uso, a lo largo del mismo nunca perdemos la perspectiva de la biblioteca ya que el objetivo esencial es conseguir el know how básico sobre bibliometria para poder aplicarlo a la creación de nuevos servicios bibliotecarios. Por ejemplo servicios de asesoramiento para qué los profesores puedan superar las convocatorias de CNEAI y ANECA y por otro lado se plantean las Unidades de Bibliometría, como un servicio integral de evaluación de la ciencia dirigido desde las bibliotecas universitarias. [column2] Público al que va dirigido. Bibliotecarios, estudiantes de Documentación, profesores y profesionales relacionados con el mundo de la bibliometría y de la evaluación de la actividad científica. Fechas: 22 de Febrero / 11 de Marzo Modalidad: Virtual Se entregará certificado por la superación del curso. ACTUALMENTE HAY PLAZAS DISPONIBLES [/column2] [column2 last=yes] Información del curso: ENLACE Inscripción del curso: ENLACE Calendario de cursos EC3metrics 2016: ENLACE Más información en cursos@ec3metrics.com [/column2]  

Clasificación CIRC 2.0.

Con este post presentamos la actualización de la Clasificación de Revistas CIRC. La Clasificación Integrada de Revistas Científica es una herramienta cuyo objetivo es ponderar de una forma simplificada las revistas de las áreas de Ciencias Sociales y Humanidades.  En esta ocasión presentamos la versión BETA del producto. http://www.clasificacioncirc.es/ La Clasificación Integrada de Revistas Científicas – CIRC se propone como objetivo la construcción de una clasificación de revistas en Ciencias Sociales y Humanas en función de su calidad integrando los productos de evaluación existentes considerados positivamente por las diferentes agencias de evaluación nacionales como CNEAI o ANECA. Se pretende asimismo que el modelo sea operativo y la clasificación resultante pueda ser integrada en sistemas de información científica para facilitar la construcción de indicadores bibliométricos destinados a la evaluación y descripción de los resultados de investigación de diversos agentes científicos como universidades, departamentos o investigadores. Las principales novedades del producto son: Nueva plataforma que permite la actualización de forma automática así como la interconexión con otras plataformas. El nuevo CIRC permite identificar las Revistas Predator, desarrollando la lista de editores fraudulentos publicado por Jeffrie Beall. Se actualizan los productos, eliminándose aquellos que han dejado de actualizarse (INRECS, DICE), y se aprovechan las métricas ofrecidas por Web of Science y Scopus para diferenciar la calidad de las revistas según su impacto. Por tanto se actualizan los criterios.

Resolución provisional de proyectos del Plan Nacional de I+D+I 2014

El pasado jueves salió publicada la resolución provisional de proyectos preconcedidos de las convocatorias de Retos y Excelencia del Plan Nacional de I+D+I. Desde EC3metrics hemos hecho un primer análisis de la distribución de proyectos y dotación económica asignada a los mismos tanto por áreas temáticas como por universidades. En líneas generales, la área donde se han concedido un mayor número de proyectos de investigación es Humanidades y Ciencias Sociales. Por el contrario, es en Ciencias de la Vida y Agroalimentación el campo mejor dotado económicamente. Las universidades de Barcelona, Granada y Complutense de Madrid son las que han recibido un mayor número de proyectos. Por el contrario, las universidades que reciben una mayor dotación económica son Barcelona, Autónoma de Madrid y Complutense de Madrid. [callout type=”default” title=”” description=”DESCARGA EL INFORME” button=”true” button_type=”red” button_text=”DESCARGAR TEXTO COMPLETO EN PDF” button_link=”https://ec3metrics.com/wp/wp-content/uploads/2015/04/Informe1EC3metrics.pdf”] [alert type=”green” icon=”icon-wrench”] MÁS INFORMACIÓN DISPONIBLE EN UGRINVESTIGA [/alert]

El efecto Cajal: análisis bibliométrico del Programa Ramón y Cajal en la UGR

Si existe un programa emblemático en las políticas de I+D ese es el Programa Ramón Cajal; sin embargo pese a ser una convocatoria destinada a la recuperación, contratación y estabilización de nuestros mejores investigadores ésta no ha estado exenta de controversia. No son pocos los ejemplos del fracaso del PRyC y de las dificultades que han tenido sus investigadores a la hora de incorporarse a nuestros centros, un debate que ha trascendido a las grandes revistas y medios internacionales (1, 2, 3). En la UGR ya contribuyen casi al 16% de las publicaciones internacionales Si bien son ciertas las quejas del colectivo, desde un punto estrictamente bibliométrico, hasta el momento no se ha aportado ninguna evidencia que mida en conjunto la contribución de este colectivo a una universidad y aportar datos siempre es importante para una buena defensa. En el contexto de la UGR ese es el objetivo del trabajo que presentamos. En el mismo evidenciamos como un pequeño grupos de investigadores altamente cualificados pueden contribuir a elevar el impacto y la producción de una universidad, es lo que hemos denominado el Efecto Cajal. Evidencian las cifras recopiladas que una política destinada al fichaje de los investigadores del Programa sigue siendo una apuesta sobre seguro y en estos momentos una apuesta de futuro. DATOS BIBLIOGRÁFICOS DEL TRABAJO Torres-Salinas, D.; Jiménez-Contreras, E. (2015). El efecto Cajal: análisis bibliométrico del Programa Ramón y Cajal en la Universidad de Granada. Revista Española de Documentación Científica, 38(1): e075. doi: http://dx.doi.org/10.3989/redc.2015.1.1127 RESUMEN: Se presenta una evaluación de la aportación a la producción científica de los contratados Ramón y Cajal de la Universidad de Granada. Para ello se contextualiza a nivel nacional el número de contratados Ramón y Cajal de la Universidad de Granada y se analiza su productividad e impacto en la Web of Science. Los resultados revelan que un 79% de los Ramones y Cajales se estabilizaron en la universidad. Han firmado el 10% de los trabajos siendo un 4% del Personal Docente e Investigador. Su productividad es de 2,29 artículos al año frente al 0,66 del resto de doctores de la Universidad de Granada. Publican en revistas científicas de mayor impacto y tienen un promedio de citas más elevado. Finalmente, se concluye, que una carga docente inferior y procesos de evaluación con criterios más exigentes, son claros factores que determinan el mejor rendimiento de los contratados Ramón y Cajal. [alert type=”blue” icon=”icon-ok”]DESCARGAR ARTICULO[/alert]

EC3metrics firma diversos convenios con las universidades privadas

EC3metrics ha firmado diversos convenios de colaboración científica en bibliometría y evaluación científica con diversas universidades privadas españolas. Los convenios firmados fomentan la colaboración entre las universidades y EC3metrics y están dirigidos sobre todo a la mejora de la visibilidad y el posicionamiento nacional e internacional de las publicaciones científicas de la universidades; el asesoramiento para el aumento de la visibilidad de la investigación así como en el diseño de políticas de investigación y la evaluación científica de programas y convocatorias de I+D. Asimismo ofrecemos planes integrales para la preparación de la convocatoria de Tramos de Investigación 2014. Una de las principales ventajas que tienen los convenios firmados con EC3metrics es que ofrecen siempre a las universidades descuentos en los precios que habitualmente aplicamos y establecemos marcos de colaboración a largo plazo que garanticen una relación estable y de confianza. Estos convenios también son especialmente útiles a la hora de externalizar dentro de las universidades las labores de evaluación científica. Más concretamente entre los convenios que hemos firmado esta semana podemos mencionar: Universidad Nebrija Universidad San Jorge Universidad Pontifica de Comillas Universidad Católica de San Antonio (renovación)   Si necesita más información sobre los convenios y marcos de colaboración de EC3metrics no dude en contactar con nosotros.

Se publica el Shanghai Ranking Expandex 2014 ed.

Como cada año tras la publicación del Academic Ranking of World Universities (ARWU) hemos publicado la versión expandida del mismo en la web de Rankings I-UGR:  Shanghai Ranked Expanded – 2014 ed    El objetivo de esta versión elaborada por Domingo Docampo es complementar el ARWU ya que, como todos sabemos, en el mismo no figuran todas las universidades españolas y latinoamericanas. Esto es posible ya que tras la  publicación de Docampo (2013) conocemos con exactitud las operaciones que se realizan en la confección del ranking ARWU, por lo que estamos en disposición de poder reproducir sus resultados para aquellas universidades que no figuran entre las 500 de la lista oficial de ARWU.  En la versión del Shanghai Ranking Expanded 2014 hemos continuado con el análisis de 400 universidades de España, Portugal, Latinoamérica y el Caribe, que representan a más de 20 países. Se presentan las puntuaciones finales para las primeras 200, y, al estilo ARWU, se adjuntan también ordenadas alfabéticamente por grupos de 50, el resto de las universidades hasta completar las 400.  Como novedad importante, este año 2014 hemos analizado un total de 2800 universidades de todo el mundo, por lo que podemos también dar una indicación precisa de la posición de cada universidad en el contexto global, superando de este la limitación de presentar la posición por rangos, como hace ARWU  De esta forma las diez primeras universidades españolas ocuparían en ARWU, exactamente, la siguiente posición:  181         Universitat de Barcelona 248         Universitat Autónoma de Barcelona 262         Universidad Autónoma de Madrid 286         Universitat de Valencia 308         Universidad Complutense de Madrid 316         Universitat Pompeu i Fabra 322         Universitat Politécnica de Valencia 326         Universidad de Granada 426         Universidad del País Vasco 431         Universidad de Zaragoza 431         Universidade de Santiago de Compostela En el plano metodológico hemos de destacar la subida de posiciones de las universidades españolas por el incremento en el número de investigadores altamente listados, gracias a su actualización este mismo año. Sin más os dejamos el enlace con los listados: [callout type=”default” title=”” description=”DESCARGA SHANGAI RANKING EXPANDED – ESPAÑA” button=”true” button_type=”red” button_text=”DESCARGAR” button_link=”http://dicits.ugr.es/rankinguniversidades/wp-content/uploads/2014/05/Shanghai-Ranking_EXPANDED_Espa%C3%B1olas_2014-.pdf”] [callout type=”default” title=”” description=”DESCARGA SHANGAI RANKING EXPANDED – IBEROAMERICA” button=”true” button_type=”red” button_text=”DESCARGAR” button_link=”http://dicits.ugr.es/rankinguniversidades/wp-content/uploads/2014/05/Shanghai-Ranking_EXPANDED_Iberoamericanas_2014-.pdf”]   BIBLIOGRAFÍA Docampo, D., “Reproducibility of the Shanghai academic ranking of world universities results“. Scientometrics, 2013, 94(2) 567-587.

Los Investigadores Altamente Citados y las petrouniversidades

1. Introducción Cómo comentábamos en un artículo la lista de investigadores altamente citados de Thomson (Highly Cited Researchers) no dejaría de ser una mera anécdota bibliométrica de no ser por su utilización en el Academic Ranking of World Universities – ARWU o Ranking de Shanghái. Pues bien después de publicar Thomson una lista qué posteriormente retiraron, de modificar la metodología y tras unos meses de espera ya se ha publicado la lista correspondiente a Junio de 2014 y esta vez sí parece definitiva. La lista está disponible en internet , dónde se puede leer un informe denominado “THE WORLD’S MOST INFLUENTIAL SCIENTIFIC MINDS 2014”, consultar los investigadores en una tabla dinámica y descargarla además en Excel. Sobre la metodología cabe decir que se han pulido los errores sobre la anterior versión fallida. En líneas generales cubre el período 2002-2012 y para identificar a los investigadores se toman las categorías ESI, de éstas cogen el 1% de trabajos más citados (Highly Cited Papers), los que más trabajos tienen en ese subconjunto son los investigadores altamente citados. 2. Visión general de los resultados En total se han identificado 3073 investigadore altamente citados distribuidos a través de 21 categorías diferentes. La que más investigadores acumula es Clinical Medicine, qué suma 402 investigadores. En cuánto a los países hemos de tener en cuenta qué un investigador puede tener varios países de afiliación. En este sentido Estados Unidos acumula 1660 Highly Cited Researchers, un 54% , el Reino Unido 315 (10%) y, sorpresa!, Arabia Saudi ocupa el tercer y se erige como potencia científica (ahora retomamos el tema), con 164 (5%). España aparece en la posición 13ª con un total de 48 investigadores, justo por detrás de Italia y por delante de Dinamarca. Tabla 1. Ranking de países según el número de Investigadores Altamente Citados (Highly Cited Researchers) A nivel institucional son un total de 1185 instituciones mundiales las que consiguen al menos un investigador altamente citado. La primera es una institución Saudí la King Abdulaziz University. Tal y cómo podemos ver en la tabla 2 acumula un total de 144 investigadores, sin embargo tan sólo 12 investigadores tienen a la King Abdulaziz University como institución primaria, es decir, su verdadera institución, mientras que 132 la tienen como institución secundaria.  Le siguen Harvad, Stanford y la Chinese Academy of Sciences. Aunque no aparecen en la tabla a nivel nacional el CSIC cuenta con 10 investigadores, la Universidad de Barcelona cuenta con 5 y la Politécnica de Valencia cuenta con con 3. Tabla2. Ranking de instituciones según el número de investigadores altamente citados  Nota: La columna Primaria indica que el investigador tiene a esa institución como Primaria, es decir dónde desarrolla la mayor parte de su actividad científica y Secundaria indica que el investigador tiene a esa institución como secundaria  3. Reflexión: petrouniversidades Todos los que nos dedicamos a la bibliometría tenemos cariño y en buena estima este listado de investigadores, todo un clásico de del ISI. Sin embargo lo que más me ha sorprendido es que  Arabi Saudi y la King Abdulaziz University pasen a formar  parte de la élite científica mundial.Todo sabemos qué esto se lleva denunciando desde hace tiempo; entre otros Science lo denunció Saudi Universities Offer Cash In Exchange for Academic Prestige y Nature también Are Saudi universities buying their way into top charts?. ¿porqué se permite que se adultere la competición? ¿porqué se ignoran este tipo de trampas?.   ACTUALIZACIÓN, 24/06/2014 hemos recibido un correo de Thomson Reuters que consideramos interesante compartir. Thanks Thomson Reuters! * Summary of institutions could be formulated a little differently. For example, the individual Max Plank Society institutes could be grouped together and also the National Institutes of Health institutes of the US, for example. The addresses are not necessarily unified, but are provided in the way the named researchers or their institutions directed us to list them.  * As for the King Abdulaziz University and the phenomenon you refer to, we at Thomson Reuters provide the databut do not judge the results in the way you suggest. That is an issue for the scientific community itself, whose members are well qualified to interpret the appearance of this institution and others.

Informe bibliométrico: Searching Research Excellence

[callout type=”default” title=”” description=”DESCARGA EL INFORME COMPLETO” button=”true” button_type=”red” button_text=”DESCARGAR” button_link=”https://ec3metrics.com/wp/wp-content/uploads/2014/05/Searching-Research-Excellence-_FINAL-1.9.3.pdf”] Hemos preparado el informe bibliométrico que lleva por título “Searching Research Excellence: An In-depth Bibibliometric Analysis of the International Research Output of the University of Granada”. Su objetivo principal es ofrecer un retrato exhaustivo y preciso del volumen y el impacto de la producción científica de la Universidad de Granada publicada en las revistas presentes en las bases de datos de Web of Science (Thomson Reuters). Para ello se ha analizado un período cronológico que cubre los últimos 30 años de investigación y se presentan resultados para 195 categorías científicas, de manera que se puedan identificar cuáles son las más relevantes en términos de investigación. El informe se divide en tres partes diferentes: resultados generales, rankings de categorías y los resultados de cada categoría. Además se han empleado diversos indicadores de producción, impacto, disciplinariedad y colaboración de forma que se muestren las diferentes dimensiones de la investigación. En palabras de Evaristo Jiménez “La finalidad de este informe era hacer un diagnóstico de la universidad para que la toma de decisiones en la Política Científica tenga un sólido anclaje en la realidad de la institución y en las prioridades del momento; el contexto actual de creciente competitividad nos obliga a tener herramientas que de forma periódica, precisa y objetiva reflejen cuales son nuestras fortalezas y debilidades”