Los bibliotecarios tenemos poco control sobre la terminación de los proyectos de revisiones sistemáticas. Sin embargo, dado que la mayor parte del trabajo del bibliotecario se realiza al comienzo del proyecto, el tiempo y esfuerzo invertido es con frecuencia el mismo, independientemente de que el proyecto de revisión consiga publicarse o sea abandonado. Esta situación plantea importantes reflexiones sobre la naturaleza de nuestro trabajo, ya que, a pesar de la falta de control en los resultados finales, nuestro papel es fundamental para la calidad de la revisión. Además, nuestra capacidad para colaborar con investigadores y académicos desde el inicio del proceso no solo mejora la metodología, sino que también contribuye a establecer estándares que pueden influir en el éxito del proyecto. Por lo tanto, aunque los resultados puedan variar, la dedicación y el esfuerzo que aportamos son de enorme valor y forman parte integral del proceso de investigación.
Por eso, es importante tener presente la siguiente lista de comprobación o checklist antes de comprometer nuestra participación del bibliotecario en una revisión sistemática:
¿Pueden los investigadores describir claramente la pregunta de investigación?
¿Han establecido los investigadores criterios de inclusión y exclusión?
¿Parece que el alcance de la pregunta de investigación es manejable (no es probable que se obtengan demasiados estudios elegibles)?
¿Parece que la pregunta de investigación merece la pena (no es probable que no haya o que haya muy pocos estudios elegibles)?
¿Se ha preparado un protocolo?
¿Conocen y planea el equipo de revisión seguir las normas de buenas prácticas?
¿Está de acuerdo el equipo revisor con un enfoque de búsqueda exhaustivo (por ejemplo, búsqueda en todas las bases de datos clave, empleo de estrategias de búsqueda relativamente amplias)?
¿El proceso de selección, extracción de datos y evaluación del riesgo de sesgo-calidad implicará la decisión de dos revisores de manera independiente?
¿Parece el proyecto de investigación manejable para el número de miembros del equipo de revisión?
¿Son realistas y viables los plazos de revisión?
Bibliografía
Campos Asensio, C. (2024). Papel estratégico del bibliotecario en las revisiones sistemáticas. CLIP De SEDIC: Revista De La Sociedad Española De Documentación E Información Científica, (90), 19–32. https://doi.org/10.47251/clip.n90.150
McKeown S, Ross-White A. Building capacity for librarian support and addressing collaboration challenges by formalizing library systematic review services. J Med Libr Assoc. 2019 Jul;107(3):411-419. doi: 10.5195/jmla.2019.443.
Las revisiones del JBI se distinguen en el componente de búsqueda por su proceso de búsqueda explícito en 3 pasos. Este enfoque metodológico asegura una revisión exhaustiva y sistemática de la evidencia relevante, mejorando la calidad y la fiabilidad de los resultados de la revisión.
Paso 1: Búsqueda exploratoria inicial
El primer paso es una búsqueda exploratoria inicial para encontrar «referencias semilla», es decir, registros de estudios que cumplan los criterios de inclusión para la pregunta de la revisión. Tras estas búsquedas exploratorias iniciales, se recogen las palabras clave del título y el resumen, junto con los términos de indización (también denominados términos MeSH en MEDLINE, Tesauro, Vocabulario controlado, descriptores o encabezamientos de materia) de las referencias semilla. Se debe consultar con el equipo de revisión para recopilar otras palabras clave y términos indexados.
En esta fase utilizaremos las siguientes herramientas:
Bases de datos, generalmente MEDLINE y CINAHL.
Herramientas adicionales como Google, Google Académico y herramientas de descubrimiento de bibliotecas (PRIMO, OneSearch, SumSearch, etc.).
Herramientas de IA generativa(p. ej.: ChatGPT). Pueden ser útiles para encontrar estas referencias iniciales. Sin embargo, en el caso de las fuentes encontradas a través de ChatGPT, es importante verificar que no sean alucinaciones.
Paso 2: Desarrollo de la estrategia de búsqueda exhaustiva
El segundo paso consiste en desarrollar una estrategia de búsqueda exhaustiva utilizando estas palabras clave recolectadas y los términos de indización en la base de datos primaria/clave definida en nuestro Protocolo de revisión.
El desarrollo de una búsqueda exhaustiva es un proceso iterativo que implica probar combinaciones de palabras clave y términos indizados y comprobar que la estrategia de búsqueda recupera las referencias iniciales.
Una vez desarrollada la estrategia de búsqueda en la base de datos primaria, se traslada a otras bases de datos.
Paso 3: Búsqueda complementaria
El tercer paso es la búsqueda complementaria en la literatura gris, la búsqueda de citas y la búsqueda manual. La Declaración TARCiS (Terminology, Application and Reporting of Citation Searching) proporciona orientación sobre cuándo y cómo realizar búsquedas de citas como técnica de búsqueda complementaria en la síntesis de la evidencia y, lo que es más importante, cómo informar de ello (Hirt et al. 2024).
Para las preguntas de revisión que son complejas, la búsqueda de citas hacia delante y hacia atrás (forward and backward citation searching) se considera obligatoria.
Una revisión sistemática refleja las limitaciones de los estudios que incluye; por lo tanto, cada estudio elegible para su inclusión en una revisión sistemática requiere una evaluación crítica para determinar si el estudio no ha respondido correctamente a su pregunta de investigación de una manera libre de sesgos.
Lared LATITUDES nos proporciona una visión general de la calidad de los estudios y relación entre los distintos componentes de la calidad. Enfatiza los 3 componentes principales de la calidad del estudio: validez interna, validez externa y calidad del informe/reporte.
El proceso de evaluación del riesgo de sesgo implica una valoración crítica y un juicio relativo a la existencia de riesgos potenciales de sesgo en el estudio. Un sesgo es un «error sistemático, o desviación de la verdad, en los resultados o inferencias» y esto puede conducir a hallazgos que no reflejen el resultado real. El sesgo (por ejemplo, las limitaciones del estudio) se refiere al riesgo de que los estudios sobrestimen o subestimen sistemáticamente el verdadero efecto de la intervención en función de un error en su realización o diseño.
El sesgo es distinto del concepto de calidad
Un estudio con «alta calidad metodológica» puede tener un «alto riesgo de sesgo» como, por ejemplo, cuando el cegamiento es imposible. Por otro lado, no todas las debilidades metodológicas introducen sesgos. Así, ciertos indicadores de «baja calidad metodológica» tienen poca probabilidad de influir en el riesgo de sesgo, como, por ejemplo, la no predeterminación del tamaño muestral.
Herramientas para la evaluación de la calidad
Hay muchas escalas escalas de calidad y listas de verificación (checklists) disponibles. Las revisiones Cochrane no las utilizan dado que no hay evidencia empírica que avale su uso, diferentes escalas llegan a diferentes conclusiones, la ponderación numérica no está justificada y las puntuaciones difíciles de interpretar por los lectores.
Herramientas para la evaluación del riesgo de sesgo
La RoB 2 de Cochrane se utiliza para la evaluación de ensayos clinicos. Valora 7 dominios (Generación de la secuencia aleatoria; Ocultamiento de la asignación; Cegamiento de los participantes y del personal; Cegamiento de los evaluadores del resultado; Datos de resultado incompletos; Notificación selectiva de los resultados; y Otras fuentes de sesgo) siendo la valoración de los revisores como de «bajo riesgo de sesgo» , «alto riesgo de sesgo» o «riesgo de sesgo poco claro«.
Para los estudios no aleatorizados también hay que evaluar el riesgo de sesgo: ROBINS (acrónimo de Risk Of Bias In Non-Randomized Studies). En la actualidad, existen dos versiones de esta herramienta: ROBINS-I, para estudios no aleatorizados de intervenciones y la recientemente lanzada ROBINS-E, que evalúa el efecto de una exposición en estudios de cohortes.
Además de las herramientas para estudios aleatorizados y no aleatorizados, se dispone de herramientas específicas para la evaluación de RoB en informes de casos y series de casos y diseños experimentales de caso único.
Estas herramientas proporcionan marcos estructurados para evaluar la calidad de diferentes tipos de estudios. Cada herramienta está diseñada para abordar las características únicas y los posibles sesgos asociados con diseños de estudio específicos. Por ejemplo, RoB 2 se centra en los ensayos controlados aleatorios, evaluando aspectos como el proceso de aleatorización y el cegamiento, mientras que ROBINS-I se utiliza para estudios de intervención no aleatorizados, considerando factores como el control de confusores.
Si los tipos de diseño de estudios incluidos en mi revisión sistemática son diferentes (p. ej.: EC, estudio de cohortes, …), ¿es mejor utilizar una herramienta genérica o elegir diferentes según el tipo de estudio?
Los autores de revisiones sistemáticas deben examinar los aspectos de riesgo de sesgo (RoB) específicos del diseño de cada estudio primario que incluyan como evidencia. Es poco probable que una única herramienta de valoración de los criterios de RoB sea adecuada para todos los diseños de investigación. Si utilizamos herramientas específicas según el diseño del estudio, nos aseguramos de que la evaluación de calidad se alinea con las consideraciones únicas y los sesgos asociados con cada diseño de estudio. Pero el uso de múltiples herramientas puede aumentar la complejidad y requerir una mayor familiaridad con cada herramienta específica.
La utilización adecuada de estas herramientas permite a los investigadores realizar evaluaciones de calidad más precisas y estandarizadas, mejorando la confiabilidad y la comparabilidad de las síntesis de evidencia. Es importante que los investigadores se familiaricen con la herramienta apropiada para su tipo de estudio y la utilicen de manera consistente en todo el proceso de síntesis de evidencia.
El diagrama de flujo proporcionado por LATITUDES es una guía valiosa en este proceso de selección de la herramienta, pero es importante complementarlo con un conocimiento profundo de las características de cada herramienta y las especificidades del estudio en cuestión. Una selección cuidadosa asegura que todos los aspectos relevantes de la calidad del estudio sean evaluados adecuadamente, fortaleciendo así la validez de la síntesis de evidencia.
Cómo evaluar el riesgo de sesgo
Hay que predefinir en la fase de Protocolo cómo se va a considerar el riesgo de sesgo en el análisis (definir si se va a meta-analizar los estudios con riesgo de sesgo alto o incierto). Al menos debe realizarse por 2 evaluadores de manera independiente siendo conveniente hacer un pilotaje con 3-6 estudios. Además, debemos definir en el Protocolo cómo se van a resolver los desacuerdos y aclarar la información que falta o no está clara en la publicación (por ejemplo, yendo al protocolo del estudio y/o contactar con los autores).
¿Cómo representa la evaluación del riesgo de sesgo en su manuscrito de revisión?
Se ha de resumir el riesgo de sesgo de los estudios incluidos y de cada desenlace. En esta figura se muestra un ejemplo de un resumen de la evaluación del riesgo de sesgo según la herramienta Cochrane de riesgo de sesgo aplicada a 8 ensayos clínicos aleatorizados como parte de una revisión sistemática sobre el calostro humano y bovino para la prevención de la enterocolitis necrotizante.
Figura del riesgo de sesgo. Reproducido de Sadeghirad B, Morgan RL, Zeraatkar D, Zea AM, Couban R, Johnston BC, Florez ID. Human and Bovine Colostrum for Prevention of Necrotizing Enterocolitis: A Meta-analysis. Pediatrics. 2018 Aug;142(2):e20180767. doi: 10.1542/peds.2018-0767.
El resumen de las evaluaciones del riesgo de sesgo para los estudios incluidos en la revisión sistemática incluye tanto la identificación del estudio como los juicios realizados sobre la posibilidad de que se introduzca el sesgo dentro de cada dominio del instrumento de riesgo de sesgo. En esta figura, los círculos verdes que incluyen un carácter más («+») representan dominios con bajo riesgo de sesgo, mientras que los círculos rojos que incluyen un guión («-«) representan dominios con alto riesgo de sesgo.
Gráfico del riesgo de sesgo.
No debemos intentar resumir todos los resultado y todos los estudios a la vez. Hay que resumir por desenlace. Cada desenlace puede tener su evaluación propia del riesgo de sesgo (ej. cegamiento, datos de resultado incompleto). Además, no todos los estudios aportan información a cada desenlace. Debemos empezar resumiendo el riesgo de sesgo dentro de cada estudio y luego entre los estudios.
¿Debemos evaluar el riesgo de sesgo en las revisiones de alcance/scoping reviews?
Las revisiones de alcance no suelen incluir una evaluación del riesgo de sesgo. «Una diferencia clave entre las revisiones de alcance y las revisiones sistemáticas es que las primeras se realizan generalmente para proporcionar una visión general de la evidencia existente, independientemente de la calidad metodológica o del riesgo de sesgo. Por lo tanto, las fuentes de evidencia incluidas no suelen someterse a una valoración crítica en el caso de las revisiones de alcance» (Tricco).
¿Y fuera de ciencias de la salud?
Para disciplinas fuera de la medicina, el Critical Appraisal Skills Programme (https://casp-uk.net/casp-tools-checklists/) proporciona listas de comprobación que pueden aplicarse a diversos tipos de estudios, y la Mixed Methods Appraisal Tool puede ser un recurso útil si los estudios incluidos utilizan métodos mixtos y la JBI también incluye herramientas útiles.
Bibliografía
Whiting P, Wolff R, Savović J, Devine B, Mallett S, Introducing the LATITUDES Network: a Library of Assessment Tools and training to Improve Transparency, Utility and Dissemination in Evidence Synthesis, Journal of Clinical Epidemiology (2024), doi: https://doi.org/10.1016/j.jclinepi.2024.111486
Higgins JPT, Savović J, Page MJ, Elbers RG, Sterne JAC. Chapter 8: Assessing risk of bias in a randomized trial [last updated October 2019]. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.5. Cochrane, 2024. Disponible en www.training.cochrane.org/handbook.
Flemyng E, Moore TH, Boutron I, Higgins JP, Hróbjartsson A, Nejstgaard CH, et al. Using Risk of Bias 2 to assess results from randomised controlled trials: guidance from Cochrane. BMJ Evidence-Based Medicine [Internet]. 1 de agosto de 2023 [citado 14 de noviembre de 2024];28(4):260-6. Disponible en: https://ebm.bmj.com/content/28/4/260
Ciapponi A. Herramientas ROBINS para evaluar el riesgo de sesgo de estudios no aleatorizados. Evidencia – actualización En La práctica Ambulatoria. 2022;25(3):e007024. https://doi.org/10.51987/evidencia.v25i4.7024
Pon a prueba tu equilibrio y conocimientos de revisiones sistemáticas con este quiz interactivo inspirado en la «Jenga». Responde preguntas para mantener la torre en pie.
Persistente la brecha entre el conocimiento científico y su aplicación en la práctica clínica. La incorporación de la evidencia en la atención médica, se demora una media estimada de 17 años.
Auge de la síntesis de la evidencia
Las revisiones sistemáticas se han vuelto cada vez más comunes en los últimos años, reflejando un enfoque creciente en la práctica basada en la evidencia. Podemos comprobarlo fácilmente observando el aumento significativo en las revisiones sistemáticas publicadas a través de una búsqueda básica en PubMed.
Estas fuentes de análisis de datos secundarios están destinadas a informar la práctica y las políticas, pero su traducción a la aplicación en la cabecera del paciente sigue siendo un desafío.
Desafíos para implementar las mejores prácticas
Si bien el acceso a la evidencia está fácilmente disponible, persiste una desconexión significativa entre la evidencia y la práctica. Los estudios sugieren que solo el 60% de la atención se alinea con las guías publicadas y una parte de la atención incluso puede ser perjudicial.
Esto destaca la importancia de la transferencia e implementación de la evidencia para mejorar los resultados de la atención al paciente.
¿Cuáles son las causas de esta brecha, disponemos de las estrategias para superarla y cuál es el papel de la investigación en la mejora de la calidad de la atención?
BIBLIOGRAFÍA
Balas EA, Boren SA. Managing clinical knowledge for health care improvement. In: Bemmel J, McCray AT, editors. Yearbook of Medical Informatics 2000: Patient-Centered Systems. Schattauer Verlag; 2000.
Weed LL. New connections between medical knowledge and patient care. Br Med J 1997;315:231-5.
Braithwaite J, Glasziou P, Westbrook J. The three numbers you need to know about healthcare: the 60-30-10 challenge. BMC Med 2020;18:102.
Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080.
Balas EA, Austin SM, Ewigman BG, Brown GD, Mitchell JA. Methods of randomized controlled clinical trials in health services research. Med Care. 1995 Jul;33(7):687-99. doi: 10.1097/00005650-199507000-00005.
Pulido M, González JC, Sanz F. Artículos originales publicados en Medicina Clínica durante 30 años (1962-1992): número de autores, intervalo entre la aceptación y publicación y referencias bibliográficas. Med Clin (Barc). 1994 Dec 10;103(20):770-5.
Kumar PD. Publication lag intervals–a reason for authors’apathy? J Assoc Physicians India. 1992 Sep;40(9):623-4.
Antman EM, Lau J, Kupelnick B, Mosteller F, Chalmers TC. A comparison of results of meta-analyses of randomized control trials and recommendations of clinical experts. Treatments for myocardial infarction. JAMA. 1992 Jul 8;268(2):240-8.
Easterbrook PJ, Berlin JA, Gopalan R, Matthews DR. Publication bias in clinical research. Lancet. 1991 Apr 13;337(8746):867-72. doi: 10.1016/0140-6736(91)90201-y.
Koren G, Graham K, Shear H, Einarson T. Bias against the null hypothesis: the reproductive hazards of cocaine. Lancet. 1989 Dec 16;2(8677):1440-2. doi: 10.1016/s0140-6736(89)92044-8.
Dickersin K, Chan S, Chalmers TC, Sacks HS, Smith H Jr. Publication bias and clinical trials. Control Clin Trials. 1987 Dec;8(4):343-53. doi: 10.1016/0197-2456(87)90155-3.
Poynard T, Conn HO. The retrieval of randomized clinical trials in liver disease from the medical literature. A comparison of MEDLARS and manual methods. Control Clin Trials. 1985 Dec;6(4):271-9. doi: 10.1016/0197-2456(85)90103-5.
PubMed utiliza el Automatic Term Mapping (ATM) cuando introducimos términos en el cuadro de búsqueda. Es uno de los algoritmos aplicados a las búsquedas que compara los términos por nosotros escritos con una serie de tablas para encontrar términos relacionados y ampliar la búsqueda. Los términos no etiquetados que se introducen en el cuadro de búsqueda se cotejan (en este orden) con una tabla de traducción de Materias (incluido el MeSH o Medical Subject Headings), una tabla de traducción de Revistas, el índice de Autores y un índice de Investigadores (Colaboradores):
Si analizamos detenidamente la tabla de materias, veríamos que está formada por:
Términos MeSH
Entry Terms (See-Reference mappings) para los términos MeSH
MeSH Subheadings
Tipos de publicación
Pharmacological Actions
Supplementary Concepts (sustancias) y sus sinónimos
Tipo de publicación
Formas de palabras singulares y plurales
Ortografía británica y estadounidense
Marca comercial del medicamento la traduce al nombre genérico
Términos derivados del Unified Medical Language System (UMLS) que tienen sinónimos equivalentes o variantes léxicas en inglés
La asignación automática de términos significa que los términos de búsqueda que se introducen en la ventana de búsqueda se asignan automáticamente a términos MeSH. Sin embargo, cuando no se encuentra coincidencia dentro de la tabla de materias, el algoritmo continúa con la siguiente tabla de traducción y así sucesivamente. Si no se encuentra ninguna coincidencia, PubMed descompone la frase y repite el proceso de asignación automática de términos anterior hasta encontrar una coincidencia. Si no hay coincidencia, los términos individuales se combinarán con el operador «AND» y se buscarán así en todos los campos.
Cuando una búsqueda incluye términos que fueron etiquetados con un campo de búsqueda durante el proceso de asignación automática de términos y recupera cero resultados, el sistema activa una búsqueda posterior utilizando «Schema: all .» que modifica la búsqueda eliminando las etiquetas de campo de búsqueda añadidas automáticamente y, a continuación, busca cada término en todos los campos.
Podemos saber como ha aplicado el ATM a nuestra búsqueda entrando en el enlace «Advanced» situado debajo de la ventana de búsqueda. En la nueva página bajamos hasta ver «History and Search Details».
Veamos en el siguiente vídeo dos ejemplos:
Sin embargo, existen cuatro formas en los que se desactiva el algoritmo de búsqueda ATM. Son los siguientes:
El efecto o las estimaciones resumidas de una revisión sistemática presentan lo que esperamos sea más cercano a la verdadera estimación del efecto; sin embargo, siempre habrá algún nivel de incertidumbre porque siempre existe la posibilidad de un error aleatorio. Por ello, hay que expresar lo seguro que se está de que las estimaciones del efecto presentadas son representativas de la verdad.
A lo largo del tiempo se diseñaron un amplio número de sistemas refinados de categorización de la evidencia científica, entre los que podemos señalar el modelo inglés Oxford Centre for Evidence-Based Medicine (OCEBM), el escocés Scottish Intercollegiate Guidelines Network (SIGN) o el estadounidense del American College of Chest Physicians (ACCP). Todos ellos atribuían diferentes niveles de calidad a los estudios sobre un determinado problema, que luego permitían asignar distintos grados de recomendación. Coexistían estas clasificaciones de la evidencia cuyo principal problema es la falta de interoperabilidad, de manera tal que no siempre un “nivel I” o una recomendación “grado A” significa lo mismo para cada sistema. Por este motivo surge GRADE (Grading of Recommendations Assessment, Development and Evaluation).
El sistema GRADE es el método más utilizado por revisores sistemáticos y desarrolladores de guías para evaluarse la calidad de la evidencia en las revisiones sistemáticas y para la evaluación de la calidad de la evidencia y la fuerza de las recomendaciones de la Guías de Práctica Clínica
Se diferencia de las anteriores herramientas de evaluación en:
Separa la calidad de la evidencia y la fuerza de la recomendación. ;
La calidad de la evidencia se evalúa por separado para cada resultado o desenlace de interés; y
Los estudios observacionales se pueden subir su nivel inicial de calidad si cumplen con ciertos criterios (pueden hacer bajar o subir). Los ensayos clínicos aleatorizados solo pueden bajar su nivel alto inicial.
Esquema de aplicación de GRADE
Esquema del proceso. Traducido de Guyatt G, Oxman AD, Akl EA, Kunz R, Vist G, Brozek J, Norris S, Falck-Ytter Y, Glasziou P, DeBeer H, Jaeschke R, Rind D, Meerpohl J, Dahm P, Schünemann HJ. GRADE guidelines: 1. Introduction-GRADE evidence profiles and summary of findings tables. J Clin Epidemiol. 2011 Apr;64(4):383-94. doi: 10.1016/j.jclinepi.2010.04.026. PMID: 21195583.
Factores que pueden disminuir la calidad de la evidencia
Hay 5 criterios que se pueden usar para degradar (bajar uno, dos o, a veces tres grados). Estos son:
Riesgo de sesgo en los estudios individuales, en los ECA por:
Falta de una secuencia de asignación claramente aleatorizada.
Falta de cegamiento.
Falta de ocultación de la asignación.
Incumplimiento del análisis por intención de tratar.
La prueba se interrumpe.
Grandes pérdidas durante el seguimiento.
Inconsistenciade resultados entre estudios. Cuando existe una variabilidad significativa e inexplicable en los resultados de diferentes ensayos.
La evidencia indirecta (por ejemplo, los participantes eran niños, aunque la revisión sistemática se centró en adultos) puede referirse a varias cosas (una comparación indirecta de dos fármacos, una comparación indirecta de población, resultado o intervención).
Imprecisión cuando tenemos amplios intervalos de confianza.
Sesgo de publicación.
Factores que pueden subir la calidad de la evidencia
Efecto grande: cuando el efecto observado muestra una asociación fuerte (riesgo relativo u odds ratio >2 ó <0,5) o muy fuerte (riesgo relativo u odds ratio >5 ó <0,2).
Relación dosis-respuesta: cuando el resultado es proporcional al grado de exposición.
Evidencia de que todos los posibles factores de confusión o sesgos podrían haber reducido el efecto observado.
En el enfoque GRADE, los ensayos aleatorizados comienzan como evidencia de alta calidad y los estudios observacionales como evidencia de baja calidad, pero ambos pueden calificarse a la baja si existen preocupaciones graves en cualquiera de los dominios de GRADE y pueden calificarse si se cumplen criterios específicos.
Chu DK, Golden DBK, Guyatt GH. Translating Evidence to Optimize Patient Care Using GRADE. J Allergy Clin Immunol Pract. 2021 Dec;9(12):4221-4230. doi: 10.1016/j.jaip.2021.09.035.PMID: 34624540.
De la evidencia a la elaboración de recomendaciones
GRADE evalúa el cuerpo de evidencia a través de los resultados individuales para determinar si se está muy seguros de que la estimación está cerca de la verdad (alta), moderadamente seguro de que la estimación se acerca a la verdad (moderada), tiene poca certeza de que la estimación se acerca a la verdad (baja), o tiene una certeza muy baja y se piensa que la estimación no se acerca en absoluto (muy baja).
La fuerza de la recomendación indica hasta qué punto podemos confiar si poner en práctica la recomendación conllevará más beneficios que riesgos.
La fuerza de las recomendaciones se apoya no solo en la calidad de la evidencia, sino en una serie de factores como son el balance entre riesgos y beneficios, los valores y preferencias de pacientes y profesionales y el consumo de recursos o costes.
Goldet G, Howick J. Understanding GRADE: an introduction. J Evid Based Med. 2013 Feb;6(1):50-54. doi: 10.1111/jebm.12018. PMID: 23557528.
Cómo usar GRADE
Los resultados de la evaluación se pueden presentar en la tabla de resumen, presentando los resultados abreviados.
El sistema GRADE cuenta con un software para la aplicación del mismo denominado GRADEpro GDT (https://www.gradepro.org/) que sintetiza y presenta la información para la toma de decisiones en el campo de la salud (permite la elaboración de tablas de resumen de los hallazgos).
GRADEPro Website http://gradepro.org/ (Es el software usado para facilitar la aplicación del sistema GRADE a la elaboración de las Tablas de resumen de resultados (Summary of Findings, SoF) en revisiones Cochrane y al desarrollo de guías de práctica clínica).
Schünemann HJ, Higgins JPT, Vist GE, Glasziou P, Akl EA, Skoetz N, Guyatt GH. Chapter 14: Completing ‘Summary of findings’ tables and grading the certainty of the evidence. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.2 (updated February 2021). Cochrane, 2021. Available from http://www.training.cochrane.org/handbookChu DK,
Golden DBK, Guyatt GH. Translating Evidence to Optimize Patient Care Using GRADE. J Allergy Clin Immunol Pract. 2021 Dec;9(12):4221-4230. doi: 10.1016/j.jaip.2021.09.035. PMID: 34624540.
La selección de la revista adecuada para publicar un manuscrito es un paso crucial en el proceso de publicación académica. Especialmente para autores nuevos o aquellos que publican sobre un tema diferente, este proceso puede resultar desafiante.
Para facilitar esta tarea y aumentar las posibilidades de éxito, Sharifi et al proponen una guía paso a paso que te ayudará a identificar la revista más apropiada para tu trabajo. Esta metodología estructurada en 4 pasos no solo ahorra tiempo, sino que también reduce la frustración tanto para autores como para editores.
PASO 1. Identificación de conceptos clave
Primero debemos identificar el primer concepto fundamental de tu investigación. Este debe ser un tema central que aborde tu manuscrito y que sea relevante para el campo de estudio. Determina el segundo concepto clave de tu trabajo. Este debe complementar al primero y ayudar a definir el enfoque específico de tu investigación. Por último, debemos definir el marco o escenario en el que se desarrolla tu investigación. Esto puede incluir el ámbito geográfico, temporal o disciplinario de tu estudio.
En la figura 1, tenemos un ejemplo de infecciones asociadas a catéter en la UCI.
Figura 1. Ejemplo de identificación de conceptos clave.
PASO 2. Búsqueda de revistas potenciales
Disponemos del sitio web Journal/Author Name Estimator (JANE) en https://jane.biosemantics.org/. Introduce los conceptos principales y el contexto identificados en el Paso 1 para obtener sugerencias de revistas relevantes.
También podemos explorar en bases de datos. Si tu investigación está relacionada con medicina utiliza MEDLINE, si está relacionada con intervenciones farmacológicas utiliza EMBASE y si es de enfermería utiliza la base de datos CINAHL para buscar entre revistas especializadas.
Revisa cuidadosamente los resultados de ambas búsquedas, considerando la relevancia y el prestigio de las revistas sugeridas en relación con tu tema de investigación.
Figura 2. Segundo paso para la selección de la revista adecuada para enviar nuestro manuscrito.
PASO 3. Selección de las 3 mejores opciones
Anota el nombre de la revista que consideres más adecuada para tu manuscrito, basándote en la alineación temática y el alcance de la publicación. Identifica una segunda revista que también se ajuste bien a tu investigación, considerándola como una alternativa sólida en caso de que la primera opción no sea viable. Selecciona una tercera revista como respaldo adicional, asegurándote de que también sea relevante para tu campo de estudio y tipo de manuscrito.
PASO 4. Entra en la web de las 3 revistas y determina la más apropiada
Disponemos de varios criterios para la valoración de las revistas (Figura 3). Al analizar a fondo estos criterios en las 3 revistas preseleccionadas, podrás determinar cuál es la más adecuada para publicar tu manuscrito. Es importante que la revista seleccionada se alinee estrechamente con los objetivos, el alcance y el formato de tu investigación.
Figura 3. Criterios de valoración de la revista más apropiada para enviar nuestro manuscrito.
Finalmente recordad que podemos utilizar otras consideraciones adicionales como las que se mencionan en la Figura 4.
Figura 4. Consideraciones adicionales de criterios de valoración de revistas a las que enviar nuestro manuscrito para publicar.
Una vez hemos seguido estos pasos, debemos tomar la decisión final (Figura 5).
Figura 5. Toma de decisión final para el envío de nuestro manuscrito a una revista.
Aquí te dejo un cuestionario con tres preguntas para saber lo que has aprendido de este tema:
Publicar en revistas científicas es un componente clave para difundir los resultados de investigación y avanzar en la carrera académica. En fundamental que conozcamos las mejores prácticas para seleccionar revistas apropiadas, comprender los parámetros clave, y evitar las trampas de las revistas depredadoras.
La tarea de escribir un artículo es un trabajo duro que implica dedicación, tiempo y esfuerzo y requiere una serie de destrezas y habilidades que deben aprenderse. Todo artículo científico debe contener los principales resultados siguiendo una estructura determinada. Una vez estamos preparados se han de redactar las principales secciones del manuscrito.
Con este juego aprenderás cual es la estructura de un artículo científico y cómo es el orden recomendado para redactarlo.
Ordena las secciones de un artículo científico
En este ejercicio has de arrastras los botones con las diferentes secciones de un artículo que aparecen en el recuadro inferior. Has de ordenar las partes en las que se publica un artículo científico que empieza por el título y termina por el material suplementario. En el botón de solución podrás comprobar tu respuesta.
Ordena las secciones según se recomienda redactar un artículo científico
Para obtener mejores resultados, debemos escribir el manuscrito en otro orden al que posteriormente es publicado. En este ejercicio, ordena arrastrando hacia arriba las diferentes secciones de un artículo que aparecen en el recuadro inferior, empezando por autoría y terminando por el material suplementario. En el botón de solución podrás comprobar tu respuesta.
No hay consenso sobre si se debe incluir o no en las revisiones sistemáticas los resúmenes de congresos y otra literatura gris o resultados no publicados, que pueden no haber sido revisados por pares (1). Este conflicto surge debido a la contraposición de que:
(1) Excluirlos podría reforzar el sesgo de publicación;
(2) incluirlos puede llevar mucho tiempo y conlleva el riesgo de datos erróneos.
En general, se recomienda a los autores de las revisiones sistemáticas que se consideren la inclusión de tales publicaciones caso por caso, en función de las limitaciones de recursos y de un juicio a priori sobre la probabilidad de que la literatura gris revele estudios importantes.
¿Qué hacemos con los resúmenes de Congresos?
Sólo del 30-54% de las presentaciones orales y resúmenes de conferencias médicas fueron seguidos de publicación en revistas revisadas por pares dentro de 2-5 años, con tiempos de publicación que varían significativamente según la especialidad (2-13).
Determinados factores interactúan para influir en la probabilidad de que una presentación de conferencia se convierta en una publicación revisada por pares. La calidad y novedad de la investigación también son determinantes clave.
Existe un debate continuo sobre si se deben incluir estudios no publicados en revisiones sistemáticas, debido a preocupaciones sobre su posible menor rigor metodológico en comparación con los artículos revisados por pares (14). Los resúmenes y las actas de congresos son una fuente particularmente importante de literatura gris. Algunos de estos contenidos son indizados en bases de datos bibliográficas como Embase, aunque no en MEDLINE, y también se pueden encontrar en sitios web e impresos. En mi experiencia, los revisores suelen mostrarse escépticos de la necesidad de inclusión de este tipo de literatura gris. Por otro lado, los bibliotecarios nos encontramos con muchísimas dificultades para localizar el contenido completo de la comunicación de un congreso y el contacto con los autores suele ser frustrante por su escaso éxito.
El principal argumento para su inclusión en las revisiones es el sesgo de publicación. Omitir los resúmenes de congresos puede llevar a una sobrerrepresentación de estudios con resultados positivos en las revisiones sistemáticas, lo que genera un sesgo de publicación. Incluso en las mejores revistas, los resúmenes con resultados estadísticamente significativos tienen un 40% más de probabilidades de publicarse que los que informan resultados negativos.
Opiniones en contra argumentan que los resúmenes o presentaciones de congresos pueden carecen de la información completa requerida para su inclusión y que requiere mucho tiempo y esfuerzo el intentar conseguir el informe completo no publicado de los autores..
Dada esta controversia, los revisores que deseen realizar un análisis minucioso y establecer requisitos más estrictos para la inclusión de resúmenes de congresos, con el fin de garantizar que solo se consideren las fuentes más relevantes y de mayor calidad. Antes de decidir arbitrariamente incluir o no resúmenes de congresos en una revisión sistemática, Scherer y Saldanha (14) nos dan las pautas que deben considerar los revisores sistemáticos. Nos recomiendan que:
Si la evidencia disponible es escasa o contradictoria, puede valer la pena incluir resúmenes de conferencias.
Sin embargo, generalmente los resúmenes no proporcionan toda la información necesaria para evaluar el estudio y evaluar la elegibilidad para una revisión sistemática. Por lo tanto, si se incluyen los resultados de los resúmenes de congresos, es necesario hacer los esfuerzos que sean necesarios para contactar a los autores del resumen y examinar los registros de estudios como ClinicalTrials.gov y los protocolos publicados para obtener información adicional y confirmatoria sobre métodos y resultados.
Además, para examinar el impacto de incluir los resúmenes, siempre se debe completar un análisis de sensibilidad con y sin resúmenes de congresos.
Para mejorar la diseminación efectiva de la investigación médica, es crucial abordar con determinación los desafíos en el proceso de publicación. Esto implica impulsar la transparencia, mitigar los sesgos de publicación, fomentando la publicación de resultados negativos y nulos, y agilizar la transición de presentaciones de conferencias a artículos revisados por pares. La implementación de estas recomendaciones puede elevar significativamente la calidad de la síntesis de evidencia, beneficiando en última instancia la atención al paciente y el avance del conocimiento médico.
BIBLIOGRAFÍA
Khan NR, Thompson CJ, Taylor DR, Venable GT, Wham RM, Michael LM 2nd, Klimo P Jr. An analysis of publication productivity for 1225 academic neurosurgeons and 99 departments in the United States. J Neurosurg. 2014 Mar;120(3):746-55. doi: 10.3171/2013.11.JNS131708. PMID: 24359012.
Hallan DR, Nguyen AM, Liang M, McNutt S, Goss M, Bell E, Natarajan S, Nichol A, Messner C, Bracken E, Glantz M. Charting the course from abstract to published article. J Neurosurg. 2021 Oct 29;136(6):1773-1780. doi: 10.3171/2021.7.JNS2128. PMID: 34715672.
Grover S, Dalton N, Sarkar S. Publications after conference presentations: A systematic review of published studies. Indian J Med Ethics. 2021 Jan-Mar;VI(1):1-18. doi: 10.20529/IJME.2020.106. PMID: 34080994.
Elliott, C.A., Mehta, V., Poon, C., Oliver, M. and Gourishankar, S. The Fate of Abstracts Presented at the Annual Meeting of the Congress of Neurologic Surgeons. Open J Mod Neurosurg. 2016;6:1-8. http://dx.doi.org/10.4236/ojmn.2016.61001
Patel AJ, Cherian J, Fox BD, Whitehead WE, Curry DJ, Luerssen TG, Jea A. Publication patterns of oral and poster presentations at the annual meetings of the Congress of Neurological Surgeons and the American Association of Neurological Surgeons. J Neurosurg. 2011 Dec;115(6):1258-61. doi: 10.3171/2011.7.JNS101538. PMID: 21961894.
Jasko JJ, Wood JH, Schwartz HS. Publication rates of abstracts presented at annual musculoskeletal tumor society meetings. Clin Orthop Relat Res. 2003 Oct;(415):98-103. doi: 10.1097/01.blo.0000093902.12372.76. PMID: 14612635.
Sanders DS, Carter MJ, Hurlstone DP, Lobo AJ, Hoggard N. Research outcomes in British gastroenterology: an audit of the subsequent full publication of abstracts presented at the British Society of Gastroenterology. Gut. 2001 Jul;49(1):154-5. doi: 10.1136/gut.49.1.154a. PMID: 11444234; PMCID: PMC1728360.
Gowd AK, Liu JN, Cabarcas BC, Cvetanovich GL, Garcia GH, Verma NN. Analysis of Publication Trends for the 2011-2015 American Orthopaedic Society for Sports Medicine Annual Meeting Abstracts. Orthop J Sports Med. 2018 Sep 7;6(9):2325967118792851. doi: 10.1177/2325967118792851. PMID: 30211245; PMCID: PMC6130091.
Ramos MB, Matté Dagostini C, Rabau O, Navarro-Ramirez R, Ouellet JA, Falavigna A, Teles AR. Publication rate of abstracts presented at the annual meetings of the AANS/CNS Section on Disorders of the Spine and Peripheral Nerves. J Neurosurg Spine. 2020 Aug 21;33(6):854-861. doi: 10.3171/2020.5.SPINE20466. PMID: 32823260.
Herrmann LE, Hall M, Kyler K, Cochran J, Andrews AL, Williams DJ, Wilson KM, Shah SS; Pediatric Research in Inpatient Settings (PRIS) Network. The Pipeline From Abstract Presentation to Publication in Pediatric Hospital Medicine. J Hosp Med. 2018 Feb 1;13(2):90-95. doi: 10.12788/jhm.2853. Epub 2017 Oct 4. PMID: 29069116.
Czorlich P, Regelsberger J, Meixensberger J, Westphal M, Eicker SO. From Abstract to Publication in a Peer-Reviewed Journal: Evaluation of the 63rd Annual Meeting of the German Society of Neurosurgery. J Neurol Surg A Cent Eur Neurosurg. 2016 Jan;77(1):46-51. doi: 10.1055/s-0035-1558822. PMID: 26444960.
Bonfield CM, Pellegrino R, Berkman J, Naftel RP, Shannon CN, Wellons JC. Oral presentation to publication: publication rates of abstract presentations across two pediatric neurosurgical meetings. J Neurosurg Pediatr. 2018 Jun;21(6):650-654. doi: 10.3171/2017.11.PEDS17458. Epub 2018 Mar 9. Erratum in: Neurosurgery. 2018 Dec 1;83(6):1341. doi: 10.1093/neuros/nyy532. PMID: 29521604.
Yoon PD, Chalasani V, Woo HH. Conversion rates of abstracts presented at the Urological Society of Australia and New Zealand (USANZ) Annual Scientific Meeting into full-text journal articles. BJU Int. 2012 Aug;110(4):485-9. doi: 10.1111/j.1464-410X.2011.10879.x. PMID: 22300438.
Scherer, R.W., Saldanha, I.J. How should systematic reviewers handle conference abstracts? A view from the trenches. Syst Rev 8, 264 (2019). https://doi.org/10.1186/s13643-019-1188-0
La revisiónes paraguas, que a veces las encontraremos como Revisión de revisiones o Umbrella review y Overview of review en inglés, son una solución eficiente para navegar el creciente volumen de revisiones sistemáticas en salud y son de gran valor para la toma de decisiones de atención médica al combinar grandes volúmenes de datos de revisiones sistemáticas (RS) en una sola síntesis.
Origen
Surgen por el desafío de la sobrecarga de Información debido al incremento de estudios y de las revisiones sistemáticas que los sintetizan. Además, muchas de estas revisiones son conflictivas, es decir, arrojan resultados opuestos.
Por otro lado, existe la imperiosa necesidad de abordar preguntas amplias presentando una visión general sobre un tema, en lugar de estrechar el enfoque a una sola intervención. Por último, evita derrochan recursos de llevar a cabo nuevas revisiones en lugar de aprovechar las existentes.
¿Qué es una Revisión Paraguas?
Los Overviews son revisiones sistemáticas de revisiones sistemáticas existentes sobre un tema de salud específico. A diferencia de las revisiones sistemáticas, la unidad de análisis son las revisiones sistemáticas y no los estudios primarios. Es decir, buscar e incluye solo revisiones sistemáticas (con o sin metanálisis) y recopila, analiza y presenta los datos de las revisiones sistemáticas incluidas.
Por lo tanto, un requisito previo para realizar una revisión paraguas es la disponibilidad de múltiples revisiones sistemáticas actualizadas de alta calidad que cubran todas las intervenciones de interés. Las revisiones paraguas no deben buscar e incluir revisiones narrativas, capítulos de libros de texto, informes gubernamentales, guías de práctica clínica o cualquier otro informe resumido que no se ajuste a su definición predefinida de revisión sistemática.
Las Overviews no son apropiadas para identificar brechas en la investigación, clasificar intervenciones o hacer comparaciones indirectas.
También se desaconsejas las comparaciones indirectas en las revisiones paraguas. Por ejemplo, imaginemos un Overview que incluya dos revisiones sistemáticas. La revisión sistemática 1 incluye estudios que comparan la intervención A con la intervención B, y concluye que A es más eficaz que B. La revisión sistemática 2 incluye estudios que comparan la intervención B con la intervención C, y concluye que B es más eficaz que C. Sería tentador para los autores del resumen concluir que A es más eficaz que C. Sin embargo, esto requeriría una comparación indirecta, un procedimiento estadístico que compara dos intervenciones (es decir, A frente a C) a través de un comparador común (es decir, B) a pesar de que las dos intervenciones nunca se han comparado directamente entre sí dentro de un estudio primario (Glenny et al 2005).
Beneficios de las Revisiones Paraguas
Visión Amplia: Proporciona una perspectiva general sobre un tema de salud complejo. Identifica áreas de consenso y controversia en la evidencia disponible.
Ahorro de Tiempo: Ofrece una síntesis rápida para la toma de decisiones con plazos ajustados. Evita la duplicación innecesaria de esfuerzos en la revisión de evidencia.
Calidad de la Evidencia: Se basa en revisiones sistemáticas, que ya han pasado por un riguroso proceso. Permite una evaluación crítica de la calidad de múltiples revisiones.
Características
Búsqueda y fuentes de información para las revisiones paraguas
Como en las revisiones sistemáticas, la búsqueda bibliográfica que ha de ser exhaustiva y reproducible.
En general, MEDLINE/PubMed y Embase indexan la mayoría de las revisiones sistemáticas. Los autores también pueden buscar en bases de datos regionales y temáticas adicionales (por ejemplo, LILACS, CINAHL, PsycINFO) y en repositorios de revisiones sistemáticas como la Cochrane Library, Epistemonikos y KSR Evidence.
En la búsqueda en bases de datos generales se debe utilizar filtros validados para solo recuperar revisiones sistemáticas.
Solapamiento de revisiones sistemáticas
Un paso importante una vez que los autores tienen su lista final de revisiones sistemáticas incluidas es evaluar el solapamiento, es decir, determinar qué estudios primarios están incluidos en qué revisiones sistemáticas.
Cochrane recomienda crear una matriz de citas similar a la tabla para demostrar visualmente la cantidad de solapamientos. Los autores también deben describir narrativamente el número y el tamaño de los estudios primarios que se solapan, así como la ponderación que aportan a los análisis. Pieper et al (Pieper D, Antoine S, Mathes T, Neugebauer E, Eikermann M. Systematic review finds overlapping reviews were not mentioned in every other overview. Journal of Clinical Epidemiology 2014; 67: 7.) proporciona instrucciones detalladas para crear matrices de citas, describir el solapamiento y calcular el área cubierta corregida.
Calidad metodológica o el riesgo de sesgo de las revisiones sistemáticas incluidas en las síntesis
La herramienta AMSTAR 2 (Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ 2017; 358: j4008.) está diseñada para evaluar la calidad metodológica de las revisiones sistemáticas de ensayos controlados aleatorizados, y hasta la fecha ha sido la herramienta más utilizada en los Overviews. Se puede utilizar para evaluar la calidad metodológica de las revisiones sistemáticas que incluyen estudios aleatorizados y no aleatorizados de intervenciones sanitarias. Esta proporciona orientación para calificar la confianza general en los resultados de una revisión (alta, moderada, baja o críticamente baja en función del número de defectos críticos y/o debilidades no críticas).
Otra herramienta disponible para evaluar el riesgo de sesgo de las revisiones sistemáticas en los resúmenes pueden utilizar la herramienta ROBIS disponible en el sitio web de ROBIS (https://www.bristol.ac.uk/population-health-sciences/projects/robis/). Este sitio web también contiene formularios de extracción de datos y tablas de presentación de datos.
Esta semana se está celebrando en el Hospital de Getafe la tercera edición del curso para residentes «Principios básicos en investigación clínica«. Dentro de este, el pasado martes he impartido una clase de búsqueda de información en medicina.
He comenzado con la representación del triángulo de búsqueda eficiente y efectiva cuyos vértices están formados por los objetivos («Why am I searching?»), la heurística («How am I searching?») y los sistemas («What am I searching with?»).
Triángulo de búsqueda eficiente y efectiva de la información
Objetivos («Why am I searching?»)
Cuáles son nuestros objetivos de la búsqueda, es decir, qué quiero saber o encontrar, determina cómo he de buscar. Podemos encontrarnos dentro de tres escenarios posibles:
Búsqueda clínica: identificación rápida y eficiente para una toma de decisiones.
Búsqueda exploratoria o búsqueda general de descubrimiento, aprendizaje, mantenerse actualizado, … aprender/aclarar uno o varios conceptos o conjuntos de investigaciones, incluidas sus características.
Búsqueda sistemática: identificar todos los estudios disponibles sobre un tema.
Tipos de búsqueda de información en medicina según la necesidad.
Heurística («How am I searching?»)
¿Qué heurísticas (forma de hacer la búsqueda) funcionan mejor para el tipo de búsqueda en cuestión y están disponibles en los sistemas elegidos?:
Búsqueda simple mediante el algoritmo de la fuente (PubMed, UpToDate, Google Académico, …): en búsquedas para toma de decisiones clínicas.
Snowballing (citation chasing): en búsquedas exploratorias y tb en sistemáticas.
Búsqueda booleana en bloques: en búsquedas sistemáticas.
Tipología de búsquedas.
Sistemas («What am I searching with?»)
¿Qué sistema/s de búsqueda funcionan mejor para un tipo de búsqueda determinado y son compatibles con la heurística elegida?. Tenemos que entender que no hay 2 sistemas de búsquedas iguales y cada sistema es más o menos adecuado para un tipo de búsqueda (clínica/exploratoria/sistemática) en términos de cobertura y heurística que permite/soporta.
Dependiendo de nuestros objetivos y heurística, debemos elegir el sistema que nos va a proporcionar la información de manera eficiente y efectiva. Eso implica que no siempre el sistema más sencillo es el más apropiado para nuestro tipo de búsqueda.
Búsqueda con herramientas sencillas no es la panacea.
Una vez aclarados los conceptos anteriores, debemos tener en cuenta y seguir una serie de pasos de la búsqueda:
Pasos que debemos tener en cuenta a la hora de buscar información en bases de datos.
Por último, repasamos algunas herramientas de IA interesantes para los residentes. Vimos vídeos con ejemplos de las siguientes 7 herramientas, pero podrían haber sido muchas más:
Herramientas de inteligencia artificial útiles.
Y terminé dando un último consejo: «practicar con las herramientas de búsqueda en su día a día es la mejor garantía de mejorar sus búsquedas de información«.
Mañana, 28 de mayo de 2024, impartiré el webinar «Importancia de la creación de perfiles e identidad digital digital del investigador» que será el módulo 4 de los Seminarios de investigación biomédica del año 2024 del Hospital de Getafe.
Hablaremos de los siguientes tema:
Los perfiles como ORCID, WoS y Scopus, desempeñan un papel crucial en la identificación y promoción de la producción científica de los investigadores. Estos perfiles muestran información relevante sobre la carrera profesional y de investigación de un autor, como su nombre, afiliación, historial de empleo, información de contacto, publicaciones, proyectos de investigación en los que ha participado, becas, premios, etc.
Haremos un análisis de ORCID ID, Web of Science Research Profile, Scopus Author ID y Google Scholar Author ID.
Daremos las siguientes recomendaciones prácticas:
Y como conclusiones terminares señalando:
Las herramientas de identidad digital son fundamentales para que los investigadores puedan destacar y ser reconocidos por su trabajo. Estas herramientas permiten a los académicos mantener un registro de su producción científica, rastrear el impacto de sus publicaciones y establecer su presencia en el entorno digital.
Cada una de las herramientas analizadas, como ORCID, Web of Science Author ID, Scopus Author ID y el perfil de autor en Google Scholar, proporciona información valiosa desde diferentes perspectivas. Mientras unas se enfocan en la gestión de la identidad digital, otras se centran en el análisis bibliométrico de la actividad investigadora.
Por lo tanto, es importante que los investigadores seleccionen la combinación de herramientas que mejor se ajuste a sus necesidades y objetivos profesionales. De esta forma, podrán aumentar la visibilidad de su trabajo, establecer conexiones con colegas de su campo y acceder a métricas que les permitan evaluar el impacto de sus publicaciones.
Mañana, 17 de abril de 2024, impartir el Taller de revisiones de alcance («scoping reviews») dentro de las XXV Jornadas de Gestión de la Información» de la SEDIC.
Aquí os dejo una práctica que he confeccionado para la definición de este tipo de revisiones:
Al final del taller, haremos el siguiente juego para evaluar lo aprendido:
BIBLIOGRAFÍA
Munn Z, Pollock D, Khalil H, Alexander L, McInerney P, Godfrey CM, et al. What are scoping reviews? Providing a formal definition of scoping reviews as a type of evidence synthesis. JBI Evid Synth 2022;20 (4):950–952.
Munn Z, Peters MDJ, Stern C, Tufanaru C, McArthur A, Aromataris E. Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Med Res Methodol 2018;18 (1):143.
Peters MDJ, Godfrey C, McInerney P, Khalil H, Larsen P, Marnie C, et al. Best practice guidance and reporting items for the development of scoping review protocols. JBI Evid Synth 2022;20 (4):953–958.
Khalil H, Peters MDJ, Tricco AC, Pollock D, Alexander L, McInerney P, et al. Conducting high quality scoping reviews-challenges and solutions. J Clin Epidemiol 2021;130:156–160.
Peters MDJ, Marnie C, Tricco AC, Pollock D, Munn Z, Alexander L, et al. Updated methodological guidance for the conduct of scoping reviews. JBI Evid Implement 2021;19 (1):3–10.
PRISMA extension for Scoping Reviews (PRISMA-ScR): checklist and explanation. Ann Intern Med 2018;169 (7):467–473.Pollock D, Peters MDJ, Khalil H, McInerney P, Alexander L, Tricco AC, et al. Recommendations for the extraction, analysis, and presentation of results in scoping reviews. JBI Evidence Synthesis [Internet]. 2022 Sep 8 [cited 2022 Sep 9];Publish Ahead of Print. Available from: https://journals.lww.com/jbisrir/Fulltext/9900/Recommendations_for_the_extraction,_analysis,_and.76.aspx