La revisión sistemática es una de las metodologías más robustas dentro de la síntesis de la evidencia científica. Su objetivo principal es recopilar, evaluar y sintetizar los resultados de múltiples estudios para responder a una pregunta de investigación específica. Una vez finalizadas las búsquedas en bases de datos y literatura gris los investigadores realizar la fase de selección de los estudios a incluir en la revisión.
La selección de estudios consiste en identificar, entre una gran cantidad de documentos encontrados durante la búsqueda bibliográfica, aquellos que cumplen con los criterios de inclusión previamente establecidos en el protocolo de la revisión. Este paso debe asegurar que solo se incluyan estudios relevantes que cumplan con los criterios de elegibilidad y contribuyan a responder la pregunta de investigación de manera rigurosa.
En esta entrada, vamos a explorar cómo se lleva a cabo esta etapa y qué aspectos debes considerar para lograr una revisión sistemática sólida.
La unidad de interés son los estudios, no los informes. Dado que cada estudio puede haber sido informado en varios artículos, resúmenes u otros informes, una búsqueda exhaustiva de estudios para la revisión puede identificar muchos informes para cada estudio potencialmente relevante. Hay que identificar las publicaciones duplicadas, desde manuscritos idénticos hasta informes que describen diferentes resultados del estudio o resultados en diferentes puntos temporales. La publicación duplicada puede introducir sesgos sustanciales si los estudios se incluyen inadvertidamente más de una vez en un meta-análisis. El número de participantes puede diferir en las distintas publicaciones. Puede ser difícil detectar la publicación duplicada y puede ser necesaria cierta «labor detectivesca» por parte de los revisores. Se deben cotejar varios informes del mismo estudio, de modo que cada estudio, y no cada informe, sea la unidad de interés de la revisión.
Criterios de inclusión predefinidos. Estos criterios de elegibilidad (inclusión y exclusión) de los estudios deben estar predefinidos, es decir, indicados en el protocolo antes de iniciar las búsquedas.
Etapas del proceso de selección de los estudios:
Fusión de los resultados de la búsqueda procedentes de distintas fuentes mediante un programa informático de gestión de referencias y eliminación de los registros duplicados del mismo informe (p. ej.: Zotero, Mendeley, EndNote).
Cribado inicial por título y resumen. En esta etapa, se revisan los títulos y resúmenes para descartar informes irrelevantes. Aunque esta tarea puede ser realizada por una sola persona, es recomendable que al menos dos revisores participen en las etapas posteriores.
Recuperar el texto completo de los informes potencialmente relevantes.
Relacionar varios informes de un mismo estudio.
Evaluación del texto completo. Los informes que pasen el cribado inicial deben ser evaluados en profundidad para determinar si cumplen con los criterios de elegibilidad.
En caso de dudas o datos incompletos, se puede contactar a los autores para solicitar información adicional sobre métodos o resultados que falten.
Tomar las decisiones finales sobre la inclusión de los estudios y proceder a la recogida de datos.
Revisión independiente. Al menos dos personas han de examinar los estudios para determinar si cumplen los criterios de inclusión/exclusión de forma independiente. En primer lugar, deben examinar los títulos y resúmenes (aunque es aceptable que esta selección inicial de títulos y resúmenes sea realizada por una sola persona) y, a continuación, pasar a examinar el texto completo (obligatorio) en busca de artículos que no puedan considerarse que cumplen con todos los criterios de inclusión. Duplicar el proceso de selección de estudios reduce tanto el riesgo de cometer errores como la posibilidad de que la selección se vea influida por los sesgos de una sola persona.
Resolución de discrepancias. Establecer cómo se resolverán los desacuerdos del proceso de selección. Pueden resolverse mediante discusión entre las dos personas que han participado en el proceso. Otra posibilidad es el arbitraje de otra persona. Si este desacuerdo ocurre en la primera fase del cribado frente al título/resumen, se clasifica el estudio en su revisión como pendiente de evaluación («Dudosos/Maybe») hasta que se obtenga la información adicional con el texto completo. Si ocurre en la segunda fase del cribado por falta de información en el informe del estudio, se ha de esperar a recibir la respuesta obtenida de los autores o investigadores del estudio.
Directrices PRISMA 2020 para documentar el proceso de selección de los estudios en la revisión. Para ello se debe llevar un registro del número de referencias y, posteriormente, del número de estudios, de las decisiones y las razones de la exclusión. En metodología del protocolo y del informe de la revisión hay que documentar: el proceso de valoración de títulos/abstract, textos completos (p. ej.: cribado por 2 personas, quienes son estas personas, cómo se evaluarán (en el protocolo) y se han evaluado (en la revisión) los desacuerdos, y si la selección es ciega. Cualquier otro método utilizado para seleccionar los estudios (incluido el uso de programas informáticos). En los resultados del informe de la revisión hay que documentar: los resultados de la búsqueda en todas las fuentes, el número de estudios incluidos/excluidos en cada etapa, la tabla de «características de los estudios excluidos» en la selección con los textos completos detallando al menos una razón de exclusión (en anexos del informe) y el diagrama de flujo PRISMA.
La falta de cumplimiento de un solo criterio de elegibilidad es suficiente para que un estudio sea excluido de una revisión. Por lo tanto, la primera respuesta negativa de un criterio de elegibilidad es motivo para la exclusión del estudio, y no es necesario evaluar los criterios restantes.
Es recomendable que antes del cribado el equipo de revisión establezca una lista de comprobación con de criterios de elegibilidad predefinidos. Es útil ordenar los criterios de más relevantes a menos o por pragmatismo, de esta forma es más rápido el proceso de exclusión.
Es recomendable realizar una prueba piloto de los criterios de elegibilidad en una muestra de informes (aproximadamente de 5 a 10). La prueba piloto puede utilizarse para refinar y aclarar los criterios de elegibilidad, formar a las personas que los aplicarán y garantizar que los criterios pueden ser aplicados de forma coherente por más de una persona.
Uso de herramientas tecnológicas. Para el cribado pueden utilizarse programas informáticos de cribado de referencias como EndNote, EndnoteWeb, Mendeley o Zotero, o utilizar programas informáticos de cribado de revisiones sistemáticas facilitan un proceso de selección por múltiples revisores de manera concurrente e independiente). Además, herramientas basadas en inteligencia artificial, como ChatGPT, están emergiendo como opciones prometedoras para automatizar partes del proceso.
Los bibliotecarios tenemos poco control sobre la terminación de los proyectos de revisiones sistemáticas. Sin embargo, dado que la mayor parte del trabajo del bibliotecario se realiza al comienzo del proyecto, el tiempo y esfuerzo invertido es con frecuencia el mismo, independientemente de que el proyecto de revisión consiga publicarse o sea abandonado. Esta situación plantea importantes reflexiones sobre la naturaleza de nuestro trabajo, ya que, a pesar de la falta de control en los resultados finales, nuestro papel es fundamental para la calidad de la revisión. Además, nuestra capacidad para colaborar con investigadores y académicos desde el inicio del proceso no solo mejora la metodología, sino que también contribuye a establecer estándares que pueden influir en el éxito del proyecto. Por lo tanto, aunque los resultados puedan variar, la dedicación y el esfuerzo que aportamos son de enorme valor y forman parte integral del proceso de investigación.
Por eso, es importante tener presente la siguiente lista de comprobación o checklist antes de comprometer nuestra participación del bibliotecario en una revisión sistemática:
¿Pueden los investigadores describir claramente la pregunta de investigación?
¿Han establecido los investigadores criterios de inclusión y exclusión?
¿Parece que el alcance de la pregunta de investigación es manejable (no es probable que se obtengan demasiados estudios elegibles)?
¿Parece que la pregunta de investigación merece la pena (no es probable que no haya o que haya muy pocos estudios elegibles)?
¿Se ha preparado un protocolo?
¿Conocen y planea el equipo de revisión seguir las normas de buenas prácticas?
¿Está de acuerdo el equipo revisor con un enfoque de búsqueda exhaustivo (por ejemplo, búsqueda en todas las bases de datos clave, empleo de estrategias de búsqueda relativamente amplias)?
¿El proceso de selección, extracción de datos y evaluación del riesgo de sesgo-calidad implicará la decisión de dos revisores de manera independiente?
¿Parece el proyecto de investigación manejable para el número de miembros del equipo de revisión?
¿Son realistas y viables los plazos de revisión?
Bibliografía
Campos Asensio, C. (2024). Papel estratégico del bibliotecario en las revisiones sistemáticas. CLIP De SEDIC: Revista De La Sociedad Española De Documentación E Información Científica, (90), 19–32. https://doi.org/10.47251/clip.n90.150
McKeown S, Ross-White A. Building capacity for librarian support and addressing collaboration challenges by formalizing library systematic review services. J Med Libr Assoc. 2019 Jul;107(3):411-419. doi: 10.5195/jmla.2019.443.
Las revisiones del JBI se distinguen en el componente de búsqueda por su proceso de búsqueda explícito en 3 pasos. Este enfoque metodológico asegura una revisión exhaustiva y sistemática de la evidencia relevante, mejorando la calidad y la fiabilidad de los resultados de la revisión.
Paso 1: Búsqueda exploratoria inicial
El primer paso es una búsqueda exploratoria inicial para encontrar «referencias semilla», es decir, registros de estudios que cumplan los criterios de inclusión para la pregunta de la revisión. Tras estas búsquedas exploratorias iniciales, se recogen las palabras clave del título y el resumen, junto con los términos de indización (también denominados términos MeSH en MEDLINE, Tesauro, Vocabulario controlado, descriptores o encabezamientos de materia) de las referencias semilla. Se debe consultar con el equipo de revisión para recopilar otras palabras clave y términos indexados.
En esta fase utilizaremos las siguientes herramientas:
Bases de datos, generalmente MEDLINE y CINAHL.
Herramientas adicionales como Google, Google Académico y herramientas de descubrimiento de bibliotecas (PRIMO, OneSearch, SumSearch, etc.).
Herramientas de IA generativa(p. ej.: ChatGPT). Pueden ser útiles para encontrar estas referencias iniciales. Sin embargo, en el caso de las fuentes encontradas a través de ChatGPT, es importante verificar que no sean alucinaciones.
Paso 2: Desarrollo de la estrategia de búsqueda exhaustiva
El segundo paso consiste en desarrollar una estrategia de búsqueda exhaustiva utilizando estas palabras clave recolectadas y los términos de indización en la base de datos primaria/clave definida en nuestro Protocolo de revisión.
El desarrollo de una búsqueda exhaustiva es un proceso iterativo que implica probar combinaciones de palabras clave y términos indizados y comprobar que la estrategia de búsqueda recupera las referencias iniciales.
Una vez desarrollada la estrategia de búsqueda en la base de datos primaria, se traslada a otras bases de datos.
Paso 3: Búsqueda complementaria
El tercer paso es la búsqueda complementaria en la literatura gris, la búsqueda de citas y la búsqueda manual. La Declaración TARCiS (Terminology, Application and Reporting of Citation Searching) proporciona orientación sobre cuándo y cómo realizar búsquedas de citas como técnica de búsqueda complementaria en la síntesis de la evidencia y, lo que es más importante, cómo informar de ello (Hirt et al. 2024).
Para las preguntas de revisión que son complejas, la búsqueda de citas hacia delante y hacia atrás (forward and backward citation searching) se considera obligatoria.
Una revisión sistemática refleja las limitaciones de los estudios que incluye; por lo tanto, cada estudio elegible para su inclusión en una revisión sistemática requiere una evaluación crítica para determinar si el estudio no ha respondido correctamente a su pregunta de investigación de una manera libre de sesgos.
Lared LATITUDES nos proporciona una visión general de la calidad de los estudios y relación entre los distintos componentes de la calidad. Enfatiza los 3 componentes principales de la calidad del estudio: validez interna, validez externa y calidad del informe/reporte.
El proceso de evaluación del riesgo de sesgo implica una valoración crítica y un juicio relativo a la existencia de riesgos potenciales de sesgo en el estudio. Un sesgo es un «error sistemático, o desviación de la verdad, en los resultados o inferencias» y esto puede conducir a hallazgos que no reflejen el resultado real. El sesgo (por ejemplo, las limitaciones del estudio) se refiere al riesgo de que los estudios sobrestimen o subestimen sistemáticamente el verdadero efecto de la intervención en función de un error en su realización o diseño.
El sesgo es distinto del concepto de calidad
Un estudio con «alta calidad metodológica» puede tener un «alto riesgo de sesgo» como, por ejemplo, cuando el cegamiento es imposible. Por otro lado, no todas las debilidades metodológicas introducen sesgos. Así, ciertos indicadores de «baja calidad metodológica» tienen poca probabilidad de influir en el riesgo de sesgo, como, por ejemplo, la no predeterminación del tamaño muestral.
Herramientas para la evaluación de la calidad
Hay muchas escalas escalas de calidad y listas de verificación (checklists) disponibles. Las revisiones Cochrane no las utilizan dado que no hay evidencia empírica que avale su uso, diferentes escalas llegan a diferentes conclusiones, la ponderación numérica no está justificada y las puntuaciones difíciles de interpretar por los lectores.
Herramientas para la evaluación del riesgo de sesgo
La RoB 2 de Cochrane se utiliza para la evaluación de ensayos clinicos. Valora 7 dominios (Generación de la secuencia aleatoria; Ocultamiento de la asignación; Cegamiento de los participantes y del personal; Cegamiento de los evaluadores del resultado; Datos de resultado incompletos; Notificación selectiva de los resultados; y Otras fuentes de sesgo) siendo la valoración de los revisores como de «bajo riesgo de sesgo» , «alto riesgo de sesgo» o «riesgo de sesgo poco claro«.
Para los estudios no aleatorizados también hay que evaluar el riesgo de sesgo: ROBINS (acrónimo de Risk Of Bias In Non-Randomized Studies). En la actualidad, existen dos versiones de esta herramienta: ROBINS-I, para estudios no aleatorizados de intervenciones y la recientemente lanzada ROBINS-E, que evalúa el efecto de una exposición en estudios de cohortes.
Además de las herramientas para estudios aleatorizados y no aleatorizados, se dispone de herramientas específicas para la evaluación de RoB en informes de casos y series de casos y diseños experimentales de caso único.
Estas herramientas proporcionan marcos estructurados para evaluar la calidad de diferentes tipos de estudios. Cada herramienta está diseñada para abordar las características únicas y los posibles sesgos asociados con diseños de estudio específicos. Por ejemplo, RoB 2 se centra en los ensayos controlados aleatorios, evaluando aspectos como el proceso de aleatorización y el cegamiento, mientras que ROBINS-I se utiliza para estudios de intervención no aleatorizados, considerando factores como el control de confusores.
Si los tipos de diseño de estudios incluidos en mi revisión sistemática son diferentes (p. ej.: EC, estudio de cohortes, …), ¿es mejor utilizar una herramienta genérica o elegir diferentes según el tipo de estudio?
Los autores de revisiones sistemáticas deben examinar los aspectos de riesgo de sesgo (RoB) específicos del diseño de cada estudio primario que incluyan como evidencia. Es poco probable que una única herramienta de valoración de los criterios de RoB sea adecuada para todos los diseños de investigación. Si utilizamos herramientas específicas según el diseño del estudio, nos aseguramos de que la evaluación de calidad se alinea con las consideraciones únicas y los sesgos asociados con cada diseño de estudio. Pero el uso de múltiples herramientas puede aumentar la complejidad y requerir una mayor familiaridad con cada herramienta específica.
La utilización adecuada de estas herramientas permite a los investigadores realizar evaluaciones de calidad más precisas y estandarizadas, mejorando la confiabilidad y la comparabilidad de las síntesis de evidencia. Es importante que los investigadores se familiaricen con la herramienta apropiada para su tipo de estudio y la utilicen de manera consistente en todo el proceso de síntesis de evidencia.
El diagrama de flujo proporcionado por LATITUDES es una guía valiosa en este proceso de selección de la herramienta, pero es importante complementarlo con un conocimiento profundo de las características de cada herramienta y las especificidades del estudio en cuestión. Una selección cuidadosa asegura que todos los aspectos relevantes de la calidad del estudio sean evaluados adecuadamente, fortaleciendo así la validez de la síntesis de evidencia.
Cómo evaluar el riesgo de sesgo
Hay que predefinir en la fase de Protocolo cómo se va a considerar el riesgo de sesgo en el análisis (definir si se va a meta-analizar los estudios con riesgo de sesgo alto o incierto). Al menos debe realizarse por 2 evaluadores de manera independiente siendo conveniente hacer un pilotaje con 3-6 estudios. Además, debemos definir en el Protocolo cómo se van a resolver los desacuerdos y aclarar la información que falta o no está clara en la publicación (por ejemplo, yendo al protocolo del estudio y/o contactar con los autores).
¿Cómo representa la evaluación del riesgo de sesgo en su manuscrito de revisión?
Se ha de resumir el riesgo de sesgo de los estudios incluidos y de cada desenlace. En esta figura se muestra un ejemplo de un resumen de la evaluación del riesgo de sesgo según la herramienta Cochrane de riesgo de sesgo aplicada a 8 ensayos clínicos aleatorizados como parte de una revisión sistemática sobre el calostro humano y bovino para la prevención de la enterocolitis necrotizante.
Figura del riesgo de sesgo. Reproducido de Sadeghirad B, Morgan RL, Zeraatkar D, Zea AM, Couban R, Johnston BC, Florez ID. Human and Bovine Colostrum for Prevention of Necrotizing Enterocolitis: A Meta-analysis. Pediatrics. 2018 Aug;142(2):e20180767. doi: 10.1542/peds.2018-0767.
El resumen de las evaluaciones del riesgo de sesgo para los estudios incluidos en la revisión sistemática incluye tanto la identificación del estudio como los juicios realizados sobre la posibilidad de que se introduzca el sesgo dentro de cada dominio del instrumento de riesgo de sesgo. En esta figura, los círculos verdes que incluyen un carácter más («+») representan dominios con bajo riesgo de sesgo, mientras que los círculos rojos que incluyen un guión («-«) representan dominios con alto riesgo de sesgo.
Gráfico del riesgo de sesgo.
No debemos intentar resumir todos los resultado y todos los estudios a la vez. Hay que resumir por desenlace. Cada desenlace puede tener su evaluación propia del riesgo de sesgo (ej. cegamiento, datos de resultado incompleto). Además, no todos los estudios aportan información a cada desenlace. Debemos empezar resumiendo el riesgo de sesgo dentro de cada estudio y luego entre los estudios.
¿Debemos evaluar el riesgo de sesgo en las revisiones de alcance/scoping reviews?
Las revisiones de alcance no suelen incluir una evaluación del riesgo de sesgo. «Una diferencia clave entre las revisiones de alcance y las revisiones sistemáticas es que las primeras se realizan generalmente para proporcionar una visión general de la evidencia existente, independientemente de la calidad metodológica o del riesgo de sesgo. Por lo tanto, las fuentes de evidencia incluidas no suelen someterse a una valoración crítica en el caso de las revisiones de alcance» (Tricco).
¿Y fuera de ciencias de la salud?
Para disciplinas fuera de la medicina, el Critical Appraisal Skills Programme (https://casp-uk.net/casp-tools-checklists/) proporciona listas de comprobación que pueden aplicarse a diversos tipos de estudios, y la Mixed Methods Appraisal Tool puede ser un recurso útil si los estudios incluidos utilizan métodos mixtos y la JBI también incluye herramientas útiles.
Bibliografía
Whiting P, Wolff R, Savović J, Devine B, Mallett S, Introducing the LATITUDES Network: a Library of Assessment Tools and training to Improve Transparency, Utility and Dissemination in Evidence Synthesis, Journal of Clinical Epidemiology (2024), doi: https://doi.org/10.1016/j.jclinepi.2024.111486
Higgins JPT, Savović J, Page MJ, Elbers RG, Sterne JAC. Chapter 8: Assessing risk of bias in a randomized trial [last updated October 2019]. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.5. Cochrane, 2024. Disponible en www.training.cochrane.org/handbook.
Flemyng E, Moore TH, Boutron I, Higgins JP, Hróbjartsson A, Nejstgaard CH, et al. Using Risk of Bias 2 to assess results from randomised controlled trials: guidance from Cochrane. BMJ Evidence-Based Medicine [Internet]. 1 de agosto de 2023 [citado 14 de noviembre de 2024];28(4):260-6. Disponible en: https://ebm.bmj.com/content/28/4/260
Ciapponi A. Herramientas ROBINS para evaluar el riesgo de sesgo de estudios no aleatorizados. Evidencia – actualización En La práctica Ambulatoria. 2022;25(3):e007024. https://doi.org/10.51987/evidencia.v25i4.7024
Pon a prueba tu equilibrio y conocimientos de revisiones sistemáticas con este quiz interactivo inspirado en la «Jenga». Responde preguntas para mantener la torre en pie.
Persistente la brecha entre el conocimiento científico y su aplicación en la práctica clínica. La incorporación de la evidencia en la atención médica, se demora una media estimada de 17 años.
Auge de la síntesis de la evidencia
Las revisiones sistemáticas se han vuelto cada vez más comunes en los últimos años, reflejando un enfoque creciente en la práctica basada en la evidencia. Podemos comprobarlo fácilmente observando el aumento significativo en las revisiones sistemáticas publicadas a través de una búsqueda básica en PubMed.
Estas fuentes de análisis de datos secundarios están destinadas a informar la práctica y las políticas, pero su traducción a la aplicación en la cabecera del paciente sigue siendo un desafío.
Desafíos para implementar las mejores prácticas
Si bien el acceso a la evidencia está fácilmente disponible, persiste una desconexión significativa entre la evidencia y la práctica. Los estudios sugieren que solo el 60% de la atención se alinea con las guías publicadas y una parte de la atención incluso puede ser perjudicial.
Esto destaca la importancia de la transferencia e implementación de la evidencia para mejorar los resultados de la atención al paciente.
¿Cuáles son las causas de esta brecha, disponemos de las estrategias para superarla y cuál es el papel de la investigación en la mejora de la calidad de la atención?
BIBLIOGRAFÍA
Balas EA, Boren SA. Managing clinical knowledge for health care improvement. In: Bemmel J, McCray AT, editors. Yearbook of Medical Informatics 2000: Patient-Centered Systems. Schattauer Verlag; 2000.
Weed LL. New connections between medical knowledge and patient care. Br Med J 1997;315:231-5.
Braithwaite J, Glasziou P, Westbrook J. The three numbers you need to know about healthcare: the 60-30-10 challenge. BMC Med 2020;18:102.
Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080.
Balas EA, Austin SM, Ewigman BG, Brown GD, Mitchell JA. Methods of randomized controlled clinical trials in health services research. Med Care. 1995 Jul;33(7):687-99. doi: 10.1097/00005650-199507000-00005.
Pulido M, González JC, Sanz F. Artículos originales publicados en Medicina Clínica durante 30 años (1962-1992): número de autores, intervalo entre la aceptación y publicación y referencias bibliográficas. Med Clin (Barc). 1994 Dec 10;103(20):770-5.
Kumar PD. Publication lag intervals–a reason for authors’apathy? J Assoc Physicians India. 1992 Sep;40(9):623-4.
Antman EM, Lau J, Kupelnick B, Mosteller F, Chalmers TC. A comparison of results of meta-analyses of randomized control trials and recommendations of clinical experts. Treatments for myocardial infarction. JAMA. 1992 Jul 8;268(2):240-8.
Easterbrook PJ, Berlin JA, Gopalan R, Matthews DR. Publication bias in clinical research. Lancet. 1991 Apr 13;337(8746):867-72. doi: 10.1016/0140-6736(91)90201-y.
Koren G, Graham K, Shear H, Einarson T. Bias against the null hypothesis: the reproductive hazards of cocaine. Lancet. 1989 Dec 16;2(8677):1440-2. doi: 10.1016/s0140-6736(89)92044-8.
Dickersin K, Chan S, Chalmers TC, Sacks HS, Smith H Jr. Publication bias and clinical trials. Control Clin Trials. 1987 Dec;8(4):343-53. doi: 10.1016/0197-2456(87)90155-3.
Poynard T, Conn HO. The retrieval of randomized clinical trials in liver disease from the medical literature. A comparison of MEDLARS and manual methods. Control Clin Trials. 1985 Dec;6(4):271-9. doi: 10.1016/0197-2456(85)90103-5.
La revisiónes paraguas, que a veces las encontraremos como Revisión de revisiones o Umbrella review y Overview of review en inglés, son una solución eficiente para navegar el creciente volumen de revisiones sistemáticas en salud y son de gran valor para la toma de decisiones de atención médica al combinar grandes volúmenes de datos de revisiones sistemáticas (RS) en una sola síntesis.
Origen
Surgen por el desafío de la sobrecarga de Información debido al incremento de estudios y de las revisiones sistemáticas que los sintetizan. Además, muchas de estas revisiones son conflictivas, es decir, arrojan resultados opuestos.
Por otro lado, existe la imperiosa necesidad de abordar preguntas amplias presentando una visión general sobre un tema, en lugar de estrechar el enfoque a una sola intervención. Por último, evita derrochan recursos de llevar a cabo nuevas revisiones en lugar de aprovechar las existentes.
¿Qué es una Revisión Paraguas?
Los Overviews son revisiones sistemáticas de revisiones sistemáticas existentes sobre un tema de salud específico. A diferencia de las revisiones sistemáticas, la unidad de análisis son las revisiones sistemáticas y no los estudios primarios. Es decir, buscar e incluye solo revisiones sistemáticas (con o sin metanálisis) y recopila, analiza y presenta los datos de las revisiones sistemáticas incluidas.
Por lo tanto, un requisito previo para realizar una revisión paraguas es la disponibilidad de múltiples revisiones sistemáticas actualizadas de alta calidad que cubran todas las intervenciones de interés. Las revisiones paraguas no deben buscar e incluir revisiones narrativas, capítulos de libros de texto, informes gubernamentales, guías de práctica clínica o cualquier otro informe resumido que no se ajuste a su definición predefinida de revisión sistemática.
Las Overviews no son apropiadas para identificar brechas en la investigación, clasificar intervenciones o hacer comparaciones indirectas.
También se desaconsejas las comparaciones indirectas en las revisiones paraguas. Por ejemplo, imaginemos un Overview que incluya dos revisiones sistemáticas. La revisión sistemática 1 incluye estudios que comparan la intervención A con la intervención B, y concluye que A es más eficaz que B. La revisión sistemática 2 incluye estudios que comparan la intervención B con la intervención C, y concluye que B es más eficaz que C. Sería tentador para los autores del resumen concluir que A es más eficaz que C. Sin embargo, esto requeriría una comparación indirecta, un procedimiento estadístico que compara dos intervenciones (es decir, A frente a C) a través de un comparador común (es decir, B) a pesar de que las dos intervenciones nunca se han comparado directamente entre sí dentro de un estudio primario (Glenny et al 2005).
Beneficios de las Revisiones Paraguas
Visión Amplia: Proporciona una perspectiva general sobre un tema de salud complejo. Identifica áreas de consenso y controversia en la evidencia disponible.
Ahorro de Tiempo: Ofrece una síntesis rápida para la toma de decisiones con plazos ajustados. Evita la duplicación innecesaria de esfuerzos en la revisión de evidencia.
Calidad de la Evidencia: Se basa en revisiones sistemáticas, que ya han pasado por un riguroso proceso. Permite una evaluación crítica de la calidad de múltiples revisiones.
Características
Búsqueda y fuentes de información para las revisiones paraguas
Como en las revisiones sistemáticas, la búsqueda bibliográfica que ha de ser exhaustiva y reproducible.
En general, MEDLINE/PubMed y Embase indexan la mayoría de las revisiones sistemáticas. Los autores también pueden buscar en bases de datos regionales y temáticas adicionales (por ejemplo, LILACS, CINAHL, PsycINFO) y en repositorios de revisiones sistemáticas como la Cochrane Library, Epistemonikos y KSR Evidence.
En la búsqueda en bases de datos generales se debe utilizar filtros validados para solo recuperar revisiones sistemáticas.
Solapamiento de revisiones sistemáticas
Un paso importante una vez que los autores tienen su lista final de revisiones sistemáticas incluidas es evaluar el solapamiento, es decir, determinar qué estudios primarios están incluidos en qué revisiones sistemáticas.
Cochrane recomienda crear una matriz de citas similar a la tabla para demostrar visualmente la cantidad de solapamientos. Los autores también deben describir narrativamente el número y el tamaño de los estudios primarios que se solapan, así como la ponderación que aportan a los análisis. Pieper et al (Pieper D, Antoine S, Mathes T, Neugebauer E, Eikermann M. Systematic review finds overlapping reviews were not mentioned in every other overview. Journal of Clinical Epidemiology 2014; 67: 7.) proporciona instrucciones detalladas para crear matrices de citas, describir el solapamiento y calcular el área cubierta corregida.
Calidad metodológica o el riesgo de sesgo de las revisiones sistemáticas incluidas en las síntesis
La herramienta AMSTAR 2 (Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ 2017; 358: j4008.) está diseñada para evaluar la calidad metodológica de las revisiones sistemáticas de ensayos controlados aleatorizados, y hasta la fecha ha sido la herramienta más utilizada en los Overviews. Se puede utilizar para evaluar la calidad metodológica de las revisiones sistemáticas que incluyen estudios aleatorizados y no aleatorizados de intervenciones sanitarias. Esta proporciona orientación para calificar la confianza general en los resultados de una revisión (alta, moderada, baja o críticamente baja en función del número de defectos críticos y/o debilidades no críticas).
Otra herramienta disponible para evaluar el riesgo de sesgo de las revisiones sistemáticas en los resúmenes pueden utilizar la herramienta ROBIS disponible en el sitio web de ROBIS (https://www.bristol.ac.uk/population-health-sciences/projects/robis/). Este sitio web también contiene formularios de extracción de datos y tablas de presentación de datos.
Mañana, 17 de abril de 2024, impartir el Taller de revisiones de alcance («scoping reviews») dentro de las XXV Jornadas de Gestión de la Información» de la SEDIC.
Aquí os dejo una práctica que he confeccionado para la definición de este tipo de revisiones:
Al final del taller, haremos el siguiente juego para evaluar lo aprendido:
BIBLIOGRAFÍA
Munn Z, Pollock D, Khalil H, Alexander L, McInerney P, Godfrey CM, et al. What are scoping reviews? Providing a formal definition of scoping reviews as a type of evidence synthesis. JBI Evid Synth 2022;20 (4):950–952.
Munn Z, Peters MDJ, Stern C, Tufanaru C, McArthur A, Aromataris E. Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Med Res Methodol 2018;18 (1):143.
Peters MDJ, Godfrey C, McInerney P, Khalil H, Larsen P, Marnie C, et al. Best practice guidance and reporting items for the development of scoping review protocols. JBI Evid Synth 2022;20 (4):953–958.
Khalil H, Peters MDJ, Tricco AC, Pollock D, Alexander L, McInerney P, et al. Conducting high quality scoping reviews-challenges and solutions. J Clin Epidemiol 2021;130:156–160.
Peters MDJ, Marnie C, Tricco AC, Pollock D, Munn Z, Alexander L, et al. Updated methodological guidance for the conduct of scoping reviews. JBI Evid Implement 2021;19 (1):3–10.
PRISMA extension for Scoping Reviews (PRISMA-ScR): checklist and explanation. Ann Intern Med 2018;169 (7):467–473.Pollock D, Peters MDJ, Khalil H, McInerney P, Alexander L, Tricco AC, et al. Recommendations for the extraction, analysis, and presentation of results in scoping reviews. JBI Evidence Synthesis [Internet]. 2022 Sep 8 [cited 2022 Sep 9];Publish Ahead of Print. Available from: https://journals.lww.com/jbisrir/Fulltext/9900/Recommendations_for_the_extraction,_analysis,_and.76.aspx
Una revisión sistemática típica tarda varios meses en completarse. Aunque el alcance de una revisión sistemática estará determinado en gran medida por la pregunta de investigación que se haya formulado, puede haber oportunidades para ampliar o restringir una pregunta de investigación en un intento de hacer que la revisión planificada sea manejable dentro del tiempo y los recursos disponibles.
Una vez estamos planteándonos nuestra pregunta de investigación y antes de darla por establecida esta, así como los criterios de elegibilidad/inclusión, debemos realizar una búsqueda inicial para analizar el alcance de nuestra revisión.
¿Debería ser nuestra revisión amplia o reducida?
Podemos encontrarnos con dos escenarios:
Una pregunta de investigación amplia;
No todos los tipos de preguntas son adecuados para las revisiones sistemáticas. Muchas de las preguntas que inicialmente son ideadas por los grupos de usuarios son de marco abierto, ya que carecen de especificación o definición de algunos de los componentes clave. Normalmente, estas preguntas no pueden responderse en un único estudio experimental y, por tanto, tampoco mediante una síntesis de estudios similares.
Es posible desglosar de las preguntas de marco abierto para identificar las de marco cerrado. En la siguiente figura vemos un ejemplo de cómo pasar de una pregunta en exceso amplia a una reducida:
Una pregunta de investigación reducida:
Ventajas de una revisión amplia
En el siguiente ejemplo vemos cómo pasar de una pregunta en exceso amplia a una pregunta más reducida
Son aplicables a una variedad más amplia de entornos o contextos, o poblaciones, o intervenciones o resultados, y ofrece un mayor potencial para explorar la coherencia de los resultados de la investigación, con menos oportunidades de hallazgos fortuitos.
Los resultados de las revisiones sistemáticas sean más accesibles para los responsables de la toma de decisiones, que a menudo tienen que elegir y tomar una decisión entre una variedad de intervenciones para poblaciones diferentes.
Inconvenientes de una revisión amplia
Una revisión más amplia daría como resultado una revisión de un mayor volumen de evidencia.
Supondría más trabajo (más análisis, más extracción de datos, más análisis que realizar, más resultados que debatir).
Habría que considerar las posibilidades de generalización de los resultados obtenidos de esta amplia población a la subpoblación de interés primario para esta revisión. Una revisión más amplia tendrá más datos de estudios adicionales, lo que permitirá realizar análisis de subgrupos significativos.
Ventajas de una revisión reducida
Cuando los recursos son limitados, una revisión más restringida (o una «división» de la revisión) puede hacer que la finalización sea más factible.
La mayor homogeneidad de los estudios incluidos puede proporcionar una respuesta más centrada a la pregunta de investigación específica (restringida).
Una revisión centrada en un único enfoque será más concisa y de mayor interés para los lectores interesados en este enfoque específico.
Inconvenientes de una revisión reducida
La limitación a poblaciones muy concretas podría dar lugar a una revisión bastante «estrecha», y quedarían excluidos grandes volúmenes potenciales de pruebas procedentes de otros pacientes.
Limitar la revisión a un único enfoque específico no responde a la pregunta clínica relativa a los efectos relativos de los diferentes enfoques.
Veamos un ejemplo (Pollock, 2018):
Una revisión amplia sería: En pacientes con accidente cerebrovascular con movilidad reducida, ¿es algún enfoque específico de fisioterapia más beneficioso que ninguna fisioterapia o cualquier otro enfoque de fisioterapia para mejorar la dependencia en las actividades de la vida diaria y la velocidad de desplazamiento?
Una revisión más concisa sería: En pacientes con un accidente cerebrovascular reciente (menos de seis semanas) con movilidad reducida, ¿es el método Bobath más beneficioso que el método de aprendizaje motor para mejorar la independencia en actividades de la vida diaria y la velocidad de la marcha?
Ventajas e inconvenientes:
Una revisión ampliada supondría más trabajo (más análisis, más extracción de datos, más análisis que realizar, más resultados que debatir).
Habría que considerar las posibilidades de generalización de los resultados obtenidos de esta amplia población a la subpoblación de interés primario para esta revisión (pacientes con apoplejía durante las últimas seis semanas).
Una revisión centrada en un único enfoque fisioterapéutico (por ejemplo, el enfoque Bobath) será más concisa y de mayor interés para los lectores interesados en este enfoque específico.
La limitación a los pacientes que han sufrido un ictus en las últimas 6 semanas podría dar lugar a una revisión bastante «estrecha», y quedarían excluidos grandes volúmenes potenciales de pruebas procedentes de otros pacientes. Una revisión más amplia daría como resultado una revisión de un mayor volumen de evidencia.
La evaluación de los efectos de diferentes enfoques fisioterapéuticos (no solo el enfoque Bobath) será clínicamente relevante para los médicos, que tienen que considerar todos los enfoques disponibles a la hora de tomar una decisión terapéutica. Limitar la revisión a un único enfoque específico (por ejemplo, el enfoque Bobath) no responde a la pregunta clínica relativa a los efectos relativos de los diferentes enfoques.
La consideración de otros grupos de control, además del grupo de control «sin fisioterapia» reflejará la elección a la que se enfrentan muchos médicos, que tienen que elegir entre dos o más enfoques diferentes, en lugar de entre un enfoque o sin fisioterapia.
Una revisión más amplia tendrá más datos de estudios adicionales, lo que permitirá realizar análisis de subgrupos significativos.
BIBLIOGRAFÍA
Pollock A, Berge E. How to do a systematic review. Int J Stroke. 2018 Feb;13(2):138-156. doi: 10.1177/1747493017743796. PMID: 29148960.
Los autores de revisiones sistemáticas deben hacer una evaluación del riesgo de sesgo (RoB) para cada estudio primario que incluyan como evidencia. No existe una única herramienta de evaluación de los RoB que sea adecuada para todos los diseños de investigación. Además de herramientas para estudios aleatorizados y no aleatorizados, existen herramientas específicas para la evaluación de la RoB en informes de casos y series de casos y diseños experimentales de caso único.
Al igual que ocurre en otros pasos de las revisiones, la incomprensión de las herramientas para evaluar el RoB así como su aplicación incorrecta son problemas generalizados. Además, el tiempo y el esfuerzo necesarios para aplicar los estándares metodológicos recomendados por las principales organizaciones (Cochrane RoB-2 para ECA (1) y ROBINS-I (2) para intervenciones no aleatorizadas), puede hacer que los autores no sigan sus orientaciones y empleen métodos desaconsejados o anticuados. Por ejemplo, la escala Newcastle-Ottawa (NOS) es una herramienta comúnmente utilizada para valorar estudios no aleatorizados.
Wells y cols. (2) propusieron una escala para evaluar la calidad de los estudios no aleatorizados publicados en metaanálisis denominada Newcastle-Ottawa-Scale (NOS). Esta herramienta puede utilizarse como lista de comprobación o como escala.
Muchos autores justifican su selección de esta herramienta haciendo referencia justamente a una publicación que describe la falta de fiabilidad de la NOS y desaconseja su uso (3).
En esta publicación Stang señala:
«Creo que Wells et al. proporcionan una puntuación de calidad que tiene una validez desconocida en el mejor de los casos, o que incluye elementos de calidad que incluso no son válidos. La versión actual parece inaceptable para la clasificación de la calidad tanto de estudios de casos y controles como de estudios de cohortes en metaanálisis. El uso de esta puntuación en revisiones basadas en la evidencia y metaanálisis basados en la evidencia puede producir resultados muy arbitrarios«.
BIBLIOGRAFÍA
Sterne JAC, Savović J, Page MJ, Elbers RG, Blencowe NS, Boutron I, et al. RoB 2: a revised tool for assessing risk of bias in randomised trials. BMJ 2019;366:l4894.
Sterne JA, Hernán MA, Reeves BC, Savović J, Berkman ND, Viswanathan M, et al. ROBINS-I: a tool for assessing risk of bias in non-randomised studies of interventions. BMJ 2016;355:i4919.
Wells GA, Shea B, O’Connell D, Peterson J, Welch V, Losos M, et al. The Newcastle-Ottawa Scale (NOS) for assessing the quality if nonrandomized studies in meta-analyses. Disponible en: URL: http://www.ohri.ca/programs/clinical_epidemiology/oxford.htm
Stang A. Critical evaluation of the Newcastle-Ottawa scale for the assessment of the quality of nonrandomized studies in meta-analyses. Eur J Epidemiol 2010;25(9):603–605.
Aquí encontrarás los principales manuales, guías, directrices y criterios para hacer, informar y evaluar las revisiones sistemáticas en ciencias de la salud.
1)Por dónde empezar: Manuales y guías metodológicas
1.1. Xiao, Y., & Watson, M. (2019). Guidance on Conducting a Systematic Literature Review. Journal of Planning Education and Research, 39(1), 93-112. https://doi.org/10.1177/0739456X17723971.
Este artículo proporciona una breve descripción general de los pasos de una revisión sistemática. En su descripción se incluye varias tablas y figuras interesantes como la que describe las tipologías de revisiones de literatura por propósito de revisión con ejemplos.
1.2. Kolaski K, Logan LR, Ioannidis JPA. Guidance to Best Tools and Practices for Systematic Reviews. JBJS Rev. 2023 Jun 7;11(6):e23.00077. doi: 10.2106/JBJS.RVW.23.00077.
Publicado en varios artículos de PMIDs: 37285444; 37282594; 37302044; 37286949; 37291658; 37288997 y 37282770.
Incluye una tabla con las herramientas que especifican las guías para revisiones sistemáticas con y sin metaanálisis.
1.3. Finding What Works in Health Care es un libro de los Estándares de las Academias Nacionales para Revisiones Sistemáticas (Institute of Medicine Standards for Systematic Reviews (IOM).
1.4. El Manual Cochrane para revisiones e intervenciones sistemáticas. Guía oficial que describe en detalle el proceso de preparación y mantenimiento de revisiones sistemáticas Cochrane sobre los efectos de las intervenciones sanitarias.
Versión original: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023.Disponible en: http://www.training.cochrane.org/handbook. Versión en español: Centro Cochrane Iberoamericano, traductores. Manual Cochrane de Revisiones Sistemáticas de Intervenciones, versión 5.1.0 [actualizada en marzo de 2011] [Internet]. Barcelona: Centro Cochrane Iberoamericano; 2012. Disponible en https://es.cochrane.org/es/recursos-para-autores-elaborar-revisiones
Diseñado para proporcionar a los autores una guía completa para realizar revisiones sistemáticas del JBI. Describe en detalle el proceso de planificación, realización y redacción de una revisión sistemática u otros documentos de síntesis de evidencia (Umbrela, scoping, …) utilizando los métodos JBI.
2.1. PRISMA 2020es un conjunto mínimo de elementos para informar en revisiones sistemáticas y metanálisis. PRISMA se centra principalmente en la presentación de informes de revisiones que evalúan los efectos de las intervenciones, pero también puede utilizarse como base para informar revisiones sistemáticas con objetivos distintos. PRISMA no es un estándar para la realización de revisiones sistemáticas. Es una guía de informes diseñada para abordar los informes deficientes de revisiones sistemáticas. Estas recomendaciones han sido ampliamente respaldadas y adoptadas en diversas disciplinas.
2.2. QUOROM. Quality of Reporting of Meta-analyses (QUOROM) Statement. Moher D, Eastwood S, Olkin I, Drummond R, Stroup D. Improving the quality of reports of meta-analyses of randomised controlled trials: the QUOROM statement. Lancet. 1999;354:1896-900. Disponible en: https://doi.org/10.1016/S0140-6736(99)04149-5. Dispone de unas directrices, una lista de comprobación y un diagrama de flujo. La lista de comprobación describe la forma preferida de presentar las secciones de resumen, introducción, métodos, resultados y discusión del informe de un metaanálisis.
2.3. MOOSE. Contiene una checklist para la presentación de metaanálisis de estudios observacionales en epidemiología, incluidos los antecedentes, la estrategia de búsqueda, los métodos, los resultados, la discusión y la conclusión. Meta-analyses Of Observational Studies in Epidemiology (MOOSE). Stroup D Berlin J Morton S Olkin I Williamson G Rennie D, et al. Meta-analysis of observational studies in epidemiology. A proposal for reporting. JAMA. 2000;238(15):2008-12. Disponible en: https://jamanetwork.com/journals/jama/fullarticle/192614
3) Cómo evaluar
3.1. AMSTAR (A MeaSurement Tool to Assess systematic Reviews) es una herramienta para evaluar críticamente revisiones sistemáticas de estudios de intervenciones en salud que incluyen estudios aleatorios o no aleatorios (NRS), o ambos. Disponible en: https://amstar.ca/index.php.
Perry, R., Whitmarsh, A., Leach, V. et al. A comparison of two assessment tools used in overviews of systematic reviews: ROBIS versus AMSTAR-2. Syst Rev10, 273 (2021). https://doi.org/10.1186/s13643-021-01819-x.
Releía ayer el artículo Easy ≠ Right (1) con estupendas reflexiones de la bibliotecaria Melissa L. Rethlefsen, autora principal de las directrices PRISMA-S, que en 2008 nos advertía que «no hay soluciones únicas para una investigación de calidad» y que a «la hora de buscar información, ¿Qué es lo correcto y qué lo fácil?
El desarrollo de estrategias de búsqueda sólidas para buscar en la literatura e identificar estudios es un paso crucial en la metodología de síntesis de la evidencia. Sin embargo, su complejidad hizo aparecer herramientas que facilitaban la localización de evidencia de alta calidad (2). En la década de los 90, la búsqueda federada, también conocida como metabúsqueda o búsqueda cruzada en bases de datos, permitía la práctica de utilizar una interfaz para buscar en múltiples fuentes de una sola vez. Fue anunciada como la próxima novedad en búsquedas.
Rethlefsen afirmaba que encontrar la mejor información o la más completa sobre un tema requiere más esfuerzo que buscar introduciendo una o dos palabras clave en una caja de búsqueda. Y he reflexionado sobre la búsqueda con inteligencia artificial de la que hoy en día tanto interés nos despierta. Por el momento podemos seguir afirmando lo mismo que la autora nos decía hablando de Google, pero el futuro nos dirá la última palabra.
Por último, estos avances en los «sistemas de búsqueda» no permiten la transparencia o la reproducibilidad de la metodología de búsqueda (3). Esto ha sido, hasta la fecha, una de las claves para las revisiones sistemáticas de calidad y libre de sesgos (4).
Solomons T, Hinton E. Federated searches: why a one-stop shop approach to literature searching falls short for evidence synthesis. JBI Evidence Synthesis 19(6):p 1259-1262, June 2021. | DOI: 10.11124/JBIES-21-00177
Rethlefsen ML, Kirtley S, Waffenschmidt S, Ayala AP, Moher D, Page MJ, et al. PRISMA-S: an extension to the PRISMA Statement for Reporting Literature Searches in Systematic Reviews. Syst Rev 2021;10 (1):39.
Why Does the Reproducibility of Search Strategies and Search Results in Systematic Reviews Reduce Over Time? What We Can Do About It? by @FarhadShokrane Disponible en: https://link.medium.com/jezQLPFeyFb
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.
Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).
Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):
(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])
Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):
«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.
Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):
‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt
CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5): (MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))
SCOPUS actualizada a 20 de diciembre de 2021 (6):
TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )
BIBLIOGRAFÍA
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
La síntesis de conocimientos consiste en la integración de los resultados de la investigación de estudios de investigación individuales y permite abordar las necesidades de información. Dentro de la gran familia de tipos de síntesis de conocimientos, tenemos las revisiones sistemáticas, adecuadas para abordar una pregunta de revisión bien definida pero menos adecuadas en otras circunstancias.
Históricamente, las revisiones sistemáticas se han centrado en losbeneficios y daños de las intervenciones; con el tiempo, han surgido otros tipos de síntesis de la evidencia, como las revisiones generales (overviews o umbrella reviews), las revisiones de alcance (scoping reviews), las revisiones rápidas (rapid reviews) y las revisiones vivas (living reviews).
Esta variedad de métodos de síntesis puede ser un reto seleccionar el método de síntesis del conocimiento «correcto». Para ayudar con esta dificultad, os presento en primer lugar un mapa de decisión de tipo de revisión (adaptado del documento similar de la Biblioteca de la Universidad de Cornell. Está bajo una licencia CC BY 4.0. https://cornell.app.box.com/s/tfgvuicvsn9s58g7c0akxh0cmcuifbbo/file/573873815952)
En segundo lugar, os recuerdo que disponéis de la herramienta web de apoyo a la toma de decisiones Right Review (https://rightreview.knowledgetranslation.net/) que os recomendará, a través de una serie de preguntas sencillas, el método de síntesis cuantitativa y cualitativa más adecuado.
Tricco AC, Soobiah C, Antony J, Cogo E, MacDonald H, Lillie E, Tran J, D’Souza J, Hui W, Perrier L, Welch V, Horsley T, Straus SE, Kastner M. A scoping review identifies multiple emerging knowledge synthesis methods, but few studies operationalize the method. J Clin Epidemiol. 2016 May;73:19-28. doi: 10.1016/j.jclinepi.2015.08.030. PMID: 26891949.
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276. PMID: 31541534.
Amog K, Pham B, Courvoisier M, Mak M, Booth A, Godfrey C, Hwee J, Straus SE, Tricco AC. The web-based «Right Review» tool asks reviewers simple questions to suggest methods from 41 knowledge synthesis methods. J Clin Epidemiol. 2022 Jul;147:42-51. doi: 10.1016/j.jclinepi.2022.03.004. PMID: 35314349.