En la literatura científica se habla mucho de cómo implementar prácticas basadas en la evidencia, pero mucho menos de cómo desimplementar aquellas que han demostrado ser ineficaces o incluso dañinas.
Las prácticas de bajo valor se consideran una fuente de “desperdicio” en los sistemas sanitarios: en EE. UU., se calcula que la atención de bajo valor supone entre 75 y 100 mil millones de dólares al año. La desimplementación no es simplemente “dejar de hacer algo”, sino un proceso activo que requiere superar barreras culturales, organizativas y de expectativas de pacientes y profesionales. Al igual que la implementación de prácticas de alto valor, la desimplementación es lenta: el artículo muestra que pueden pasar de 4 a 16 años hasta lograr una reducción del 50 % en el uso de ciertas pruebas.
Un reciente artículo publicado en BMJ Quality & Safety (LeLaurin JH, et al., 2025) analiza precisamente este aspecto: el tiempo que tarda el sistema sanitario en dejar de utilizar cribados oncológicos de bajo valor, es decir, pruebas que no aportan beneficio real al paciente y que pueden generar costes innecesarios, ansiedad o complicaciones derivadas de procedimientos invasivos.
El artículo revisa el tiempo necesario para la desimplementación de prácticas de cribado oncológico de bajo valor en EE. UU. (clasificadas como Grade D por la USPSTF). Se estudian seis prácticas: cribado de cáncer cervical en <21 y >65 años, cribado de próstata en ≥70 años, y cribados de ovario, tiroides, testículo y páncreas en adultos asintomáticos.
Lo que muestra el estudio
En el caso del cribado de cáncer de cuello uterino:
en mujeres menores de 21 años, se tardaron solo 4 años en reducir su uso a la mitad.
en mayores de 65 años, la desimplementación llevó 16 años.
En el cribado de próstata en varones ≥70 años, más de una década después de publicarse las guías, aún no se ha alcanzado la reducción del 50 %.
Para otros cribados (ovario, tiroides, testículo, páncreas), la falta de datos fiables impide conocer el tiempo de desimplementación.
Barreras para la desimplementación
Deficiente diseminación de la evidencia: los hallazgos que muestran la ineficacia o los daños de ciertas prácticas no siempre llegan de manera efectiva a los profesionales.
Normas y hábitos arraigados: la inercia clínica y la práctica establecida dificultan abandonar procedimientos habituales.
Resistencia al cambio: tanto de profesionales como de pacientes, que pueden percibir la retirada de una práctica como pérdida de calidad en la atención.
Confusión y escepticismo: los cambios frecuentes en las guías clínicas generan dudas y desconfianza en la validez de las recomendaciones.
Expectativas de los pacientes: algunos esperan recibir pruebas o tratamientos de rutina, incluso cuando no son necesarios, lo que ejerce presión sobre los médicos para mantenerlos.
Necesidad de atención personalizada y decisión compartida: en algunos casos puede justificarse un uso selectivo de la práctica en pacientes concretos, lo que complica su retirada universal.
Consecuencias no deseadas de la desimplementación:
reducción de ingresos en el sistema sanitario,
utilización inapropiada de otras prácticas,
pérdida de confianza por parte de los pacientes.
Conclusiones
Retirar de forma sistemática el cribado oncológico de bajo valor podría aumentar la eficiencia de los sistemas de salud, mejorar los resultados en salud (menos efectos adversos y menos ansiedad en pacientes), reducir los costes de la atención sanitaria y aumentar la eficiencia de los sistemas de salud.
Si implementar lo nuevo ya es lento (de media 15 años para que una innovación llegue al 50 % de uso), abandonar lo que no funciona puede ser aún más difícil y desigual. De ahí la importancia de contar con estrategias activas de desimplementación, sistemas de monitorización sólidos y profesionales de la salud comprometidos con la mejora continua.
Bibliografía
LeLaurin JH, Pluta K, Norton WE, Salloum RG, Singh Ospina N. Time to de-implementation of low-value cancer screening practices: a narrative review. BMJ Qual Saf. 2025 Jul 18;34(8):547-555. doi: 10.1136/bmjqs-2025-018558.
Shrank WH, Rogstad TL, Parekh N. Waste in the US Health Care System: Estimated Costs and Potential for Savings. JAMA. 2019 Oct 15;322(15):1501-1509. doi: 10.1001/jama.2019.13978.
Khan S , Chambers D , Neta G . Revisiting time to translation: implementation of evidence-based practices (EBPs) in cancer control. Cancer Causes Control 2021;32:221–30. doi:10.1007/s10552-020-01376-z
El pasado 10 de junio participé, como cada año, en el curso de acogida y bienvenida a los nuevos residentes del Hospital Universitario de Getafe. Esta intervención, centrada tradicionalmente en los fundamentos de la búsqueda bibliográfica y los recursos de la biblioteca, ha ido evolucionando en los últimos años para dar cabida a los profundos cambios que la inteligencia artificial (IA) está generando en los procesos de búsqueda de información científica.
Les presenté el funcionamiento de la Biblioteca Virtual, un recurso esencial para el acceso a la información científica de calidad. Les mostré cómo registrarse correctamente en el portal para poder acceder, desde cualquier dispositivo y ubicación, a una amplia colección de bases de datos especializadas, revistas científicas, libros electrónicos y otros recursos suscritos por la red sanitaria pública. Hicimos especial hincapié en la importancia de utilizar estas fuentes institucionales frente a buscadores generalistas, y en cómo aprovechar al máximo los servicios disponibles para apoyar tanto la práctica clínica como sus actividades formativas e investigadoras.
En la edición de 2024, la IA ocupó aproximadamente un tercio del contenido. Este año, sin embargo, ha constituido ya la mitad de mi presentación, reflejo de su creciente relevancia tanto en la práctica clínica como en el proceso de aprendizaje e investigación de nuestros profesionales en formación.
Los propios residentes reconocieron utilizar con frecuencia herramientas de IA generativa —principalmente modelos como ChatGPT— para resolver dudas clínicas, localizar información rápida o redactar textos. Esta admisión evidencia una realidad incuestionable: la IA ya forma parte del entorno de trabajo cotidiano del personal sanitario. Sin embargo, también pone de manifiesto una necesidad urgente: formar a los nuevos profesionales en el uso crítico, seguro y eficaz de estas herramientas.
Durante la sesión, abordamos conceptos esenciales para entender la búsqueda de información basada en evidencia, desde el triángulo de la búsqueda eficiente hasta la jerarquía de las fuentes. En este contexto, presenté el papel complementario —que no sustitutivo— de la inteligencia artificial en la búsqueda bibliográfica. Se mostraron ejemplos concretos de herramientas de IA aplicadas a distintas fases del proceso: desde asistentes conversacionales como ChatGPT o Claude, hasta motores de síntesis como Elicit, y plataformas de análisis de citaciones como Scite.
Subrayé especialmente los riesgos de desinformación y sesgos si se emplean estas herramientas sin una evaluación humana crítica, y proporcioné orientaciones prácticas sobre cómo formular prompts efectivos.
Nuestro compromiso desde la biblioteca es acompañar esta transición, ofreciendo recursos de calidad, formación continua y apoyo experto. Porque saber buscar sigue siendo —más que nunca— una competencia esencial para el ejercicio profesional informado, riguroso y basado en la mejor evidencia disponible.
En otras entradas de este blog hemos hablado de la importancia de planificar correctamente una revisión sistemática, como en los 13 pasos para la planificación de una revisión o en la explicación de la metodología de búsqueda según JBI. Hoy ponemos el foco en un momento clave del proceso: el primer paso que da el bibliotecario cuando comienza a colaborar en una revisión sistemática.
Antes de diseñar la estrategia de búsqueda definitiva, es imprescindible realizar una búsqueda preliminar exploratoria, identificar revisiones en curso en registros como PROSPERO y, a partir de todo ello, refinar y delimitar adecuadamente la pregunta de investigación. Esta fase inicial es fundamental para asegurar la pertinencia del trabajo, evitar duplicaciones y aportar valor a la evidencia existente.
Estos primeros pasos no siempre son visibles, pero son esenciales para que la revisión tenga solidez metodológica desde el inicio. El papel del bibliotecario en esta fase no solo es técnico, sino estratégico: contribuye activamente a que el equipo investigador formule una pregunta clara, contextualizada y alineada con la literatura disponible. Como se muestra en la imagen, incluso las herramientas de IA generativa pueden ser un apoyo en esta etapa exploratoria, aunque siempre deben usarse de forma crítica y complementaria, nunca como sustituto de las fuentes especializadas.
La evaluación de la calidad de la evidencia en revisiones sistemáticas (RS) es esencial para la toma de decisiones. Aunque el sistema GRADE (Grading of Recommendations Assessment, Development and Evaluation) ofrece un enfoque consolidado para calificar el nivel de evidencia, su aplicación es compleja y requiere mucho tiempo. La inteligencia artificial (IA) puede utilizarse para superar estas barreras.
En este contexto, acaba de publicarse un estudio experimental analítico que busca desarrollar y evaluar la herramienta URSE basada en IA para la semiautomatización de una adaptación del sistema de clasificación GRADE, determinando niveles de evidencia en RS con metaanálisis compilados de ensayos clínicos aleatorizados (1).
Las conclusiones de este estudio revelan que el rendimiento del sistema GRADE automatizado URSE es insatisfactorio en comparación con los evaluadores humanos. Este resultado indica que el objetivo de utilizar la IA para GRADE no se ha alcanzado.
Las limitaciones del sistema GRADE automatizado URSE reforzaron la tesis de que las herramientas potenciadas por IA deben utilizarse como una ayuda para el trabajo humano y no como un sustituto del mismo. En este contexto, el sistema GRADE automatizado URSE puede utilizarse como segundo o tercer revisor, lo que mejora la objetividad de las dimensiones GRADE, reduce el tiempo de trabajo y resuelve discrepancias.
Los resultados demuestran el uso potencial de la IA en la evaluación de la calidad de la evidencia. Sin embargo, considerando el énfasis del enfoque GRADE en la subjetividad y la comprensión del contexto de producción de evidencia, la automatización completa del proceso de clasificación no es oportuna. No obstante, la combinación del sistema GRADE automatizado URSE con la evaluación humana o la integración de esta herramienta en otras plataformas representa direcciones interesantes para el futuro.
En el siguiente enlace encontrarás un resumen del artículo:
https://hacia-la-automatizacion--1z75d14.gamma.site/
BIBLIOGRAFÍA
Oliveira dos Santos A, Belo VS, Mota Machado T, et al. Toward automating GRADE classification: a proof-of-concept evaluation of an artificial intelligence-based tool for semiautomated evidence quality rating in systematic reviews. BMJ Evidence-Based Medicine. 2025. doi: 10.1136/bmjebm-2024-113123
Una revisión sistemática refleja las limitaciones de los estudios que incluye; por lo tanto, cada estudio elegible para su inclusión en una revisión sistemática requiere una evaluación crítica para determinar si el estudio no ha respondido correctamente a su pregunta de investigación de una manera libre de sesgos.
Lared LATITUDES nos proporciona una visión general de la calidad de los estudios y relación entre los distintos componentes de la calidad. Enfatiza los 3 componentes principales de la calidad del estudio: validez interna, validez externa y calidad del informe/reporte.
El proceso de evaluación del riesgo de sesgo implica una valoración crítica y un juicio relativo a la existencia de riesgos potenciales de sesgo en el estudio. Un sesgo es un «error sistemático, o desviación de la verdad, en los resultados o inferencias» y esto puede conducir a hallazgos que no reflejen el resultado real. El sesgo (por ejemplo, las limitaciones del estudio) se refiere al riesgo de que los estudios sobrestimen o subestimen sistemáticamente el verdadero efecto de la intervención en función de un error en su realización o diseño.
El sesgo es distinto del concepto de calidad
Un estudio con «alta calidad metodológica» puede tener un «alto riesgo de sesgo» como, por ejemplo, cuando el cegamiento es imposible. Por otro lado, no todas las debilidades metodológicas introducen sesgos. Así, ciertos indicadores de «baja calidad metodológica» tienen poca probabilidad de influir en el riesgo de sesgo, como, por ejemplo, la no predeterminación del tamaño muestral.
Herramientas para la evaluación de la calidad
Hay muchas escalas escalas de calidad y listas de verificación (checklists) disponibles. Las revisiones Cochrane no las utilizan dado que no hay evidencia empírica que avale su uso, diferentes escalas llegan a diferentes conclusiones, la ponderación numérica no está justificada y las puntuaciones difíciles de interpretar por los lectores.
Herramientas para la evaluación del riesgo de sesgo
La RoB 2 de Cochrane se utiliza para la evaluación de ensayos clinicos. Valora 7 dominios (Generación de la secuencia aleatoria; Ocultamiento de la asignación; Cegamiento de los participantes y del personal; Cegamiento de los evaluadores del resultado; Datos de resultado incompletos; Notificación selectiva de los resultados; y Otras fuentes de sesgo) siendo la valoración de los revisores como de «bajo riesgo de sesgo» , «alto riesgo de sesgo» o «riesgo de sesgo poco claro«.
Para los estudios no aleatorizados también hay que evaluar el riesgo de sesgo: ROBINS (acrónimo de Risk Of Bias In Non-Randomized Studies). En la actualidad, existen dos versiones de esta herramienta: ROBINS-I, para estudios no aleatorizados de intervenciones y la recientemente lanzada ROBINS-E, que evalúa el efecto de una exposición en estudios de cohortes.
Además de las herramientas para estudios aleatorizados y no aleatorizados, se dispone de herramientas específicas para la evaluación de RoB en informes de casos y series de casos y diseños experimentales de caso único.
Estas herramientas proporcionan marcos estructurados para evaluar la calidad de diferentes tipos de estudios. Cada herramienta está diseñada para abordar las características únicas y los posibles sesgos asociados con diseños de estudio específicos. Por ejemplo, RoB 2 se centra en los ensayos controlados aleatorios, evaluando aspectos como el proceso de aleatorización y el cegamiento, mientras que ROBINS-I se utiliza para estudios de intervención no aleatorizados, considerando factores como el control de confusores.
Si los tipos de diseño de estudios incluidos en mi revisión sistemática son diferentes (p. ej.: EC, estudio de cohortes, …), ¿es mejor utilizar una herramienta genérica o elegir diferentes según el tipo de estudio?
Los autores de revisiones sistemáticas deben examinar los aspectos de riesgo de sesgo (RoB) específicos del diseño de cada estudio primario que incluyan como evidencia. Es poco probable que una única herramienta de valoración de los criterios de RoB sea adecuada para todos los diseños de investigación. Si utilizamos herramientas específicas según el diseño del estudio, nos aseguramos de que la evaluación de calidad se alinea con las consideraciones únicas y los sesgos asociados con cada diseño de estudio. Pero el uso de múltiples herramientas puede aumentar la complejidad y requerir una mayor familiaridad con cada herramienta específica.
La utilización adecuada de estas herramientas permite a los investigadores realizar evaluaciones de calidad más precisas y estandarizadas, mejorando la confiabilidad y la comparabilidad de las síntesis de evidencia. Es importante que los investigadores se familiaricen con la herramienta apropiada para su tipo de estudio y la utilicen de manera consistente en todo el proceso de síntesis de evidencia.
El diagrama de flujo proporcionado por LATITUDES es una guía valiosa en este proceso de selección de la herramienta, pero es importante complementarlo con un conocimiento profundo de las características de cada herramienta y las especificidades del estudio en cuestión. Una selección cuidadosa asegura que todos los aspectos relevantes de la calidad del estudio sean evaluados adecuadamente, fortaleciendo así la validez de la síntesis de evidencia.
Cómo evaluar el riesgo de sesgo
Hay que predefinir en la fase de Protocolo cómo se va a considerar el riesgo de sesgo en el análisis (definir si se va a meta-analizar los estudios con riesgo de sesgo alto o incierto). Al menos debe realizarse por 2 evaluadores de manera independiente siendo conveniente hacer un pilotaje con 3-6 estudios. Además, debemos definir en el Protocolo cómo se van a resolver los desacuerdos y aclarar la información que falta o no está clara en la publicación (por ejemplo, yendo al protocolo del estudio y/o contactar con los autores).
¿Cómo representa la evaluación del riesgo de sesgo en su manuscrito de revisión?
Se ha de resumir el riesgo de sesgo de los estudios incluidos y de cada desenlace. En esta figura se muestra un ejemplo de un resumen de la evaluación del riesgo de sesgo según la herramienta Cochrane de riesgo de sesgo aplicada a 8 ensayos clínicos aleatorizados como parte de una revisión sistemática sobre el calostro humano y bovino para la prevención de la enterocolitis necrotizante.
Figura del riesgo de sesgo. Reproducido de Sadeghirad B, Morgan RL, Zeraatkar D, Zea AM, Couban R, Johnston BC, Florez ID. Human and Bovine Colostrum for Prevention of Necrotizing Enterocolitis: A Meta-analysis. Pediatrics. 2018 Aug;142(2):e20180767. doi: 10.1542/peds.2018-0767.
El resumen de las evaluaciones del riesgo de sesgo para los estudios incluidos en la revisión sistemática incluye tanto la identificación del estudio como los juicios realizados sobre la posibilidad de que se introduzca el sesgo dentro de cada dominio del instrumento de riesgo de sesgo. En esta figura, los círculos verdes que incluyen un carácter más («+») representan dominios con bajo riesgo de sesgo, mientras que los círculos rojos que incluyen un guión («-«) representan dominios con alto riesgo de sesgo.
Gráfico del riesgo de sesgo.
No debemos intentar resumir todos los resultado y todos los estudios a la vez. Hay que resumir por desenlace. Cada desenlace puede tener su evaluación propia del riesgo de sesgo (ej. cegamiento, datos de resultado incompleto). Además, no todos los estudios aportan información a cada desenlace. Debemos empezar resumiendo el riesgo de sesgo dentro de cada estudio y luego entre los estudios.
¿Debemos evaluar el riesgo de sesgo en las revisiones de alcance/scoping reviews?
Las revisiones de alcance no suelen incluir una evaluación del riesgo de sesgo. «Una diferencia clave entre las revisiones de alcance y las revisiones sistemáticas es que las primeras se realizan generalmente para proporcionar una visión general de la evidencia existente, independientemente de la calidad metodológica o del riesgo de sesgo. Por lo tanto, las fuentes de evidencia incluidas no suelen someterse a una valoración crítica en el caso de las revisiones de alcance» (Tricco).
¿Y fuera de ciencias de la salud?
Para disciplinas fuera de la medicina, el Critical Appraisal Skills Programme (https://casp-uk.net/casp-tools-checklists/) proporciona listas de comprobación que pueden aplicarse a diversos tipos de estudios, y la Mixed Methods Appraisal Tool puede ser un recurso útil si los estudios incluidos utilizan métodos mixtos y la JBI también incluye herramientas útiles.
Bibliografía
Whiting P, Wolff R, Savović J, Devine B, Mallett S, Introducing the LATITUDES Network: a Library of Assessment Tools and training to Improve Transparency, Utility and Dissemination in Evidence Synthesis, Journal of Clinical Epidemiology (2024), doi: https://doi.org/10.1016/j.jclinepi.2024.111486
Higgins JPT, Savović J, Page MJ, Elbers RG, Sterne JAC. Chapter 8: Assessing risk of bias in a randomized trial [last updated October 2019]. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.5. Cochrane, 2024. Disponible en www.training.cochrane.org/handbook.
Flemyng E, Moore TH, Boutron I, Higgins JP, Hróbjartsson A, Nejstgaard CH, et al. Using Risk of Bias 2 to assess results from randomised controlled trials: guidance from Cochrane. BMJ Evidence-Based Medicine [Internet]. 1 de agosto de 2023 [citado 14 de noviembre de 2024];28(4):260-6. Disponible en: https://ebm.bmj.com/content/28/4/260
Ciapponi A. Herramientas ROBINS para evaluar el riesgo de sesgo de estudios no aleatorizados. Evidencia – actualización En La práctica Ambulatoria. 2022;25(3):e007024. https://doi.org/10.51987/evidencia.v25i4.7024
Pon a prueba tu equilibrio y conocimientos de revisiones sistemáticas con este quiz interactivo inspirado en la «Jenga». Responde preguntas para mantener la torre en pie.
La revisiónes paraguas, que a veces las encontraremos como Revisión de revisiones o Umbrella review y Overview of review en inglés, son una solución eficiente para navegar el creciente volumen de revisiones sistemáticas en salud y son de gran valor para la toma de decisiones de atención médica al combinar grandes volúmenes de datos de revisiones sistemáticas (RS) en una sola síntesis.
Origen
Surgen por el desafío de la sobrecarga de Información debido al incremento de estudios y de las revisiones sistemáticas que los sintetizan. Además, muchas de estas revisiones son conflictivas, es decir, arrojan resultados opuestos.
Por otro lado, existe la imperiosa necesidad de abordar preguntas amplias presentando una visión general sobre un tema, en lugar de estrechar el enfoque a una sola intervención. Por último, evita derrochan recursos de llevar a cabo nuevas revisiones en lugar de aprovechar las existentes.
¿Qué es una Revisión Paraguas?
Los Overviews son revisiones sistemáticas de revisiones sistemáticas existentes sobre un tema de salud específico. A diferencia de las revisiones sistemáticas, la unidad de análisis son las revisiones sistemáticas y no los estudios primarios. Es decir, buscar e incluye solo revisiones sistemáticas (con o sin metanálisis) y recopila, analiza y presenta los datos de las revisiones sistemáticas incluidas.
Por lo tanto, un requisito previo para realizar una revisión paraguas es la disponibilidad de múltiples revisiones sistemáticas actualizadas de alta calidad que cubran todas las intervenciones de interés. Las revisiones paraguas no deben buscar e incluir revisiones narrativas, capítulos de libros de texto, informes gubernamentales, guías de práctica clínica o cualquier otro informe resumido que no se ajuste a su definición predefinida de revisión sistemática.
Las Overviews no son apropiadas para identificar brechas en la investigación, clasificar intervenciones o hacer comparaciones indirectas.
También se desaconsejas las comparaciones indirectas en las revisiones paraguas. Por ejemplo, imaginemos un Overview que incluya dos revisiones sistemáticas. La revisión sistemática 1 incluye estudios que comparan la intervención A con la intervención B, y concluye que A es más eficaz que B. La revisión sistemática 2 incluye estudios que comparan la intervención B con la intervención C, y concluye que B es más eficaz que C. Sería tentador para los autores del resumen concluir que A es más eficaz que C. Sin embargo, esto requeriría una comparación indirecta, un procedimiento estadístico que compara dos intervenciones (es decir, A frente a C) a través de un comparador común (es decir, B) a pesar de que las dos intervenciones nunca se han comparado directamente entre sí dentro de un estudio primario (Glenny et al 2005).
Beneficios de las Revisiones Paraguas
Visión Amplia: Proporciona una perspectiva general sobre un tema de salud complejo. Identifica áreas de consenso y controversia en la evidencia disponible.
Ahorro de Tiempo: Ofrece una síntesis rápida para la toma de decisiones con plazos ajustados. Evita la duplicación innecesaria de esfuerzos en la revisión de evidencia.
Calidad de la Evidencia: Se basa en revisiones sistemáticas, que ya han pasado por un riguroso proceso. Permite una evaluación crítica de la calidad de múltiples revisiones.
Características
Búsqueda y fuentes de información para las revisiones paraguas
Como en las revisiones sistemáticas, la búsqueda bibliográfica que ha de ser exhaustiva y reproducible.
En general, MEDLINE/PubMed y Embase indexan la mayoría de las revisiones sistemáticas. Los autores también pueden buscar en bases de datos regionales y temáticas adicionales (por ejemplo, LILACS, CINAHL, PsycINFO) y en repositorios de revisiones sistemáticas como la Cochrane Library, Epistemonikos y KSR Evidence.
En la búsqueda en bases de datos generales se debe utilizar filtros validados para solo recuperar revisiones sistemáticas.
Solapamiento de revisiones sistemáticas
Un paso importante una vez que los autores tienen su lista final de revisiones sistemáticas incluidas es evaluar el solapamiento, es decir, determinar qué estudios primarios están incluidos en qué revisiones sistemáticas.
Cochrane recomienda crear una matriz de citas similar a la tabla para demostrar visualmente la cantidad de solapamientos. Los autores también deben describir narrativamente el número y el tamaño de los estudios primarios que se solapan, así como la ponderación que aportan a los análisis. Pieper et al (Pieper D, Antoine S, Mathes T, Neugebauer E, Eikermann M. Systematic review finds overlapping reviews were not mentioned in every other overview. Journal of Clinical Epidemiology 2014; 67: 7.) proporciona instrucciones detalladas para crear matrices de citas, describir el solapamiento y calcular el área cubierta corregida.
Calidad metodológica o el riesgo de sesgo de las revisiones sistemáticas incluidas en las síntesis
La herramienta AMSTAR 2 (Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ 2017; 358: j4008.) está diseñada para evaluar la calidad metodológica de las revisiones sistemáticas de ensayos controlados aleatorizados, y hasta la fecha ha sido la herramienta más utilizada en los Overviews. Se puede utilizar para evaluar la calidad metodológica de las revisiones sistemáticas que incluyen estudios aleatorizados y no aleatorizados de intervenciones sanitarias. Esta proporciona orientación para calificar la confianza general en los resultados de una revisión (alta, moderada, baja o críticamente baja en función del número de defectos críticos y/o debilidades no críticas).
Otra herramienta disponible para evaluar el riesgo de sesgo de las revisiones sistemáticas en los resúmenes pueden utilizar la herramienta ROBIS disponible en el sitio web de ROBIS (https://www.bristol.ac.uk/population-health-sciences/projects/robis/). Este sitio web también contiene formularios de extracción de datos y tablas de presentación de datos.
Mañana, 17 de abril de 2024, impartir el Taller de revisiones de alcance («scoping reviews») dentro de las XXV Jornadas de Gestión de la Información» de la SEDIC.
Aquí os dejo una práctica que he confeccionado para la definición de este tipo de revisiones:
Al final del taller, haremos el siguiente juego para evaluar lo aprendido:
BIBLIOGRAFÍA
Munn Z, Pollock D, Khalil H, Alexander L, McInerney P, Godfrey CM, et al. What are scoping reviews? Providing a formal definition of scoping reviews as a type of evidence synthesis. JBI Evid Synth 2022;20 (4):950–952.
Munn Z, Peters MDJ, Stern C, Tufanaru C, McArthur A, Aromataris E. Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Med Res Methodol 2018;18 (1):143.
Peters MDJ, Godfrey C, McInerney P, Khalil H, Larsen P, Marnie C, et al. Best practice guidance and reporting items for the development of scoping review protocols. JBI Evid Synth 2022;20 (4):953–958.
Khalil H, Peters MDJ, Tricco AC, Pollock D, Alexander L, McInerney P, et al. Conducting high quality scoping reviews-challenges and solutions. J Clin Epidemiol 2021;130:156–160.
Peters MDJ, Marnie C, Tricco AC, Pollock D, Munn Z, Alexander L, et al. Updated methodological guidance for the conduct of scoping reviews. JBI Evid Implement 2021;19 (1):3–10.
PRISMA extension for Scoping Reviews (PRISMA-ScR): checklist and explanation. Ann Intern Med 2018;169 (7):467–473.Pollock D, Peters MDJ, Khalil H, McInerney P, Alexander L, Tricco AC, et al. Recommendations for the extraction, analysis, and presentation of results in scoping reviews. JBI Evidence Synthesis [Internet]. 2022 Sep 8 [cited 2022 Sep 9];Publish Ahead of Print. Available from: https://journals.lww.com/jbisrir/Fulltext/9900/Recommendations_for_the_extraction,_analysis,_and.76.aspx
Una revisión sistemática típica tarda varios meses en completarse. Aunque el alcance de una revisión sistemática estará determinado en gran medida por la pregunta de investigación que se haya formulado, puede haber oportunidades para ampliar o restringir una pregunta de investigación en un intento de hacer que la revisión planificada sea manejable dentro del tiempo y los recursos disponibles.
Una vez estamos planteándonos nuestra pregunta de investigación y antes de darla por establecida esta, así como los criterios de elegibilidad/inclusión, debemos realizar una búsqueda inicial para analizar el alcance de nuestra revisión.
¿Debería ser nuestra revisión amplia o reducida?
Podemos encontrarnos con dos escenarios:
Una pregunta de investigación amplia;
No todos los tipos de preguntas son adecuados para las revisiones sistemáticas. Muchas de las preguntas que inicialmente son ideadas por los grupos de usuarios son de marco abierto, ya que carecen de especificación o definición de algunos de los componentes clave. Normalmente, estas preguntas no pueden responderse en un único estudio experimental y, por tanto, tampoco mediante una síntesis de estudios similares.
Es posible desglosar de las preguntas de marco abierto para identificar las de marco cerrado. En la siguiente figura vemos un ejemplo de cómo pasar de una pregunta en exceso amplia a una reducida:
Una pregunta de investigación reducida:
Ventajas de una revisión amplia
En el siguiente ejemplo vemos cómo pasar de una pregunta en exceso amplia a una pregunta más reducida
Son aplicables a una variedad más amplia de entornos o contextos, o poblaciones, o intervenciones o resultados, y ofrece un mayor potencial para explorar la coherencia de los resultados de la investigación, con menos oportunidades de hallazgos fortuitos.
Los resultados de las revisiones sistemáticas sean más accesibles para los responsables de la toma de decisiones, que a menudo tienen que elegir y tomar una decisión entre una variedad de intervenciones para poblaciones diferentes.
Inconvenientes de una revisión amplia
Una revisión más amplia daría como resultado una revisión de un mayor volumen de evidencia.
Supondría más trabajo (más análisis, más extracción de datos, más análisis que realizar, más resultados que debatir).
Habría que considerar las posibilidades de generalización de los resultados obtenidos de esta amplia población a la subpoblación de interés primario para esta revisión. Una revisión más amplia tendrá más datos de estudios adicionales, lo que permitirá realizar análisis de subgrupos significativos.
Ventajas de una revisión reducida
Cuando los recursos son limitados, una revisión más restringida (o una «división» de la revisión) puede hacer que la finalización sea más factible.
La mayor homogeneidad de los estudios incluidos puede proporcionar una respuesta más centrada a la pregunta de investigación específica (restringida).
Una revisión centrada en un único enfoque será más concisa y de mayor interés para los lectores interesados en este enfoque específico.
Inconvenientes de una revisión reducida
La limitación a poblaciones muy concretas podría dar lugar a una revisión bastante «estrecha», y quedarían excluidos grandes volúmenes potenciales de pruebas procedentes de otros pacientes.
Limitar la revisión a un único enfoque específico no responde a la pregunta clínica relativa a los efectos relativos de los diferentes enfoques.
Veamos un ejemplo (Pollock, 2018):
Una revisión amplia sería: En pacientes con accidente cerebrovascular con movilidad reducida, ¿es algún enfoque específico de fisioterapia más beneficioso que ninguna fisioterapia o cualquier otro enfoque de fisioterapia para mejorar la dependencia en las actividades de la vida diaria y la velocidad de desplazamiento?
Una revisión más concisa sería: En pacientes con un accidente cerebrovascular reciente (menos de seis semanas) con movilidad reducida, ¿es el método Bobath más beneficioso que el método de aprendizaje motor para mejorar la independencia en actividades de la vida diaria y la velocidad de la marcha?
Ventajas e inconvenientes:
Una revisión ampliada supondría más trabajo (más análisis, más extracción de datos, más análisis que realizar, más resultados que debatir).
Habría que considerar las posibilidades de generalización de los resultados obtenidos de esta amplia población a la subpoblación de interés primario para esta revisión (pacientes con apoplejía durante las últimas seis semanas).
Una revisión centrada en un único enfoque fisioterapéutico (por ejemplo, el enfoque Bobath) será más concisa y de mayor interés para los lectores interesados en este enfoque específico.
La limitación a los pacientes que han sufrido un ictus en las últimas 6 semanas podría dar lugar a una revisión bastante «estrecha», y quedarían excluidos grandes volúmenes potenciales de pruebas procedentes de otros pacientes. Una revisión más amplia daría como resultado una revisión de un mayor volumen de evidencia.
La evaluación de los efectos de diferentes enfoques fisioterapéuticos (no solo el enfoque Bobath) será clínicamente relevante para los médicos, que tienen que considerar todos los enfoques disponibles a la hora de tomar una decisión terapéutica. Limitar la revisión a un único enfoque específico (por ejemplo, el enfoque Bobath) no responde a la pregunta clínica relativa a los efectos relativos de los diferentes enfoques.
La consideración de otros grupos de control, además del grupo de control «sin fisioterapia» reflejará la elección a la que se enfrentan muchos médicos, que tienen que elegir entre dos o más enfoques diferentes, en lugar de entre un enfoque o sin fisioterapia.
Una revisión más amplia tendrá más datos de estudios adicionales, lo que permitirá realizar análisis de subgrupos significativos.
BIBLIOGRAFÍA
Pollock A, Berge E. How to do a systematic review. Int J Stroke. 2018 Feb;13(2):138-156. doi: 10.1177/1747493017743796. PMID: 29148960.
Los autores de revisiones sistemáticas deben hacer una evaluación del riesgo de sesgo (RoB) para cada estudio primario que incluyan como evidencia. No existe una única herramienta de evaluación de los RoB que sea adecuada para todos los diseños de investigación. Además de herramientas para estudios aleatorizados y no aleatorizados, existen herramientas específicas para la evaluación de la RoB en informes de casos y series de casos y diseños experimentales de caso único.
Al igual que ocurre en otros pasos de las revisiones, la incomprensión de las herramientas para evaluar el RoB así como su aplicación incorrecta son problemas generalizados. Además, el tiempo y el esfuerzo necesarios para aplicar los estándares metodológicos recomendados por las principales organizaciones (Cochrane RoB-2 para ECA (1) y ROBINS-I (2) para intervenciones no aleatorizadas), puede hacer que los autores no sigan sus orientaciones y empleen métodos desaconsejados o anticuados. Por ejemplo, la escala Newcastle-Ottawa (NOS) es una herramienta comúnmente utilizada para valorar estudios no aleatorizados.
Wells y cols. (2) propusieron una escala para evaluar la calidad de los estudios no aleatorizados publicados en metaanálisis denominada Newcastle-Ottawa-Scale (NOS). Esta herramienta puede utilizarse como lista de comprobación o como escala.
Muchos autores justifican su selección de esta herramienta haciendo referencia justamente a una publicación que describe la falta de fiabilidad de la NOS y desaconseja su uso (3).
En esta publicación Stang señala:
«Creo que Wells et al. proporcionan una puntuación de calidad que tiene una validez desconocida en el mejor de los casos, o que incluye elementos de calidad que incluso no son válidos. La versión actual parece inaceptable para la clasificación de la calidad tanto de estudios de casos y controles como de estudios de cohortes en metaanálisis. El uso de esta puntuación en revisiones basadas en la evidencia y metaanálisis basados en la evidencia puede producir resultados muy arbitrarios«.
BIBLIOGRAFÍA
Sterne JAC, Savović J, Page MJ, Elbers RG, Blencowe NS, Boutron I, et al. RoB 2: a revised tool for assessing risk of bias in randomised trials. BMJ 2019;366:l4894.
Sterne JA, Hernán MA, Reeves BC, Savović J, Berkman ND, Viswanathan M, et al. ROBINS-I: a tool for assessing risk of bias in non-randomised studies of interventions. BMJ 2016;355:i4919.
Wells GA, Shea B, O’Connell D, Peterson J, Welch V, Losos M, et al. The Newcastle-Ottawa Scale (NOS) for assessing the quality if nonrandomized studies in meta-analyses. Disponible en: URL: http://www.ohri.ca/programs/clinical_epidemiology/oxford.htm
Stang A. Critical evaluation of the Newcastle-Ottawa scale for the assessment of the quality of nonrandomized studies in meta-analyses. Eur J Epidemiol 2010;25(9):603–605.
Cómo muchos de vosotros ya sabéis, soy bibliotecaria de ciencias de la salud en el Hospital Universitario de Getafe y con anterioridad del Hospital Central de la Cruz Roja. Me defino como especialista en documentación científica en ciencias de la salud y en documentos de síntesis de evidencia científica como revisiones sistemáticas y revisiones de alcance. Docente de cursos de competencias informacionales (alfabetización informacional) en ciencias de la salud orientados a profesionales sanitarios y profesionales de la información. Y, por último, produzco y difundo información científica a través de publicaciones científicas (https://orcid.org/0000-0003-2724-2563), mi blog biblioGetafe (https://bibliogetafe.com) y redes sociales como Twitter (https://twitter.com/biblioGetafe) o LinkedIn (https://es.linkedin.com/in/concepción-campos-asensio-28089721).
Los bibliotecarios de ciencias de la salud desempeñamos un papel importante dentro de los hospitales. Somos expertos en la recuperación y evaluación de la información necesaria para el apoyo de la toma de decisiones clínicas, científicas y de gestión basadas en el conocimiento y la evidencia en todas las instituciones sanitarias. Los bibliotecarios de ciencias de la salud también tenemos la responsabilidad de formar a los profesionales sanitarios en los mejores métodos de recuperación para la práctica basada en el conocimiento, la investigación y el aprendizaje permanente.
Los bibliotecarios médicos, también conocidos como profesionales de la información sanitaria, especialistas en información médica o sus múltiples variantes, buscan, analizan, proporcionan acceso y presentan información esencial que mejora la atención al paciente y apoya la educación, la investigación y la publicación médica y sanitaria.
Los bibliotecarios de hospital buscan, analizan, proporcionan acceso y presentan información esencial que mejora la atención al paciente y apoya la educación, la investigación y la publicación médica y sanitaria.
Como ya vimos en la anterior entrada «Impacto y valor de los servicios de las bibliotecas de hospital» desempeñan muchas funciones críticas en el hospital actual, ya que proporcionan la información adecuada en el momento adecuado de diversas maneras para mejorar la eficacia del hospital y del personal médico, optimizar la atención al paciente, mejorar los resultados del paciente y aumentar la satisfacción del paciente y de la familia con el hospital y sus servicios. Dado que los bibliotecarios de hospital y sus servicios proporcionan un excelente retorno de la inversión para el hospital y le ayudan a mantener su ventaja competitiva, el personal del hospital debe tener acceso a los servicios de un bibliotecario profesional.
Las bibliotecas biomédicas tienen unos usuarios únicos, con grandes exigencias y recursos y colecciones costosos. La capacidad de la biblioteca para responder a las necesidades de información en ciencias de la salud de la institución no es suficiente, debemos mantenernos actualizados de los nuevos avances (p. ej.: IA) y debemos visualizar y difundir de forma calculada y creativa nuestro trabajo para evitar la incesante percepción de que somos prescindibles.
Teniendo esto último presente, acepté la ocasión que me ofreció el jefe de la Unidad de Documentación del Hospital de Getafe, Javier Gómez, de que David Sañudo me entrevistara en la Cadena Ser. Agradezco a los dos la oportunidad y aquí os dejo el audio y el enlace:
Aquí encontrarás los principales manuales, guías, directrices y criterios para hacer, informar y evaluar las revisiones sistemáticas en ciencias de la salud.
1)Por dónde empezar: Manuales y guías metodológicas
1.1. Xiao, Y., & Watson, M. (2019). Guidance on Conducting a Systematic Literature Review. Journal of Planning Education and Research, 39(1), 93-112. https://doi.org/10.1177/0739456X17723971.
Este artículo proporciona una breve descripción general de los pasos de una revisión sistemática. En su descripción se incluye varias tablas y figuras interesantes como la que describe las tipologías de revisiones de literatura por propósito de revisión con ejemplos.
1.2. Kolaski K, Logan LR, Ioannidis JPA. Guidance to Best Tools and Practices for Systematic Reviews. JBJS Rev. 2023 Jun 7;11(6):e23.00077. doi: 10.2106/JBJS.RVW.23.00077.
Publicado en varios artículos de PMIDs: 37285444; 37282594; 37302044; 37286949; 37291658; 37288997 y 37282770.
Incluye una tabla con las herramientas que especifican las guías para revisiones sistemáticas con y sin metaanálisis.
1.3. Finding What Works in Health Care es un libro de los Estándares de las Academias Nacionales para Revisiones Sistemáticas (Institute of Medicine Standards for Systematic Reviews (IOM).
1.4. El Manual Cochrane para revisiones e intervenciones sistemáticas. Guía oficial que describe en detalle el proceso de preparación y mantenimiento de revisiones sistemáticas Cochrane sobre los efectos de las intervenciones sanitarias.
Versión original: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023.Disponible en: http://www.training.cochrane.org/handbook. Versión en español: Centro Cochrane Iberoamericano, traductores. Manual Cochrane de Revisiones Sistemáticas de Intervenciones, versión 5.1.0 [actualizada en marzo de 2011] [Internet]. Barcelona: Centro Cochrane Iberoamericano; 2012. Disponible en https://es.cochrane.org/es/recursos-para-autores-elaborar-revisiones
Diseñado para proporcionar a los autores una guía completa para realizar revisiones sistemáticas del JBI. Describe en detalle el proceso de planificación, realización y redacción de una revisión sistemática u otros documentos de síntesis de evidencia (Umbrela, scoping, …) utilizando los métodos JBI.
2.1. PRISMA 2020es un conjunto mínimo de elementos para informar en revisiones sistemáticas y metanálisis. PRISMA se centra principalmente en la presentación de informes de revisiones que evalúan los efectos de las intervenciones, pero también puede utilizarse como base para informar revisiones sistemáticas con objetivos distintos. PRISMA no es un estándar para la realización de revisiones sistemáticas. Es una guía de informes diseñada para abordar los informes deficientes de revisiones sistemáticas. Estas recomendaciones han sido ampliamente respaldadas y adoptadas en diversas disciplinas.
2.2. QUOROM. Quality of Reporting of Meta-analyses (QUOROM) Statement. Moher D, Eastwood S, Olkin I, Drummond R, Stroup D. Improving the quality of reports of meta-analyses of randomised controlled trials: the QUOROM statement. Lancet. 1999;354:1896-900. Disponible en: https://doi.org/10.1016/S0140-6736(99)04149-5. Dispone de unas directrices, una lista de comprobación y un diagrama de flujo. La lista de comprobación describe la forma preferida de presentar las secciones de resumen, introducción, métodos, resultados y discusión del informe de un metaanálisis.
2.3. MOOSE. Contiene una checklist para la presentación de metaanálisis de estudios observacionales en epidemiología, incluidos los antecedentes, la estrategia de búsqueda, los métodos, los resultados, la discusión y la conclusión. Meta-analyses Of Observational Studies in Epidemiology (MOOSE). Stroup D Berlin J Morton S Olkin I Williamson G Rennie D, et al. Meta-analysis of observational studies in epidemiology. A proposal for reporting. JAMA. 2000;238(15):2008-12. Disponible en: https://jamanetwork.com/journals/jama/fullarticle/192614
3) Cómo evaluar
3.1. AMSTAR (A MeaSurement Tool to Assess systematic Reviews) es una herramienta para evaluar críticamente revisiones sistemáticas de estudios de intervenciones en salud que incluyen estudios aleatorios o no aleatorios (NRS), o ambos. Disponible en: https://amstar.ca/index.php.
Perry, R., Whitmarsh, A., Leach, V. et al. A comparison of two assessment tools used in overviews of systematic reviews: ROBIS versus AMSTAR-2. Syst Rev10, 273 (2021). https://doi.org/10.1186/s13643-021-01819-x.
Releía ayer el artículo Easy ≠ Right (1) con estupendas reflexiones de la bibliotecaria Melissa L. Rethlefsen, autora principal de las directrices PRISMA-S, que en 2008 nos advertía que «no hay soluciones únicas para una investigación de calidad» y que a «la hora de buscar información, ¿Qué es lo correcto y qué lo fácil?
El desarrollo de estrategias de búsqueda sólidas para buscar en la literatura e identificar estudios es un paso crucial en la metodología de síntesis de la evidencia. Sin embargo, su complejidad hizo aparecer herramientas que facilitaban la localización de evidencia de alta calidad (2). En la década de los 90, la búsqueda federada, también conocida como metabúsqueda o búsqueda cruzada en bases de datos, permitía la práctica de utilizar una interfaz para buscar en múltiples fuentes de una sola vez. Fue anunciada como la próxima novedad en búsquedas.
Rethlefsen afirmaba que encontrar la mejor información o la más completa sobre un tema requiere más esfuerzo que buscar introduciendo una o dos palabras clave en una caja de búsqueda. Y he reflexionado sobre la búsqueda con inteligencia artificial de la que hoy en día tanto interés nos despierta. Por el momento podemos seguir afirmando lo mismo que la autora nos decía hablando de Google, pero el futuro nos dirá la última palabra.
Por último, estos avances en los «sistemas de búsqueda» no permiten la transparencia o la reproducibilidad de la metodología de búsqueda (3). Esto ha sido, hasta la fecha, una de las claves para las revisiones sistemáticas de calidad y libre de sesgos (4).
Solomons T, Hinton E. Federated searches: why a one-stop shop approach to literature searching falls short for evidence synthesis. JBI Evidence Synthesis 19(6):p 1259-1262, June 2021. | DOI: 10.11124/JBIES-21-00177
Rethlefsen ML, Kirtley S, Waffenschmidt S, Ayala AP, Moher D, Page MJ, et al. PRISMA-S: an extension to the PRISMA Statement for Reporting Literature Searches in Systematic Reviews. Syst Rev 2021;10 (1):39.
Why Does the Reproducibility of Search Strategies and Search Results in Systematic Reviews Reduce Over Time? What We Can Do About It? by @FarhadShokrane Disponible en: https://link.medium.com/jezQLPFeyFb
La síntesis de conocimientos consiste en la integración de los resultados de la investigación de estudios de investigación individuales y permite abordar las necesidades de información. Dentro de la gran familia de tipos de síntesis de conocimientos, tenemos las revisiones sistemáticas, adecuadas para abordar una pregunta de revisión bien definida pero menos adecuadas en otras circunstancias.
Históricamente, las revisiones sistemáticas se han centrado en losbeneficios y daños de las intervenciones; con el tiempo, han surgido otros tipos de síntesis de la evidencia, como las revisiones generales (overviews o umbrella reviews), las revisiones de alcance (scoping reviews), las revisiones rápidas (rapid reviews) y las revisiones vivas (living reviews).
Esta variedad de métodos de síntesis puede ser un reto seleccionar el método de síntesis del conocimiento «correcto». Para ayudar con esta dificultad, os presento en primer lugar un mapa de decisión de tipo de revisión (adaptado del documento similar de la Biblioteca de la Universidad de Cornell. Está bajo una licencia CC BY 4.0. https://cornell.app.box.com/s/tfgvuicvsn9s58g7c0akxh0cmcuifbbo/file/573873815952)
En segundo lugar, os recuerdo que disponéis de la herramienta web de apoyo a la toma de decisiones Right Review (https://rightreview.knowledgetranslation.net/) que os recomendará, a través de una serie de preguntas sencillas, el método de síntesis cuantitativa y cualitativa más adecuado.
Tricco AC, Soobiah C, Antony J, Cogo E, MacDonald H, Lillie E, Tran J, D’Souza J, Hui W, Perrier L, Welch V, Horsley T, Straus SE, Kastner M. A scoping review identifies multiple emerging knowledge synthesis methods, but few studies operationalize the method. J Clin Epidemiol. 2016 May;73:19-28. doi: 10.1016/j.jclinepi.2015.08.030. PMID: 26891949.
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276. PMID: 31541534.
Amog K, Pham B, Courvoisier M, Mak M, Booth A, Godfrey C, Hwee J, Straus SE, Tricco AC. The web-based «Right Review» tool asks reviewers simple questions to suggest methods from 41 knowledge synthesis methods. J Clin Epidemiol. 2022 Jul;147:42-51. doi: 10.1016/j.jclinepi.2022.03.004. PMID: 35314349.
La declaración PRISMA 2009 indicaba que la sección de conclusiones de una revisión sistemática debe «proporcionar una interpretación general de los resultados en el contexto de otras evidencias» (1). En la actualización, PRISMA 2020 añade «argumente las implicaciones de los resultados para la práctica, las políticas y las futuras investigaciones» (2). Sin embargo, la declaración no requiere que los autores de revisiones sistemáticas hagan recomendaciones dentro de esta sección.
Las directrices de la Colaboración Cochrane (3) y del grupo de trabajo GRADE (4) establecen específicamente que las revisiones sistemáticas no deben incluir recomendaciones para la práctica. Así, podemos leer en el capítulo 15 del manual Cochrane que «Los autores de las revisiones deben evitar recomendaciones específicas que inevitablemente dependen de suposiciones sobre los recursos disponibles, los valores y las preferencias, y otros factores como las consideraciones de equidad, la viabilidad y la aceptabilidad de una intervención. El objetivo de la revisión debe ser presentar información y ayudar a su interpretación, más que ofrecer recomendaciones. La discusión y las conclusiones deben ayudar a las personas a comprender las implicaciones de las pruebas en relación con las decisiones prácticas y a aplicar los resultados a su situación específica. Los autores de la revisión pueden ayudar a esta comprensión de las implicaciones planteando diferentes escenarios que describan determinadas estructuras de valores». Cochrane y GRADE consideran que hacer recomendaciones para la práctica está fuera del alcance de una revisión sistemática y reservando las recomendaciones únicamente competencia de las guías de práctica clínica.
Por el contrario, la JBI sugiere que las recomendaciones pueden y deben incluirse también en las revisiones sistemáticas del JBI. Si consultamos su Manual (5), en el apartado de conclusiones se indica que «debe incluir las recomendaciones para la práctica inferidas de los resultados de la revisión e inferidas también sobre la base de la discusión sobre la generalizabilidad de los resultados y los factores potenciales que pueden afectar a la aplicabilidad de los resultados. A las recomendaciones se les debe asignar un Grado de Recomendación del JBI» (5).
BIBLIOGRAFÍA
Liberati A, Altman DG, Tetzlaff J et al. The PRISMA Statement for Reporting Systematic Reviews and Meta-Analyses of Studies That Evaluate Health Care Interventions: Explanation and Elaboration. PLoS Med. 2009;6(7):e1000100.
Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, et al. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ 2021;372:n71. doi: 10.1136/bmj.n71
Schünemann HJ, Vist GE, Higgins JPT, Santesso N, Deeks JJ, Glasziou P, Akl EA, Guyatt GH. Chapter 15: Interpreting results and drawing conclusions. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023. Available from http://www.training.cochrane.org/handbook.
Balshem H, Helfand M, Schunemann HJ et al. GRADE guidelines: 3. Rating the quality of evidence. J Clin Epidemiol. 2011;64(4):401-6.