Demostrar el valor y el impacto de los servicios bibliotecarios en el entorno hospitalario puede ser un desafío, especialmente en términos de justificar recursos limitados y asegurar el apoyo institucional continuo.
En una revisión sistemática de Weightman del 2005 encontró evidencias del cómo los servicios de las bibliotecas de centros sanitarios pueden influir en los resultados de los pacientes (Figura 1).
Figura 1. Impacto de los servicios de las bibliotecas de centros sanitarios en los resultados de los pacientes.
En esta misma revisión se evidenció una reducción del 10-19% en la duración de la estancia del paciente.
También hay evidencia de cómo la información proporcionada por los bibliotecarios médicos mejoró la atención de los pacientes (Figura 2).
Figura 2. Impacto de la información proporcionada por los bibliotecarios de centros sanitarios en la atención de los pacientes.
Los hospitales tienen multitud de necesidades y recursos limitados. Por esto es Importante comunicar el valor añadido que aporta la Biblioteca al Hospital en su labor educativa, investigadora y clínica.
Las bibliotecas de ciencias de la salud ha de estar apoyando las misiones del Hospital proporcionando los mejores recursos, colecciones y servicios posibles, y seguir centrada en su objetivo de demostrar continuamente su valor comprometiéndose con los usuarios y siendo percibida no como una unidad de apoyo, sino como un socio integral a nivel clínico, académico e investigador.
BIBLIOGRAFÍA
Aitken, EM, Powelson, SE, Reaume, RD, & Ghali, WA (2011). Involving clinical librarians at the point of care: results of a controlled intervention. Academic Medicine, 86(12), 1508-1512. DOI: 10.1097/ACM.0b013e31823595cd
Brettle, A., Maden, M. and Payne, C. (2016), The impact of clinical librarian services on patients and health care organizations (full text). Health Information and Libraries Journal, 33: 100–120. DOI: 10.1111/hir.12136
McGowan, J, Hogg, W, Campbell, C, & Rowan, M (2008), Just-in-time information improved decision-making in primary care: a randomized controlled trial. PLoS One, 3(11), e3785. DOI: 10.1371/journal.pone.0003785
Marshall JG, Sollenberger J, Easterby-Gannett S, et al. The value of library and information services in patient care: results of a multisite study. Journal of the Medical Library Association,101(1):38-46. DOI: 10.3163/1536-5050.101.1.007
Weightman, A. L., & Williamson, J. (2005). The value and impact of information provided through library services for patient care: A systematic review. Health Information & Libraries Journal, 22(1), 4-25. https://doi.org/10.1111/j.1471-1842.2005.00549.x
Aquí encontrarás los principales manuales, guías, directrices y criterios para hacer, informar y evaluar las revisiones sistemáticas en ciencias de la salud.
1)Por dónde empezar: Manuales y guías metodológicas
1.1. Xiao, Y., & Watson, M. (2019). Guidance on Conducting a Systematic Literature Review. Journal of Planning Education and Research, 39(1), 93-112. https://doi.org/10.1177/0739456X17723971.
Este artículo proporciona una breve descripción general de los pasos de una revisión sistemática. En su descripción se incluye varias tablas y figuras interesantes como la que describe las tipologías de revisiones de literatura por propósito de revisión con ejemplos.
1.2. Kolaski K, Logan LR, Ioannidis JPA. Guidance to Best Tools and Practices for Systematic Reviews. JBJS Rev. 2023 Jun 7;11(6):e23.00077. doi: 10.2106/JBJS.RVW.23.00077.
Publicado en varios artículos de PMIDs: 37285444; 37282594; 37302044; 37286949; 37291658; 37288997 y 37282770.
Incluye una tabla con las herramientas que especifican las guías para revisiones sistemáticas con y sin metaanálisis.
1.3. Finding What Works in Health Care es un libro de los Estándares de las Academias Nacionales para Revisiones Sistemáticas (Institute of Medicine Standards for Systematic Reviews (IOM).
1.4. El Manual Cochrane para revisiones e intervenciones sistemáticas. Guía oficial que describe en detalle el proceso de preparación y mantenimiento de revisiones sistemáticas Cochrane sobre los efectos de las intervenciones sanitarias.
Versión original: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023.Disponible en: http://www.training.cochrane.org/handbook. Versión en español: Centro Cochrane Iberoamericano, traductores. Manual Cochrane de Revisiones Sistemáticas de Intervenciones, versión 5.1.0 [actualizada en marzo de 2011] [Internet]. Barcelona: Centro Cochrane Iberoamericano; 2012. Disponible en https://es.cochrane.org/es/recursos-para-autores-elaborar-revisiones
Diseñado para proporcionar a los autores una guía completa para realizar revisiones sistemáticas del JBI. Describe en detalle el proceso de planificación, realización y redacción de una revisión sistemática u otros documentos de síntesis de evidencia (Umbrela, scoping, …) utilizando los métodos JBI.
2.1. PRISMA 2020es un conjunto mínimo de elementos para informar en revisiones sistemáticas y metanálisis. PRISMA se centra principalmente en la presentación de informes de revisiones que evalúan los efectos de las intervenciones, pero también puede utilizarse como base para informar revisiones sistemáticas con objetivos distintos. PRISMA no es un estándar para la realización de revisiones sistemáticas. Es una guía de informes diseñada para abordar los informes deficientes de revisiones sistemáticas. Estas recomendaciones han sido ampliamente respaldadas y adoptadas en diversas disciplinas.
2.2. QUOROM. Quality of Reporting of Meta-analyses (QUOROM) Statement. Moher D, Eastwood S, Olkin I, Drummond R, Stroup D. Improving the quality of reports of meta-analyses of randomised controlled trials: the QUOROM statement. Lancet. 1999;354:1896-900. Disponible en: https://doi.org/10.1016/S0140-6736(99)04149-5. Dispone de unas directrices, una lista de comprobación y un diagrama de flujo. La lista de comprobación describe la forma preferida de presentar las secciones de resumen, introducción, métodos, resultados y discusión del informe de un metaanálisis.
2.3. MOOSE. Contiene una checklist para la presentación de metaanálisis de estudios observacionales en epidemiología, incluidos los antecedentes, la estrategia de búsqueda, los métodos, los resultados, la discusión y la conclusión. Meta-analyses Of Observational Studies in Epidemiology (MOOSE). Stroup D Berlin J Morton S Olkin I Williamson G Rennie D, et al. Meta-analysis of observational studies in epidemiology. A proposal for reporting. JAMA. 2000;238(15):2008-12. Disponible en: https://jamanetwork.com/journals/jama/fullarticle/192614
3) Cómo evaluar
3.1. AMSTAR (A MeaSurement Tool to Assess systematic Reviews) es una herramienta para evaluar críticamente revisiones sistemáticas de estudios de intervenciones en salud que incluyen estudios aleatorios o no aleatorios (NRS), o ambos. Disponible en: https://amstar.ca/index.php.
Perry, R., Whitmarsh, A., Leach, V. et al. A comparison of two assessment tools used in overviews of systematic reviews: ROBIS versus AMSTAR-2. Syst Rev10, 273 (2021). https://doi.org/10.1186/s13643-021-01819-x.
Releía ayer el artículo Easy ≠ Right (1) con estupendas reflexiones de la bibliotecaria Melissa L. Rethlefsen, autora principal de las directrices PRISMA-S, que en 2008 nos advertía que «no hay soluciones únicas para una investigación de calidad» y que a «la hora de buscar información, ¿Qué es lo correcto y qué lo fácil?
El desarrollo de estrategias de búsqueda sólidas para buscar en la literatura e identificar estudios es un paso crucial en la metodología de síntesis de la evidencia. Sin embargo, su complejidad hizo aparecer herramientas que facilitaban la localización de evidencia de alta calidad (2). En la década de los 90, la búsqueda federada, también conocida como metabúsqueda o búsqueda cruzada en bases de datos, permitía la práctica de utilizar una interfaz para buscar en múltiples fuentes de una sola vez. Fue anunciada como la próxima novedad en búsquedas.
Rethlefsen afirmaba que encontrar la mejor información o la más completa sobre un tema requiere más esfuerzo que buscar introduciendo una o dos palabras clave en una caja de búsqueda. Y he reflexionado sobre la búsqueda con inteligencia artificial de la que hoy en día tanto interés nos despierta. Por el momento podemos seguir afirmando lo mismo que la autora nos decía hablando de Google, pero el futuro nos dirá la última palabra.
Por último, estos avances en los «sistemas de búsqueda» no permiten la transparencia o la reproducibilidad de la metodología de búsqueda (3). Esto ha sido, hasta la fecha, una de las claves para las revisiones sistemáticas de calidad y libre de sesgos (4).
Solomons T, Hinton E. Federated searches: why a one-stop shop approach to literature searching falls short for evidence synthesis. JBI Evidence Synthesis 19(6):p 1259-1262, June 2021. | DOI: 10.11124/JBIES-21-00177
Rethlefsen ML, Kirtley S, Waffenschmidt S, Ayala AP, Moher D, Page MJ, et al. PRISMA-S: an extension to the PRISMA Statement for Reporting Literature Searches in Systematic Reviews. Syst Rev 2021;10 (1):39.
Why Does the Reproducibility of Search Strategies and Search Results in Systematic Reviews Reduce Over Time? What We Can Do About It? by @FarhadShokrane Disponible en: https://link.medium.com/jezQLPFeyFb
El objetivo de la ciencia abierta es aumentar la accesibilidad, transparencia, fiabilidad y (re)utilización de los resultados académicos. Además, la ciencia abierta se alinea con los principios de equidad, diversidad e inclusión, con el objetivo de abrir la creación, evaluación y comunicación del conocimiento científico a académicos y actores sociales más allá de la comunidad científica tradicional. Esto puede lograrse aplicando prácticas de ciencia abierta a lo largo de todo el ciclo de vida de la investigación, desde el diseño del estudio hasta su publicación, y más allá.
Como evaluar el grado en que las revistas cumplen con las prácticas científicas abiertas
Los organismos de financiación y las instituciones académicas tienen la responsabilidad de garantizar que se faciliten y apoyen las prácticas científicas abiertas para mejorar la calidad y la replicabilidad de la investigación. Sin embargo, los editores de revistas también deben compartir esta responsabilidad de crear una cultura de investigación más abierta y mejorar las prácticas científicas abiertas.
Las directrices TOP (Transparency and Openness Promotions)
Publicadas en Science en el año 2015 (OA), the Transparency and Openness Promotion Guidelines (TOP) incluyen ocho normas modulares, cada una con tres niveles de rigor creciente.
Este marco de ocho normas que resumen los comportamientos que pueden mejorar la transparencia y la reproducibilidad de la investigación, como la transparencia de los datos, los materiales, el código y el diseño de la investigación, el registro previo y la replicación. Las revistas pueden adoptar políticas para cada una de las ocho normas que tienen niveles crecientes de rigor.
Con demasiada frecuencia, las revistas se comparan utilizando métricas que nada tienen que ver con su calidad. Muchos hacen un uso inadecuado del JIF malinterpretando «impacto de las citas» con «calidad de la investigación», y porque se ha utilizado para evaluar artículos individuales publicados en revistas.
El Factor TOP mide algo que importa. Compara las revistas en función de si exigen transparencia y métodos que ayuden a revelar la credibilidad de los resultados de la investigación (Evan Mayo-Wilson). Pero cuidado, la puntuación del Factor TOP de una revista no mide la calidad de la investigación publicada en esa revista. El Factor TOP mide hasta qué punto las políticas de la revista facilitan la capacidad de evaluar la calidad de la investigación. La investigación puede ser completamente transparente y de mala calidad al mismo tiempo. Las políticas que fomentan la transparencia y la reproducibilidad facilitan la evaluación de la calidad de la investigación. TOP Factor evalúa las políticas de la revista, no las características de un artículo concreto.
El Factor TOP es una calificación, no un ranking. Por ejemplo, para la norma de transparencia de datos, una puntuación de 0 indica que la política de la revista no cumple la norma, 1 indica que la política exige que los autores revelen si los datos son accesibles al público, 2 indica que la política exige que los autores hagan accesibles al público los datos a menos que puedan acogerse a una excepción (por ejemplo, datos sanitarios sensibles, datos protegidos), y 3 indica que la política incluye tanto un requisito como un proceso de verificación de la correspondencia de los datos con los resultados comunicados en el artículo.
Hasta ahora se han evaluado las políticas de más de 250 revistas de los campos de la psicología, la economía, la educación y la ciencia en general como Science, Nature y Cell. Los editores pueden rellenar un formulario (https://form.asana.com/?k=1IrS3T74juEGr4D0tX9-MQ&d=30849970456832) de evaluación de la revista en el sitio web de Factor TOP para acelerar el proceso.
Factor TOP de la disciplina de “Medicine”.
En definitiva, el Factor TOP es una métrica que informa de los pasos que una revista está dando para implementar prácticas de ciencia abierta, prácticas que se basan en los principios fundamentales de la comunidad científica. Es una forma alternativa de evaluar las revistas y supone una mejora respecto a las métricas tradicionales que miden las tasas medias de citas.
BIBLIOGRAFÍA
Nosek BA, Alter G, Banks GC, Borsboom D, Bowman SD, Breckler SJ, Buck S, Chambers CD, Chin G, Christensen G, Contestabile M, Dafoe A, Eich E, Freese J, Glennerster R, Goroff D, Green DP, Hesse B, Humphreys M, Ishiyama J, Karlan D, Kraut A, Lupia A, Mabry P, Madon TA, Malhotra N, Mayo-Wilson E, McNutt M, Miguel E, Paluck EL, Simonsohn U, Soderberg C, Spellman BA, Turitto J, VandenBos G, Vazire S, Wagenmakers EJ, Wilson R, Yarkoni T. SCIENTIFIC STANDARDS. Promoting an open research culture. Science. 2015 Jun 26;348(6242):1422-5. doi: 10.1126/science.aab2374.
Bertram MG, Sundin J, Roche DG, Sánchez-Tójar A, Thoré ESJ, Brodin T. Open science. Current Biology. 2023;33(15):R792-7. Disponible en: https://doi.org/10.1016/j.cub.2023.05.036
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.
Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).
Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):
(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])
Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):
«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.
Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):
‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt
CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5): (MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))
SCOPUS actualizada a 20 de diciembre de 2021 (6):
TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )
BIBLIOGRAFÍA
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
Entre las principales novedades, destacan las siguientes resumidas del documento (1):
Se amplía para todos los Campos el abanico de aportaciones y de posibles medios de difusión que pueden justificar una actividad investigadora, incluyendo los conjuntos de datos, las metodologías, los programas de ordenador o los modelos de aprendizaje automático.
Se abre la puerta a la posibilidad de incluir en la solicitud un menor número de aportaciones, generalmente son 5, en casos en los que “en el período sometido a evaluación, quien solicita la evaluación ha justificado debidamente las situaciones de permisos de maternidad o paternidad, excedencias por el cuidado de las/os hijas/os, por el cuidado de familiares en primer grado dependientes que estén a su cargo, por razón de violencia de género y por razón de violencia terrorista».
Se aplicarán criterios y metodologías de evaluación cualitativas y cuantitativas, tomándose para ello como referencia la narrativa aportada por la persona solicitante en los “indicios de relevancia e impacto” de cada aportación. En la narrativa aportada se hará un uso responsable de indicadores cuantitativos.
Valoración positiva de los resultados de investigaciones multidisciplinares e interdisciplinares en todos los campos.
Acceso abierto: se requerirá el depósito en repositorios institucionales, temáticos o generalistas de acceso abierto.
Se admiten aportaciones disponibles online, aceptadas y publicadas (que cuenten con DOI), aunque aún no se les haya asignado paginación definitiva y/o se hayan publicado en papel.
Desaparece de los criterios específicos de cada campo las métricas y sus fuentes y son sustituidas por un apéndice de los tres grupos de indicios de impacto científico, social y de ciencia abierta, con sus correspondientes métricas y fuentes. A su vez, se establecen tres dimensiones métricas: a nivel de aportación, a nivel de medio de difusión, y a nivel de prácticas de ciencia abierta.
Con respecto al Campo 4 de Ciencias Biomédicas, queda redactado del siguiente modo: 1. Sobre las aportaciones:
De acuerdo con los criterios generales, expuestos en la sección I, se aceptarán aportaciones ordinarias y extraordinarias. Entre las aportaciones ordinarias se valorarán preferentemente los artículos científicos, los libros y capítulos de libros y las patentes. En este Campo 4 se aceptarán un máximo de dos aportaciones extraordinarias.
Se aceptará que una de las aportaciones extraordinarias sea de casos clínicos, short communications, artículos de revisión bibliográfica, revisiones sistemáticas, incluyendo las scoping review, con la excepción de las revisiones sistemáticas con metaanálisis, que serán consideradas como artículo de investigación.
2. Valoración de las aportaciones:
En el caso de los artículos se valorarán preferentemente aquellas aportaciones publicadas en revistas de calidad contrastada o indexadas en bases de datos bibliográficas de reconocido prestigio, así como en plataformas de publicación de resultados de investigación como Open Research Europe.
En el caso de los libros y capítulos de libros se valorará el prestigio de la editorial, de editoras/es, la colección en la que se publica la obra, si la colección o el libro ha obtenido algún sello de calidad otorgado por una institución de reconocido prestigio y las reseñas recibidas en las revistas científicas especializadas.
En el caso de las patentes se valorará si están en explotación, demostrada mediante contrato de compraventa o contrato de licencia. Respecto a patentes concedidas sin estar en explotación, solo se valorarán si la concesión se ha llevado a cabo con examen previo (tipo B2). Se tendrá en cuenta la extensión de la protección de la patente (nacional, europea o internacional), valorándose más la de protección más extensa.
3. Mínimos orientativos para la valoración positiva:
Con carácter orientativo, se podrá alcanzar una evaluación positiva en las áreas de Ciencias Biomédicas, presentando preferentemente cinco aportaciones, que sean artículos con alta relevancia e impacto, publicados en revistas o plataformas como las citadas.
Más información:
Resolución de 5 de diciembre de 2023, de la Comisión Nacional Evaluadora de la Actividad Investigadora, por la que se publican los criterios para la evaluación de la actividad investigadora. Boletín Oficial Del Estado núm. 300, de 16 de diciembre de 2023, páginas 166272 a 166295. Disponible en: http://www.boe.es/diario_boe/txt.php?id=BOE-A-2023-25537. Consultado el 20 diciembre 2023.
Delgado Vázquez AM. Sexenios 2023: análisis de los criterios para la evaluación de la actividad investigadora Identificación y análisis de los principales cambios en los criterios de evaluación de la actividad investigadora (sexenios) en los criterios de evaluación aprobados para la convocatoria de 2023. Universidad Pablo de Olavide, 6 de diciembre de 2023. Disponible en: http://hdl.handle.net/10433/16818
Las etiquetas de campo (field tags) buscan en un campo específico en PubMed. Su uso en las búsquedas pueden ahorrarnos bastante tiempo, pero hay que tener en cuenta que las etiquetsa de campo de búsqueda debe ir entre corchetes y que si las usamos se desactiva el mapeo automático de términos (ATM) de PubMed, limitando la búsqueda término especificado.
De las 51 etiquetas de campo que existen, el campo subset es un método de restricción de la recuperación por tema, estado de la cita y categoría de la revista. Para utilizarlo, debemos emplear la etiqueta de campo [sb].
Uno de sus usos es para filtrar por el «estado de citación» («citation status«), que indican la fase de procesamiento interno de un artículo en la base de datos PubMed.
En el siguiente juego te reto a comprobar si sabrías usar el filtro de «estado de citación» para conocer y recuperar el número total de referencias incluidas en PubMed o el número de registros indexados con términos MeSH.
El año 2023 nos ha traído cambios en la Web of Science relativos a la búsqueda, la unificación de organizaciones para incluir «departamentos» y la inclusión de ProQuest Dissertations and Thesis Citation Index.
Presentación completa de las «Novedades de búsqueda de la WoS»
Las novedades en la búsqueda han sido 5 (sugerencias de palabras clave, filtro para ver las revisiones por pares abiertas, posibilidad de filtrar y analizar por ODS, filtrar y analizar por perfiles de investigadores y, inclusión de recomendaciones de lectura. Además, se anuncia una novedad en 2024 con la incorporación de un asistente de IA.
Otra novedad de la Web of Science es la ampliación de la unificación de organizaciones para incluir «departamentos» en las afiliaciones de los autores en un intento de mejorar la búsqueda y el descubrimiento.
Por último, hay que destacar la inclusión de ProQuest™ Dissertations & Theses Citation Index dentro de la WoS.
La síntesis de conocimientos consiste en la integración de los resultados de la investigación de estudios de investigación individuales y permite abordar las necesidades de información. Dentro de la gran familia de tipos de síntesis de conocimientos, tenemos las revisiones sistemáticas, adecuadas para abordar una pregunta de revisión bien definida pero menos adecuadas en otras circunstancias.
Históricamente, las revisiones sistemáticas se han centrado en losbeneficios y daños de las intervenciones; con el tiempo, han surgido otros tipos de síntesis de la evidencia, como las revisiones generales (overviews o umbrella reviews), las revisiones de alcance (scoping reviews), las revisiones rápidas (rapid reviews) y las revisiones vivas (living reviews).
Esta variedad de métodos de síntesis puede ser un reto seleccionar el método de síntesis del conocimiento «correcto». Para ayudar con esta dificultad, os presento en primer lugar un mapa de decisión de tipo de revisión (adaptado del documento similar de la Biblioteca de la Universidad de Cornell. Está bajo una licencia CC BY 4.0. https://cornell.app.box.com/s/tfgvuicvsn9s58g7c0akxh0cmcuifbbo/file/573873815952)
En segundo lugar, os recuerdo que disponéis de la herramienta web de apoyo a la toma de decisiones Right Review (https://rightreview.knowledgetranslation.net/) que os recomendará, a través de una serie de preguntas sencillas, el método de síntesis cuantitativa y cualitativa más adecuado.
Tricco AC, Soobiah C, Antony J, Cogo E, MacDonald H, Lillie E, Tran J, D’Souza J, Hui W, Perrier L, Welch V, Horsley T, Straus SE, Kastner M. A scoping review identifies multiple emerging knowledge synthesis methods, but few studies operationalize the method. J Clin Epidemiol. 2016 May;73:19-28. doi: 10.1016/j.jclinepi.2015.08.030. PMID: 26891949.
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276. PMID: 31541534.
Amog K, Pham B, Courvoisier M, Mak M, Booth A, Godfrey C, Hwee J, Straus SE, Tricco AC. The web-based «Right Review» tool asks reviewers simple questions to suggest methods from 41 knowledge synthesis methods. J Clin Epidemiol. 2022 Jul;147:42-51. doi: 10.1016/j.jclinepi.2022.03.004. PMID: 35314349.
GRADE (Grading of Recommendations Assessment, Development and Evaluation) es el método más utilizado por revisores sistemáticos y desarrolladores de guías para evaluar la calidad de la evidencia de los estudios que se incluirán en las revisiones sistemáticas y guías de práctica clínica y decidir si recomendar una intervención.
El sistema GRADE propone las siguientes definiciones (Grupo de trabajo sobre GPC, 2016; Schünemann H, 2013):
Calidad de la evidencia: indica hasta qué punto nuestra confianza en la estimación de un efecto es adecuada para apoyar una recomendación.
Fuerza de la recomendación: indica hasta qué punto podemos confiar si poner en práctica la recomendación conllevará más beneficios que riesgos.
GRADE se diferencia de otras herramientas de evaluación por 3 razones:
Separa la calidad de la evidencia y la fuerza de la recomendación;
La calidad de la evidencia se evalúa por separado para cada resultado o desenlace de interés. Para cada uno de los desenlaces o resultados clave se efectúa una evaluación; así, una misma comparación de una intervención terapéutica o preventiva puede recibir diferentes asignaciones de la calidad de la evidencia; y
Los estudios observacionales se pueden ‘refinar’ su nivel inicial de calidad si cumplen con ciertos criterios (pueden hacer bajar o subir el escalón o nivel de la calidad inicialmente asignada). Los ensayos clínicos aleatorizados solo se pueden refinar a la baja.
Esquema del proceso GRADE
El proceso GRADE comienza con una pregunta clínica focalizada (conocida como PICO con sus elementos de población, intervención, comparador, resultado) que luego se convierte en la base de una RS. A la hora de elegir los desenlaces a analizar, GRADE recomienda la elección de desenlaces críticos para la toma de decisiones (que pueden no ser necesariamente los que cuentan con más evidencia disponible). Por ejemplos de desenlaces graves serían la hemorragia grave, una fractura vertebral o la muerte.
Una vez extraída y resumida la evidencia, se clasifica según la certeza en las estimaciones del efecto, que en el contexto de una RS refleja el grado de nuestra confianza en que las estimaciones del efecto son correctas. Las cuatro categorías son alta, moderada, baja y muy baja; cuanto más bajo es el nivel, más probable es que investigaciones adicionales de alta calidad puedan cambiar nuestra confianza en las estimaciones y en las propias estimaciones.
Cómo usar GRADE
Según GRADE, la certeza puede ser alta, moderada, baja y muy baja. Inicialmente, la calidad de la evidencia se clasifica, en alta o baja, según provenga de estudios experimentales u observacionales (inicialmente en alta si los estudios incluidos son estudios aleatorios o baja si son estudios observacionales); posteriormente, según una serie de consideraciones, el nivel de calidad de la evidencia queda establecido en 4 categorías: alta, moderada, baja y muy baja.
Inicialmente, se considera que un conjunto de ensayos aleatorizados se considera que proporciona evidencia de alta certeza, mientras que los estudios observacionales comienzan como evidencia de baja certeza evidencia.
En determinadas circunstancias, esta certeza puede disminuir o aumentar.
Hay 5 criterios que se pueden usar para degradar uno, dos o, a veces, tres pasos. Estos son:
Riesgo de sesgo en los estudios individuales, en los ECA se consideran problemas metodológicos en los estudios incluidos, como un cegamiento inadecuado (los participantes sabían que estaban en el grupo de control / tratamiento):
Falta de una secuencia de asignación claramente aleatorizada.
Falta de cegamiento.
Falta de ocultación de la asignación.
Incumplimiento del análisis por intención de tratar.
La prueba se interrumpe.
Grandes pérdidas durante el seguimiento.
Hay pruebas sólidas que apoyan la opinión de que la falta de asignación al azar, la falta de ocultación de la asignación y la ausencia de cegamiento dan lugar a sesgo. El análisis por intención de tratar también es importante para evitar el sesgo que surge cuando los que abandonan los ensayos debido a efectos nocivos no se contabilizan. De manera similar, los resultados provisionales de los ensayos que se acortan a menudo conducen a tamaños del efecto sobreestimados. Las grandes pérdidas debidas al seguimiento también conducen a estimaciones del efecto exageradas. Por ejemplo, en un ensayo controlado aleatorio que comparó programas de pérdida de peso en participantes obesos, el 27% de los participantes se perdieron durante el seguimiento en un año. Existe un supuesto sesgo positivo conferido a este estudio, ya que los participantes que se beneficiaron del tratamiento tenían más probabilidades de permanecer en el ensayo.
En los estudios observacionales se consideran: limitaciones en los criterios de inclusión de los pacientes, limitaciones en la medida de los resultados (como el sesgo de memoria), el control inadecuado de los factores de confusión o el seguimiento incompleto.
2. Inconsistenciade resultados entre estudios. Cuando existe una variabilidad significativa e inexplicable en los resultados de diferentes ensayos.
3. La evidencia indirecta (por ejemplo, los participantes eran niños, aunque la revisión sistemática se centró en adultos) puede referirse a varias cosas.
Una comparación indirecta de dos fármacos. Si no hay ensayos que comparen los fármacos A y B directamente, inferimos una comparación basada en ensayos separados que comparan el fármaco A con placebo y el fármaco B con placebo. Sin embargo, la validez de tal inferencia depende de la suposición, a menudo injustificada, de que las dos poblaciones de ensayo eran similares.
Una comparación indirecta de población, resultado o intervención, por ejemplo, los estudios de la revisión investigaron una intervención, en una población con un resultado determinado, pero las conclusiones de los estudios están destinadas a ser aplicables a intervenciones, poblaciones o resultados. Por ejemplo, el American College of Chest Physicians (ACCP) rebajó la calidad de la evidencia para el uso de medias de compresión en pacientes con traumatismos de alta a moderada porque todos los ensayos controlados aleatorios se habían realizado en la población general.
4. Imprecisión cuando los amplios intervalos de confianza estropean la calidad de los datos.
5. Sesgo de publicación cuando los estudios con resultados «negativos» permanecen sin publicar, ya que es menos probable que se publiquen los estudios que no muestran un efecto estadísticamente significativo. Esto puede sesgar el resultado de la revisión. Por ejemplo, Turner et al. examinaron todos los ensayos de antidepresivos registrados por la FDA. De 38 ensayos con resultados positivos, todos menos uno se publicaron, mientras que de los 36 ensayos con resultados negativos, 22 no se publicaron; una revisión sistemática de todos los estudios publicados arrojaría un resultado sesgado.
Las situaciones que pueden llevar a incrementar la confianza con los resultados de los estudios son poco comunes y se suelen aplicar sobre todo a estudios observacionales que evalúan el impacto de una intervención. Estos aspectos se deberían evaluar después de constatar que no se encuentra presente ninguna condición para disminuir la calidad de la evidencia debido a un potencial riesgo de sesgo u otros factores.
1) Fuerte asociación: hallazgos de efectos relativos RR>2, o < 0,5 en estudios observacionales sin factores de confusión.
2) Muy fuerte asociación: hallazgos de efectos relativos RR > 5, o <0,2 basados en estudios sin problemas de sesgo o precisión.
3) Existencia de gradiente dosis-respuesta (dose-response gradient).
4) Evidencia de que todos los posibles factores de confusión o sesgos podrían haber reducido el efecto observado.
La fuerza de una recomendación refleja hasta qué punto podemos confiar en que el efecto deseable de una intervención supera los efectos indeseables; en otras palabras, que es probable que el paciente experimente un beneficio neto. Es importante destacar que GRADE sólo tiene dos categorías de recomendación: fuerte y débil (que también puede denominarse condicional).
Para llegar a una fuerza de recomendación, GRADE define cuatro determinantes principales: el equilibrio entre consecuencias deseables e indeseables, la certeza de la evidencia, los valores y preferencias de los pacientes y la utilización de recursos. Hay tres consideraciones adicionales, a saber, la equidad, la aceptabilidad y la viabilidad.
Dentro de este marco, una recomendación fuerte para una intervención es más apropiada si los efectos deseables superan claramente el efecto indeseable, la certeza de la evidencia es alta o moderada, los valores y preferencias de los pacientes son bien conocidos y se piensa que son bastante consistentes, y se puede esperar que la utilización de recursos asociada sea baja; de lo contrario, será apropiada una recomendación débil.
Más información:
GRADEPro Website http://gradepro.org/ (Es el software usado para facilitar la aplicación del sistema GRADE a la elaboración de las Tablas de resumen de resultados (Summary of Findings, SoF) en revisiones Cochrane y al desarrollo de guías de práctica clínica).
Schünemann HJ, Higgins JPT, Vist GE, Glasziou P, Akl EA, Skoetz N, Guyatt GH. Chapter 14: Completing ‘Summary of findings’ tables and grading the certainty of the evidence. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.2 (updated February 2021). Cochrane, 2021. Available from: http://www.training.cochrane.org/handbook
La declaración PRISMA 2009 indicaba que la sección de conclusiones de una revisión sistemática debe «proporcionar una interpretación general de los resultados en el contexto de otras evidencias» (1). En la actualización, PRISMA 2020 añade «argumente las implicaciones de los resultados para la práctica, las políticas y las futuras investigaciones» (2). Sin embargo, la declaración no requiere que los autores de revisiones sistemáticas hagan recomendaciones dentro de esta sección.
Las directrices de la Colaboración Cochrane (3) y del grupo de trabajo GRADE (4) establecen específicamente que las revisiones sistemáticas no deben incluir recomendaciones para la práctica. Así, podemos leer en el capítulo 15 del manual Cochrane que «Los autores de las revisiones deben evitar recomendaciones específicas que inevitablemente dependen de suposiciones sobre los recursos disponibles, los valores y las preferencias, y otros factores como las consideraciones de equidad, la viabilidad y la aceptabilidad de una intervención. El objetivo de la revisión debe ser presentar información y ayudar a su interpretación, más que ofrecer recomendaciones. La discusión y las conclusiones deben ayudar a las personas a comprender las implicaciones de las pruebas en relación con las decisiones prácticas y a aplicar los resultados a su situación específica. Los autores de la revisión pueden ayudar a esta comprensión de las implicaciones planteando diferentes escenarios que describan determinadas estructuras de valores». Cochrane y GRADE consideran que hacer recomendaciones para la práctica está fuera del alcance de una revisión sistemática y reservando las recomendaciones únicamente competencia de las guías de práctica clínica.
Por el contrario, la JBI sugiere que las recomendaciones pueden y deben incluirse también en las revisiones sistemáticas del JBI. Si consultamos su Manual (5), en el apartado de conclusiones se indica que «debe incluir las recomendaciones para la práctica inferidas de los resultados de la revisión e inferidas también sobre la base de la discusión sobre la generalizabilidad de los resultados y los factores potenciales que pueden afectar a la aplicabilidad de los resultados. A las recomendaciones se les debe asignar un Grado de Recomendación del JBI» (5).
BIBLIOGRAFÍA
Liberati A, Altman DG, Tetzlaff J et al. The PRISMA Statement for Reporting Systematic Reviews and Meta-Analyses of Studies That Evaluate Health Care Interventions: Explanation and Elaboration. PLoS Med. 2009;6(7):e1000100.
Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, et al. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ 2021;372:n71. doi: 10.1136/bmj.n71
Schünemann HJ, Vist GE, Higgins JPT, Santesso N, Deeks JJ, Glasziou P, Akl EA, Guyatt GH. Chapter 15: Interpreting results and drawing conclusions. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023. Available from http://www.training.cochrane.org/handbook.
Balshem H, Helfand M, Schunemann HJ et al. GRADE guidelines: 3. Rating the quality of evidence. J Clin Epidemiol. 2011;64(4):401-6.
Existe una brecha significativa entre la investigación primaria y la adopción plena en la práctica de las innovaciones en el cuidado de la salud. Los siguientes datos que avalan la existencia de disparidad entre la mejor evidencia y la práctica real:
Pasan una media de 17 años desde la realización de ensayos controlados aleatorios hasta su incorporación a la práctica (Balas EA, 2000).
Las recomendaciones de tratamiento de nuevas terapias que aparecen en los libros de texto médicos más de 10 años después (Weed LL. 1997).
Solo el 60% de la atención se ajusta a las directrices de consenso publicadas y que hasta el 10% de la atención podría ser perjudicial para los pacientes (Braithwaite J, 2020).
Dejo más información en la presentación y en los artículos de la bibliografía.
BIBLIOGRAFÍA
Balas EA, Boren SA. Managing clinical knowledge for health care improvement. In: Bemmel J, McCray AT, editors. Yearbook of Medical Informatics 2000: Patient-Centered Systems. Schattauer Verlag; 2000.
Weed LL. New connections between medical knowledge and patient care. Br Med J 1997;315:231-5.
Braithwaite J, Glasziou P, Westbrook J. The three numbers you need to know about healthcare: the 60-30-10 challenge. BMC Med 2020;18:102.
Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080. PMID: 20181324.
Balas EA, Austin SM, Ewigman BG, Brown GD, Mitchell JA. Methods of randomized controlled clinical trials in health services research. Med Care. 1995 Jul;33(7):687-99. doi: 10.1097/00005650-199507000-00005. PMID: 7596208.
Pulido M, González JC, Sanz F. Artículos originales publicados en Medicina Clínica durante 30 años (1962-1992): número de autores, intervalo entre la aceptación y publicación y referencias bibliográficas. Med Clin (Barc). 1994 Dec 10;103(20):770-5. Spanish. PMID: 7861835.
Kumar PD. Publication lag intervals–a reason for authors’apathy? J Assoc Physicians India. 1992 Sep;40(9):623-4. PMID: 1308024.
Antman EM, Lau J, Kupelnick B, Mosteller F, Chalmers TC. A comparison of results of meta-analyses of randomized control trials and recommendations of clinical experts. Treatments for myocardial infarction. JAMA. 1992 Jul 8;268(2):240-8. PMID: 1535110.
Easterbrook PJ, Berlin JA, Gopalan R, Matthews DR. Publication bias in clinical research. Lancet. 1991 Apr 13;337(8746):867-72. doi: 10.1016/0140-6736(91)90201-y. PMID: 1672966.
Koren G, Graham K, Shear H, Einarson T. Bias against the null hypothesis: the reproductive hazards of cocaine. Lancet. 1989 Dec 16;2(8677):1440-2. doi: 10.1016/s0140-6736(89)92044-8. PMID: 2574369.
Dickersin K, Chan S, Chalmers TC, Sacks HS, Smith H Jr. Publication bias and clinical trials. Control Clin Trials. 1987 Dec;8(4):343-53. doi: 10.1016/0197-2456(87)90155-3. PMID: 3442991.
Poynard T, Conn HO. The retrieval of randomized clinical trials in liver disease from the medical literature. A comparison of MEDLARS and manual methods. Control Clin Trials. 1985 Dec;6(4):271-9. doi: 10.1016/0197-2456(85)90103-5. PMID: 3907971.
La validez de la síntesis de la investigación se ve amenazada si los estudios con resultados significativos o positivos tienen más probabilidades de ser publicados que aquellos con resultados no significativos. Esto produce un sesgo de publicación cuya importancia depende de si los estudios publicados son o no representativos de todos los estudios que se han realizado. Si los estudios publicados son una muestra sesgada de todos los estudios que se han realizado, los resultados de una revisión sistemática serán engañosos.
Si quieres comprobar lo que sabes del sesgo de publicación y relacionados, te invito a jugar el siguiente cuestionario:
Comprueba lo que sabes de sesgo de publicación y sesgos relacionados contestando a este quizz
Todas las definiciones de difusión, publicación y sesgos relacionados las puedes encontrar aquí (Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080.).
Los errores en las estrategias de búsqueda afectan negativamente a la calidad y validez de las revisiones sistemáticas. En un estudio reciente, se ha encontrado que solo el 1% de las revisiones sistemáticas cumplen con los 6 criterios PRISMA y son reproducibles (Rethlefsen ML, Brigham TJ, Price C, Moher D, Bouter LM, Kirkham JJ, Schroter S, Zeegers MP. Systematic review search strategies are poorly described and not reproducible: a cross-sectional meta-research study. medRxiv 2023.05.11.23289873; doi: https://doi.org/10.1101/2023.05.11.23289873).
En un trabajo anterior, Salvador-Oliván encontró que el 92,7% de las estrategias de las revisiones sistemáticas contenían errores.
Aquí te dejo un reto para que intentes localizar los errores de una revisión sistemática publicada: