Releía ayer el artículo Easy ≠ Right (1) con estupendas reflexiones de la bibliotecaria Melissa L. Rethlefsen, autora principal de las directrices PRISMA-S, que en 2008 nos advertía que «no hay soluciones únicas para una investigación de calidad» y que a «la hora de buscar información, ¿Qué es lo correcto y qué lo fácil?
El desarrollo de estrategias de búsqueda sólidas para buscar en la literatura e identificar estudios es un paso crucial en la metodología de síntesis de la evidencia. Sin embargo, su complejidad hizo aparecer herramientas que facilitaban la localización de evidencia de alta calidad (2). En la década de los 90, la búsqueda federada, también conocida como metabúsqueda o búsqueda cruzada en bases de datos, permitía la práctica de utilizar una interfaz para buscar en múltiples fuentes de una sola vez. Fue anunciada como la próxima novedad en búsquedas.
Rethlefsen afirmaba que encontrar la mejor información o la más completa sobre un tema requiere más esfuerzo que buscar introduciendo una o dos palabras clave en una caja de búsqueda. Y he reflexionado sobre la búsqueda con inteligencia artificial de la que hoy en día tanto interés nos despierta. Por el momento podemos seguir afirmando lo mismo que la autora nos decía hablando de Google, pero el futuro nos dirá la última palabra.
Por último, estos avances en los «sistemas de búsqueda» no permiten la transparencia o la reproducibilidad de la metodología de búsqueda (3). Esto ha sido, hasta la fecha, una de las claves para las revisiones sistemáticas de calidad y libre de sesgos (4).
Solomons T, Hinton E. Federated searches: why a one-stop shop approach to literature searching falls short for evidence synthesis. JBI Evidence Synthesis 19(6):p 1259-1262, June 2021. | DOI: 10.11124/JBIES-21-00177
Rethlefsen ML, Kirtley S, Waffenschmidt S, Ayala AP, Moher D, Page MJ, et al. PRISMA-S: an extension to the PRISMA Statement for Reporting Literature Searches in Systematic Reviews. Syst Rev 2021;10 (1):39.
Why Does the Reproducibility of Search Strategies and Search Results in Systematic Reviews Reduce Over Time? What We Can Do About It? by @FarhadShokrane Disponible en: https://link.medium.com/jezQLPFeyFb
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.
Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).
Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):
(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])
Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):
«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.
Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):
‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt
CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5): (MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))
SCOPUS actualizada a 20 de diciembre de 2021 (6):
TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )
BIBLIOGRAFÍA
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
La síntesis de conocimientos consiste en la integración de los resultados de la investigación de estudios de investigación individuales y permite abordar las necesidades de información. Dentro de la gran familia de tipos de síntesis de conocimientos, tenemos las revisiones sistemáticas, adecuadas para abordar una pregunta de revisión bien definida pero menos adecuadas en otras circunstancias.
Históricamente, las revisiones sistemáticas se han centrado en losbeneficios y daños de las intervenciones; con el tiempo, han surgido otros tipos de síntesis de la evidencia, como las revisiones generales (overviews o umbrella reviews), las revisiones de alcance (scoping reviews), las revisiones rápidas (rapid reviews) y las revisiones vivas (living reviews).
Esta variedad de métodos de síntesis puede ser un reto seleccionar el método de síntesis del conocimiento «correcto». Para ayudar con esta dificultad, os presento en primer lugar un mapa de decisión de tipo de revisión (adaptado del documento similar de la Biblioteca de la Universidad de Cornell. Está bajo una licencia CC BY 4.0. https://cornell.app.box.com/s/tfgvuicvsn9s58g7c0akxh0cmcuifbbo/file/573873815952)
En segundo lugar, os recuerdo que disponéis de la herramienta web de apoyo a la toma de decisiones Right Review (https://rightreview.knowledgetranslation.net/) que os recomendará, a través de una serie de preguntas sencillas, el método de síntesis cuantitativa y cualitativa más adecuado.
Tricco AC, Soobiah C, Antony J, Cogo E, MacDonald H, Lillie E, Tran J, D’Souza J, Hui W, Perrier L, Welch V, Horsley T, Straus SE, Kastner M. A scoping review identifies multiple emerging knowledge synthesis methods, but few studies operationalize the method. J Clin Epidemiol. 2016 May;73:19-28. doi: 10.1016/j.jclinepi.2015.08.030. PMID: 26891949.
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276. PMID: 31541534.
Amog K, Pham B, Courvoisier M, Mak M, Booth A, Godfrey C, Hwee J, Straus SE, Tricco AC. The web-based «Right Review» tool asks reviewers simple questions to suggest methods from 41 knowledge synthesis methods. J Clin Epidemiol. 2022 Jul;147:42-51. doi: 10.1016/j.jclinepi.2022.03.004. PMID: 35314349.
GRADE (Grading of Recommendations Assessment, Development and Evaluation) es el método más utilizado por revisores sistemáticos y desarrolladores de guías para evaluar la calidad de la evidencia de los estudios que se incluirán en las revisiones sistemáticas y guías de práctica clínica y decidir si recomendar una intervención.
El sistema GRADE propone las siguientes definiciones (Grupo de trabajo sobre GPC, 2016; Schünemann H, 2013):
Calidad de la evidencia: indica hasta qué punto nuestra confianza en la estimación de un efecto es adecuada para apoyar una recomendación.
Fuerza de la recomendación: indica hasta qué punto podemos confiar si poner en práctica la recomendación conllevará más beneficios que riesgos.
GRADE se diferencia de otras herramientas de evaluación por 3 razones:
Separa la calidad de la evidencia y la fuerza de la recomendación;
La calidad de la evidencia se evalúa por separado para cada resultado o desenlace de interés. Para cada uno de los desenlaces o resultados clave se efectúa una evaluación; así, una misma comparación de una intervención terapéutica o preventiva puede recibir diferentes asignaciones de la calidad de la evidencia; y
Los estudios observacionales se pueden ‘refinar’ su nivel inicial de calidad si cumplen con ciertos criterios (pueden hacer bajar o subir el escalón o nivel de la calidad inicialmente asignada). Los ensayos clínicos aleatorizados solo se pueden refinar a la baja.
Esquema del proceso GRADE
El proceso GRADE comienza con una pregunta clínica focalizada (conocida como PICO con sus elementos de población, intervención, comparador, resultado) que luego se convierte en la base de una RS. A la hora de elegir los desenlaces a analizar, GRADE recomienda la elección de desenlaces críticos para la toma de decisiones (que pueden no ser necesariamente los que cuentan con más evidencia disponible). Por ejemplos de desenlaces graves serían la hemorragia grave, una fractura vertebral o la muerte.
Una vez extraída y resumida la evidencia, se clasifica según la certeza en las estimaciones del efecto, que en el contexto de una RS refleja el grado de nuestra confianza en que las estimaciones del efecto son correctas. Las cuatro categorías son alta, moderada, baja y muy baja; cuanto más bajo es el nivel, más probable es que investigaciones adicionales de alta calidad puedan cambiar nuestra confianza en las estimaciones y en las propias estimaciones.
Cómo usar GRADE
Según GRADE, la certeza puede ser alta, moderada, baja y muy baja. Inicialmente, la calidad de la evidencia se clasifica, en alta o baja, según provenga de estudios experimentales u observacionales (inicialmente en alta si los estudios incluidos son estudios aleatorios o baja si son estudios observacionales); posteriormente, según una serie de consideraciones, el nivel de calidad de la evidencia queda establecido en 4 categorías: alta, moderada, baja y muy baja.
Inicialmente, se considera que un conjunto de ensayos aleatorizados se considera que proporciona evidencia de alta certeza, mientras que los estudios observacionales comienzan como evidencia de baja certeza evidencia.
En determinadas circunstancias, esta certeza puede disminuir o aumentar.
Hay 5 criterios que se pueden usar para degradar uno, dos o, a veces, tres pasos. Estos son:
Riesgo de sesgo en los estudios individuales, en los ECA se consideran problemas metodológicos en los estudios incluidos, como un cegamiento inadecuado (los participantes sabían que estaban en el grupo de control / tratamiento):
Falta de una secuencia de asignación claramente aleatorizada.
Falta de cegamiento.
Falta de ocultación de la asignación.
Incumplimiento del análisis por intención de tratar.
La prueba se interrumpe.
Grandes pérdidas durante el seguimiento.
Hay pruebas sólidas que apoyan la opinión de que la falta de asignación al azar, la falta de ocultación de la asignación y la ausencia de cegamiento dan lugar a sesgo. El análisis por intención de tratar también es importante para evitar el sesgo que surge cuando los que abandonan los ensayos debido a efectos nocivos no se contabilizan. De manera similar, los resultados provisionales de los ensayos que se acortan a menudo conducen a tamaños del efecto sobreestimados. Las grandes pérdidas debidas al seguimiento también conducen a estimaciones del efecto exageradas. Por ejemplo, en un ensayo controlado aleatorio que comparó programas de pérdida de peso en participantes obesos, el 27% de los participantes se perdieron durante el seguimiento en un año. Existe un supuesto sesgo positivo conferido a este estudio, ya que los participantes que se beneficiaron del tratamiento tenían más probabilidades de permanecer en el ensayo.
En los estudios observacionales se consideran: limitaciones en los criterios de inclusión de los pacientes, limitaciones en la medida de los resultados (como el sesgo de memoria), el control inadecuado de los factores de confusión o el seguimiento incompleto.
2. Inconsistenciade resultados entre estudios. Cuando existe una variabilidad significativa e inexplicable en los resultados de diferentes ensayos.
3. La evidencia indirecta (por ejemplo, los participantes eran niños, aunque la revisión sistemática se centró en adultos) puede referirse a varias cosas.
Una comparación indirecta de dos fármacos. Si no hay ensayos que comparen los fármacos A y B directamente, inferimos una comparación basada en ensayos separados que comparan el fármaco A con placebo y el fármaco B con placebo. Sin embargo, la validez de tal inferencia depende de la suposición, a menudo injustificada, de que las dos poblaciones de ensayo eran similares.
Una comparación indirecta de población, resultado o intervención, por ejemplo, los estudios de la revisión investigaron una intervención, en una población con un resultado determinado, pero las conclusiones de los estudios están destinadas a ser aplicables a intervenciones, poblaciones o resultados. Por ejemplo, el American College of Chest Physicians (ACCP) rebajó la calidad de la evidencia para el uso de medias de compresión en pacientes con traumatismos de alta a moderada porque todos los ensayos controlados aleatorios se habían realizado en la población general.
4. Imprecisión cuando los amplios intervalos de confianza estropean la calidad de los datos.
5. Sesgo de publicación cuando los estudios con resultados «negativos» permanecen sin publicar, ya que es menos probable que se publiquen los estudios que no muestran un efecto estadísticamente significativo. Esto puede sesgar el resultado de la revisión. Por ejemplo, Turner et al. examinaron todos los ensayos de antidepresivos registrados por la FDA. De 38 ensayos con resultados positivos, todos menos uno se publicaron, mientras que de los 36 ensayos con resultados negativos, 22 no se publicaron; una revisión sistemática de todos los estudios publicados arrojaría un resultado sesgado.
Las situaciones que pueden llevar a incrementar la confianza con los resultados de los estudios son poco comunes y se suelen aplicar sobre todo a estudios observacionales que evalúan el impacto de una intervención. Estos aspectos se deberían evaluar después de constatar que no se encuentra presente ninguna condición para disminuir la calidad de la evidencia debido a un potencial riesgo de sesgo u otros factores.
1) Fuerte asociación: hallazgos de efectos relativos RR>2, o < 0,5 en estudios observacionales sin factores de confusión.
2) Muy fuerte asociación: hallazgos de efectos relativos RR > 5, o <0,2 basados en estudios sin problemas de sesgo o precisión.
3) Existencia de gradiente dosis-respuesta (dose-response gradient).
4) Evidencia de que todos los posibles factores de confusión o sesgos podrían haber reducido el efecto observado.
La fuerza de una recomendación refleja hasta qué punto podemos confiar en que el efecto deseable de una intervención supera los efectos indeseables; en otras palabras, que es probable que el paciente experimente un beneficio neto. Es importante destacar que GRADE sólo tiene dos categorías de recomendación: fuerte y débil (que también puede denominarse condicional).
Para llegar a una fuerza de recomendación, GRADE define cuatro determinantes principales: el equilibrio entre consecuencias deseables e indeseables, la certeza de la evidencia, los valores y preferencias de los pacientes y la utilización de recursos. Hay tres consideraciones adicionales, a saber, la equidad, la aceptabilidad y la viabilidad.
Dentro de este marco, una recomendación fuerte para una intervención es más apropiada si los efectos deseables superan claramente el efecto indeseable, la certeza de la evidencia es alta o moderada, los valores y preferencias de los pacientes son bien conocidos y se piensa que son bastante consistentes, y se puede esperar que la utilización de recursos asociada sea baja; de lo contrario, será apropiada una recomendación débil.
Más información:
GRADEPro Website http://gradepro.org/ (Es el software usado para facilitar la aplicación del sistema GRADE a la elaboración de las Tablas de resumen de resultados (Summary of Findings, SoF) en revisiones Cochrane y al desarrollo de guías de práctica clínica).
Schünemann HJ, Higgins JPT, Vist GE, Glasziou P, Akl EA, Skoetz N, Guyatt GH. Chapter 14: Completing ‘Summary of findings’ tables and grading the certainty of the evidence. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.2 (updated February 2021). Cochrane, 2021. Available from: http://www.training.cochrane.org/handbook
La declaración PRISMA 2009 indicaba que la sección de conclusiones de una revisión sistemática debe «proporcionar una interpretación general de los resultados en el contexto de otras evidencias» (1). En la actualización, PRISMA 2020 añade «argumente las implicaciones de los resultados para la práctica, las políticas y las futuras investigaciones» (2). Sin embargo, la declaración no requiere que los autores de revisiones sistemáticas hagan recomendaciones dentro de esta sección.
Las directrices de la Colaboración Cochrane (3) y del grupo de trabajo GRADE (4) establecen específicamente que las revisiones sistemáticas no deben incluir recomendaciones para la práctica. Así, podemos leer en el capítulo 15 del manual Cochrane que «Los autores de las revisiones deben evitar recomendaciones específicas que inevitablemente dependen de suposiciones sobre los recursos disponibles, los valores y las preferencias, y otros factores como las consideraciones de equidad, la viabilidad y la aceptabilidad de una intervención. El objetivo de la revisión debe ser presentar información y ayudar a su interpretación, más que ofrecer recomendaciones. La discusión y las conclusiones deben ayudar a las personas a comprender las implicaciones de las pruebas en relación con las decisiones prácticas y a aplicar los resultados a su situación específica. Los autores de la revisión pueden ayudar a esta comprensión de las implicaciones planteando diferentes escenarios que describan determinadas estructuras de valores». Cochrane y GRADE consideran que hacer recomendaciones para la práctica está fuera del alcance de una revisión sistemática y reservando las recomendaciones únicamente competencia de las guías de práctica clínica.
Por el contrario, la JBI sugiere que las recomendaciones pueden y deben incluirse también en las revisiones sistemáticas del JBI. Si consultamos su Manual (5), en el apartado de conclusiones se indica que «debe incluir las recomendaciones para la práctica inferidas de los resultados de la revisión e inferidas también sobre la base de la discusión sobre la generalizabilidad de los resultados y los factores potenciales que pueden afectar a la aplicabilidad de los resultados. A las recomendaciones se les debe asignar un Grado de Recomendación del JBI» (5).
BIBLIOGRAFÍA
Liberati A, Altman DG, Tetzlaff J et al. The PRISMA Statement for Reporting Systematic Reviews and Meta-Analyses of Studies That Evaluate Health Care Interventions: Explanation and Elaboration. PLoS Med. 2009;6(7):e1000100.
Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, et al. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ 2021;372:n71. doi: 10.1136/bmj.n71
Schünemann HJ, Vist GE, Higgins JPT, Santesso N, Deeks JJ, Glasziou P, Akl EA, Guyatt GH. Chapter 15: Interpreting results and drawing conclusions. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.4 (updated August 2023). Cochrane, 2023. Available from http://www.training.cochrane.org/handbook.
Balshem H, Helfand M, Schunemann HJ et al. GRADE guidelines: 3. Rating the quality of evidence. J Clin Epidemiol. 2011;64(4):401-6.
La validez de la síntesis de la investigación se ve amenazada si los estudios con resultados significativos o positivos tienen más probabilidades de ser publicados que aquellos con resultados no significativos. Esto produce un sesgo de publicación cuya importancia depende de si los estudios publicados son o no representativos de todos los estudios que se han realizado. Si los estudios publicados son una muestra sesgada de todos los estudios que se han realizado, los resultados de una revisión sistemática serán engañosos.
Si quieres comprobar lo que sabes del sesgo de publicación y relacionados, te invito a jugar el siguiente cuestionario:
Comprueba lo que sabes de sesgo de publicación y sesgos relacionados contestando a este quizz
Todas las definiciones de difusión, publicación y sesgos relacionados las puedes encontrar aquí (Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080.).
Las revisiones sistemáticas son la mejor forma de evaluar las evidencias científicas de múltiples estudios. Para muchos clínicos, la revisión sistemática es, por lo tanto, muy útil, ya que resume la evidencia disponible de la literatura relevante.
Por desgracia, no todas están igual de bien realizadas. Y si no se hacen correctamente, las revisiones sistemáticas pueden ser engañosas o servir a intereses conflictivos. Solo el 3% de las revisiones sistemáticas tienen buena calidad metodológica, informan de los resultados con transparencia y presentan evidencia clínica utilizable para la toma de decisiones terapéuticas. Solo el 1% de las revisiones sistemáticas publicadas en revistas médicas top son de alta calidad (JAMA Intern Med. 2019 Nov 1;179(11):1593-1594. doi: 10.1001/jamainternmed.2019.3013. PMID: 31355871; PMCID: PMC6664379.J Clin Epidemiol. 2021 Nov;139:232-234. doi: 10.1016/j.jclinepi.2021.06.016. PMID: 34214625).
No todas las revisiones son iguales: una revisión que utiliza métodos poco fiables proporciona pruebas menos fiables que otra que sí lo es. La «fiabilidad» es un juicio sobre los métodos que se han utilizado en una revisión sistemática: ¿Es probable que estos métodos sean reproducibles y conduzcan a resultados coherentes?, En general, ¿confío en las conclusiones de la revisión obtenidas con estos métodos?
Las revisiones fiables tienen como mínimo:
i) Criterios de elegibilidad explícitos;
ii) Búsqueda exhaustiva;
iii) Evaluación del riesgo de sesgo;
iv) Análisis apropiados;
v) Conclusiones apropiadas.
En la iniciativa Systematic Reviewlution (https://systematicreviewlution.com/) encontramos categorizados los problemas en 4 tipos (Uttley, L., Quintana, D. S., Montgomery, P., Carroll, C., Page, M. J., Falzon, L., … & Moher, D. (2023). The problems with systematic reviews: a living systematic review. Journal of Clinical Epidemiology):
Presentación interactiva. Ve pulsando sobre la imagen de la izquierda y en el símbolo + de la derecha para ver la información.
Aquí te dejo un ejercicio interactivo para que compruebes lo que sabes de los principales problemas de las revisiones sistemáticas. ¿Jugamos?
Quizz interactivo de los problemas de las revisiones sistemáticas.
Muchas revisiones sistemáticas son metodológicamente defectuosas, sesgadas, redundantes o poco informativas. Los autores, los elaboradores de directrices, los revisores y los editores de revistas a menudo no tienen en cuenta las normas metodológicas actuales.
En la siguiente presentación he resumido las principales herramientas y recursos para las buenas prácticas en revisiones sistemáticas.
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
¿Sabrías cómo hacerlo? Inténtalo:
¿CUÁL ES EL PROBLEMA?
Veamos los motivos por lo que la respuesta no es tan simple como a simple vista puede parecer.
Los dos primeros son comunes a toda búsqueda que realicemos con los descriptores o tesauro de indización de las bases de datos como MeSH o EMTREE. Si solo buscamos por estos descriptores, perderemos registros mal indizados y aquellos que no estén indizados, bien por ser muy recientes o por no asignar estos términos a alguna parte del contenido de la fuente. Esto último ocurre en PubMed, donde los registros procedentes de PMC o de otras colecciones que no son MEDLINE, nunca pasarán por el proceso de indización.
Pero es que, además, un hecho que muchas veces no tenemos en cuenta es que los humanos formamos parte del reino animal. Por lo tanto, la búsqueda por «Animals»[MeSH] recupera también los artículos asignados con los descriptores más específicos situados debajo de este árbol. Es decir, recuperaríamos también los humanos.
¿CUÁL ES LA SOLUCIÓN?
La mejor práctica consiste en identificar primero los estudios con animales y excluirlos de los resultados de la búsqueda (Usar la «DOBLE NEGACIÓN»).
SINTAXIS DE BÚSQUEDA EN DIFERENTES BASES DE DATOS/PLATAFORMAS
PubMed
2. MEDLINE (Ovid)
3. EMBASE (Ovid)
4. EMBASE (Elsevier)
5. CINAHL (Ebsco)
6. SCOPUS
Y ahora, te dejo la tabla con el resumen de estos filtros para buscar humanos en las diferentes bases de datos/plataformas:
Las revisiones sistemáticas son una herramienta valiosa para identificar y evaluar la evidencia existente sobre un tema en particular. Sin embargo, la realización de una revisión sistemática puede ser un proceso largo y laborioso que requiere una gran cantidad de tiempo y esfuerzo. Una de las tareas más importantes en este proceso es el de la búsqueda de evidencia.
Conjunto principal de bases de datos de ciencias de la salud
Es importante evaluar la cobertura de cada base de datos para determinar si se están buscando en la fuente adecuada. Además, es importante evaluar el solapamiento entre las bases de datos, aunque hay que tener en cuenta que bastantes estudios van a estar presentes en varias fuentes.
Merece la pena examinar la cobertura de las bases de datos, porque esto determina los resultados de la búsqueda y tendrá un impacto directo en la revisión. Las bases de datos pueden tener solapamientos en el contenido, y cada base de datos también cubre algunos títulos exclusivos (únicos).
En cuanto a la cobertura y solapamiento de MEDLINE, CINHAL Complete, Embase.com y PsycINFO. tenemos que tener en cuenta lo siguiente:
PubMed cubre todos los registros de Medline, además de algunos otros materiales (aproximadamente el 15%).
Embase incluye casi todas las revistas de Medline, mientras que más de 2,900 revistas en Embase no están cubiertas por Medline.
Medline tiene una mejor cobertura de revistas estadounidenses, mientras que Embase tiene una mejor cobertura de revistas europeas.Medline tiene alrededor de 1/3 (aprox. 1,800 revistas) solapadas con CINAHL Complete.
PsycINFO tiene alrededor de 1/2 (aprox. 1,200) revistas únicas que NO están cubiertas por Medline, Embase y CINAHL Complete.
La Biblioteca Cochrane incluye 6 bases de datos:
La Base de Datos Cochrane de Revisiones Sistemáticas (CDSR) está completamente indexada por Medline.
El Registro Central Cochrane de Ensayos Controlados (CENTRAL) contiene casi 530,000 citas, de las cuales 310,000 (~58%) son de Medline, 50,000 (aprox. 10%) son de Embase, y las 170,000 restantes (aprox. 32%) son de otras fuentes (Manual Cochrane, 2011).
CENTRAL cubre todos los Ensayos Controlados Aleatorios (ECA) y Ensayos Clínicos Controlados (ECC) indexados en Medline.
Bases de datos multidisciplinares: WoS y SCOPUS
Sin embargo, todavía hay muchas revistas fuera de la «conjunto principal» de bases de datos en enfermería y ciencias de la salud. Es posible que también debas realizar una búsqueda en más bases de datos para asegurarte que tu búsqueda bibliográfica esté completa.
Entre ellas, podemos buscar en la Web of Science y Scopus, que son dos grandes bases de datos de citas multidisciplinares. Por este motivo, es bueno saber hasta qué punto las bases de datos principales se solapan con estas dos.
En cuanto a la cobertura y solapamiento de las bases de datos principales de ciencias de la saludcon WoS y Scopus tenemos que tener en cuenta lo siguiente
Web of Science (SSCI) tiene más de 2400 títulos en el área de ciencias sociales y alrededor del 70% de estos títulos NO están cubiertos por Medline, CINAHL Complete, Embase y PsycINFO. Por lo tanto, si tu tema de investigación está en el campo de las ciencias sociales, es necesario incluir Web of Science SSCI en tu búsqueda.
Web of Science (SSCI) tiene alrededor de 660 títulos en las áreas de psiquiatría y psicología. Alrededor de 50 títulos NO están cubiertos por PsycINFO. Por lo tanto, si tu tema de investigación se refiere a cuestiones de psicología, incluye Web of Science (SSCI) en tu búsqueda.
Scopus cubre (casi) todos los títulos en Medline, PsycINFO y Web of Science. CINAHL Complete tiene aproximadamente 2000 títulos que NO están cubiertos por Scopus. De estos títulos, más de la mitad son revistas, publicaciones comerciales, etc.
En resumen, la selección, cobertura y solapamiento de las principales bases de datos es una tarea crucial en el proceso de búsqueda de estudios para una revisión sistemática. Es importante evaluar la cobertura de cada base de datos, el solapamiento entre ellas y buscar en bases de datos complementarias para garantizar la inclusión de todos los estudios relevantes. Además, se recomienda documentar y justificar la selección de bases de datos para garantizar la transparencia y la replicabilidad de la revisión sistemática.
La Declaración PRISMA (acrónimo de Preferred Reporting Items of Systematic reviews and Meta-Analyses) es una guía para la elaboración, remisión para publicación y/o comunicación de revisiones sistemáticas y metanálisis. Esta sería la interpretación al español del término inglés reporting.
En 1999, un grupo internacional elaboró una guía denominada Declaración QUOROM (QUality Of Reporting Of Meta-analyses) para abordar el problema de la notificación deficiente de los metanálisis. Esta guía se centraba en la notificación de los metanálisis de ensayos controlados aleatorios. PRISMA fue publicada por primera vez en 2009, como una evolución de QUORUM (Quality Of Reporting Of Meta-analyses) y ha sido actualizada recientemente en 2020 (1).
PRISMA se diseñó para ayudar a informar de forma transparente, completa y precisa del por qué se realizó la revisión, qué hicieron los autores y qué encontraron y abordar el problema de la presentación de informes deficientes de revisiones sistemáticas.
En paralelo con el avance de los métodos de síntesis del conocimiento, se han publicado las siguientes extensiones de la Declaración PRISMA:
¿Por qué decimos PRISMA cuando queremos indicar la guía metodológica que hemos seguido en nuestra revisión sistemática?
Como dice la propia declaración PRISMA 2020, esta «no pretende guiar la realización de revisiones sistemáticas, para las cuales hay recursos integrales disponibles. Sin embargo, la familiaridad con PRISMA 2020 es útil al planificar y realizar revisiones sistemáticas para garantizar que se capture toda la información recomendada. PRISMA 2020 no debe utilizarse para evaluar la realización o la calidad metodológica de las revisiones sistemáticas; existen otras herramientas para este propósito».
Por lo tanto, queda claro que PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una revisión sistemática (2).
PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una #RevisiónSistemática @PRISMAStatement #RevSys
A pesar de ello, es una práctica habitual el que en el apartado de metodología de la revisión nos encontremos con la declaración de los autores de que han utilizado PRISMA como una guía metodológica para diseñar y realizar revisiones.
Dicho todo lo anterior, debemos distinguir entre realizar («conduct») e informar («report») una #RevisiónSistemática u otro documento de síntesis de la evidencia.
En la siguiente presentación os dejo los enlaces a diferentes guías, manuales y estándares para realizar y para reportar nuestra revisión.
BIBLIOGRAFÍA
Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, Shamseer L, Tetzlaff JM, Akl EA, Brennan SE, Chou R, Glanville J, Grimshaw JM, Hróbjartsson A, Lalu MM, Li T, Loder EW, Mayo-Wilson E, McDonald S, McGuinness LA, Stewart LA, Thomas J, Tricco AC, Welch VA, Whiting P, Moher D. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ. 2021 Mar 29;372:n71. doi: 10.1136/bmj.n71.
Sarkis-Onofre R, Catalá-López F, Aromataris E, Lockwood C. How to properly use the PRISMA Statement. Syst Rev. 2021 Apr 19;10(1):117. doi: 10.1186/s13643-021-01671-z.
Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión.
En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24
Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).
Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).
Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.
Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).
Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.
Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.
¿Qué dicen los expertos?
Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).
Recomendaciones del bibliotecario experto Wilchor Bramer (2017).
Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).
Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).
Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).
Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).
Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.
En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.
¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?
La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.
Razones por la que es necesario buscar en MEDLINE y en Embase.
¿Cómo incluye Embase el contenido de MEDLINE?
Más de2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.
¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?
Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.
Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».
Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.
Razones por las que debo buscar en Embase y SCOPUS.
¿Es recomendable buscar en Google Académico?
Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.
Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).
Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.
Elección de la plataforma
Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).
¿MEDLINE vía PubMed u Ovid?
PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).
Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.
Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).
Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor
No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)
Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.
Juego para ver las diferencias en la sintaxis de búsqueda.
BIBLIOGRAFÍA
Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002
Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.
Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.
Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/
Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.
Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.
Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.
Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D
Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.
Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.
Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.
Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147
En un ensayo aleatorizado de 2 métodos diferentes de cribado de citas para la inclusión de artículos en una revisión sistemática de los efectos de la rehabilitación pulmonar en personas con EPOC.
Los autores asignaron aleatoriamente una base de datos de 1072 citas para que fueran cribadas por los mismos 2 revisores utilizando dos enfoques diferentes:
Enfoque en dos fases: cribado del título seguido del cribado del título y el resumen
Enfoque en una fase: Cribado de título y resumen simultáneamente.
El tiempo necesario para examinar 100 citas fue de 120 minutos con el proceso en una fase, frente a 170 minutos con el proceso en dos fases.
Conclusión: Los resultados sugieren que el cribado mediante el método en una fase requiere menos tiempo que un proceso en dos fases consistente en presentar el título seguido del resumen.
En #RevisionesSistemáticas, la selección mediante el método en el que los títulos y los resúmenes se presentan simultáneamente requiere menos tiempo que un proceso en dos fases consistente en cribar el título seguido del resumen.