Filtrar nuestros resultados de búsqueda a estudios en humanos

Cuando buscamos en las bases de datos muchas veces deseamos eliminar aquellos estudios realizados en animales. Para ello tenemos disponible un filtro de búsqueda que hay que adaptar a las diferentes bases de datos y plataformas.

A continuación encontraréis una presentación donde os muestro las estrategias a utilizar en PubMed, MEDLINE (Ovid), Embase (Ovid), Embase (Elsevier) y CINAHL (EBSCO).

¿Qué es y qué no es la Declaración PRISMA?

La Declaración PRISMA (acrónimo de Preferred Reporting Items of Systematic reviews and Meta-Analyses) es una guía para la elaboración, remisión para publicación y/o comunicación de revisiones sistemáticas y metanálisis. Esta sería la interpretación al español del término inglés reporting.

En 1999, un grupo internacional elaboró una guía denominada Declaración QUOROM (QUality Of Reporting Of Meta-analyses) para abordar el problema de la notificación deficiente de los metanálisis. Esta guía se centraba en la notificación de los metanálisis de ensayos controlados aleatorios. PRISMA fue publicada por primera vez en 2009, como una evolución de QUORUM (Quality Of Reporting Of Meta-analyses) y ha sido actualizada recientemente en 2020 (1).

PRISMA se diseñó para ayudar a informar de forma transparente, completa y precisa del por qué se realizó la revisión, qué hicieron los autores y qué encontraron y abordar el problema de la presentación de informes deficientes de revisiones sistemáticas.

En paralelo con el avance de los métodos de síntesis del conocimiento, se han publicado las siguientes extensiones de la Declaración PRISMA:

Asimismo, se ha traducido a diversos idiomas, entre ellos el español (https://www.prisma-statement.org/Translations/Translations).

Desde su publicación, el uso de la declaración PRISMA está asociado con informes más completos de #RevisionesSistemáticas @PRISMAStatement #SysRev

¿Por qué decimos PRISMA cuando queremos indicar la guía metodológica que hemos seguido en nuestra revisión sistemática?

Como dice la propia declaración PRISMA 2020, esta «no pretende guiar la realización de revisiones sistemáticas, para las cuales hay recursos integrales disponibles. Sin embargo, la familiaridad con PRISMA 2020 es útil al planificar y realizar revisiones sistemáticas para garantizar que se capture toda la información recomendada. PRISMA 2020 no debe utilizarse para evaluar la realización o la calidad metodológica de las revisiones sistemáticas; existen otras herramientas para este propósito».

Por lo tanto, queda claro que PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una revisión sistemática (2).

PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una #RevisiónSistemática @PRISMAStatement #RevSys

A pesar de ello, es una práctica habitual el que en el apartado de metodología de la revisión nos encontremos con la declaración de los autores de que han utilizado PRISMA como una guía metodológica para diseñar y realizar revisiones.

Dicho todo lo anterior, debemos distinguir entre realizar («conduct») e informar («report») una #RevisiónSistemática u otro documento de síntesis de la evidencia.

En la siguiente presentación os dejo los enlaces a diferentes guías, manuales y estándares para realizar y para reportar nuestra revisión.

BIBLIOGRAFÍA

  1. Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, Shamseer L, Tetzlaff JM, Akl EA, Brennan SE, Chou R, Glanville J, Grimshaw JM, Hróbjartsson A, Lalu MM, Li T, Loder EW, Mayo-Wilson E, McDonald S, McGuinness LA, Stewart LA, Thomas J, Tricco AC, Welch VA, Whiting P, Moher D. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ. 2021 Mar 29;372:n71. doi: 10.1136/bmj.n71.
  2. Sarkis-Onofre R, Catalá-López F, Aromataris E, Lockwood C. How to properly use the PRISMA Statement. Syst Rev. 2021 Apr 19;10(1):117. doi: 10.1186/s13643-021-01671-z.

¿Qué son las revisiones rápidas o Rapid Reviews?

La demanda de revisiones rápidas se ha disparado en los últimos años, siendo el ejemplo paradigmático el de la pandemia de la COVID-19. Hay que tener en cuenta que las revisiones sistemáticas requieren una cantidad importante de tiempo, recursos y energía de los equipos de autores y suponen un tiempo medio de desarrollo 67,3 semanas (1). 

La primera vez que una revisión rápida (RR) se mencionó en la literatura fue 1997, cuando Best et al. describieron el programa de evaluación rápida de tecnologías sanitarias en las regiones sur y oeste de Inglaterra (2).

Una revisión rápida es un enfoque de la síntesis de la evidencia que proporciona información oportuna a los responsables de la toma de decisiones (p. ej., planificadores de la atención sanitaria, proveedores, responsables políticos, pacientes) simplificando el proceso de síntesis de la evidencia.

El objetivo de las #RevisionesRápidas es proporcionar la información más oportuna a los responsables de la toma de decisiones (como planificadores sanitarios, proveedores, responsables políticos, pacientes y otros), a menudo a un coste reducido

Aunque en las revisiones rápidas existe el riesgo de que se hayan omitido evidencias o de que éstas se hayan evaluado o sintetizado de forma inadecuada, es probable que, en la mayoría de estos casos, algunas evidencias sean mejores que ninguna.

Una revisión rápida utiliza atajos en el proceso de revisión sistemática, pero ha de ser rigurosa y debe hacer una pregunta muy enfocada. También puede tener utilidad en las actualizaciones de revisiones existentes que incorporen datos publicados desde la revisión anterior. 

Definición

Una revisión rápida es una forma de síntesis del conocimiento que acelera el proceso de realización de una revisión sistemática tradicional mediante la agilización u omisión de una serie de métodos para producir evidencia para las partes interesadas de una forma eficiente en cuanto a recursos (3).

Definición de #RevisiónRápida: «Es una forma de síntesis de conocimiento que acelera el proceso de realización de una revisión sistemática mediante la agilización u omisión de parte de los métodos para producir evidencia ….»

Definición de revisión rápida (Hamel C, Michaud A, Thuku M, Skidmore B, Stevens A, Nussbaumer-Streit B, Garritty C. Defining Rapid Reviews: a systematic scoping review and thematic analysis of definitions and defining characteristics of rapid reviews. J Clin Epidemiol. 2021 Jan;129:74-85.)

Las revisiones rápidas al igual que revisiones vivas, no son necesariamente un tipo de revisión, sino más bien un enfoque o una actitud a la hora de realizar cualquier tipo de revisión. Las revisiones rápidas y las revisiones vivas deben considerarse enfoques de síntesis de la evidencia, más que nuevos tipos de síntesis de la evidencia (4). La automatización, el aprendizaje automático, la inteligencia artificial y la digitalización de la evidencia son otras áreas de trabajo que ofrecen oportunidades para racionalizar los procesos de revisión.

Las #RevisionesRápidas y las #RevisionesVivas deben considerarse enfoques de síntesis de la evidencia, más que nuevos tipos de síntesis de la evidencia

Recomendaciones metodológicas

El objetivo de las revisiones rápidas es proporcionar la información más oportuna a los responsables de la toma de decisiones, a menudo a un coste reducido. Por lo general, las revisiones rápidas siguen pasos similares a los de las revisiones sistemáticas; sin embargo, dado que el objetivo es agilizar el proceso de revisión, pueden omitirse, modificarse o simplificarse los flujos de trabajo y procesos habituales de una revisión sistemática.

Ya di cuenta en una entrada anterior de las recomendaciones que la Cochrane Rapid Reviews Method Group ha publicado en 2021 (5). Son un total de 26 recomendaciones de las cuales paso a reproducir solo las relativas al apartado de la búsqueda de evidencia (recomendaciones 10 a 13):

  • Involucrar a un especialista en información.
  • Limitar la búsqueda principal a las bases de datos a CENTRAL, MEDLINE (por ejemplo, a través de PubMed) y Embase (si se dispone de acceso). (R10)
  • La búsqueda en bases de datos especializadas (p. ej., PsycInfo y CINAHL) se recomienda en determinados temas, pero debe limitarse a 1 o 2 fuentes adicionales, u omitirse si no se dispone del tiempo y los recursos son limitados. (R11)
  • Considere la revisión por pares de al menos 1 estrategia de búsqueda (por ejemplo, MEDLINE). (R12)
  • Limitar la búsqueda de literatura gris y la búsqueda suplementaria (R13). Si está justificado, buscar en registros de ensayos clínicos y escanear de las listas de referencias de otras RS, o de los estudios incluidos tras el cribado de los resúmenes y los textos completos.

En la búsqueda para #RevisionesRápidas debe participar un especialista en información con experiencia.

SelecTing Approaches for Rapid Reviews (STARR) es una herramienta de decisión que ofrece a los investigadores orientación sobre la planificación de una revisión rápida (6). La herramienta incluye 20 puntos que cubren las interacciones con los responsables de la toma de decisiones que encargaron la revisión rápida; el alcance de la bibliografía; la selección de enfoques simplificados para las búsquedas bibliográficas, los métodos para la abstracción de datos y la síntesis; así como el informe de los métodos utilizados en una revisión rápida. STARR es útil como punto de partida para seleccionar enfoques amplios que puedan considerarse para una revisión rápida.

Guía de usuario de SelecTing Approaches for Rapid Reviews (STARR) incluido como apéndice del artículo de Pandor A et al. (6).

Guías prácticas de métodos de revisiones rápidas

  • Cochrane Rapid Reviews Methods Group (5, 7).
El objetivo de este grupo (https://methods.cochrane.org/rapidreviews/) es dedicarse a la investigación, el desarrollo y la evaluación de métodos de revisión rápida; dirigir guías y manuales sobre métodos de revisión rápida; y elaborar normas para la realización y presentación de informes sobre revisiones rápidas.
  • PRISMA-RR, a reporting guideline for rapid reviews of primary studies (8). Este es un protocolo que describe el desarrollo de pautas de informes para revisiones rápidas. Los autores afirman: «El objetivo de este proyecto es crear una guía mínima basada en la evidencia y derivada del consenso para los autores que escriben informes de revisiones rápidas de estudios primarios».
  • Rapid Review Guidebook: Steps for conducting a rapid review. National Collaborating Centre for Methods and Tools, McMaster University, Canada, 2017 (9)
Esta guía proporciona orientación práctica sobre el proceso de realización de revisiones rápidas para informar la toma de decisiones sobre políticas y programas. Se describe un proceso específico, junto con sugerencias de pasos que podrían reducirse si los plazos son breves.
  • Rapid Reviews to Strengthen Health Policy and Systems: A Practical Guide: World Health Organisation (WHO) 2017 [3]. Esta guía de la OMS ofrece recomendaciones prácticas sobre cómo realizar revisiones rápidas para fundamentar las políticas sanitarias y la toma de decisiones. La guía también ofrece sugerencias para acelerar los procesos de revisión, e información sobre el equilibrio entre eficiencia y exhaustividad o exactitud.
  • The Production of Quick Scoping Reviews and Rapid Evidence Assessments: A How To Guide: UK Government Report 2015 (11). Esta guía del gobierno del Reino Unido ofrece recomendaciones prácticas para quienes pretendan encargar y/o elaborar revisiones rápidas del alcance o evaluaciones rápidas de la evidencia.
  • Flexible framework for restricted systematic reviews, Centre for Evidence-Based Medicine, University of Oxford: Pluddemann et al. (12). En este artículo se esboza un marco para las revisiones rápidas (que denominan «revisiones restringidas»), que incluye un conjunto sugerido de requisitos mínimos y algunos pasos adicionales que pueden incorporarse para reducir aún más el sesgo.
  • Brazilian consensus to develop guidelines for rapid reviews: Silva et al.  (13). Este artículo informa de un estudio Delphi entre expertos en evaluación de tecnologías sanitarias de Brasil, que dio como resultado una serie de pasos clave recomendados por consenso para llevar a cabo una revisión rápida.

Problemas que plantean las revisiones sistemáticas rápidas

No existen umbrales claros que distingan lo que actualmente se llama una revisión «rápida» versus una «sistemática». La etiqueta «revisiones rápidas» puede ser un nombre inapropiado, ya que algunos enfoques rápidos sacrifican el rigor y pueden llevar un tiempo considerable para realizarlos, y las revisiones sistemáticas completas se pueden completar en períodos cortos de tiempo sin omitir los pasos estándar. Como tal, en el artículo de Aronson et al. (14) proponen una forma más clara de distinguir las revisiones rápidas sea a través de su omisión de procesos, o como una “revisión sistemática con atajos” o una revisión “parcial” o “restringida”.

En reciente artículo de Munn Z et al (15) «The Dark Side of Rapid Review» se plantea el problema de que podamos regresar a una época en la que el valor de los enfoques sistemáticos de la evidencia la síntesis se pasa por alto en favor de búsquedas bibliográficas rápidas y sucias, que a menudo es todo lo que se puede lograr con una financiación reducida. Por ello, cuando se realicen estas revisiones restringidas, debe haber una justificación muy sólida para este enfoque.

BIBLIOGRAFÍA

  1. Borah R, Brown AW, Capers PL, Kaiser KA. Analysis of the time and workers needed to conduct systematic reviews of medical interventions using data from the PROSPERO registry. BMJ Open. 2017 Feb 27;7(2):e012545. doi: 10.1136/bmjopen-2016-012545. PMID: 28242767; PMCID: PMC5337708.
  2. Best L., Stevens A., and Colin-Jones D.: Rapid and responsive health technology assessment: the development and evaluation process in the South and West region of England.  J Clin Effectiveness 1997; 2: pp. 51-56.
  3. Hamel C, Michaud A, Thuku M, Skidmore B, Stevens A, Nussbaumer-Streit B, Garritty C. Defining Rapid Reviews: a systematic scoping review and thematic analysis of definitions and defining characteristics of rapid reviews. J Clin Epidemiol. 2021 Jan;129:74-85. doi: 10.1016/j.jclinepi.2020.09.041. PMID: 33038541.
  4. Tricco AC, Khalil H, Holly C, Feyissa G, Godfrey C, Evans C, Sawchuck D, Sudhakar M, Asahngwa C, Stannard D, Abdulahi M, Bonnano L, Aromataris E, McInerney P, Wilson R, Pang D, Wang Z, Cardoso AF, Peters MDJ, Marnie C, Barker T, Pollock D, McArthur A, Munn Z. Rapid reviews and the methodological rigor of evidence synthesis: a JBI position statement. JBI Evid Synth. 2022 Apr 1;20(4):944-949. doi: 10.11124/JBIES-21-00371. PMID: 35124684.
  5. Garritty C, Gartlehner G, Nussbaumer-Streit B, King VJ, Hamel C, Kamel C, Affengruber L, Stevens A. Cochrane Rapid Reviews Methods Group offers evidence-informed guidance to conduct rapid reviews. J Clin Epidemiol. 2021 Feb;130:13-22. doi: 10.1016/j.jclinepi.2020.10.007. PMID: 33068715; PMCID: PMC7557165.
  6. Pandor A, Kaltenthaler E, Martyn-St James M, Wong R, Cooper K, Dimairo M, O’Cathain A, Campbell F, Booth A. Delphi consensus reached to produce a decision tool for SelecTing Approaches for Rapid Reviews (STARR). J Clin Epidemiol. 2019 Oct;114:22-29. doi: 10.1016/j.jclinepi.2019.06.005. PMID: 31185276.
  7. Cochrane Rapid Reviews Methods Group. Available from https://methods.cochrane.org/rapidreviews/ (consultado el 10 de enero de 2023).
  8. Stevens A, Garritty C, Hersi M, Moher D. Developing PRISMA-RR, a reporting guideline for rapid reviews of primary studies (Protocol).  Disponible en: http://www.equator-network.org/wp-content/uploads/2018/02/PRISMA-RR-protocol.pdf
  9. Dobbins M. Rapid Review Guidebook: Steps for conducting a rapid review. National Collaborating Centre for Methods and Tools (NCCMT), McMaster University, Canada; 2017. Available from https://www.nccmt.ca/capacity-development/rapid-review-guidebook
  10. Tricco AC, Langlois EV, Straus SE. Rapid Reviews to Strengthen Health Policy and Systems: A Practical Guide. World Health Organization (WHO); 2017. Disponible en: https://www.researchgate.net/publication/320100700_Rapid_reviews_to_strengthen_health_policy_and_systems_a_practical_guide
  11. Collins A, Coughlin D, Miller J, Kirk S. The Production of Quick Scoping Reviews and Rapid Evidence Assessments: A How To Guide. UK Government; 2015. Available from https://www.gov.uk/government/publications/the-production-of-quick-scoping-reviews-and-rapid-evidence-assessments
  12. Plüddemann A, Aronson JK, Onakpoya I, Heneghan C, Mahtani KR. Redefining rapid reviews: a flexible framework for restricted systematic reviews. BMJ Evid Based Med. 2018 Dec;23(6):201-203. doi: 10.1136/bmjebm-2018-110990. PMID: 29950313.
  13. Silva MT, Silva END, Barreto JOM. Rapid response in health technology assessment: a Delphi study for a Brazilian guideline. BMC Med Res Methodol. 2018 Jun 8;18(1):51. doi: 10.1186/s12874-018-0512-z. PMID: 29884121; PMCID: PMC5994001.
  14. Aronson JK, Heneghan C, Mahtani KR, Plüddemann A. A word about evidence: ‘rapid reviews’ or ‘restricted reviews’? BMJ Evid Based Med. 2018 Dec;23(6):204-205. doi: 10.1136/bmjebm-2018-111025. PMID: 29959158.
  15. Munn Z, Pollock D, Barker TH, Stone J, Stern C, Aromataris E, Pearson A, Straus S, Khalil H, Mustafa RA, Tricco AC, Schünemann HJ. The Dark Side of Rapid Reviews: A Retreat From Systematic Approaches and the Need for Clear Expectations and Reporting. Ann Intern Med. 2022 Dec 27. doi: 10.7326/M22-2603.PMID: 36571838.

En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.

¿Por qué hay que buscar en varias bases de datos?

Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión. 

En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24

¿En cuántas bases de datos hay que buscar?

Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).

Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).

Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.

Pero, ¿cuáles elegir?

Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.

¿Qué dicen los expertos?

Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).

Recomendaciones del bibliotecario experto Wilchor Bramer (2017).

Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).

Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).

Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).

Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).

Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.

En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.

¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?

La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.

Razones por la que es necesario buscar en MEDLINE y en Embase.

¿Cómo incluye Embase el contenido de MEDLINE?

  • Más de 2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
  • 2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
  • Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.

¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?

Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.

Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».

Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.

Razones por las que debo buscar en Embase y SCOPUS.

¿Es recomendable buscar en Google Académico?

Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.

Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).

Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.

Elección de la plataforma

Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).

¿MEDLINE vía PubMed u Ovid?

PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).

Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.

Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).

Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor

Por contra del uso de PubMed estaría su problema de indización de revistas depredadoras (Ross-White A, et al.).

¿Embase vía Embase.com o Ovid?

No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)

Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.

Juego para ver las diferencias en la sintaxis de búsqueda.

BIBLIOGRAFÍA

Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002

Higgins JPT, Lasserson T, Chandler J, Tovey D, Thomas J, Flemyng E, Churchill R. Methodological Expectations of Cochrane Intervention Reviews. Cochrane: London, Version February 2022. Disponible en: https://community.cochrane.org/mecir-manual/standards-conduct-new-cochrane-intervention-reviews-c1-c75/performing-review-c24-c75

Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.

Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.

Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/

Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.

Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.

Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.

Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D

Elsevier. Learn and Support – Embase | Elsevier [Internet]. Elsevier.com. 2021 [consultado 19 dic 2022]. Disponible en: https://www.elsevier.com/solutions/embase-biomedical-research/learn-and-support#:~:text=Scopus%20searches%20focus%20on%20abstracts,significantly%20fewer%20results%20than%20Embase

Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.

Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.

¿Sabes que en PubMed se indizan revistas fraudulentas? [Internet]. BiblioGETAFE. BiblioGETAFE; 2018 [consultado el 19 dic 2022]. Disponible en: https://bibliogetafe.com/2018/10/09/sabes-que-en-pubmed-se-indizan-revistas-fraudulentas/

‌Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.

Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147

En una revisión sistemática, ¿seleccionamos los estudios primero por el título y luego por el resumen o directamente por título y abstract?

En un ensayo aleatorizado de 2 métodos diferentes de cribado de citas para la inclusión de artículos en una revisión sistemática de los efectos de la rehabilitación pulmonar en personas con EPOC.

Los autores asignaron aleatoriamente una base de datos de 1072 citas para que fueran cribadas por los mismos 2 revisores utilizando dos enfoques diferentes:

  1. Enfoque en dos fases: cribado del título seguido del cribado del título y el resumen
  2. Enfoque en una fase: Cribado de título y resumen simultáneamente.

El tiempo necesario para examinar 100 citas fue de 120 minutos con el proceso en una fase, frente a 170 minutos con el proceso en dos fases.

Conclusión: Los resultados sugieren que el cribado mediante el método en una fase requiere menos tiempo que un proceso en dos fases consistente en presentar el título seguido del resumen.

En #RevisionesSistemáticas, la selección mediante el método en el que los títulos y los resúmenes se presentan simultáneamente requiere menos tiempo que un proceso en dos fases consistente en cribar el título seguido del resumen.

Referencia:

Devane D, Clarke M, McCarthy B, Casey D. Citation screening in systematic reviews: two approaches, two authors and time taken (SWAR-1 (Study Within A Review 1)). In: Evidence-Informed Publich Health: Opportunities and Challenges. Abstracts of the 22nd Cochrane Colloquium; 2014 21-26 Sep; Hyderabad, India. John Wiley & Sons; 2014. Disponible en: https://abstracts.cochrane.org/2014-hyderabad/citation-screening-systematic-reviews-two-approaches-two-authors-and-time-taken-swar

Trip Medical Database: Nuevo filtro para mejorar la localización de revisiones sistemáticas en PubMed

Novedad TripDatabase: nuevo filtro para localizar revisiones sistemáticas en PubMed

TripDatabase agrega revisiones sistemáticas mediante tres mecanismos:

  • Agregando rutinariamente contenido procedente de PubMed de varios editores productores de revisiones sistemáticas;
  • Usamos un filtro en PubMed para identificar revisiones sistemáticas;
  • Identificando revisiones sistemáticas de un pequeño número de fuentes de terceros.

La novedad ha sido la de ajustar un filtro para localizar revisiones sistemáticas en PubMed, que ahora es el siguiente:

(systematic review[sb] OR meta analy*[TI] OR metaanaly*[TI] OR “Meta-Analysis”[PT] OR “Systematic Review”[PT] OR “Systematic Reviews as Topic”[MeSH] OR “systematic review” [TI] OR “health technology assessment” [TI] OR “Technology Assessment, Biomedical”[Mesh])

Más información en: https://blog.tripdatabase.com/2022/11/09/systematic-reviews-in-trip/

¿Puede una sola persona hacer una revisión sistemática?

A raíz de una conversación en Twitter en la que se planteaba la idoneidad de que los estudiantes de enfermería realicen una revisión sistemática como TFG o TFM, me he planteado aclarar por qué una revisión sistemática (RS) requiere un equipo de revisores.

Las razones más relevantes serían las dos siguientes:

  1. Son necesarios diversos conjuntos de conocimientos y habilidades para realizar una RS rara vez (o nunca) residen en una sola persona.
  2. Se necesita más de una persona para realizar verificaciones de confiabilidad entre evaluadores para garantizar la integridad de las decisiones clave, la extracción de datos y la codificación.

¿Y qué personas serían necesarias?

Expertos en la materia

Los expertos en la materia son necesarios para formular preguntas de revisión que sean significativas. Al poseer un conocimiento profundo del tema y de las cuestiones actuales en ese campo, los expertos en la materia pueden articular preguntas que son relevantes para el campo de la revisión y pueden conocer con anticipación los tipos de estudios que probablemente estén disponibles. 

Especialista en información (bibliotecario)

Los bibliotecarios, como especialistas de información que son, pueden diseñar, ejecutar y documentar estrategias de búsqueda que sean eficaces, eficientes, transparentes y reproducibles.

La mayoría de los estudiantes universitarios aprenden a utilizar cadenas de palabras clave y operadores booleanos para buscar en bases de datos bibliográficas, pero este nivel de conocimiento no es suficiente para las #RevisionesSistemáticas.

En las #RevisionesSistemáticas, los especialistas en información (#bibliotecarios) son esenciales en el diseño y la realización de estrategias eficaces y eficientes para encontrar estudios potencialmente relevantes. 

Metodólogo

Los metodólogos son importantes artífices de las RS, ya que pueden ayudar a establecer los criterios de inclusión de los estudios, los métodos de evaluación de los riesgos de sesgo y los planes de extracción, análisis y síntesis de los datos.

Estadístico experto en metaanálisis

La estadística y el metaanálisis deben utilizarse para analizar y sintetizar los resultados cuantitativos siempre que sea posible, por lo que la experiencia en esta área es importante en el diseño de las revisiones sistemáticas. Los metaanalistas pueden ayudar a diseñar formularios de extracción y codificación de datos para facilitar el análisis y la síntesis. 

Podemos concluir que las revisiones sistemáticas no deben realizarse como proyectos individuales.

Podemos concluir que las #RevisionesSistemáticas no deben realizarse como proyectos individuales. Es necesario la formación de un equipo que incluya expertos en la materia, #bibliotecario, metodólogo y estadístico.

 

BIBLOGRAFÍA

Littell, J. H., Valentine, J. C., & Pigott, T. D. Unit 1: Introduction. In J. C. Valentine, J. H. Littell, & S. Young (Eds.), Systematic reviews and meta-analysis: A Campbell Collaboration online course. Open Learning Initiative, 2022. Disponible en: https://oli.cmu.edu/courses/systematic-reviews-and-meta-analysis/

Puljak L. If there is only one author or only one database was searched, a study should not be called a systematic review. J Clin Epidemiol. 2017 Nov;91:4-5. doi: 10.1016/j.jclinepi.2017.08.002. PMID: 28823649.

Pacheco RL, Riera R, Santos GM, Martins Sá KM, Peres Bomfim LG, da Silva GR, de Oliveira FR, Martimbianco ALC. Many systematic reviews with a single author are indexed in PubMed. J Clin Epidemiol. 2023 Jan 27:S0895-4356(23)00007-0. doi: 10.1016/j.jclinepi.2023.01.007. PMID: 36716980.

Buscemi N, Hartling L, Vandermeer B, Tjosvold L, Klassen TP. Single data extraction generated more errors than double data extraction in systematic reviews. J Clin Epidemiol. 2005;59:697-703. doi:10.1016/j.jclinepi.2005.11.010.

Metaanálisis en red («Network Meta-Analysis»)

Los metanálisis tradicionales (MT) se basan en comparaciones directas entre una intervención y un comparador (placebo o tratamiento estándar), con el propósito de analizar cuantitativamente e integrar los resultados disponibles en diferentes estudios de una intervención de interés. Estos tiene limitaciones:

  • No pueden comparar más de 2 tratamientos alternativos a la vez. Por lo tanto, en situaciones clínicas donde existen múltiples opciones de tratamientos que compiten entre sí, el MT tradicional no puede proporcionar información sobre los efectos relativos y potencial daño de todos los tratamientos de forma simultánea.
  • En los casos que no existen ensayos clínicos aleatorizados que comparen de forma directa 2 o más intervenciones.

Por eso, en 2002 se propuso los metaanálisis en red (MTR) como un procedimiento estadístico de síntesis de evidencia capaz de comparar diferentes alternativas terapéuticas a través de comparaciones directas e indirectas (Lumley T. Network meta-analysis for indirect treatment comparisons. Stat Med. 2002 Aug 30;21(16):2313-24. doi: 10.1002/sim.1201. PMID: 12210616.).

Definición de metaanálisis en red (Chaimani A, Caldwell DM, Li T, Higgins JPT, Salanti G. Chapter 11: Undertaking network meta-analyses. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.3 (updated February 2022). Cochrane, 2022. Available from http://www.training.cochrane.org/handbook).
Diferencias entre los metaanálisis tradicionales y los metaanálisis en red.

Cualquier conjunto de estudios que vincule 3 o + intervenciones a través de comparaciones directas forma una red de intervenciones. En una red de intervenciones puede haber múltiples formas de hacer comparaciones indirectas entre las intervenciones. Estas son comparaciones que no se han realizado directamente dentro de los estudios y se pueden estimar mediante combinaciones matemáticas de las estimaciones disponibles del efecto directo de la intervención. La evidencia mixta es la surgida mediante la síntesis de evidencia directa e indirecta (basados en un comparador común).

Una red conectada de intervenciones implica que todas las comparaciones de tratamientos en una red están directa o indirectamente conectadas entre sí. Una intervención no puede incluirse en el modelo MTR si no se compara directamente con al menos otra intervención.

Diagrama de red. Ejemplos de tipos de geometrías de la red: a) modelo con red en cierre simple; b) modelo red con cierre en estrella; c) Modelo en red conectada; d) modelo en red con cierre complejo.

Para que un MTR sea válido tiene que darse 3 supuestos metodológicos o principios básicos para las comparaciones indirectas son: homogeneidad, transitividad y consistencia.

BIBLIOGRAFÍA

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

¿Merece la pena incluir los resúmenes de congresos en las revisiones sistemáticas?

Las revisiones sistemáticas obligan a intentar reunir toda la evidencia, incluida la no publicada. Pero existe controversia relativa al esfuerzo y beneficio de incluir estudios presentados solo en conferencias.
En mi experiencia, los revisores suelen mostrarse escépticos de la necesidad de inclusión de este tipo de literatura gris. Por otro lado, los bibliotecarios nos encontramos con muchísimas dificultades para localizar el contenido completo de la comunicación de un congreso y el contacto con los autores suele ser frustrante por su escaso éxito.

¿Qué nos recomiendan las pautas existentes?

La Cochrane lo considera «altamente deseable» buscar fuentes de literatura gris relevantes al generar una revisión e indica que «Review authors should generally search sources such as dissertations and conference abstracts». La United States Agency for Health Care Research and Quality (AHRQ) recomienda que se consideren estas búsquedas «Reviewers should routinely consider searching conference abstracts and proceedings to identify unpublished or unidentified studies and should consult with their Technical Expert Panels for specific conferences to search». También señala»… dado el hecho de que solo el 60 % de los ensayos controlados aleatorios descritos en resúmenes de congresos alcanzan la publicación completa y la publicación completa está asociada con resultados que favorecen la intervención de prueba, entonces los resúmenes de congresos de las reuniones más probables que publiquen resúmenes de ensayos probablemente valga la pena buscarlos». El IOM describe que la literatura gris incluye registros de ensayos, resúmenes de conferencias, libros, disertaciones, monografías e informes en poder de la Administración de Drogas y Alimentos de los Estados Unidos (FDA) y otras agencias gubernamentales, académicas, comerciales e industriales. El estándar 3.2.1 recomienda que quienes realicen una revisión sistemática deben “buscar en bases de datos de literatura gris, registros de ensayos clínicos y otras fuentes de información no publicada sobre estudios».

Argumentos a favor y en contra de la inclusión de resúmenes de congresos

¿Cómo deben los revisores sistemáticos manejar los resúmenes de congresos?

Por un lado, en los estudios que comparan resúmenes de congresos y artículos publicados en su totalidad del mismo estudio solo encuentran diferencias menores. Otros estudios que han examinado las diferencias en las estimaciones del tratamiento de metanálisis con y sin resúmenes de congresos informan de cambios en la precisión, pero por lo general no en la estimación del efecto del tratamiento. Sin embargo, en algunos casos, la inclusión de resúmenes de congresos marcó una diferencia en la estimación del efecto del tratamiento, no solo en su precisión.
Antes de decidir arbitrariamente incluir o no resúmenes de congresos en una revisión sistemática, Scherer y Saldanha nos dan las pautas que deben considerar los revisores sistemáticos. Nos recomiendan que:

  1. Si la evidencia disponible es escasa o contradictoria, puede valer la pena incluir resúmenes de conferencias.
  2. Sin embargo, generalmente los resúmenes no proporcionan toda la información necesaria para evaluar el estudio y evaluar la elegibilidad para una revisión sistemática. Por lo tanto, si se incluyen los resultados de los resúmenes de congresos, es necesario hacer los esfuerzos que sean necesarios para contactar a los autores del resumen y examinar los registros de estudios como ClinicalTrials.gov y los protocolos publicados para obtener información adicional y confirmatoria sobre métodos y resultados.
  3. Además, para examinar el impacto de incluir los resúmenes, siempre se debe completar un análisis de sensibilidad con y sin resúmenes de congresos.
    También, nos proporcionan un diagrama de flujo que muestra sus sugerencias sobre cómo abordar el uso de resúmenes de congresos en la revisión sistemática.
Scherer, R.W., Saldanha, I.J. How should systematic reviewers handle conference abstracts? A view from the trenches. Syst Rev 8, 264 (2019). https://doi.org/10.1186/s13643-019-1188-0

BIBLIOGRAFÍA

Lefebvre C, Glanville J, Briscoe S, Featherstone R, Littlewood A, Marshall C, Metzendorf M-I, Noel-Storr A, Paynter R, Rader T, Thomas J, Wieland LS. Chapter 4: Searching for and selecting studies. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.3 (updated February 2022). Cochrane, 2022. Disponible en: www.training.cochrane.org/handbook.

Institute of Medicine (US) Committee on Standards for Systematic Reviews of Comparative Effectiveness Research. Finding What Works in Health Care: Standards for Systematic Reviews. Eden J, Levit L, Berg A, Morton S, editors. Washington (DC): National Academies Press (US); 2011. PMID: 24983062.

Balshem H, Stevens A, Ansari M, et al. Finding Grey Literature Evidence and Assessing for Outcome and Analysis Reporting Biases When Comparing Medical Interventions: AHRQ and the Effective Health Care Program. 2013 Nov 18. In: Methods Guide for Effectiveness and Comparative Effectiveness Reviews [Internet]. Rockville (MD): Agency for Healthcare Research and Quality (US); 2008-. Disponible en: https://www.ncbi.nlm.nih.gov/books/NBK174882/

Scherer, R.W., Saldanha, I.J. How should systematic reviewers handle conference abstracts? A view from the trenches. Syst Rev 8, 264 (2019). https://doi.org/10.1186/s13643-019-1188-0

Hackenbroich, S., Kranke, P., Meybohm, P. et al. Include or not to include conference abstracts in systematic reviews? Lessons learned from a large Cochrane network meta-analysis including 585 trials. Syst Rev 11, 178 (2022). https://doi.org/10.1186/s13643-022-02048-6

Decidir qué tipo de revisión es el más adecuado

Existen múltiples tipos de revisiones de síntesis. Una paso inicial antes de comenzar nuestra revisión sistematizada es seleccionar qué tipo de revisión es la más adecuada a nuestros objetivos y tipo de pregunta de investigación.


Para ayudarnos en este proceso disponemos de la herramienta Right Review (https://whatreviewisrightforyou.knowledgetranslation.net/), antes conocida como «What Review is Right for You?».

Página de inicio de «Rigth Review»https://whatreviewisrightforyou.knowledgetranslation.net/

Esta herramienta está diseñada para proporcionar orientación y material de apoyo a los revisores sobre métodos para realizar y reportar la síntesis de conocimiento. Su propósito es ayudar a los usuarios a seleccionar cuál de las 41 síntesis de conocimientos cuantitativas o cualitativas (https://whatreviewisrightforyou.knowledgetranslation.net/site/methods) incluidas sería apropiada para su pregunta de investigación a través de un conjunto de preguntas simples.

Otro recurso interesante es diagrama de flujo o árbol de decisiones de metodología de revisión de la Biblioteca de la Universidad de Cornell.

BIBLIOGRAFÍA

Sutton, A., Clowes, M., Preston, L., & Booth, A. (2019). Meeting the review family: exploring review types and associated information retrieval requirements. Health Information & Libraries Journal, (3), 202. https://doi.org/10.1111/hir.12276

Gough, D., Thomas, J., & Oliver, S. (2012). Clarifying differences between review designs and methods. Systematic Reviews , 1, 28. doi:10.1186/2046-4053-1-28 https://systematicreviewsjournal.biomedcentral.com/articles/10.1186/2046-4053-1-28

Moher, D., Stewart, L., & Shekelle, P. (2015). All in the Family: systematic reviews, rapid reviews, scoping reviews, realist reviews, and more. Systematic Reviews , 4, 183 https://systematicreviewsjournal.biomedcentral.com/track/pdf/10.1186/s13643-015-0163-7

Grant MJ, Booth A. A typology of reviews: an analysis of 14 review types and associated methodologies. Health Info Libr J. 2009 Jun;26(2):91-108. doi: 10.1111/j.1471-1842.2009.00848.x. PMID: 19490148.

Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios

La lógica booleana es el enfoque establecido por la práctica para construir la estructura de las estrategias de búsqueda generales y para las revisiones de ciencias de la salud (1). Aun así, existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para revisiones sistemáticas. Dado que no hay ningún consejo en PRESS, PRISMA, MECIR o PRISMA-S que nos recomiende seguir uno u otro de los enfoques, es necesario que el bibliotecario conozca las principales construcciones y los utilice o combine según las necesidades. Por ello, la entrada del blog de Farhad Shokraneh (@FarhadShokrane) (2) me ha parecido de gran interés, ya que resume y describe lo que él considera los 3 tipos o enfoques para estructurar las estrategias de búsqueda:

  • Construcción línea a línea;
  • Búsqueda por bloques; y
  • Construcción en una única línea (párrafo).

Existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para #RevisionesSistemáticas (por líneas, bloques o párrafo). El bibliotecario debe conocerlos y utilizar o combinar según las necesidades.

En la siguiente presentación resumo estos tres enfoques, en qué consisten, ejemplos de ellos, ventajas e inconvenientes, así como recomendaciones de uso.

A la hora decidir que enfoque utilizar tengo que tener en consideración desde el objetivo/propósito de nuestra búsqueda, nuestras preferencias y las del usuario. Además, la búsqueda en sí misma y su complejidad puede ser necesario utilizar un enfoque u otro e incluso una mezcla de varios en la misma estrategia de búsqueda. Por último, hay que tener en cuenta que no todas las interfaces de búsquedas/plataformas/bases de datos permiten los tres enfoques.

La estructura de la estrategia de búsqueda para #RevisionesSistemáticas dependerá del propósito de la presentación de la estrategia de búsqueda, preferencias, complejidad de la búsqueda y las posibilidades de búsqueda de la base de datos.

Tabla resumen de los principales enfoques utilizados en las estrategias de búsqueda para revisiones sistemáticas, adaptado de Farhad (2).

En mi caso, suelo preferir la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs). De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión (3). Sin embargo, en búsquedas complejas puede que no sea posible dividir las búsquedas en bloques de un solo concepto y que algunos bloques pueden tener subbloques y o que sea necesario una combinación de las tres estructuras.

BIBLIOGRAFÍA

  1. MacFarlane A, Russell-Rose T, Shokraneh F. Search Strategy Formulation for Systematic Reviews: issues, challenges and opportunities. Intelligent Systems with Applications. 2022: 200091.
  2. Shokraneh, Farhad. Structure of Search Strategies for Systematic Reviews: Line by Line versus Block by Block versus Single-Line. Medium 6 June 2021; [Revisado 9 June 2021]. Disponible en: https://farhadinfo.medium.com/structure-of-search-strategies-for-systematic-reviews-line-by-line-versus-block-by-block-versus-d59aae9e92df
  3. Campos-Asensio C. Cómo elaborar una estrategia de búsqueda bibliográfica. Enferm Intensiva. 2018 Oct-Dec;29(4):182-186. English, Spanish. doi: 10.1016/j.enfi.2018.09.001. PMID: 30291015.

Si estoy planificando una revisión de alcance ¿debo escribir a priori un protocolo y registrarlo?

Recientemente, unos investigadores que tienen previsto realizar una revisión de alcance me han preguntado si deben hacer un protocolo y dónde pueden registrarlo. Les he remitido al artículo de Peters y col. en el que nos detalla el propósito y la importancia de desarrollar un protocolo de revisión de alcance realizado a priori, antes de realizar una revisión completa. Además, detallan los elementos o secciones recomendados que idealmente deberían incluirse en el protocolo de una revisión del alcance.

Contenido del protocolo de una revisión de alcance

El protocolo debe definir la pregunta, los objetivos, criterios de elegibilidad así como la metodología que vamos a seguir en cada fase de nuestra revisión.

Los criterios de inclusión y exclusión determinan después de establecer la pregunta de investigación y antes de ejecutar la búsqueda. Se pueden utilizar muchos factores diferentes como criterios de inclusión o exclusión.

Los más frecuentes son:

  • Fecha (solo si está justiticado: p. ej. si queremos actualizar una RS existente o por el tema)
  • Idioma. Como norma general, no debe aplicarse límites de idioma, fecha de publicación, tipos de publicación y el estado de la publicación en la búsqueda para revisiones sistemáticas, ya que se pueden dejar de recuperar registros relevantes.
  • Conceptos principales: Si los participantes en el estudio deben tener una condición particular para que el estudio sea incluido. Ej.: se le dio un medicamento en particular, tener un nivel de la enfermedad en un grado determinado. La revisión puede estar limitada a estudios en adultos, en niños o a grupos de una determinada edad. También puede incluir el sexo y otros factores relevantes apropiados para el objetivo de la revisión y la(s) pregunta(s) de revisión. Definir a los participantes per se no siempre es necesario. Por ejemplo, una revisión de alcance con el objetivo de describir los detalles de los diseños de investigación utilizados en un área específica de estudio puede no necesitar detallar los tipos de participantes involucrados en esa investigación. Los resultados también pueden ser un componente del concepto de una revisión de alcance y deben estar vinculados a las preguntas de la revisión objetiva.
  • Contexto: El contexto de una revisión de alcance variará según el objetivo y la(s) pregunta(s), y puede incluir detalles sobre la ubicación geográfica (p. ej., un país o región en particular) y/o factores sociales, culturales o sexuales específicos. Puede ser la localización geográfica del estudio: Puede ser necesario limitar la revisión solo a los estudios dirigidos al mismo grupo de población de interés o a países que tienen factores demográficos o económicos similares con el grupo que se va a estudiar. El estudio puede incluirse o excluirse según dónde se encuentren los participantes. Por ejemplo, escuela, hospital, paciente interno o externo, etc.). El contexto también puede incluir aspectos específicos del entorno (p. ej., atención aguda, atención primaria de salud, la comunidad). Especificar el contexto ayudará a refinar el alcance de la revisión, por ejemplo, centrándose únicamente en países específicos o entornos de atención médica particulares.
  • Tipo de publicación: Las revisiones sistemáticas suelen buscar estudios originales. Algunas veces, en las revisiones sistemáticas, excluyen aquellos estudios o publicaciones no revisadas por pares. En las revisiones de alcance no se limita por tipo de publicación debido a que las revisiones de alcance son susceptibles de incluir todas las metodologías, así como fuentes que no son de investigación, como documentos de políticas o sitios web. En las revisiones de alcance, la literatura gris –como informes técnicos o guías clínicas- puede ser importante para estudiar ciertas cuestiones. 

La selección de los estudios debe ser pre-especificada en el protocolo y basada en los criterios de inclusión y exclusión. El primer paso consiste en una selección basada en el título y abstract seguido de la selección frente al texto completo de los estudios usando los criterios de inclusión. En la sección de resultados de nuestra revisión de alcance este proceso se debe reportar de forma narrativa y mediante un diagrama de flujo indicando el número de estudios incluidos y excluidos en cada etapa según indica la extensión PRISMA-ScR. Además, en los anexos, se debe incluir una tabla de «caracteristicas de los estudios excluidos» que recoja los estudios excluidos con el motivo principal de exclusión.

El proceso de extracción de datos debe involucrar al menos a dos revisores para reducir la posibilidad de errores y sesgos. Se debe mantener un registro cuidadoso a través de un formulario o tabla estandarizados. JBI ofrece un ejemplo de un formulario de extracción de datos estandarizado que pueden utilizar todos los autores para minimizar el sesgo potencial. Sin embargo, estos formularios deben individualizarse para satisfacer las necesidades de cada revisión de alcance. Se recomienda que el formulario estandarizado de extracción de datos se pruebe con dos o más miembros del equipo en al menos dos o tres estudios antes de su uso para garantizar que todos los datos necesarios se capturen adecuadamente. La extracción de datos en las revisiones de alcance puede ser un proceso iterativo, que a menudo requiere múltiples refinamientos para poder cumplir mejor con los objetivos y las preguntas de investigación de la revisión de alcance. Por ejemplo, se puede haber señalado como importante una lista inicial de características de la investigación (p. ej., año de investigación, ubicación, resultados). Sin embargo, después de leer varios artículos, los autores pueden querer enumerar cómo se midieron esos resultados para obtener una comprensión profunda de cómo los investigadores los aplicaron y llegaron a los resultados posteriores.

Disponemos de una lista de verificación rellenable con los elementos enumerados para un protocolo de revisión de alcance.

Dónde registrar el protocolo de una revisión de alcance

Actualmente, las revisiones de alcance no se pueden registrar en el Registro Prospectivo Internacional de Revisiones Sistemáticas (PROSPERO). Sin embargo, los autores que realicen una revisión de alcance deben considerar publicar, registrar o hacer que su protocolo esté disponible a través de plataformas como Figshare, Open Science Framework, ResearchGate, Research Square, o similar para que esté disponible gratuitamente. La revista JBI Evidence Synthesis es una vía para publicar protocolos de revisión de alcance (y sus revisiones posteriores) que siguen la metodología de JBI.

BIBLIOGRAFÍA

Peters MDJ, Godfrey C, McInerney P, Khalil H, Larsen P, Marnie C, Pollock D, Tricco AC, Munn Z. Best practice guidance and reporting items for the development of scoping review protocols. JBI Evid Synth. 2022 Apr 1;20(4):953-968. doi: 10.11124/JBIES-21-00242. PMID: 35102103.

8 puntos clave para las búsquedas de evidencias en las revisiones sistemáticas de precisión de pruebas diagnósticas

Las estrategias de búsqueda para las revisiones de estudios de precisión de pruebas diagnósticas (PPD) pueden ser particularmente complejas. Los estudios de PPD tienden a informarse de manera deficiente y buscarlos puede ser problemático debido a este informe inadecuado y terminología inconsistente, la ausencia de términos de indexación apropiados en algunas bases de datos para este tipo de publicación y el uso inconsistente de términos de indexación adecuados donde están disponibles.

Es conocida la existencia de debilidades en los resúmenes de los informes de los estudios de precisión diagnóstica. Un estudio exploratorio que evaluó la exhaustividad de los informes en los resúmenes de 12 revistas de alto impacto encontró que el 50 % de los artículos no identificaba el estudio como un estudio de precisión diagnóstica en el título y el 65 % incluía las estimaciones de sensibilidad y/o especificidad en el resumen (13). Además, la aplicación de la indexación disponible puede no ser coherente en las bases de datos y no se debe confiar en ella. Un estudio informó que la sensibilidad de tres encabezados clave de Emtree, incluida la etiqueta de verificación diagnostic test accuracy study», se encontró individualmente por debajo del 50 % y solo alcanzó el 72,7 % cuando se usaron juntos.

Aquí os dejo una infografía con el resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones.

Resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones sacadas del borrador del capítulo 7 del Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy.

BIBLIOGRAFÍA

Spijker R, Dinnes J, Glanville J, Eisinga A. Chapter 7: Searching for and selecting studies. Draft version (7 February 2022) for inclusion in: Deeks JJ, Bossuyt PM, Leeflang MM, Takwoingi Y, editor(s). Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy Version 2. London: Cochrane. 

Glanville J, Higgins C, Holubowich C, Spijker R, Fitzgerald A. Diagnostic accuracy. Last updated 24 October 2021. In: SuRe Info: Summarized Research in Information Retrieval for HTA. Disponible en: https://www.sure-info.org//diagnostic-accuracy 

Korevaar DA, Cohen JF, Hooft L, Bossuyt PMM. (2015). Literature survey of high-impact journals revealed reporting weaknesses in abstracts of diagnostic accuracy studies. J Clin Epidemiol. 68(6): 708-715. Disponible en: https://www.jclinepi.com/article/S0895-4356(15)00022-0/fulltext

Gurung P, Makineli S, Spijker R, Leeflang MMG. The EMTREE term «Diagnostic Test Accuracy Study» retrieved less than half of the diagnostic accuracy studies in EMBASE. J Clin Epidemiol. 2020; 126 :116-21. Disponible en: https://www.jclinepi.com/article/S0895-4356(20)30132-3/fulltext

Consejos de búsqueda experta: Blog UX Caucus Database Tip Sheet team

Los bibliotecarios y especialistas en información contamos con una nueva fuente muy valiosa, el blog que el UX Caucus Database Tip Sheet team ha lanzado para ayudar a difundir consejos y sugerencias de búsqueda experta en bases de datos y otras herramientas.

La dirección es: https://uxcaucustips.blogspot.com/

Las entradas disponibles hasta la fecha, con un pequeño resumen, son las siguientes:

Sugerencia n.º 1: Exportación masiva desde Google Scholar.

Mediante la herramienta Harzing’s Publish or Perish  es posible la exportación masiva desde Google Scholar.

Y siempre teniendo presente las pautas del gran Wichor Bramer, que sugiere limitar la recuperación de los primeros 100-200 resultados.

Sugerencia n.º 2: Verifique si hay indexación computerizada errónea en Embase.

A diferencia de MEDLINE, donde los registros en proceso aún no tienen MeSH asignado, en Embase los registros recién agregados se indexan computarizadamente con EMTREE. Si bien para artículos de revista esta indexación es revisada y corregida por un indexador humano, la indexación de actas de conferencias nunca se somete a revisión humana. Por este motivo, los resultados recientes y los resúmenes de conferencias tendrán una gran cantidad de falsos positivos debido a la indexación automatizada incorrecta, y la asignación de términos del EMTREE solo es de confianza para artículos de revistas completamente indexadas.

Consejo n.º 3: Modos de búsqueda en EBSCO CINAHL.

Contrariamenta a lo que podemos estar esperando, si escribimos nuestros términos individuales de búsqueda (p. ej.: ginger pregnancy nausea recupera 7 referencias) la base de datos no los combina automáticamente con el operador AND. Hay dos soluciones: la primera consistiría en añadir los operadores booleanos entre los términos (p. ej.: ginger AND pregnancy AND nausea recupera 130 referencias); la segunda forma sería ajustar el modo de búsqueda a «Buscar todos mis términos de búsqueda» que aplicará automáticamente AND a todos los términos individuales y devolverá el mismo conjunto de resultados que con la primera opción.

Ajuste de modo de búsqueda a «Buscar todos mis términos de búsqueda».

Sugerencia n.º 4: Adyacencia de Ovid MEDLINE y etiquetas de campo.

En el MEDLINE de Ovid la búsqueda por adyacencia en el campo .kw. solo funciona si las palabras están en diferentes líneas, pero NO recupera artículos si los términos forman parte de un mismo encabezamiento MeSH. La solución si queréis usar la búsqueda por adyacencia dentro de un solo encabezamiento de palabra clave, será usar la etiqueta de campo .kf. en vez de .tw. (p. ej.: (surg* adj teach*).kf.).

Consejo n.º 5: El problema con las comillas tipográficas.

Para evitar el mensaje de error «unsupported characters» en MEDLINE de Ovid.

Cambios en las opciones de Word para evitar el mensaje de error «unsupported characters» en Ovid.

Consejo n.º 6: Uso de Covidence para rastrear e informar referencias de bola de nieve para el diagrama de flujo PRISMA 2020.

Sugerencia n.º 7: Exportación masiva desde ProQuest.

ProQuest proporciona una función de exportación para ayudar a aquellos que trabajan en grandes proyectos de revisión de literatura, como revisiones de alcance y revisiones sistemáticas. En esta entrada te enseñan como configurarlo, pero ojo, solo se puede solicitar esta exportación masiva DOS VECES al día.

Y, por último, si tiene un consejo inteligente o una solución para una base de datos, plataforma o herramienta puedes ponerte en contacto con Andy Hickner (alh4014@med.cornell.edu) o Kate Saylor (kmacdoug@umich.edu) y unirte al equipo del blogs o compartir sus consejos y ellas escriben la publicación por ti.

#MLAUXCaucus #SystematicReviews #medlibs #ExpertSearching