Cobertura y solapamiento de las bases de datos utilizadas en las revisiones sistemáticas de ciencias de la salud

Las revisiones sistemáticas son una herramienta valiosa para identificar y evaluar la evidencia existente sobre un tema en particular. Sin embargo, la realización de una revisión sistemática puede ser un proceso largo y laborioso que requiere una gran cantidad de tiempo y esfuerzo. Una de las tareas más importantes en este proceso es el de la búsqueda de evidencia.

En mi entrada anterior «En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas» hablé de la necesidad de que la búsqueda de estudios sea lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. También comenté la función del bibliotecario en determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes y de cuáles elegir.

Conjunto principal de bases de datos de ciencias de la salud

Es importante evaluar la cobertura de cada base de datos para determinar si se están buscando en la fuente adecuada. Además, es importante evaluar el solapamiento entre las bases de datos, aunque hay que tener en cuenta que bastantes estudios van a estar presentes en varias fuentes.

Merece la pena examinar la cobertura de las bases de datos, porque esto determina los resultados de la búsqueda y tendrá un impacto directo en la revisión. Las bases de datos pueden tener solapamientos en el contenido, y cada base de datos también cubre algunos títulos exclusivos (únicos).

En cuanto a la cobertura y solapamiento de MEDLINE, CINHAL Complete, Embase.com y PsycINFO. tenemos que tener en cuenta lo siguiente:

  • PubMed cubre todos los registros de Medline, además de algunos otros materiales (aproximadamente el 15%).
  • Embase incluye casi todas las revistas de Medline, mientras que más de 2,900 revistas en Embase no están cubiertas por Medline.
  • Medline tiene una mejor cobertura de revistas estadounidenses, mientras que Embase tiene una mejor cobertura de revistas europeas.Medline tiene alrededor de 1/3 (aprox. 1,800 revistas) solapadas con CINAHL Complete.
  • PsycINFO tiene alrededor de 1/2 (aprox. 1,200) revistas únicas que NO están cubiertas por Medline, Embase y CINAHL Complete.
  • La Biblioteca Cochrane incluye 6 bases de datos:
    • La Base de Datos Cochrane de Revisiones Sistemáticas (CDSR) está completamente indexada por Medline.
    • El Registro Central Cochrane de Ensayos Controlados (CENTRAL) contiene casi 530,000 citas, de las cuales 310,000 (~58%) son de Medline, 50,000 (aprox. 10%) son de Embase, y las 170,000 restantes (aprox. 32%) son de otras fuentes (Manual Cochrane, 2011).
    • CENTRAL cubre todos los Ensayos Controlados Aleatorios (ECA) y Ensayos Clínicos Controlados (ECC) indexados en Medline.

Bases de datos multidisciplinares: WoS y SCOPUS

Sin embargo, todavía hay muchas revistas fuera de la «conjunto principal» de bases de datos en enfermería y ciencias de la salud. Es posible que también debas realizar una búsqueda en más bases de datos para asegurarte que tu búsqueda bibliográfica esté completa.

Entre ellas, podemos buscar en la Web of Science y Scopus, que son dos grandes bases de datos de citas multidisciplinares. Por este motivo, es bueno saber hasta qué punto las bases de datos principales se solapan con estas dos.

En cuanto a la cobertura y solapamiento de las bases de datos principales de ciencias de la saludcon WoS y Scopus tenemos que tener en cuenta lo siguiente

  • Web of Science (SSCI) tiene más de 2400 títulos en el área de ciencias sociales y alrededor del 70% de estos títulos NO están cubiertos por Medline, CINAHL Complete, Embase y PsycINFO. Por lo tanto, si tu tema de investigación está en el campo de las ciencias sociales, es necesario incluir Web of Science SSCI en tu búsqueda.
  • Web of Science (SSCI) tiene alrededor de 660 títulos en las áreas de psiquiatría y psicología. Alrededor de 50 títulos NO están cubiertos por PsycINFO. Por lo tanto, si tu tema de investigación se refiere a cuestiones de psicología, incluye Web of Science (SSCI) en tu búsqueda.
  • Scopus cubre (casi) todos los títulos en Medline, PsycINFO y Web of Science. CINAHL Complete tiene aproximadamente 2000 títulos que NO están cubiertos por Scopus. De estos títulos, más de la mitad son revistas, publicaciones comerciales, etc.

En resumen, la selección, cobertura y solapamiento de las principales bases de datos es una tarea crucial en el proceso de búsqueda de estudios para una revisión sistemática. Es importante evaluar la cobertura de cada base de datos, el solapamiento entre ellas y buscar en bases de datos complementarias para garantizar la inclusión de todos los estudios relevantes. Además, se recomienda documentar y justificar la selección de bases de datos para garantizar la transparencia y la replicabilidad de la revisión sistemática.

¿Qué es y qué no es la Declaración PRISMA?

La Declaración PRISMA (acrónimo de Preferred Reporting Items of Systematic reviews and Meta-Analyses) es una guía para la elaboración, remisión para publicación y/o comunicación de revisiones sistemáticas y metanálisis. Esta sería la interpretación al español del término inglés reporting.

En 1999, un grupo internacional elaboró una guía denominada Declaración QUOROM (QUality Of Reporting Of Meta-analyses) para abordar el problema de la notificación deficiente de los metanálisis. Esta guía se centraba en la notificación de los metanálisis de ensayos controlados aleatorios. PRISMA fue publicada por primera vez en 2009, como una evolución de QUORUM (Quality Of Reporting Of Meta-analyses) y ha sido actualizada recientemente en 2020 (1).

PRISMA se diseñó para ayudar a informar de forma transparente, completa y precisa del por qué se realizó la revisión, qué hicieron los autores y qué encontraron y abordar el problema de la presentación de informes deficientes de revisiones sistemáticas.

En paralelo con el avance de los métodos de síntesis del conocimiento, se han publicado las siguientes extensiones de la Declaración PRISMA:

Asimismo, se ha traducido a diversos idiomas, entre ellos el español (https://www.prisma-statement.org/Translations/Translations).

Desde su publicación, el uso de la declaración PRISMA está asociado con informes más completos de #RevisionesSistemáticas @PRISMAStatement #SysRev

¿Por qué decimos PRISMA cuando queremos indicar la guía metodológica que hemos seguido en nuestra revisión sistemática?

Como dice la propia declaración PRISMA 2020, esta «no pretende guiar la realización de revisiones sistemáticas, para las cuales hay recursos integrales disponibles. Sin embargo, la familiaridad con PRISMA 2020 es útil al planificar y realizar revisiones sistemáticas para garantizar que se capture toda la información recomendada. PRISMA 2020 no debe utilizarse para evaluar la realización o la calidad metodológica de las revisiones sistemáticas; existen otras herramientas para este propósito».

Por lo tanto, queda claro que PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una revisión sistemática (2).

PRISMA son guías para informar/reportar/comunicar una revisión sistemática, pero NO son recomendaciones de cómo hacer una #RevisiónSistemática @PRISMAStatement #RevSys

A pesar de ello, es una práctica habitual el que en el apartado de metodología de la revisión nos encontremos con la declaración de los autores de que han utilizado PRISMA como una guía metodológica para diseñar y realizar revisiones.

Dicho todo lo anterior, debemos distinguir entre realizar («conduct») e informar («report») una #RevisiónSistemática u otro documento de síntesis de la evidencia.

En la siguiente presentación os dejo los enlaces a diferentes guías, manuales y estándares para realizar y para reportar nuestra revisión.

BIBLIOGRAFÍA

  1. Page MJ, McKenzie JE, Bossuyt PM, Boutron I, Hoffmann TC, Mulrow CD, Shamseer L, Tetzlaff JM, Akl EA, Brennan SE, Chou R, Glanville J, Grimshaw JM, Hróbjartsson A, Lalu MM, Li T, Loder EW, Mayo-Wilson E, McDonald S, McGuinness LA, Stewart LA, Thomas J, Tricco AC, Welch VA, Whiting P, Moher D. The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ. 2021 Mar 29;372:n71. doi: 10.1136/bmj.n71.
  2. Sarkis-Onofre R, Catalá-López F, Aromataris E, Lockwood C. How to properly use the PRISMA Statement. Syst Rev. 2021 Apr 19;10(1):117. doi: 10.1186/s13643-021-01671-z.

En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.

¿Por qué hay que buscar en varias bases de datos?

Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión. 

En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24

¿En cuántas bases de datos hay que buscar?

Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).

Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).

Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.

Pero, ¿cuáles elegir?

Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.

¿Qué dicen los expertos?

Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).

Recomendaciones del bibliotecario experto Wilchor Bramer (2017).

Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).

Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).

Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).

Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).

Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.

En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.

¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?

La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.

Razones por la que es necesario buscar en MEDLINE y en Embase.

¿Cómo incluye Embase el contenido de MEDLINE?

  • Más de 2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
  • 2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
  • Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.

¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?

Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.

Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».

Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.

Razones por las que debo buscar en Embase y SCOPUS.

¿Es recomendable buscar en Google Académico?

Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.

Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).

Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.

Elección de la plataforma

Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).

¿MEDLINE vía PubMed u Ovid?

PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).

Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.

Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).

Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor

Por contra del uso de PubMed estaría su problema de indización de revistas depredadoras (Ross-White A, et al.).

¿Embase vía Embase.com o Ovid?

No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)

Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.

Juego para ver las diferencias en la sintaxis de búsqueda.

BIBLIOGRAFÍA

Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002

Higgins JPT, Lasserson T, Chandler J, Tovey D, Thomas J, Flemyng E, Churchill R. Methodological Expectations of Cochrane Intervention Reviews. Cochrane: London, Version February 2022. Disponible en: https://community.cochrane.org/mecir-manual/standards-conduct-new-cochrane-intervention-reviews-c1-c75/performing-review-c24-c75

Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.

Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.

Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/

Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.

Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.

Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.

Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D

Elsevier. Learn and Support – Embase | Elsevier [Internet]. Elsevier.com. 2021 [consultado 19 dic 2022]. Disponible en: https://www.elsevier.com/solutions/embase-biomedical-research/learn-and-support#:~:text=Scopus%20searches%20focus%20on%20abstracts,significantly%20fewer%20results%20than%20Embase

Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.

Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.

¿Sabes que en PubMed se indizan revistas fraudulentas? [Internet]. BiblioGETAFE. BiblioGETAFE; 2018 [consultado el 19 dic 2022]. Disponible en: https://bibliogetafe.com/2018/10/09/sabes-que-en-pubmed-se-indizan-revistas-fraudulentas/

‌Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.

Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147

En una revisión sistemática, ¿seleccionamos los estudios primero por el título y luego por el resumen o directamente por título y abstract?

En un ensayo aleatorizado de 2 métodos diferentes de cribado de citas para la inclusión de artículos en una revisión sistemática de los efectos de la rehabilitación pulmonar en personas con EPOC.

Los autores asignaron aleatoriamente una base de datos de 1072 citas para que fueran cribadas por los mismos 2 revisores utilizando dos enfoques diferentes:

  1. Enfoque en dos fases: cribado del título seguido del cribado del título y el resumen
  2. Enfoque en una fase: Cribado de título y resumen simultáneamente.

El tiempo necesario para examinar 100 citas fue de 120 minutos con el proceso en una fase, frente a 170 minutos con el proceso en dos fases.

Conclusión: Los resultados sugieren que el cribado mediante el método en una fase requiere menos tiempo que un proceso en dos fases consistente en presentar el título seguido del resumen.

En #RevisionesSistemáticas, la selección mediante el método en el que los títulos y los resúmenes se presentan simultáneamente requiere menos tiempo que un proceso en dos fases consistente en cribar el título seguido del resumen.

Referencia:

Devane D, Clarke M, McCarthy B, Casey D. Citation screening in systematic reviews: two approaches, two authors and time taken (SWAR-1 (Study Within A Review 1)). In: Evidence-Informed Publich Health: Opportunities and Challenges. Abstracts of the 22nd Cochrane Colloquium; 2014 21-26 Sep; Hyderabad, India. John Wiley & Sons; 2014. Disponible en: https://abstracts.cochrane.org/2014-hyderabad/citation-screening-systematic-reviews-two-approaches-two-authors-and-time-taken-swar

¿Puede una sola persona hacer una revisión sistemática?

A raíz de una conversación en Twitter en la que se planteaba la idoneidad de que los estudiantes de enfermería realicen una revisión sistemática como TFG o TFM, me he planteado aclarar por qué una revisión sistemática (RS) requiere un equipo de revisores.

Las razones más relevantes serían las dos siguientes:

  1. Son necesarios diversos conjuntos de conocimientos y habilidades para realizar una RS rara vez (o nunca) residen en una sola persona.
  2. Se necesita más de una persona para realizar verificaciones de confiabilidad entre evaluadores para garantizar la integridad de las decisiones clave, la extracción de datos y la codificación.

¿Y qué personas serían necesarias?

Expertos en la materia

Los expertos en la materia son necesarios para formular preguntas de revisión que sean significativas. Al poseer un conocimiento profundo del tema y de las cuestiones actuales en ese campo, los expertos en la materia pueden articular preguntas que son relevantes para el campo de la revisión y pueden conocer con anticipación los tipos de estudios que probablemente estén disponibles. 

Especialista en información (bibliotecario)

Los bibliotecarios, como especialistas de información que son, pueden diseñar, ejecutar y documentar estrategias de búsqueda que sean eficaces, eficientes, transparentes y reproducibles.

La mayoría de los estudiantes universitarios aprenden a utilizar cadenas de palabras clave y operadores booleanos para buscar en bases de datos bibliográficas, pero este nivel de conocimiento no es suficiente para las #RevisionesSistemáticas.

En las #RevisionesSistemáticas, los especialistas en información (#bibliotecarios) son esenciales en el diseño y la realización de estrategias eficaces y eficientes para encontrar estudios potencialmente relevantes. 

Metodólogo

Los metodólogos son importantes artífices de las RS, ya que pueden ayudar a establecer los criterios de inclusión de los estudios, los métodos de evaluación de los riesgos de sesgo y los planes de extracción, análisis y síntesis de los datos.

Estadístico experto en metaanálisis

La estadística y el metaanálisis deben utilizarse para analizar y sintetizar los resultados cuantitativos siempre que sea posible, por lo que la experiencia en esta área es importante en el diseño de las revisiones sistemáticas. Los metaanalistas pueden ayudar a diseñar formularios de extracción y codificación de datos para facilitar el análisis y la síntesis. 

Podemos concluir que las revisiones sistemáticas no deben realizarse como proyectos individuales.

Podemos concluir que las #RevisionesSistemáticas no deben realizarse como proyectos individuales. Es necesario la formación de un equipo que incluya expertos en la materia, #bibliotecario, metodólogo y estadístico.

 

BIBLOGRAFÍA

Littell, J. H., Valentine, J. C., & Pigott, T. D. Unit 1: Introduction. In J. C. Valentine, J. H. Littell, & S. Young (Eds.), Systematic reviews and meta-analysis: A Campbell Collaboration online course. Open Learning Initiative, 2022. Disponible en: https://oli.cmu.edu/courses/systematic-reviews-and-meta-analysis/

Puljak L. If there is only one author or only one database was searched, a study should not be called a systematic review. J Clin Epidemiol. 2017 Nov;91:4-5. doi: 10.1016/j.jclinepi.2017.08.002. PMID: 28823649.

Pacheco RL, Riera R, Santos GM, Martins Sá KM, Peres Bomfim LG, da Silva GR, de Oliveira FR, Martimbianco ALC. Many systematic reviews with a single author are indexed in PubMed. J Clin Epidemiol. 2023 Jan 27:S0895-4356(23)00007-0. doi: 10.1016/j.jclinepi.2023.01.007. PMID: 36716980.

Buscemi N, Hartling L, Vandermeer B, Tjosvold L, Klassen TP. Single data extraction generated more errors than double data extraction in systematic reviews. J Clin Epidemiol. 2005;59:697-703. doi:10.1016/j.jclinepi.2005.11.010.

Qué son los filtros de búsqueda y principales herramientas para su localización

Volvemos a tratar el tema de los filtros de búsquedas en BiblioGETAFE (Qué son los filtros de búsqueda I, Qué son los filtros de búsqueda II, Qué límites y filtros podemos aplicar en búsquedas de información en cuidados y ¿Conoces la diferencia entre el uso de límites y filtros metodológicos en la búsqueda de evidencia para revisiones sistemáticas?

¿Qué son los filtros?

Los filtros de búsqueda (a veces denominados hedges en inglés) nos ayudan a perfeccionar la estrategia de búsqueda y están constituidos por una combinación de términos o descriptores y diseñadas para localizar tipos de estudios determinados. Pueden estar diseñados para recuperar registros de investigaciones que utilizan un diseño de estudio específico (por ejemplo, ensayo clínico) o por tema (por ejemplo, COVID-19) o por alguna otra característica de la pregunta de investigación (edad de la población).

Para su utilización hay que combinarlo con los resultados de una búsqueda por temas mediante el operador AND.

¿Por qué utilizar filtros de búsqueda?
La gran ventaja de su utilización es el de reducir significativamente el número de registros que los investigadores deben cribar. Sin embargo, los filtros de búsqueda no están disponibles para todos los tipos de estudios, todas las bases de datos o todas las interfaces de bases de datos.
Los filtros pueden tener un enfoque muy específico o pueden ser de alto nivel. Los filtros de búsqueda pueden estar diseñados para maximizar la sensibilidad (o la recuperación) o para maximizar la precisión (y reducir el número de registros irrelevantes que deben ser evaluados para su relevancia).
Los métodos utilizados para elaborar los filtros de búsqueda deben ser claramente descritos por los autores y también se requiere una evaluación crítica por parte de los usuarios. La calidad de los filtros de búsqueda puede valorarse mediante herramientas de valoración crítica que evalúan el enfoque del filtro, los métodos utilizados para crearlo y la calidad de las pruebas y la validación que se han llevado a cabo para garantizar su rendimiento con un nivel específico de sensibilidad, precisión o especificidad. También es importante conocer la fecha de creación del filtro para poder evaluar su vigencia.

Herramientas para localizar filtros

El ISSG SFR tiene como objetivo proporcionar un fácil acceso a los filtros de búsqueda publicados y no publicados diseñados para encontrar estudios con métodos específicos.

En su página The InterTASC Information Specialists’ Sub-Group Search Filter Resource (@ISSG_Filters) podemos encontrar una recopilación de diferentes filtros para diversas bases de datos y plataformas https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home

The InterTASC Information Specialists’ Sub-Group Search Filter Resource (@ISSG_Filters) disponible en: https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home

Otro recurso interesante de filtros es el CADTH (Canadian Agency for Drugs and Technologies in Health) Search Filters Database que recientemente su web ha sido renovada.  

Esta base de datos presenta una variedad de filtros de búsqueda desarrollados y mantenidos por el CADTH’s Research Information Services Filters Working Group. Estos filtros han sido ampliamente probados por este equipo y son utilizados habitualmente en los proyectos del CADTH. Algunos filtros han sido validados con un conjunto de artículos de referencia, mientras que otros han sido validados de forma pragmática.

Tiene la ventaja de que, además de poder navegar por los índices de categorías, base de datos y plataforma para explorar las colecciones, disponemos de una ventana de búsqueda básica y un formulario de búsqueda avanzada.

CADTH Search Filters Database. Ottawa: CADTH; 2022: https://searchfilters.cadth.ca. Accessed 2022-10-10.

Metaanálisis en red («Network Meta-Analysis»)

Los metanálisis tradicionales (MT) se basan en comparaciones directas entre una intervención y un comparador (placebo o tratamiento estándar), con el propósito de analizar cuantitativamente e integrar los resultados disponibles en diferentes estudios de una intervención de interés. Estos tiene limitaciones:

  • No pueden comparar más de 2 tratamientos alternativos a la vez. Por lo tanto, en situaciones clínicas donde existen múltiples opciones de tratamientos que compiten entre sí, el MT tradicional no puede proporcionar información sobre los efectos relativos y potencial daño de todos los tratamientos de forma simultánea.
  • En los casos que no existen ensayos clínicos aleatorizados que comparen de forma directa 2 o más intervenciones.

Por eso, en 2002 se propuso los metaanálisis en red (MTR) como un procedimiento estadístico de síntesis de evidencia capaz de comparar diferentes alternativas terapéuticas a través de comparaciones directas e indirectas (Lumley T. Network meta-analysis for indirect treatment comparisons. Stat Med. 2002 Aug 30;21(16):2313-24. doi: 10.1002/sim.1201. PMID: 12210616.).

Definición de metaanálisis en red (Chaimani A, Caldwell DM, Li T, Higgins JPT, Salanti G. Chapter 11: Undertaking network meta-analyses. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.3 (updated February 2022). Cochrane, 2022. Available from http://www.training.cochrane.org/handbook).
Diferencias entre los metaanálisis tradicionales y los metaanálisis en red.

Cualquier conjunto de estudios que vincule 3 o + intervenciones a través de comparaciones directas forma una red de intervenciones. En una red de intervenciones puede haber múltiples formas de hacer comparaciones indirectas entre las intervenciones. Estas son comparaciones que no se han realizado directamente dentro de los estudios y se pueden estimar mediante combinaciones matemáticas de las estimaciones disponibles del efecto directo de la intervención. La evidencia mixta es la surgida mediante la síntesis de evidencia directa e indirecta (basados en un comparador común).

Una red conectada de intervenciones implica que todas las comparaciones de tratamientos en una red están directa o indirectamente conectadas entre sí. Una intervención no puede incluirse en el modelo MTR si no se compara directamente con al menos otra intervención.

Diagrama de red. Ejemplos de tipos de geometrías de la red: a) modelo con red en cierre simple; b) modelo red con cierre en estrella; c) Modelo en red conectada; d) modelo en red con cierre complejo.

Para que un MTR sea válido tiene que darse 3 supuestos metodológicos o principios básicos para las comparaciones indirectas son: homogeneidad, transitividad y consistencia.

BIBLIOGRAFÍA

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

Labarca G, Uribe JP, Majid A, Folch E, Fernandez-Bussy S. Como interpretar una revisión sistemática con comparaciones múltiples o network metaanálisis. Rev Med Chil. 2020 Jan;148(1):109-117. doi: 10.4067/S0034-98872020000100109. PMID: 32730443.

¿Merece la pena incluir los resúmenes de congresos en las revisiones sistemáticas?

Las revisiones sistemáticas obligan a intentar reunir toda la evidencia, incluida la no publicada. Pero existe controversia relativa al esfuerzo y beneficio de incluir estudios presentados solo en conferencias.
En mi experiencia, los revisores suelen mostrarse escépticos de la necesidad de inclusión de este tipo de literatura gris. Por otro lado, los bibliotecarios nos encontramos con muchísimas dificultades para localizar el contenido completo de la comunicación de un congreso y el contacto con los autores suele ser frustrante por su escaso éxito.

¿Qué nos recomiendan las pautas existentes?

La Cochrane lo considera «altamente deseable» buscar fuentes de literatura gris relevantes al generar una revisión e indica que «Review authors should generally search sources such as dissertations and conference abstracts». La United States Agency for Health Care Research and Quality (AHRQ) recomienda que se consideren estas búsquedas «Reviewers should routinely consider searching conference abstracts and proceedings to identify unpublished or unidentified studies and should consult with their Technical Expert Panels for specific conferences to search». También señala»… dado el hecho de que solo el 60 % de los ensayos controlados aleatorios descritos en resúmenes de congresos alcanzan la publicación completa y la publicación completa está asociada con resultados que favorecen la intervención de prueba, entonces los resúmenes de congresos de las reuniones más probables que publiquen resúmenes de ensayos probablemente valga la pena buscarlos». El IOM describe que la literatura gris incluye registros de ensayos, resúmenes de conferencias, libros, disertaciones, monografías e informes en poder de la Administración de Drogas y Alimentos de los Estados Unidos (FDA) y otras agencias gubernamentales, académicas, comerciales e industriales. El estándar 3.2.1 recomienda que quienes realicen una revisión sistemática deben “buscar en bases de datos de literatura gris, registros de ensayos clínicos y otras fuentes de información no publicada sobre estudios».

Argumentos a favor y en contra de la inclusión de resúmenes de congresos

¿Cómo deben los revisores sistemáticos manejar los resúmenes de congresos?

Por un lado, en los estudios que comparan resúmenes de congresos y artículos publicados en su totalidad del mismo estudio solo encuentran diferencias menores. Otros estudios que han examinado las diferencias en las estimaciones del tratamiento de metanálisis con y sin resúmenes de congresos informan de cambios en la precisión, pero por lo general no en la estimación del efecto del tratamiento. Sin embargo, en algunos casos, la inclusión de resúmenes de congresos marcó una diferencia en la estimación del efecto del tratamiento, no solo en su precisión.
Antes de decidir arbitrariamente incluir o no resúmenes de congresos en una revisión sistemática, Scherer y Saldanha nos dan las pautas que deben considerar los revisores sistemáticos. Nos recomiendan que:

  1. Si la evidencia disponible es escasa o contradictoria, puede valer la pena incluir resúmenes de conferencias.
  2. Sin embargo, generalmente los resúmenes no proporcionan toda la información necesaria para evaluar el estudio y evaluar la elegibilidad para una revisión sistemática. Por lo tanto, si se incluyen los resultados de los resúmenes de congresos, es necesario hacer los esfuerzos que sean necesarios para contactar a los autores del resumen y examinar los registros de estudios como ClinicalTrials.gov y los protocolos publicados para obtener información adicional y confirmatoria sobre métodos y resultados.
  3. Además, para examinar el impacto de incluir los resúmenes, siempre se debe completar un análisis de sensibilidad con y sin resúmenes de congresos.
    También, nos proporcionan un diagrama de flujo que muestra sus sugerencias sobre cómo abordar el uso de resúmenes de congresos en la revisión sistemática.
Scherer, R.W., Saldanha, I.J. How should systematic reviewers handle conference abstracts? A view from the trenches. Syst Rev 8, 264 (2019). https://doi.org/10.1186/s13643-019-1188-0

BIBLIOGRAFÍA

Lefebvre C, Glanville J, Briscoe S, Featherstone R, Littlewood A, Marshall C, Metzendorf M-I, Noel-Storr A, Paynter R, Rader T, Thomas J, Wieland LS. Chapter 4: Searching for and selecting studies. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.3 (updated February 2022). Cochrane, 2022. Disponible en: www.training.cochrane.org/handbook.

Institute of Medicine (US) Committee on Standards for Systematic Reviews of Comparative Effectiveness Research. Finding What Works in Health Care: Standards for Systematic Reviews. Eden J, Levit L, Berg A, Morton S, editors. Washington (DC): National Academies Press (US); 2011. PMID: 24983062.

Balshem H, Stevens A, Ansari M, et al. Finding Grey Literature Evidence and Assessing for Outcome and Analysis Reporting Biases When Comparing Medical Interventions: AHRQ and the Effective Health Care Program. 2013 Nov 18. In: Methods Guide for Effectiveness and Comparative Effectiveness Reviews [Internet]. Rockville (MD): Agency for Healthcare Research and Quality (US); 2008-. Disponible en: https://www.ncbi.nlm.nih.gov/books/NBK174882/

Scherer, R.W., Saldanha, I.J. How should systematic reviewers handle conference abstracts? A view from the trenches. Syst Rev 8, 264 (2019). https://doi.org/10.1186/s13643-019-1188-0

Hackenbroich, S., Kranke, P., Meybohm, P. et al. Include or not to include conference abstracts in systematic reviews? Lessons learned from a large Cochrane network meta-analysis including 585 trials. Syst Rev 11, 178 (2022). https://doi.org/10.1186/s13643-022-02048-6

Decidir qué tipo de revisión es el más adecuado

Existen múltiples tipos de revisiones de síntesis. Una paso inicial antes de comenzar nuestra revisión sistematizada es seleccionar qué tipo de revisión es la más adecuada a nuestros objetivos y tipo de pregunta de investigación.


Para ayudarnos en este proceso disponemos de la herramienta Right Review (https://whatreviewisrightforyou.knowledgetranslation.net/), antes conocida como «What Review is Right for You?».

Página de inicio de «Rigth Review»https://whatreviewisrightforyou.knowledgetranslation.net/

Esta herramienta está diseñada para proporcionar orientación y material de apoyo a los revisores sobre métodos para realizar y reportar la síntesis de conocimiento. Su propósito es ayudar a los usuarios a seleccionar cuál de las 41 síntesis de conocimientos cuantitativas o cualitativas (https://whatreviewisrightforyou.knowledgetranslation.net/site/methods) incluidas sería apropiada para su pregunta de investigación a través de un conjunto de preguntas simples.

Otro recurso interesante es diagrama de flujo o árbol de decisiones de metodología de revisión de la Biblioteca de la Universidad de Cornell.

BIBLIOGRAFÍA

Sutton, A., Clowes, M., Preston, L., & Booth, A. (2019). Meeting the review family: exploring review types and associated information retrieval requirements. Health Information & Libraries Journal, (3), 202. https://doi.org/10.1111/hir.12276

Gough, D., Thomas, J., & Oliver, S. (2012). Clarifying differences between review designs and methods. Systematic Reviews , 1, 28. doi:10.1186/2046-4053-1-28 https://systematicreviewsjournal.biomedcentral.com/articles/10.1186/2046-4053-1-28

Moher, D., Stewart, L., & Shekelle, P. (2015). All in the Family: systematic reviews, rapid reviews, scoping reviews, realist reviews, and more. Systematic Reviews , 4, 183 https://systematicreviewsjournal.biomedcentral.com/track/pdf/10.1186/s13643-015-0163-7

Grant MJ, Booth A. A typology of reviews: an analysis of 14 review types and associated methodologies. Health Info Libr J. 2009 Jun;26(2):91-108. doi: 10.1111/j.1471-1842.2009.00848.x. PMID: 19490148.

Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios

La lógica booleana es el enfoque establecido por la práctica para construir la estructura de las estrategias de búsqueda generales y para las revisiones de ciencias de la salud (1). Aun así, existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para revisiones sistemáticas. Dado que no hay ningún consejo en PRESS, PRISMA, MECIR o PRISMA-S que nos recomiende seguir uno u otro de los enfoques, es necesario que el bibliotecario conozca las principales construcciones y los utilice o combine según las necesidades. Por ello, la entrada del blog de Farhad Shokraneh (@FarhadShokrane) (2) me ha parecido de gran interés, ya que resume y describe lo que él considera los 3 tipos o enfoques para estructurar las estrategias de búsqueda:

  • Construcción línea a línea;
  • Búsqueda por bloques; y
  • Construcción en una única línea (párrafo).

Existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para #RevisionesSistemáticas (por líneas, bloques o párrafo). El bibliotecario debe conocerlos y utilizar o combinar según las necesidades.

En la siguiente presentación resumo estos tres enfoques, en qué consisten, ejemplos de ellos, ventajas e inconvenientes, así como recomendaciones de uso.

A la hora decidir que enfoque utilizar tengo que tener en consideración desde el objetivo/propósito de nuestra búsqueda, nuestras preferencias y las del usuario. Además, la búsqueda en sí misma y su complejidad puede ser necesario utilizar un enfoque u otro e incluso una mezcla de varios en la misma estrategia de búsqueda. Por último, hay que tener en cuenta que no todas las interfaces de búsquedas/plataformas/bases de datos permiten los tres enfoques.

La estructura de la estrategia de búsqueda para #RevisionesSistemáticas dependerá del propósito de la presentación de la estrategia de búsqueda, preferencias, complejidad de la búsqueda y las posibilidades de búsqueda de la base de datos.

Tabla resumen de los principales enfoques utilizados en las estrategias de búsqueda para revisiones sistemáticas, adaptado de Farhad (2).

En mi caso, suelo preferir la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs). De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión (3). Sin embargo, en búsquedas complejas puede que no sea posible dividir las búsquedas en bloques de un solo concepto y que algunos bloques pueden tener subbloques y o que sea necesario una combinación de las tres estructuras.

BIBLIOGRAFÍA

  1. MacFarlane A, Russell-Rose T, Shokraneh F. Search Strategy Formulation for Systematic Reviews: issues, challenges and opportunities. Intelligent Systems with Applications. 2022: 200091.
  2. Shokraneh, Farhad. Structure of Search Strategies for Systematic Reviews: Line by Line versus Block by Block versus Single-Line. Medium 6 June 2021; [Revisado 9 June 2021]. Disponible en: https://farhadinfo.medium.com/structure-of-search-strategies-for-systematic-reviews-line-by-line-versus-block-by-block-versus-d59aae9e92df
  3. Campos-Asensio C. Cómo elaborar una estrategia de búsqueda bibliográfica. Enferm Intensiva. 2018 Oct-Dec;29(4):182-186. English, Spanish. doi: 10.1016/j.enfi.2018.09.001. PMID: 30291015.

Persecución de citas «hacia delante» y «hacia atrás» en una revisión sistemática (‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’)

Al buscar artículos de investigación para, por ejemplo, una revisión sistemática o una revisión de alcance, debemos ir más allá de la búsqueda automatizada en bases de datos a partir de nuestra búsqueda del tema.

Una de las técnicas de búsqueda que se realiza tras seleccionar los estudios a incluir en nuestra revisión, consiste en obtener las listas de artículos que citan a estos y las referencias que citan nuestros estudios seleccionados. Este método de seguimiento de citas es simplemente otra forma de buscar en bases de datos para encontrar fuentes y artículos relevantes. También llamada ‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’. Con esta técnica encontramos investigaciones específicas y relevantes mediante las citas hacia atrás en el tiempo (un artículo inicial hace referencia a un conjunto de artículos publicados previamente) y hacia adelante en el tiempo (los artículos publicados después del artículo inicial lo incluyen en sus listas de referencia).

Tradicionalmente, el proceso de búsqueda de artículos citados («hacia atrás») se realizaba manualmente revisando el apartado de bibliografía y los registros resultantes debían verificarse uno por uno con los estudios incluidos en una revisión para identificar registros potencialmente relevantes que deberían incluirse en una revisión. Otra opción es utilizar alguna de las muchas bases de datos, mantienen una lista de las fuentes que cita el artículo mostrado.

La búsqueda de citas «hacia adelante» requiere el uso de herramientas que rastrean las citas a medida que se indexan los registros de citas. Los tres recursos se han utilizado con mayor frecuencia en la búsqueda de citas (tanto hacia adelante como hacia atrás) hasta la fecha: Web of Science, Scopus y Google Scholar.

CitationChaser

Últimamente, he utilizado la herramienta CitationChaser (https://estech.shinyapps.io/citationchaser/) y puedo deciros que me ha facilitado mucho esta tarea y ahorra mucho tiempo.

CitationChaser utiliza el agregador de base de datos bibliográfico Lens.org, que recopila contenido de cinco recursos bibliográficos: Microsoft Academic Graph (MAG), CrossRef, CORE, PubMed y PubMedCentral (https://www.lens.org/lens/search/scholar/structured). En enero de 2022 Lens.org contenía más de 245 millones de registros académicos.

Podemos pegar identificadores directamente en los campos de entrada del artículo en la pestaña «Article input». Citationchaser acepta identificadores de objetos digitales (DOI), COREID (los identificadores del repositorio CORE), MAGID (identificadores de Microsoft Academic Graph), PMID (identificadores de PubMed) y PMCID (identificadores de PubMed Central). Una actualización reciente permite buscar varias identificaciones al mismo tiempo pegándolas en el cuadro correspondiente en la pestaña «Article input».

Como primer paso, debemos comprobar que los registros que introducimos se identificaron correctamente en la base de datos de The Lens.org. La tabla de registros iniciales recuperados se puede descargar como un archivo RIS. Una vez hecho esto procedemos a ir a las pestañas de backward citation chasing y/o citaciones (forward citation chasing). Para cada uno, obtenemos la opción de un resumen textual debajo del botón de acción que resume la cantidad de registros obtenidos, el conjunto de registros únicos (es decir, deduplicados) recuperados de la búsqueda de citas y la cantidad de registros que se muestran en la tabla y que se pueden descargar como un archivo RIS.

En un paso adicional, los usuarios pueden visualizar su red de citas utilizando la pestaña ‘Network’, que proporciona una visualización interactiva de qué artículos recuperados que son citados por (puntos rojos) y citan (puntos azules) los artículos iniciales (puntos negros).  Podemos acercar y alejar, y al hacer clic en un artículo, podemos navegar al registro relevante en The Lens.org en una nueva pestaña del navegador.

BIBLIOGRAFÍA

1. Cooper C, Booth A, Britten N, Garside R. A comparison of results of empirical studies of supplementary search techniques and recommendations in review methodology handbooks: a methodological review. Syst Rev. 2017;6(1):234. doi: 10.1186/s13643-017-0625-1 . [Disponible texto completo

2. Robinson KA, Dunn AG, Tsafnat G, Glasziou P. Citation networks of related trials are often disconnected: implications for bidirectional citation searches. J Clin Epidemiol. 2014;67(7): 793-799. 

3. Horsley T, Dingwall O, Tetzlaff JM, Sampson M. Checking reference lists to find additional studies for systematic reviews. Cochrane Database Syst Rev. 2009(1):MR000026 . [Disponible texto completo

4. Preston L, Carroll C, Gardois P, Paisley S, Kaltenthaler E. Improving search efficiency for systematic reviews of diagnostic test accuracy: an exploratory study to assess the viability of limiting to MEDLINE, EMBASE and reference checking. Syst Rev. 2015;4:82. [Disponible texto completo]

5. Chapman AL, Morgan LC, Gartlehner G. Semi-automating the manual literature search for systematic reviews increases efficiency. Health Info Libr J. 2010;27(1):22-7. [Disponible texto completo]

6. Papaioannou D, Sutton A, Carroll C, Booth A, Wong R. Literature searching for social science systematic reviews: consideration of a range of search techniques. Health Info Libr J. 2010;27(2):114-22. [Disponible texto completo]

7. Westphal A, Kriston L, Holzel LP, Harter M, von Wolff A. Efficiency and contribution of strategies for finding randomized controlled trials: a case study from a systematic review on therapeutic interventions of chronic depression. J Public Health Res. 2014;3(2):177. [Disponible texto completo]

8. Wright K, Golder S, Rodriguez-Lopez R. Citation searching: a systematic review case study of multiple risk behaviour interventions. BMC Med Res Methodol. 2014;14:73. [Disponible texto completo]

9. Linder SK, Kamath GR, Pratt GF, Saraykar SS, Volk RJ. Citation searches are more sensitive than keyword searches to identify studies using specific measurement instruments. J Clin Epidemiol. 2015;68(4):412-7. [Disponible texto completo]

10. Sampson M, Shojania KG, McGowan J, Daniel R, Rader T, Iansavichene AE, et al. Surveillance search techniques identified the need to update systematic reviews. J Clin Epidemiol. 2008;61(8):755-62. 

11. Sampson M. Complementary approaches to searching MEDLINE may be sufficient for updating existing systematic reviews. J Clin Epidemiol. 2016;78:108-15. 

12. Waffenschmidt S, Janzen T, Hausner E, Kaiser T. Simple search techniques in PubMed are potentially suitable for evaluating the completeness of systematic reviews. J Clin Epidemiol. 2013;66(6):660-5.

13. Littlewood A, Kloukos D. Searching the literature for studies for a systematic review. Part 5: Beyond the standard electronic databases. Am J Orthod Dentofacial Orthop. 2019  Jun;155(6):894-895. doi: 10.1016/j.ajodo.2018.12.016. PubMed PMID: 31153512.

14. Haddaway NR, Grainger MJ, Gray CT. Citationchaser: A tool for transparent and efficient forward and backward citation chasing in systematic searching. Res Synth Methods. 2022 Jul;13(4):533-545. doi: 10.1002/jrsm.1563. PMID: 35472127.

8 puntos clave para las búsquedas de evidencias en las revisiones sistemáticas de precisión de pruebas diagnósticas

Las estrategias de búsqueda para las revisiones de estudios de precisión de pruebas diagnósticas (PPD) pueden ser particularmente complejas. Los estudios de PPD tienden a informarse de manera deficiente y buscarlos puede ser problemático debido a este informe inadecuado y terminología inconsistente, la ausencia de términos de indexación apropiados en algunas bases de datos para este tipo de publicación y el uso inconsistente de términos de indexación adecuados donde están disponibles.

Es conocida la existencia de debilidades en los resúmenes de los informes de los estudios de precisión diagnóstica. Un estudio exploratorio que evaluó la exhaustividad de los informes en los resúmenes de 12 revistas de alto impacto encontró que el 50 % de los artículos no identificaba el estudio como un estudio de precisión diagnóstica en el título y el 65 % incluía las estimaciones de sensibilidad y/o especificidad en el resumen (13). Además, la aplicación de la indexación disponible puede no ser coherente en las bases de datos y no se debe confiar en ella. Un estudio informó que la sensibilidad de tres encabezados clave de Emtree, incluida la etiqueta de verificación diagnostic test accuracy study», se encontró individualmente por debajo del 50 % y solo alcanzó el 72,7 % cuando se usaron juntos.

Aquí os dejo una infografía con el resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones.

Resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones sacadas del borrador del capítulo 7 del Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy.

BIBLIOGRAFÍA

Spijker R, Dinnes J, Glanville J, Eisinga A. Chapter 7: Searching for and selecting studies. Draft version (7 February 2022) for inclusion in: Deeks JJ, Bossuyt PM, Leeflang MM, Takwoingi Y, editor(s). Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy Version 2. London: Cochrane. 

Glanville J, Higgins C, Holubowich C, Spijker R, Fitzgerald A. Diagnostic accuracy. Last updated 24 October 2021. In: SuRe Info: Summarized Research in Information Retrieval for HTA. Disponible en: https://www.sure-info.org//diagnostic-accuracy 

Korevaar DA, Cohen JF, Hooft L, Bossuyt PMM. (2015). Literature survey of high-impact journals revealed reporting weaknesses in abstracts of diagnostic accuracy studies. J Clin Epidemiol. 68(6): 708-715. Disponible en: https://www.jclinepi.com/article/S0895-4356(15)00022-0/fulltext

Gurung P, Makineli S, Spijker R, Leeflang MMG. The EMTREE term «Diagnostic Test Accuracy Study» retrieved less than half of the diagnostic accuracy studies in EMBASE. J Clin Epidemiol. 2020; 126 :116-21. Disponible en: https://www.jclinepi.com/article/S0895-4356(20)30132-3/fulltext

Consejos de búsqueda experta: Blog UX Caucus Database Tip Sheet team

Los bibliotecarios y especialistas en información contamos con una nueva fuente muy valiosa, el blog que el UX Caucus Database Tip Sheet team ha lanzado para ayudar a difundir consejos y sugerencias de búsqueda experta en bases de datos y otras herramientas.

La dirección es: https://uxcaucustips.blogspot.com/

Las entradas disponibles hasta la fecha, con un pequeño resumen, son las siguientes:

Sugerencia n.º 1: Exportación masiva desde Google Scholar.

Mediante la herramienta Harzing’s Publish or Perish  es posible la exportación masiva desde Google Scholar.

Y siempre teniendo presente las pautas del gran Wichor Bramer, que sugiere limitar la recuperación de los primeros 100-200 resultados.

Sugerencia n.º 2: Verifique si hay indexación computerizada errónea en Embase.

A diferencia de MEDLINE, donde los registros en proceso aún no tienen MeSH asignado, en Embase los registros recién agregados se indexan computarizadamente con EMTREE. Si bien para artículos de revista esta indexación es revisada y corregida por un indexador humano, la indexación de actas de conferencias nunca se somete a revisión humana. Por este motivo, los resultados recientes y los resúmenes de conferencias tendrán una gran cantidad de falsos positivos debido a la indexación automatizada incorrecta, y la asignación de términos del EMTREE solo es de confianza para artículos de revistas completamente indexadas.

Consejo n.º 3: Modos de búsqueda en EBSCO CINAHL.

Contrariamenta a lo que podemos estar esperando, si escribimos nuestros términos individuales de búsqueda (p. ej.: ginger pregnancy nausea recupera 7 referencias) la base de datos no los combina automáticamente con el operador AND. Hay dos soluciones: la primera consistiría en añadir los operadores booleanos entre los términos (p. ej.: ginger AND pregnancy AND nausea recupera 130 referencias); la segunda forma sería ajustar el modo de búsqueda a «Buscar todos mis términos de búsqueda» que aplicará automáticamente AND a todos los términos individuales y devolverá el mismo conjunto de resultados que con la primera opción.

Ajuste de modo de búsqueda a «Buscar todos mis términos de búsqueda».

Sugerencia n.º 4: Adyacencia de Ovid MEDLINE y etiquetas de campo.

En el MEDLINE de Ovid la búsqueda por adyacencia en el campo .kw. solo funciona si las palabras están en diferentes líneas, pero NO recupera artículos si los términos forman parte de un mismo encabezamiento MeSH. La solución si queréis usar la búsqueda por adyacencia dentro de un solo encabezamiento de palabra clave, será usar la etiqueta de campo .kf. en vez de .tw. (p. ej.: (surg* adj teach*).kf.).

Consejo n.º 5: El problema con las comillas tipográficas.

Para evitar el mensaje de error «unsupported characters» en MEDLINE de Ovid.

Cambios en las opciones de Word para evitar el mensaje de error «unsupported characters» en Ovid.

Consejo n.º 6: Uso de Covidence para rastrear e informar referencias de bola de nieve para el diagrama de flujo PRISMA 2020.

Sugerencia n.º 7: Exportación masiva desde ProQuest.

ProQuest proporciona una función de exportación para ayudar a aquellos que trabajan en grandes proyectos de revisión de literatura, como revisiones de alcance y revisiones sistemáticas. En esta entrada te enseñan como configurarlo, pero ojo, solo se puede solicitar esta exportación masiva DOS VECES al día.

Y, por último, si tiene un consejo inteligente o una solución para una base de datos, plataforma o herramienta puedes ponerte en contacto con Andy Hickner (alh4014@med.cornell.edu) o Kate Saylor (kmacdoug@umich.edu) y unirte al equipo del blogs o compartir sus consejos y ellas escriben la publicación por ti.

#MLAUXCaucus #SystematicReviews #medlibs #ExpertSearching

¿Es recomendable enfocar la búsqueda en Embase en las estrategias para revisiones sistemáticas?

Aunque Embase es una base de datos recomendada para realizar búsquedas sistemáticas, es difícil una búsqueda eficiente dada la gran cantidad de términos del Emtree con la que se indizan los registros (un promedio de 3 a 4 términos mayores y hasta 50 términos menores). En comparación, los registros de MEDLINE pueden contener un promedio de 10 a 20 términos del MeSH. Este alto volumen de términos de indización puede conducir a una deficiente precisión en las búsquedas de Embase al recuperar grandes cantidades de registros irrelevantes, lo que aumenta la carga de procesamiento de registros dentro del proceso cribado y selección de los estudios.

Por este motivo, cuando buscamos en EMBASE para HTA (Health technology assessments) y/o RS (revisiones sistemáticas) existe la recomendación pragmática de reducir los resultados de búsqueda, enfocando esta mediante la realización de búsquedas de encabezamientos de materia combinados con subencabezamientos (calificadores) y/o búsquedas con encabezamientos de materia limitados a aquellos con un enfoque principal (encabezados principales o major headings).

En el estudio de Glanville y cols (1) buscaron la evidencia que apoya esta práctica no formal de enfocar la búsqueda en Embase y llegaron a las siguientes recomendaciones y conclusiones:

  • Parece imprudente debilitar las estrategias mediante el uso de la técnica de enfoque, a menos que los autores de la búsqueda estén seguros de que están enfocando una estrategia altamente sensible.
  • Si este fuera el caso, el enfoque más seguro parecería enfocar los términos de Emtree para la intervención.
  • No se recomienda enfocar tanto la población como la intervención en términos de Emtree debido a la pérdida de sensibilidad observada.
  • También se debe tener precaución al considerar enfocar los términos de Emtree en más de dos conceptos.
  • Los desarrolladores de estrategias de búsqueda que construyen búsquedas en temas distintos a las revisiones de tratamientos de drogas deben realizar pruebas de sensibilidad antes de enfocar sus estrategias, ya que sus estrategias pueden ser subóptimas debido a los desafíos de buscar temas más difíciles de encontrar.
  • El problema estaría en saber desde el principio si una búsqueda ya es altamente sensible.
  • Los autores recomiendan a los buscadores inexpertos que busquen el asesoramiento experto de un especialista en información con experiencia en búsquedas en Embase y MEDLINE para los propósitos de RS y HTA, como lo recomiendan muchos documentos de orientación.

Referencia: Glanville J, Kaunelis D, Mensinkai S, Picheca L. Pruning Emtree: does focusing Embase subject headings impact search strategy precision and sensitivity? [Internet]. Ottawa: CADTH; 2015 Apr. [citado 2022-01-27]. Disponible en: https://www.cadth.ca/pruning-emtree-embase