En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.

¿Por qué hay que buscar en varias bases de datos?

Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión. 

En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24

¿En cuántas bases de datos hay que buscar?

Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).

Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).

Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.

Pero, ¿cuáles elegir?

Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.

¿Qué dicen los expertos?

Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).

Recomendaciones del bibliotecario experto Wilchor Bramer (2017).

Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).

Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).

Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).

Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).

Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.

En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.

¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?

La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.

Razones por la que es necesario buscar en MEDLINE y en Embase.

¿Cómo incluye Embase el contenido de MEDLINE?

  • Más de 2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
  • 2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
  • Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.

¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?

Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.

Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».

Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.

Razones por las que debo buscar en Embase y SCOPUS.

¿Es recomendable buscar en Google Académico?

Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.

Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).

Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.

Elección de la plataforma

Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).

¿MEDLINE vía PubMed u Ovid?

PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).

Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.

Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).

Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor

Por contra del uso de PubMed estaría su problema de indización de revistas depredadoras (Ross-White A, et al.).

¿Embase vía Embase.com o Ovid?

No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)

Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.

Juego para ver las diferencias en la sintaxis de búsqueda.

BIBLIOGRAFÍA

Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002

Higgins JPT, Lasserson T, Chandler J, Tovey D, Thomas J, Flemyng E, Churchill R. Methodological Expectations of Cochrane Intervention Reviews. Cochrane: London, Version February 2022. Disponible en: https://community.cochrane.org/mecir-manual/standards-conduct-new-cochrane-intervention-reviews-c1-c75/performing-review-c24-c75

Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.

Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.

Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/

Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.

Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.

Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.

Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D

Elsevier. Learn and Support – Embase | Elsevier [Internet]. Elsevier.com. 2021 [consultado 19 dic 2022]. Disponible en: https://www.elsevier.com/solutions/embase-biomedical-research/learn-and-support#:~:text=Scopus%20searches%20focus%20on%20abstracts,significantly%20fewer%20results%20than%20Embase

Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.

Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.

¿Sabes que en PubMed se indizan revistas fraudulentas? [Internet]. BiblioGETAFE. BiblioGETAFE; 2018 [consultado el 19 dic 2022]. Disponible en: https://bibliogetafe.com/2018/10/09/sabes-que-en-pubmed-se-indizan-revistas-fraudulentas/

‌Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.

Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147

Integrado el acceso a UpTodate desde la Historia Clínica del Hospital Universitario de Getafe

Entrando a UpToDate desde el HCIS, las credenciales del usuario (anonimizadas) se envían junto con el término(s) de búsqueda.

Acceso a UpToDate desde la Historia Clínica del Hospital de Getafe

Las ventajas de este acceso desde el HCIS son las siguientes:

  • Poder descargar y usar la aplicación móvil;
  • Conseguir Créditos de Formación Médico Continuada (incluso usando UpToDate sin estar en la cuenta);
  • La re-verificación del acceso cada vez que se entra a UpToDate desde la historia clínica (no es necesario verificar la cuenta cada 90 días, entrando con usuario y contraseña);
  • Se dispone de una carpeta de Favoritos, Historial de búsqueda y Temas más consultados por cada usuario.

¿Puede una sola persona hacer una revisión sistemática?

A raíz de una conversación en Twitter en la que se planteaba la idoneidad de que los estudiantes de enfermería realicen una revisión sistemática como TFG o TFM, me he planteado aclarar por qué una revisión sistemática (RS) requiere un equipo de revisores.

Las razones más relevantes serían las dos siguientes:

  1. Son necesarios diversos conjuntos de conocimientos y habilidades para realizar una RS rara vez (o nunca) residen en una sola persona.
  2. Se necesita más de una persona para realizar verificaciones de confiabilidad entre evaluadores para garantizar la integridad de las decisiones clave, la extracción de datos y la codificación.

¿Y qué personas serían necesarias?

Expertos en la materia

Los expertos en la materia son necesarios para formular preguntas de revisión que sean significativas. Al poseer un conocimiento profundo del tema y de las cuestiones actuales en ese campo, los expertos en la materia pueden articular preguntas que son relevantes para el campo de la revisión y pueden conocer con anticipación los tipos de estudios que probablemente estén disponibles. 

Especialista en información (bibliotecario)

Los bibliotecarios, como especialistas de información que son, pueden diseñar, ejecutar y documentar estrategias de búsqueda que sean eficaces, eficientes, transparentes y reproducibles.

La mayoría de los estudiantes universitarios aprenden a utilizar cadenas de palabras clave y operadores booleanos para buscar en bases de datos bibliográficas, pero este nivel de conocimiento no es suficiente para las #RevisionesSistemáticas.

En las #RevisionesSistemáticas, los especialistas en información (#bibliotecarios) son esenciales en el diseño y la realización de estrategias eficaces y eficientes para encontrar estudios potencialmente relevantes. 

Metodólogo

Los metodólogos son importantes artífices de las RS, ya que pueden ayudar a establecer los criterios de inclusión de los estudios, los métodos de evaluación de los riesgos de sesgo y los planes de extracción, análisis y síntesis de los datos.

Estadístico experto en metaanálisis

La estadística y el metaanálisis deben utilizarse para analizar y sintetizar los resultados cuantitativos siempre que sea posible, por lo que la experiencia en esta área es importante en el diseño de las revisiones sistemáticas. Los metaanalistas pueden ayudar a diseñar formularios de extracción y codificación de datos para facilitar el análisis y la síntesis. 

Podemos concluir que las revisiones sistemáticas no deben realizarse como proyectos individuales.

Podemos concluir que las #RevisionesSistemáticas no deben realizarse como proyectos individuales. Es necesario la formación de un equipo que incluya expertos en la materia, #bibliotecario, metodólogo y estadístico.

 

Persecución de citas «hacia delante» y «hacia atrás» en una revisión sistemática (‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’)

Al buscar artículos de investigación para, por ejemplo, una revisión sistemática o una revisión de alcance, debemos ir más allá de la búsqueda automatizada en bases de datos a partir de nuestra búsqueda del tema.

Una de las técnicas de búsqueda que se realiza tras seleccionar los estudios a incluir en nuestra revisión, consiste en obtener las listas de artículos que citan a estos y las referencias que citan nuestros estudios seleccionados. Este método de seguimiento de citas es simplemente otra forma de buscar en bases de datos para encontrar fuentes y artículos relevantes. También llamada ‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’. Con esta técnica encontramos investigaciones específicas y relevantes mediante las citas hacia atrás en el tiempo (un artículo inicial hace referencia a un conjunto de artículos publicados previamente) y hacia adelante en el tiempo (los artículos publicados después del artículo inicial lo incluyen en sus listas de referencia).

Tradicionalmente, el proceso de búsqueda de artículos citados («hacia atrás») se realizaba manualmente revisando el apartado de bibliografía y los registros resultantes debían verificarse uno por uno con los estudios incluidos en una revisión para identificar registros potencialmente relevantes que deberían incluirse en una revisión. Otra opción es utilizar alguna de las muchas bases de datos, mantienen una lista de las fuentes que cita el artículo mostrado.

La búsqueda de citas «hacia adelante» requiere el uso de herramientas que rastrean las citas a medida que se indexan los registros de citas. Los tres recursos se han utilizado con mayor frecuencia en la búsqueda de citas (tanto hacia adelante como hacia atrás) hasta la fecha: Web of Science, Scopus y Google Scholar.

CitationChaser

Últimamente, he utilizado la herramienta CitationChaser (https://estech.shinyapps.io/citationchaser/) y puedo deciros que me ha facilitado mucho esta tarea y ahorra mucho tiempo.

CitationChaser utiliza el agregador de base de datos bibliográfico Lens.org, que recopila contenido de cinco recursos bibliográficos: Microsoft Academic Graph (MAG), CrossRef, CORE, PubMed y PubMedCentral (https://www.lens.org/lens/search/scholar/structured). En enero de 2022 Lens.org contenía más de 245 millones de registros académicos.

Podemos pegar identificadores directamente en los campos de entrada del artículo en la pestaña «Article input». Citationchaser acepta identificadores de objetos digitales (DOI), COREID (los identificadores del repositorio CORE), MAGID (identificadores de Microsoft Academic Graph), PMID (identificadores de PubMed) y PMCID (identificadores de PubMed Central). Una actualización reciente permite buscar varias identificaciones al mismo tiempo pegándolas en el cuadro correspondiente en la pestaña «Article input».

Como primer paso, debemos comprobar que los registros que introducimos se identificaron correctamente en la base de datos de The Lens.org. La tabla de registros iniciales recuperados se puede descargar como un archivo RIS. Una vez hecho esto procedemos a ir a las pestañas de backward citation chasing y/o citaciones (forward citation chasing). Para cada uno, obtenemos la opción de un resumen textual debajo del botón de acción que resume la cantidad de registros obtenidos, el conjunto de registros únicos (es decir, deduplicados) recuperados de la búsqueda de citas y la cantidad de registros que se muestran en la tabla y que se pueden descargar como un archivo RIS.

En un paso adicional, los usuarios pueden visualizar su red de citas utilizando la pestaña ‘Network’, que proporciona una visualización interactiva de qué artículos recuperados que son citados por (puntos rojos) y citan (puntos azules) los artículos iniciales (puntos negros).  Podemos acercar y alejar, y al hacer clic en un artículo, podemos navegar al registro relevante en The Lens.org en una nueva pestaña del navegador.

BIBLIOGRAFÍA

1. Cooper C, Booth A, Britten N, Garside R. A comparison of results of empirical studies of supplementary search techniques and recommendations in review methodology handbooks: a methodological review. Syst Rev. 2017;6(1):234. doi: 10.1186/s13643-017-0625-1 . [Disponible texto completo

2. Robinson KA, Dunn AG, Tsafnat G, Glasziou P. Citation networks of related trials are often disconnected: implications for bidirectional citation searches. J Clin Epidemiol. 2014;67(7): 793-799. 

3. Horsley T, Dingwall O, Tetzlaff JM, Sampson M. Checking reference lists to find additional studies for systematic reviews. Cochrane Database Syst Rev. 2009(1):MR000026 . [Disponible texto completo

4. Preston L, Carroll C, Gardois P, Paisley S, Kaltenthaler E. Improving search efficiency for systematic reviews of diagnostic test accuracy: an exploratory study to assess the viability of limiting to MEDLINE, EMBASE and reference checking. Syst Rev. 2015;4:82. [Disponible texto completo]

5. Chapman AL, Morgan LC, Gartlehner G. Semi-automating the manual literature search for systematic reviews increases efficiency. Health Info Libr J. 2010;27(1):22-7. [Disponible texto completo]

6. Papaioannou D, Sutton A, Carroll C, Booth A, Wong R. Literature searching for social science systematic reviews: consideration of a range of search techniques. Health Info Libr J. 2010;27(2):114-22. [Disponible texto completo]

7. Westphal A, Kriston L, Holzel LP, Harter M, von Wolff A. Efficiency and contribution of strategies for finding randomized controlled trials: a case study from a systematic review on therapeutic interventions of chronic depression. J Public Health Res. 2014;3(2):177. [Disponible texto completo]

8. Wright K, Golder S, Rodriguez-Lopez R. Citation searching: a systematic review case study of multiple risk behaviour interventions. BMC Med Res Methodol. 2014;14:73. [Disponible texto completo]

9. Linder SK, Kamath GR, Pratt GF, Saraykar SS, Volk RJ. Citation searches are more sensitive than keyword searches to identify studies using specific measurement instruments. J Clin Epidemiol. 2015;68(4):412-7. [Disponible texto completo]

10. Sampson M, Shojania KG, McGowan J, Daniel R, Rader T, Iansavichene AE, et al. Surveillance search techniques identified the need to update systematic reviews. J Clin Epidemiol. 2008;61(8):755-62. 

11. Sampson M. Complementary approaches to searching MEDLINE may be sufficient for updating existing systematic reviews. J Clin Epidemiol. 2016;78:108-15. 

12. Waffenschmidt S, Janzen T, Hausner E, Kaiser T. Simple search techniques in PubMed are potentially suitable for evaluating the completeness of systematic reviews. J Clin Epidemiol. 2013;66(6):660-5.

13. Littlewood A, Kloukos D. Searching the literature for studies for a systematic review. Part 5: Beyond the standard electronic databases. Am J Orthod Dentofacial Orthop. 2019  Jun;155(6):894-895. doi: 10.1016/j.ajodo.2018.12.016. PubMed PMID: 31153512.

14. Haddaway NR, Grainger MJ, Gray CT. Citationchaser: A tool for transparent and efficient forward and backward citation chasing in systematic searching. Res Synth Methods. 2022 Jul;13(4):533-545. doi: 10.1002/jrsm.1563. PMID: 35472127.

Diseño de búsquedas expertas para revisiones sistemáticas y otros documentos de síntesis

Tal como ayer anunciaba, hoy he estado impartiendo la Sesión en el Hospital Universitario de Puerta de Hierro-Majadahonda de título: «Diseño de búsquedas expertas para revisiones sistemáticas y otros documentos de síntesis«.

Aquí os dejo un breve resumen de lo tratado en la Sesión que he impartido en el #HospitalPuertaHierro de título: «Diseño de búsquedas expertas para revisiones sistemáticas y otros documentos de síntesis de evidencia»
#RevSys #RevisionesSistemáticas

Hemos empezado hablando de los pasos a seguir en la búsqueda de evidencia y que, en esquema, vemos en la siguiente figura:

Pasos de la búsqueda de evidencia para revisiones sistemáticas

Lo primero es la búsqueda de revisiones sistemáticas sobre el tema del que deseamos hacer nuestra revisión. Aquí tenéis alguno de los sitios útiles para esta búsqueda.

Fuentes útiles para identificar revisiones sistemáticas

Otro paso necesario es ir recolectando los términos con los que construir la búsqueda y les he dado mis 4 consejos particulares.

Les he explicado el porqué es necesario combinar la búsqueda en texto libre en los campos de título y resumen con los términos del tesauro, si la fuente dispone de este.

He dado mis particulares consejos de búsqueda en PubMed:

También nos ha dado tiempo de mencionar las principales guías y estándares metodológicos para realizar revisiones de síntesis de evidencia:

En el turno de preguntas he recalcado la necesidad de realizar un protocolo previo a nuestra revisión, de para qué sirve y dónde registrarlo.

Y les he mostrado alguna de las herramientas disponibles y recursos para buscarlas:

Aplicación de la inteligencia artificial en PubMed

Ante la sobreabundancia de información, las bases de datos y los motores de búsqueda están adoptando el aprendizaje automático. Introducen algoritmos para proporcionar resultados más rápidos y «relevantes». Veamos como PubMed incorpora varios de estos algoritmos:

  1. La sugerencia de consultas (autocompletar) que consiste en presentar al usuario consultas populares a medida que ingresa términos en el cuadro de búsqueda, lo que puede resultar en búsquedas con más éxito (https://www.ncbi.nlm.nih.gov/labs/pmc/articles/PMC2815412/). Esta característica ha sido muy utilizada en Google durante bastante tiempo. 

2. La expansión de consultas es cuando un algoritmo modifica ligeramente la consulta del usuario para corregir términos mal escritos o agregar opciones de vocabulario controlado. Esto incluye el mapeo automático de términos.

Aquí os dejo algunos ejemplos de mapeos incongruentes que nos podemos encontrar. Os recomiendo que siempre vayáis a «Details» en la pantalla de búsqueda avanzada.

Nursig mapea a «breast feeding»
PPE (abreviatura de personal protective equipment) mapea a la revista «Polit Philos econ»
St. Louis OR Saint Louis mapea a un investiador
Age spots mapea y busca age como revista y spots como exanthema y metrorrhagia

3. Para eliminar la ambigüedad del nombre del autor, utilizando información como los coautores y las fechas de publicación (https://www.ncbi.nlm.nih.gov/labs/pmc/articles/PMC5530597/).

4. Utilización del aprendizaje automático para indexar algunos artículos, lo que significa que a una parte de los artículos se les asignan términos MeSH sin intervención de personas a través de un algoritmo con un componente de aprendizaje automático. Esta indización pasará a ser automática a mediados de 2022. Más información en: https://www.nlm.nih.gov/pubs/techbull/nd21/nd21_medline_2022.html

5. Algoritmo Best Match de recuperación de la información que primero usa BM25 para procesar los resultados de la búsqueda y luego usa LambdaMART, un algoritmo L2R, para reclasificar los primeros 500 resultados (https://jmla.mlanet.org/ojs/jmla/article/view/1236).

La #IA en #PubMed nos ayudará a encontrar las respuestas que necesitan más rápidamente? ¿O el algoritmo sesgará sus resultados, lo que conducirá a la supresión potencial de resultados más recientes o relevantes?

Acceso gratuito a MEDLINE en todo el mundo: breve recorrido histórico

Hemos normalizado encender el ordenador y buscar MEDLINE en Internet de forma gratuita. Pero eso no siempre ha sido así. Por eso es bueno recordar la historia de cómo unos visionarios hicieron posible este enorme avance.

El Index Medicus fue desarrollado por John Shaw Billings, director de la Biblioteca de la Surgeon General’s Office, del Ejército de los Estados Unidos. Esta biblioteca más tarde se convirtió en la Biblioteca Nacional de Medicina de los Estados Unidos (NLM). Cuando trabajaba en su tesis doctoral descubrió que no había una biblioteca que tuviera los recursos necesarios para su investigación. Para solucionar esto, John Shaw Billings creó una colección y también creó catálogos de índices.

El Index Medicus comenzó a editarse en 1879. Tenía una periodicidad mensual. Existió otra versión acumulada anual, el Cumulated Index Medicus publicada en papel desde 1960 hasta 2004. También existió una versión reducida desde 1970 hasta 1997, llamada Abridge Index Medicus con la indización de revistas nucleares.

 Durante los 125 años que el Index Medicus se publicó en papel. El último número de Index Medicus se publicó en diciembre de 2004 (Volumen 45) siendo desplazado por los recursos en línea.

En 1957 el personal de la NLM comenzó a planificar la mecanización del Index Medicus, para poder manipular toda la información para producir productos auxiliares como índices impresos, catálogos y bibliografías temáticas. En la década de 1960, la NLM comenzó a computarizar el trabajo de indexación mediante la creación de MEDLARS: En 1960 se preparó un pliego de condiciones detalladas y para la primavera de 1961 se envió a 72 empresas una solicitud de propuestas para desarrollar el sistema. Como resultado, se adjudicó un contrato a la empresa General Electric. Nació MEDLARS en 1964 que tuvo un coste de $ 3 millones para su desarrollo y en el momento de su conclusión no permitía el acceso al público.

MEDLARS se convirtió en MEDLINE (MEDLARS OnLine) en 1971 cuando la NLM ofreció búsquedas de MEDLARS «en línea» a otras bibliotecas médicas y computadoras remotas capaces de iniciar sesión en NLM MEDLARS system. Rápidamente, la NLM puso a disposición de determinadas instituciones las cintas magnéticas con los datos del sistema disponible para establecer servicios descentralizados de búsqueda en todo el país. 

Pero para la búsqueda eficaz en los primeros MEDLINE hacía falta un entrenamiento especial en los encabezamientos de materia, los comandos de búsqueda y la lógica booleana. Además, la consulta era muy costosa pues se realizaba a través de módem telefónico. Por esto los bibliotecarios y especialistas en información buscaban por los investigadores y profesionales de la salud (búsquedas mediadas, con intermediario).

Cuando en 1984 Donald A. B. Lindberg MD prestó juramento como Director de la Biblioteca Nacional de Medicina norteamericana (NLM), MEDLINE era consultado fundamentalmente por bibliotecarios entrenados para usar su interfaz de lenguaje de comandos. Había tarifas por búsqueda, principalmente por el coste de usar redes comerciales de telecomunicaciones. 

Trece años más tarde, en 1997, MEDLINE pasó a ser gratuito para cualquier persona con conexión a Internet y un navegador web. Lindberg director de la Biblioteca Nacional de Medicina de EE. UU. (NLM) durante 30 años. El énfasis de Lindberg en el acceso abierto a la literatura biomédica se considera un ejemplo de apertura científica ética.

El año 1986 también fue el comienzo de importantes avances en el frente tecnológico de la NLM. El objetivo de Don Lindberg era poner más información médica al alcance de los profesionales de la salud. La NLM ofreció su base de datos MEDLINE a las empresas que distribuyen información en discos de video. Uno de los primeros jugadores en este campo del CD-ROM fue Cambridge Scientific Abstracts, que pronto fue seguido por otras 20 o más compañías. 

La Conferencia de la FNLM (Friends of the National Library of Medicine) en junio de 1996 sobre aplicaciones de atención médica de la autopista de la información presentó la oportunidad perfecta para presentar al Senador Frist el lanzamiento de Internet Grateful Med (IGM) e invitarle a realizar una búsqueda.

El 26 de junio de 1997 MEDLINE estuvo disponible de forma gratuita en Internet. El vicepresidente Gore, cuyos esfuerzos estaban centrados en promover la importancia de la “carretera digital” de la nación norteamericana,  participó en el lanzamiento de PubMed, un sistema que brindaría acceso gratuito a MEDLINE a través de la World Wide Web. El vicepresidente Al Gore sentado en Capitol Hill frente a un ordenador realizó la búsqueda gratuita inaugural de MEDLINE.

BIBLIOGRAFÍA

Kulikowski CA. Donald A. B. Lindberg: Inspiring Leader and Visionary in Biomedicine, Healthcare, and Informatics. Yearb Med Inform. 2020 Aug;29(1):253-258. doi: 10.1055/s-0040-1701972. PMID: 32303093; PMCID: PMC: 7442506.

Smith KA. Free MEDLINE Access Worldwide. Stud Health Technol Inform. 2022 Feb 1;288:167-177. doi: 10.3233/SHTI210992. PMID: 35102838.

Cravedi K. NLM’s Revolution in Consumer Health Information to Improve Patient Outcomes. Stud Health Technol Inform. 2022 Feb 1;288:245-254. doi: 10.3233/SHTI211000. PMID: 35102845.

Ayuda PubMed: Consejos de búsqueda en PubMed

En esta infografía encontrarás una ayuda para la búsqueda en PubMed:

PubMed contiene información de citas bibliográficas (por ejemplo, título, autor, revista, fecha de publicación) y los resúmenes de artículos y algunos libros. Incluye la base de datos de MEDLINE®; citas de artículos en el archivo PubMed Central (PMC) con textos completos de uso gratuito, incluso de artículos sobre informes de investigaciones financiadas por los Institutos Nacionales de Salud (NIH); y citas de libros Bookshelf del Centro Nacional para la Información Biotecnológica (NCBI) (www.ncbi.nlm.nih.gov/books).

Además, incluye enlaces al texto completo de otras fuentes, cuando están disponibles, tales como el sitio de la editorial, el archivo PubMed Central (PMC) y al texto completo de las revistas suscritas por tu Biblioteca.

En caso de duda, acude a tu Biblioteca donde te proporcionaremos más información y consejos que te ayudarán a sacar mayor partido de este recurso gratuito indispensable en ciencias de la salud.

¿Qué es una revisión de alcance o scoping review?

Las revisiones de alcance son proyectos «exploratorios» que mapean sistemáticamente la literatura disponible sobre un tema, identificando conceptos clave, teorías, fuentes de evidencia y lagunas en la investigación. A diferencia de las revisiones sistemáticas, estas se deben realizar cuando lo que se necesita no son respuestas detalladas a preguntas específicas, sino más bien una visión general de un campo amplio. Están indicadas para hacer una primera aproximación de un tema, identificando los elementos esenciales y mostrando los aspectos que precisan ser investigados. Incluye una cierta sistematización y, por lo tanto, el proceso puede ser repetido.

Las revisiones de alcance se llevan a cabo por varias razones, siendo la más común explorar la amplitud o profundidad de la literatura, resumir la evidencia, informar investigaciones futuras e identificar o abordar las lagunas de conocimiento. A menudo estas revisiones son el punto de partida para posteriores revisiones sistemáticas.

Las revisiones de alcance son particularmente útiles cuando la literatura es compleja y heterogénea. Las revisiones de alcance pueden proporcionar información útil para los tomadores de decisiones sobre la naturaleza de un concepto y cómo ese concepto se ha estudiado en la literatura a lo largo del tiempo.

De hecho, el número de revisiones de alcance se duplicó de 2014 a 2017, demostrando la popularidad de este método en la literatura (Tricco AC, Lillie E, Zarin W, O’Brien K, Colquhoun H, Kastner M, et al. A scoping review on the conduct and reporting of scoping reviews. BMC Med Res Methodol 2016; 16: 15.).

Pollock D, Davies EL, Peters MDJ, Tricco AC, Alexander L, McInerney P, Godfrey CM, Khalil H, Munn Z. Undertaking a scoping review: A practical guide for nursing and midwifery students, clinicians, researchers, and academics. J Adv Nurs. 2021 Apr;77(4):2102-2113. doi: 10.1111/jan.14743. PMID: 33543511; PMCID: PMC8049063.
Principales diferencias entre una revisión sistemática y una revisión de alcance.

Protocolo

Actualmente, las revisiones de alcance no pueden registrarse en PROSPERO. Sin embargo, los autores que realicen una revisión de alcance deben considerar publicar, registrar o hacer que su protocolo esté disponible a través de plataformas como Figshare, Open Science Framework, ResearchGate, Research Square o similar para que esté disponible gratuitamente (ver entrada anterior «Dónde registrar el protocolo de una revisión sistemática«). La revista del JBI Evidence Synthesis es una vía para publicar protocolos de revisión de alcance (y sus revisiones posteriores) que siguen la metodología del JBI.

Aquí dejo el enlace a la plantilla de Protocolo para revisión de alcance de Joanna Briggs Institute (https://jbi.global/scoping-review-network/resources)

Tipo de fuentes

Una revisión de alcance puede incluir cualquier tipo de literatura (por ejemplo, estudios de investigación primaria, revisiones sistemáticas, meta-análisis, cartas, pautas, sitios web, blogs).

Estrategia de búsqueda

Debería aspirar a ser lo más completo posible. Se debe incluir una estrategia de búsqueda completa para al menos una base de datos importante como apéndice del protocolo y en la revisión posterior. La búsqueda será realizada por un bibliotecario y posteriormente revisada por otro bibliotecario. Es esencial mantener una documentación clara y detallada de la estrategia de búsqueda realizada, incluidas las fechas de búsqueda y los términos clave utilizados, suficiente para permitir la repetición de búsquedas. Se deben detallar otras fuentes adicionales, como la búsqueda manual de revistas específicas, incluidos los nombres de las revistas y los años de búsqueda. Si se estableció contacto con los autores para obtener datos adicionales, se debe indicar en la revisión. Se recomienda que los autores no apliquen restricciones de idioma a menos que exista una justificación razonable, como la viabilidad o la limitación de recursos.

Resultados

Se podría considerar que la sección de resultados de una revisión del alcance contiene dos secciones amplias, la primera de las cuales describe los resultados de la estrategia de búsqueda y el proceso de selección, incluido un diagrama de flujo PRISMA. La segunda sección proporciona la información clave o los resultados relevantes para los objetivos o preguntas para la revisión del alcance. Los resultados de una revisión de alcance pueden presentarse como un mapa de los datos extraídos de los artículos incluidos en forma de diagrama o tabular, y / o en un formato descriptivo que se alinee con los objetivos y el alcance de la revisión.

Dejo una recopilación de la bibliografía más relevante de este tema:

Peters MDJ, Marnie C, Colquhoun H, Garritty CM, Hempel S, Horsley T, Langlois EV, Lillie E, O’Brien KK, Tunçalp Ӧ, Wilson MG, Zarin W, Tricco AC. Scoping reviews: reinforcing and advancing the methodology and application. Syst Rev. 2021 Oct 8;10(1):263. doi: 10.1186/s13643-021-01821-3. PMID: 34625095; PMCID: PMC8499488.

Peters MDJ, Marnie C, Tricco AC, Pollock D, Munn Z, Alexander L, McInerney P, Godfrey CM, Khalil H. Updated methodological guidance for the conduct of scoping reviews. JBI Evid Implement. 2021 Mar;19(1):3-10. doi: 10.1097/XEB.0000000000000277. PMID: 33570328.

Pollock D, Davies EL, Peters MDJ, Tricco AC, Alexander L, McInerney P, Godfrey CM, Khalil H, Munn Z. Undertaking a scoping review: A practical guide for nursing and midwifery students, clinicians, researchers, and academics. J Adv Nurs. 2021 Apr;77(4):2102-2113. doi: 10.1111/jan.14743. PMID: 33543511; PMCID: PMC8049063.

Khalil H, Peters MD, Tricco AC, Pollock D, Alexander L, McInerney P, Godfrey CM, Munn Z. Conducting high quality scoping reviews-challenges and solutions. J Clin Epidemiol. 2021 Feb;130:156-160. doi: 10.1016/j.jclinepi.2020.10.009. PMID: 33122034.

Peters MDJ, Godfrey C, McInerney P, Munn Z, Tricco AC, Khalil, H. Chapter 11: Scoping Reviews (2020 version). En: Aromataris E, Munn Z (Editors). JBI Manual for Evidence Synthesis, JBI, 2020. Disponible en: https://synthesismanual.jbi.global.  https://doi.org/10.46658/JBIMES-20-12

Ruiz-Perez I, Petrova D.  Revisiones panorámicas. Otra forma de revisión de la literatura. Med Clin (Barc). 2019 Aug 16;153(4):165-168. doi: 10.1016/j.medcli.2019.02.006. PMID: 30954292.

Munn Z, Peters MDJ, Stern C, Tufanaru C, McArthur A, Aromataris E. Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Med Res Methodol. 2018 Nov 19;18(1):143. doi: 10.1186/s12874-018-0611-x. PMID: 30453902; PMCID: PMC6245623.

Tricco AC, Lillie E, Zarin W, O’Brien KK, Colquhoun H, Levac D, Moher D, Peters MDJ, Horsley T, Weeks L, Hempel S, Akl EA, Chang C, McGowan J, Stewart L, Hartling L, Aldcroft A, Wilson MG, Garritty C, Lewin S, Godfrey CM, Macdonald MT, Langlois EV, Soares-Weiser K, Moriarty J, Clifford T, Tunçalp Ö, Straus SE. PRISMA Extension for Scoping Reviews (PRISMA-ScR): Checklist and Explanation. Ann Intern Med. 2018 Oct 2;169(7):467-473. doi: 10.7326/M18-0850. PMID: 30178033.

Tricco AC, Lillie E, Zarin W, O’Brien K, Colquhoun H, Kastner M, Levac D, Ng C, Sharpe JP, Wilson K, Kenny M, Warren R, Wilson C, Stelfox HT, Straus SE. A scoping review on the conduct and reporting of scoping reviews. BMC Med Res Methodol. 2016 Feb 9;16:15. doi: 10.1186/s12874-016-0116-4. PMID: 26857112; PMCID: PMC4746911.

Y aquí tenéis el vídeo «How to conduct and report your scoping review: latest guidance» de Andrea Tricco.

¿Te has planteado compartir tus artículos en el Repositorio Institucional de Comunidad de Madrid?

¿Sabes que los artículos que se depositan en un repositorio público tienen de media un 25% más de citas?

¿Conoces el Repositorio Institucional de la Comunidad de Madrid? Es un espacio digital abierto cuyo objetivo es recoger, preservar y poner a disposición de toda la comunidad científica, y de la sociedad en general, la producción científica de la Consejería de Sanidad generada por todos sus profesionales en el ejercicio de su labor asistencial, docente y de investigación.

Conócelo entrando con tus claves de acceso al Portal de la Biblioteca Virtual en https://repositoriosaludmadrid.es/.

Pueden depositar sus trabajos todos los profesionales adscritos a alguno de los centros dependientes de la Consejería de Sanidad de la Comunidad de Madrid, para lo cual deben disponer de claves de acceso.

Si es tu caso, puedes dirigirte a tu Biblioteca donde te informaremos y ayudaremos en este proceso.

Si perteneces al Hospital Universitario de Getafe, pásate por la Biblioteca o llámanos.

Si no recuerdas tus claves de acceso, puedes cambiarla aquí