Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios

La lógica booleana es el enfoque establecido por la práctica para construir la estructura de las estrategias de búsqueda generales y para las revisiones de ciencias de la salud (1). Aun así, existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para revisiones sistemáticas. Dado que no hay ningún consejo en PRESS, PRISMA, MECIR o PRISMA-S que nos recomiende seguir uno u otro de los enfoques, es necesario que el bibliotecario conozca las principales construcciones y los utilice o combine según las necesidades. Por ello, la entrada del blog de Farhad Shokraneh (@FarhadShokrane) (2) me ha parecido de gran interés, ya que resume y describe lo que él considera los 3 tipos o enfoques para estructurar las estrategias de búsqueda:

  • Construcción línea a línea;
  • Búsqueda por bloques; y
  • Construcción en una única línea (párrafo).

Existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para #RevisionesSistemáticas (por líneas, bloques o párrafo). El bibliotecario debe conocerlos y utilizar o combinar según las necesidades.

En la siguiente presentación resumo estos tres enfoques, en qué consisten, ejemplos de ellos, ventajas e inconvenientes, así como recomendaciones de uso.

A la hora decidir que enfoque utilizar tengo que tener en consideración desde el objetivo/propósito de nuestra búsqueda, nuestras preferencias y las del usuario. Además, la búsqueda en sí misma y su complejidad puede ser necesario utilizar un enfoque u otro e incluso una mezcla de varios en la misma estrategia de búsqueda. Por último, hay que tener en cuenta que no todas las interfaces de búsquedas/plataformas/bases de datos permiten los tres enfoques.

La estructura de la estrategia de búsqueda para #RevisionesSistemáticas dependerá del propósito de la presentación de la estrategia de búsqueda, preferencias, complejidad de la búsqueda y las posibilidades de búsqueda de la base de datos.

Tabla resumen de los principales enfoques utilizados en las estrategias de búsqueda para revisiones sistemáticas, adaptado de Farhad (2).

En mi caso, suelo preferir la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs). De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión (3). Sin embargo, en búsquedas complejas puede que no sea posible dividir las búsquedas en bloques de un solo concepto y que algunos bloques pueden tener subbloques y o que sea necesario una combinación de las tres estructuras.

BIBLIOGRAFÍA

  1. MacFarlane A, Russell-Rose T, Shokraneh F. Search Strategy Formulation for Systematic Reviews: issues, challenges and opportunities. Intelligent Systems with Applications. 2022: 200091.
  2. Shokraneh, Farhad. Structure of Search Strategies for Systematic Reviews: Line by Line versus Block by Block versus Single-Line. Medium 6 June 2021; [Revisado 9 June 2021]. Disponible en: https://farhadinfo.medium.com/structure-of-search-strategies-for-systematic-reviews-line-by-line-versus-block-by-block-versus-d59aae9e92df
  3. Campos-Asensio C. Cómo elaborar una estrategia de búsqueda bibliográfica. Enferm Intensiva. 2018 Oct-Dec;29(4):182-186. English, Spanish. doi: 10.1016/j.enfi.2018.09.001. PMID: 30291015.

Persecución de citas «hacia delante» y «hacia atrás» en una revisión sistemática (‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’)

Al buscar artículos de investigación para, por ejemplo, una revisión sistemática o una revisión de alcance, debemos ir más allá de la búsqueda automatizada en bases de datos a partir de nuestra búsqueda del tema.

Una de las técnicas de búsqueda que se realiza tras seleccionar los estudios a incluir en nuestra revisión, consiste en obtener las listas de artículos que citan a estos y las referencias que citan nuestros estudios seleccionados. Este método de seguimiento de citas es simplemente otra forma de buscar en bases de datos para encontrar fuentes y artículos relevantes. También llamada ‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’. Con esta técnica encontramos investigaciones específicas y relevantes mediante las citas hacia atrás en el tiempo (un artículo inicial hace referencia a un conjunto de artículos publicados previamente) y hacia adelante en el tiempo (los artículos publicados después del artículo inicial lo incluyen en sus listas de referencia).

Tradicionalmente, el proceso de búsqueda de artículos citados («hacia atrás») se realizaba manualmente revisando el apartado de bibliografía y los registros resultantes debían verificarse uno por uno con los estudios incluidos en una revisión para identificar registros potencialmente relevantes que deberían incluirse en una revisión. Otra opción es utilizar alguna de las muchas bases de datos, mantienen una lista de las fuentes que cita el artículo mostrado.

La búsqueda de citas «hacia adelante» requiere el uso de herramientas que rastrean las citas a medida que se indexan los registros de citas. Los tres recursos se han utilizado con mayor frecuencia en la búsqueda de citas (tanto hacia adelante como hacia atrás) hasta la fecha: Web of Science, Scopus y Google Scholar.

CitationChaser

Últimamente, he utilizado la herramienta CitationChaser (https://estech.shinyapps.io/citationchaser/) y puedo deciros que me ha facilitado mucho esta tarea y ahorra mucho tiempo.

CitationChaser utiliza el agregador de base de datos bibliográfico Lens.org, que recopila contenido de cinco recursos bibliográficos: Microsoft Academic Graph (MAG), CrossRef, CORE, PubMed y PubMedCentral (https://www.lens.org/lens/search/scholar/structured). En enero de 2022 Lens.org contenía más de 245 millones de registros académicos.

Podemos pegar identificadores directamente en los campos de entrada del artículo en la pestaña «Article input». Citationchaser acepta identificadores de objetos digitales (DOI), COREID (los identificadores del repositorio CORE), MAGID (identificadores de Microsoft Academic Graph), PMID (identificadores de PubMed) y PMCID (identificadores de PubMed Central). Una actualización reciente permite buscar varias identificaciones al mismo tiempo pegándolas en el cuadro correspondiente en la pestaña «Article input».

Como primer paso, debemos comprobar que los registros que introducimos se identificaron correctamente en la base de datos de The Lens.org. La tabla de registros iniciales recuperados se puede descargar como un archivo RIS. Una vez hecho esto procedemos a ir a las pestañas de backward citation chasing y/o citaciones (forward citation chasing). Para cada uno, obtenemos la opción de un resumen textual debajo del botón de acción que resume la cantidad de registros obtenidos, el conjunto de registros únicos (es decir, deduplicados) recuperados de la búsqueda de citas y la cantidad de registros que se muestran en la tabla y que se pueden descargar como un archivo RIS.

En un paso adicional, los usuarios pueden visualizar su red de citas utilizando la pestaña ‘Network’, que proporciona una visualización interactiva de qué artículos recuperados que son citados por (puntos rojos) y citan (puntos azules) los artículos iniciales (puntos negros).  Podemos acercar y alejar, y al hacer clic en un artículo, podemos navegar al registro relevante en The Lens.org en una nueva pestaña del navegador.

BIBLIOGRAFÍA

1. Cooper C, Booth A, Britten N, Garside R. A comparison of results of empirical studies of supplementary search techniques and recommendations in review methodology handbooks: a methodological review. Syst Rev. 2017;6(1):234. doi: 10.1186/s13643-017-0625-1 . [Disponible texto completo

2. Robinson KA, Dunn AG, Tsafnat G, Glasziou P. Citation networks of related trials are often disconnected: implications for bidirectional citation searches. J Clin Epidemiol. 2014;67(7): 793-799. 

3. Horsley T, Dingwall O, Tetzlaff JM, Sampson M. Checking reference lists to find additional studies for systematic reviews. Cochrane Database Syst Rev. 2009(1):MR000026 . [Disponible texto completo

4. Preston L, Carroll C, Gardois P, Paisley S, Kaltenthaler E. Improving search efficiency for systematic reviews of diagnostic test accuracy: an exploratory study to assess the viability of limiting to MEDLINE, EMBASE and reference checking. Syst Rev. 2015;4:82. [Disponible texto completo]

5. Chapman AL, Morgan LC, Gartlehner G. Semi-automating the manual literature search for systematic reviews increases efficiency. Health Info Libr J. 2010;27(1):22-7. [Disponible texto completo]

6. Papaioannou D, Sutton A, Carroll C, Booth A, Wong R. Literature searching for social science systematic reviews: consideration of a range of search techniques. Health Info Libr J. 2010;27(2):114-22. [Disponible texto completo]

7. Westphal A, Kriston L, Holzel LP, Harter M, von Wolff A. Efficiency and contribution of strategies for finding randomized controlled trials: a case study from a systematic review on therapeutic interventions of chronic depression. J Public Health Res. 2014;3(2):177. [Disponible texto completo]

8. Wright K, Golder S, Rodriguez-Lopez R. Citation searching: a systematic review case study of multiple risk behaviour interventions. BMC Med Res Methodol. 2014;14:73. [Disponible texto completo]

9. Linder SK, Kamath GR, Pratt GF, Saraykar SS, Volk RJ. Citation searches are more sensitive than keyword searches to identify studies using specific measurement instruments. J Clin Epidemiol. 2015;68(4):412-7. [Disponible texto completo]

10. Sampson M, Shojania KG, McGowan J, Daniel R, Rader T, Iansavichene AE, et al. Surveillance search techniques identified the need to update systematic reviews. J Clin Epidemiol. 2008;61(8):755-62. 

11. Sampson M. Complementary approaches to searching MEDLINE may be sufficient for updating existing systematic reviews. J Clin Epidemiol. 2016;78:108-15. 

12. Waffenschmidt S, Janzen T, Hausner E, Kaiser T. Simple search techniques in PubMed are potentially suitable for evaluating the completeness of systematic reviews. J Clin Epidemiol. 2013;66(6):660-5.

13. Littlewood A, Kloukos D. Searching the literature for studies for a systematic review. Part 5: Beyond the standard electronic databases. Am J Orthod Dentofacial Orthop. 2019  Jun;155(6):894-895. doi: 10.1016/j.ajodo.2018.12.016. PubMed PMID: 31153512.

14. Haddaway NR, Grainger MJ, Gray CT. Citationchaser: A tool for transparent and efficient forward and backward citation chasing in systematic searching. Res Synth Methods. 2022 Jul;13(4):533-545. doi: 10.1002/jrsm.1563. PMID: 35472127.

8 puntos clave para las búsquedas de evidencias en las revisiones sistemáticas de precisión de pruebas diagnósticas

Las estrategias de búsqueda para las revisiones de estudios de precisión de pruebas diagnósticas (PPD) pueden ser particularmente complejas. Los estudios de PPD tienden a informarse de manera deficiente y buscarlos puede ser problemático debido a este informe inadecuado y terminología inconsistente, la ausencia de términos de indexación apropiados en algunas bases de datos para este tipo de publicación y el uso inconsistente de términos de indexación adecuados donde están disponibles.

Es conocida la existencia de debilidades en los resúmenes de los informes de los estudios de precisión diagnóstica. Un estudio exploratorio que evaluó la exhaustividad de los informes en los resúmenes de 12 revistas de alto impacto encontró que el 50 % de los artículos no identificaba el estudio como un estudio de precisión diagnóstica en el título y el 65 % incluía las estimaciones de sensibilidad y/o especificidad en el resumen (13). Además, la aplicación de la indexación disponible puede no ser coherente en las bases de datos y no se debe confiar en ella. Un estudio informó que la sensibilidad de tres encabezados clave de Emtree, incluida la etiqueta de verificación diagnostic test accuracy study», se encontró individualmente por debajo del 50 % y solo alcanzó el 72,7 % cuando se usaron juntos.

Aquí os dejo una infografía con el resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones.

Resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones sacadas del borrador del capítulo 7 del Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy.

BIBLIOGRAFÍA

Spijker R, Dinnes J, Glanville J, Eisinga A. Chapter 7: Searching for and selecting studies. Draft version (7 February 2022) for inclusion in: Deeks JJ, Bossuyt PM, Leeflang MM, Takwoingi Y, editor(s). Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy Version 2. London: Cochrane. 

Glanville J, Higgins C, Holubowich C, Spijker R, Fitzgerald A. Diagnostic accuracy. Last updated 24 October 2021. In: SuRe Info: Summarized Research in Information Retrieval for HTA. Disponible en: https://www.sure-info.org//diagnostic-accuracy 

Korevaar DA, Cohen JF, Hooft L, Bossuyt PMM. (2015). Literature survey of high-impact journals revealed reporting weaknesses in abstracts of diagnostic accuracy studies. J Clin Epidemiol. 68(6): 708-715. Disponible en: https://www.jclinepi.com/article/S0895-4356(15)00022-0/fulltext

Gurung P, Makineli S, Spijker R, Leeflang MMG. The EMTREE term «Diagnostic Test Accuracy Study» retrieved less than half of the diagnostic accuracy studies in EMBASE. J Clin Epidemiol. 2020; 126 :116-21. Disponible en: https://www.jclinepi.com/article/S0895-4356(20)30132-3/fulltext

Cómo buscar Guías de Práctica Clínica en PubMed

Las GPC son una herramienta de ayuda a los profesionales sanitarios para la toma de decisiones, que pueden reducir la variabilidad de la práctica clínica y mejorar la calidad y seguridad de los pacientes.

Hay una especial dificultad en localizar GPC dado que muchas de ellas se publican como “literatura gris” (generalmente por instituciones y asociaciones profesionales) y no se indexaban en las bases de datos bibliográficas tradicionales.

Pero para aquellas guías que se publican como artículos de revistas de repercusión internacional, pueden buscarse en bases de datos bibliográficas, como PubMed y Embase, utilizando términos de búsqueda controlados («Practice Guideline» [Publication Type] en MEDLINE o ‘practice guideline’/exp en Embase). Para buscar guías de práctica en CINAHL (EBSCO) escribimos el tema (como una condición, síntoma o procedimiento clínico) en el cuadro de búsqueda en la página de Búsqueda avanzada. Si ya conoce el nombre de la guía, haga una búsqueda por título. Seleccione «Practice Guidelines» en el menú «Tipo de publicación» en la sección Búsqueda avanzada o Límites.

En la siguiente presentación vemos la estrategia de búsqueda en PubMed para de GPC de vacunas de la hepatitis a:

Pero para una búsqueda más sensible disponemos de filtros metodológicos desarrollados para recuperar guías en diferentes bases de datos.

Aquí vemos el filtro CADTH’s para GPC en PubMed (última actualización el 2 de abril de 2020, disponible en: https://www.cadth.ca/strings-attached-cadths-database-search-filters):

«Clinical protocols»[MESH] OR «Consensus»[MESH] OR «Consensus development conferences as topic»[MESH] OR «Critical pathways»[MESH] OR «Guidelines as topic» OR «Practice guidelines as topic»[MESH] OR «Health planning guidelines»[MESH] OR «Clinical Decision Rules»[MESH] OR «guideline»[pt] OR «practice guideline»[pt] OR «consensus development conference»[pt] OR «consensus development conference, NIH»[pt] OR position statement*[tiab] OR policy statement*[tiab] OR practice parameter*[tiab] OR best practice*[tiab] OR standards[TI] OR guideline[TI] OR guidelines[TI] OR standards[ot] OR guideline[ot] OR guidelines[ot] OR guideline*[cn] OR standards[cn] OR consensus*[cn] OR recommendat*[cn] OR practice guideline*[tiab] OR treatment guideline*[tiab] OR CPG[tiab] OR CPGs[tiab] OR clinical guideline*[tiab] OR guideline recommendation*[tiab] OR consensus*[tiab] OR ((critical[tiab] OR clinical[tiab] OR practice[tiab]) AND (path[tiab] OR paths[tiab] OR pathway[tiab] OR pathways[tiab] OR protocol*[tiab] OR bulletin[tiab] OR bulletins[tiab])) OR recommendat*[ti] OR recommendat*[ot] OR (care[tiab] AND (standard[tiab] OR path[tiab] OR paths[tiab] OR pathway[tiab] OR pathways[tiab] OR map[tiab] OR maps[tiab] OR plan[tiab] OR plans[tiab])) OR (algorithm*[tiab] AND (screening[tiab] OR examination[tiab] OR test[tiab] OR tested[tiab] OR testing[tiab] OR assessment*[tiab] OR diagnosis[tiab] OR diagnoses[tiab] OR diagnosed[tiab] OR diagnosing[tiab])) OR (algorithm*[tiab] AND (pharmacotherap*[tiab] OR chemotherap*[tiab] OR chemotreatment*[tiab] OR therap*[tiab] OR treatment*[tiab] OR intervention*[tiab]))

En la siguiente presentación vemos como sería la búsqueda en PubMed aplicando el filtro anterior de CADTH.

8 Tips para la búsqueda en MEDLINE de OVID

Si queremos hacer búsquedas con técnicas avanzadas y aprovechar el potencial de las bases de datos necesitamos conocer los operadores y campos específicos que esta proporciona.

Las técnicas de búsqueda avanzada pueden incluir comillas para forzar la búsqueda de frases, truncamiento, comodines, operadores de proximidad y especificar campos de búsqueda (como título, resumen, etc.) así como el uso de paréntesis para forzar la correcta ejecución de la lógica booleana.

En esta presentación os describo las 8 ideas o tips que considero interesantes para la búsqueda avanzada en la base de datos MEDLINE por la plataforma de OVID.

¿Qué significan las fechas en MeSH Database?

Una de las cosas que tenemos que tener cuidado cuando buscamos en MEDLINE con el tesauro MeSH son las fechas que aparecen la descripción desarrollada del término. Nos podemos encontrar con tres posibilidades:

UNA FECHA

Si, por ejemplo, entramos en MeSH Database y buscamos por “PubMed”, el resultado nos muestra la información relativa a ese término del MeSH. Tras una breve definición, vemos que nos indica “Year introduced: 2003”, es decir, que ese término de indización se apareció como término del tesauro en el año 2003. Esto significa que podemos utilizar este término MeSH para recuperar información desde 2003. Para recuperar bibliografía de años anteriores a este año por este concepto o similar, debemos utilizar los términos MeSH que encontramos en el apartado de “Previous Indexing”. En nuestro caso sería “MEDLINE”.

DOS FECHAS

Pero ¿qué pasa si nos encontramos dos fechas en el año de introducción del término, una de ellas entre paréntesis?

Veamos el ejemplo de “Triage” donde aparece “Year Introduced: 1991 (1976)”. En este caso, nos indica que el “concepto” relativo a triaje ha estado en MeSH desde 1976 y que se indizaba con un “término histórico” MeSH que significaba Triaje, pero la palabra triaje no se usaba en ese momento. No podemos saber cuál fue el término histórico.

Posteriormente, en 1991, se introdujo el término Triaje en MeSH. En ese momento, todas las citas que habían sido indexadas con el «término histórico» se volvieron a indexar (utilizando -Buscar y reemplazar-). Esa acción Buscar y reemplazar nos permite buscar hasta 1976 con Triage, aunque el término se introdujo en 1991.

Por último, si deseamos buscar literatura de triage que se indexó antes de 1976, debemos revisar la información de indexación anterior en el Registro MeSH que aparece en “Previous Indexing”.

NINGÚN AÑO

Por último, tenemos el caso de aquellos encabezamientos que no incluyen información de año de introducción en el tesauro. Por ejemplo, el encabezamiento “Eye” no aporta esa información. Esto nos indica que el encabezamiento ha existido desde el comienzo de MEDLINE y podemos utilizarlo para buscar todas las referencias de esta base de datos.

Nueva versión de la guía EUnetHTA del proceso de búsqueda de información en revisiones sistemáticas y evaluación de tecnología

EUnetHTA

Ya en 2015 daba cuenta de la Guía metodológica EUnetHTA desarrollada por el Institute for Quality and Efficiency in Health Care (IQWiG) / Germany y cuyo objetivo es proporcionar una visión general, actualizada y transparente de todo el proceso de recuperación de la información.

Ahora está disponible la versión 2.0 de diciembre de 2019 de la directriz metodológica EUnetHTA sobre «Proceso de recuperación de información para revisiones sistemáticas y evaluaciones de tecnología de salud sobre efectividad clínica» actualizada por IQWiG junto con el NIPH (Noruega) y AETSA (España).

Podéis descargar esta nueva versión en:

https://eunethta.eu/wp-content/uploads/2020/01/EUnetHTA_Guideline_Information_Retrieval_v2-0.pdf

Citar como:

EUnetHTA JA3WP6B2-2 Authoring Team. Process of information retrieval for systematic
reviews and health technology assessments on clinical effectiveness. Methodological
Guidelines. Diemen (The Netherlands): EUnetHTA; 2019. Available from
https://www.eunethta.eu/

¿Qué es el nuevo algoritmo Best Match de PubMed?

Best Match es un nuevo algoritmo de búsqueda por relevancia para PubMed implantado en julio de 2017 que aprovecha la inteligencia de los usuarios y la tecnología de aprendizaje automático como una alternativa al orden por fecha que tradicionalmente nos ofrecía PubMed.

pm_best_match_fig1.png

Hasta hace poco de forma predeterminada los resultados se mostraban en orden cronológico inverso. Es decir, los artículos recién publicados primero. Si bien este orden de clasificación es deseable para buscar la información más reciente sobre un tema determinado o para un autor individual, puede no ser adecuado para otros tipos de búsquedas. Esto se agrava pues, como ocurre cuando buscamos en Google, más del 80% de los clics de los usuarios en los resultados de búsqueda ocurren en la primera página. Por lo tanto, para la mayoría de las consultas de PubMed con más de 20 resultados, los usuarios pueden fácilmente pasar por alto los documentos más útiles de la segunda o posteriores páginas.

Best Match se basa en un algoritmo de frecuencia de término ponderado. Incorpora el aprendizaje automático para volver a clasificar los principales artículos devueltos para una mayor relevancia. El algoritmo Best Match se construye con búsquedas pasadas de usuarios y con más de 150 señales de clasificación de relevancia (factores). La mayoría de estas señales se calculan a partir del número de coincidencias entre los términos de búsqueda y el registro de PubMed, mientras que otras son específicas de un registro (por ejemplo, tipo de publicación, año de publicación) o específicas de una búsqueda (por ejemplo, longitud de búsqueda).  journal.pbio.2005343.g002

Dado que generalmente los usuarios que ordenan por este nuevo algoritmo hacen clic en las citas de la primera página PubMed limita la lista de resultados a 10.000 referencias.

Si deseamos utilizar Best Match como nuestro orden predeterminado para los resultados de PubMed podemos cambiar las preferencias de nuestra cuenta de My NCBI .

Si quieres comprender mejor este nuevo algoritmo de PubMed no dejes de leer el artículo siguiente:

Fiorini N, Canese K, Starchenko G, Kireev E, Kim W, Miller V, Osipov M, Kholodov M, Ismagilov R, Mohan S, Ostell J, Lu Z. Best Match: New relevance search for PubMed. PLoS Biol. 2018 Aug 28;16(8):e2005343. doi: 10.1371/journal.pbio.2005343. eCollection 2018 Aug. PubMed PMID: 30153250.

También tienes más información aquí.

Qué límites y filtros podemos aplicar en búsquedas de información en cuidados

Para acotar el resultado de búsqueda, las bases de datos nos proporcionan diferentes recursos de filtrado con límites. Con ellos podemos excluir idiomas que no entendemos, buscar artículos que han sido publicados en cierto periodo de tiempo, recuperar artículos referentes a una población específica o buscar sólo determinados tipos de estudio o grupos de edad. Podemos limitar nuestro resultado a artículos publicados en revistas de enfermería seleccionado «Nursing Journals» dentro de la categoría de límite «Journal Categories» o directamente añadiendo a nuestra estrategia de búsqueda jsubsetn[text] (p. ej.: “Diabetes AND jsubsetn[text]”).

También disponemos de los filtros metodológicos o filtros de búsqueda («hedges«) de los que ya hablé extensamente en una entrada anterior (https://ccamposhugf.wordpress.com/2013/08/22/que-son-los-filtros-de-busqueda/). Son estrategias de búsquedas desarrolladas y validadas para utilizar en bases de datos electrónicas que nos ayudan a perfeccionar la estrategia de búsqueda para recuperar estudios científicamente sólidos y clínicamente relevantes, por ejemplo, estudios diseñados para responder preguntas relacionadas con la efectividad de una terapia o la precisión de una prueba de diagnóstica. Estas estrategias prediseñadas se han de combinar con el término/s o descriptor/es de lo que deseamos buscar permitiéndonos una recuperación de la información con un alto grado de exactitud. En la página del Centre for Reviews and Dissemination (The InterTASC Information Specialists’ Sub-Group Search Filter Resource) podemos encontrar una recopilación de diferentes filtros para diversas bases de datos y plataformas (1). El desarrollo de filtros de búsqueda para la profesión de enfermería es limitado y se ha centrado en aspectos específicos del cuidado de enfermería (2-4).

Por último, recordar que en PubMed podemos guardar nuestros filtros creando y personalizando una cuenta MyNCBI tal como contamos en una anterior entrada de BiblioGETAFE (https://ccamposhugf.wordpress.com/2013/11/26/como-crearnos-una-cuenta-personal-en-pubmed-myncbi/).

Bibliografía:

  1. ISSG Search Filter Resource [Internet]. Glanville J, Lefebvre C, Wright K, editors.  York (UK):  The InterTASC Information Specialists’ Sub-Group; 2008 [actualizado 26 Febrero 2018; consultado el 8 mayo 2018].  Disponible en: https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home
  2. Berg A, Fleischer S, Behrens J. Development of two search strategies for literature in MEDLINE-PubMed: nursing diagnoses in the context of evidence-based nursing. Int J Nurs Terminol Classif. 2005 Apr;16(2):26–32.
  3. Lavin MA, Krieger MM, Meyer GA, Spasser MA, Cvitan T, Reese CG, Carlson JH, Perry AG, McNary P. Development and evaluation of evidence-based nursing (EBN) filters and related databases. J Med Lib Assoc. 2005 Jan;93(1):104–15.
  4. Simon M, Hausner E, Klaus SF, Dunton NE. Identifying nurse staffing research in MEDLINE: development and testing of empirically derived search strategies with the PubMed interface. BMC Med Res Methodol. 2010 Aug 23;10:76.

¿Cuánto tiempo y personas son necesarias para realizar una revisión sistemática?

Recientemente en la lista que estoy subscrita IRMG se ha tratado el interesante tema del tiempo necesario para realizar una revisión sistemática y se ha aportado bibliografía de estudios sobre el tema. Este es un asunto que debe tenerse en cuenta antes de iniciar el proyecto y muchas veces somos los bibliotecarios los que alertamos a nuestros usuarios de la logística necesaria para llegar a buen puerto.

La realización de una revisión sistemática lleva mucho tiempo y no es una tarea a realizar en solitario, un grupo de 4-6 es el ideal debido a la gran cantidad de literatura que debe revisarse. Rohit Borah y cols. de la Universidad de Alabama han publicado un meta-análisis, utilizando el registro PROSPERO para cuantificar el tiempo y las persona necesarias para llevar a cabo una revisión sistemática. Este estudio proporciona una estimación actualizada del tiempo y el esfuerzo necesarios para realizar y publicar una revisión sistemática utilizando una amplia muestra de revisiones publicadas recientemente sobre una variedad de temas de intervenciones médicas. El tiempo medio estimado para completar el proyecto y publicar la revisión (desde inicio del registro del proyecto hasta la fecha de publicación) fue de 67,3 semanas (IQR = 42). El número de estudios encontrados en las búsquedas bibliográficas varió de 27 a 92 020; la tasa de rendimiento promedio de los estudios incluidos (eficiencia de la búsqueda o la tasa de rendimiento que se calcula dividiendo el número final de estudios incluidos por el número inicial de estudios encontrados, excluidos los duplicados, en la búsqueda bibliográfica) fue 2.94% (IQR = 2.5); y el número promedio de autores por revisión fue de 5, SD = 3.

En cuanto a los bibliotecarios médicos que participan en el una RS el cálculo del tiempo dedicado debe incluir las tareas específicas tales como el proceso de entrevista inicial y reuniones de seguimiento, desarrollo de estrategias de búsqueda, traducción de estrategias de búsqueda para volver a ejecutar en otras bases de datos, búsqueda en la literatura gris, realización de búsquedas manuales, documentación de la estrategia de búsqueda, utilización de software bibliográfico para la gestión y eliminación de duplicados y entrega de los resultados y redacción de la sección de métodos con la metodología de búsqueda. Recientemente Bullers y cols. estimaron que la duración acumulada en todas estas tareas fue de una media de 30.7 horas (SD = 30.0) con una mediana de 22 horas y un rango de 2 a 219 horas.

El resultado de referencias obtenidas tras las búsquedas y que hay que revisar suele ser muy abultado y suele desalentar a las personas que tienen que realizar la revisión. Sin embargo, la Cochrane en su manual (Cochrane Handbook,  Capítulo 6.4.4. Sensitivity versus precisión) nos dice que los resúmenes de artículos identificados a través de una búsqueda bibliográfica pueden ser revisados muy rápidamente para determinar la relevancia potencial. A una tasa de lectura estimada de forma conservadora de dos resúmenes por minuto, los resultados de una búsqueda en la base de datos pueden leerse a una tasa de 120 por hora (o aproximadamente 1000 en un período de 8 horas).

Por último, quiero mencionar PredicTER que es una herramienta de software para ayudar a los investigadores y profesionales a estimar el tiempo necesario para completar una revisión sistemática (SR) o un mapa sistemático (SM). Los valores predeterminados para cada entrada se toman de una encuesta de practicantes de síntesis de evidencia ambiental realizada por Neal Haddaway. PredicTER fue diseñado por Neal Haddaway (Stockholm Environment Institute) y Martin Westgate (Australian National University).

Referencias:

Borah R, Brown AW, Capers PL, et al. Analysis of the time and workers needed to conduct systematic reviews of medical interventions using data from the PROSPERO registry. BMJ Open 2017;7:e012545. doi: 10.1136/bmjopen-2016-012545

Allen IE, Olkin I. Estimating time to conduct a meta-analysis from number of citations retrieved. JAMA. 1999 Aug 18;282(7):634-5. PubMed PMID: 10517715

Bullers K, Howard AM, Hanson A, Kearns WD, Orriola JJ, Polo RL, Sakmar KA. It takes longer than you think: librarian time spent on systematic review tasks. J Med Libr Assoc. 2018 Apr;106(2):198-207. doi: 10.5195/jmla.2018.323. Epub 2018 Apr 1. PubMed PMID: 29632442; PubMed Central PMCID: PMC5886502

Saleh, A., Ratajeski, M., & Bertolet, M. (2014). Grey Literature Searching for Health Sciences Systematic Reviews: A Prospective Study of Time Spent and Resources Utilized. Evidence Based Library and Information Practice, 9(3), 28-50. https://doi.org/10.18438/B8DW3K

Herramientas para las búsquedas en revisiones sistemáticas: Conversores de estrategias de búsqueda

Cuando hacemos una búsqueda exhaustiva y sistemática de bibliográfica para un documento de síntesis de evidencia como una revisión sistemática, necesitamos buscar en más de una base de datos. En estos casos las estrategias de búsqueda son complejas e implican texto libre, términos de vocabulario controlado, comodines o sintaxis de adyacencia, por lo que la conversión no es un proceso sencillo. Además, las diferentes interfaces y motores de búsqueda tienen diferentes funciones disponibles e interpretan la lógica del usuario de formas distintas. Por ejemplo, la interfaz de PubMed hace la búsqueda ampliada o «explode» de los encabezados de materias MeSH de manera automática mientras que la interfaz de Ovid no lo hace. También los tesauros de encabezamientos de materias son distintos o incluso inexistentes como en la WOS (Más información aquí).

Por ello son útiles las herramientas que nos ayuda a «traducir» nuestra estrategia a diferentes bases de datos. Si bien no son perfectas, nos ayudan en un primer paso con la sintaxis de búsqueda. Entre los que utilizo destaco los dos siguientes:

MEDLINE Transpose
Este proyecto es una colaboración entre el College of Physicians and Surgeons of British Columbia (CPSBC)y la Collaboration for Leadership in Applied Health Research and Care South West Peninsula (PenCLAHRC).

Ha sido desarrollado para mitigar un problema de convertir la sintaxis de búsqueda entre las interfaces de PubMed y Ovid/MEDLINE.  Más información aquí.

Polyglot Search

En esta escribimos nuestra estrategia de búsqueda compleja en formato PubMed u Ovid MEDLINE y Polyglot Search intenta traducirla a cualquiera de los formatos admitidos del motor de búsqueda: EMBASE, WOS, CINAHL, SCOPUS, Cochrane,…
Systematic Review Accelerator.jpgEste módulo es parte del paquete de herramientas del Asistente de Revisión Sistemática gratuito del Bond University Centre for Research in Evidence-Based Practice. Polyglot Search Syntax Translator forma parte del Systematic Review Accelerator. Más información aquí.

¿Y tú, conoces algún conversor más?