¿Herramientas de IA en búsquedas para revisiones sistemáticas?

La inteligencia artificial está irrumpiendo con fuerza en la síntesis de evidencia. Un estudio reciente de la Agencia Canadiense de Medicamentos (CDA-AMC) ofrece datos interesantes que conviene conocer (Featherstone R, Walter M, MacDougall D, Morenz E, Bailey S, Butcher R, et al. Artificial Intelligence Search Tools for Evidence Synthesis: Comparative Analysis and Implementation Recommendations. Cochrane Evidence Synthesis and Methods. 2025;3(5):e70045, doi: 10.1002/cesm.70045.).

Este artículo tuvo como objetivo evaluar el potencial de herramientas de búsqueda basadas en inteligencia artificial (Lens.org, SpiderCite y Microsoft Copilot) para apoyar la síntesis de evidencia vs. métodos de búsqueda tradicionales y establecer recomendaciones de implementación bajo un enfoque “fit for purpose”, es decir, utilizar cada herramienta solo para tareas específicas donde aporten valor. Se evaluaron siete proyectos completados en la agencia, aplicando búsquedas de referencia (método tradicional) frente a búsquedas con cada herramienta de IA. Se midieron sensibilidad/recall, número necesario a leer (NNR), tiempo de búsqueda y cribado, y contribuciones únicas de cada herramienta. Además, se recogió experiencias de los especialistas en información sobre usabilidad, limitaciones y sorpresas en el uso de los tres sistemas.

Resultados

Método / HerramientaSensibilidad promedioDiferencias entre proyectos simples y complejosNNR (número necesario a leer)Tiempo de búsquedaObservaciones principales
Métodos tradicionales0.98 – 1 (casi perfecta)Consistentemente alta en todos los proyectosMás bajo que IA2.88 h en promedioEstándar de referencia, máxima fiabilidad
Lens.org0.676Simples: 0.816 Complejos: 0.6Más alto que el estándar (98 vs 83)Mayor tiempo (2.25 h, más que Copilot o SpiderCite)Mejor de las IA, pero menos eficiente; útil en búsquedas simples y de autores
SpiderCite0.23 – 0.26Similar en simples y complejosVariable (Cited by mejor que Citing)~1.25 hMuy baja sensibilidad, pero puede aportar referencias únicas en temas complejos; solo útil como complemento
Copilot0.24 (muy variable: 0–0.91 según proyecto)Simples: 0.41 Complejos: 0.15Muy variable (mejor en simples, muy alto en complejos)Más rápido (0.96 h promedio)Dependiente de la calidad de los prompts; no sustituye estrategias, útil para sugerir palabras clave

Sensibilidad = proporción de estudios relevantes efectivamente recuperados.
NNR = número necesario a leer; cuanto menor, mejor eficiencia de cribado.

Verde = mejor desempeño relativo. Amarillo = intermedio / aceptable. Rojo = débil. Naranja = muy variable según proyecto.

Discusión

  • Las herramientas de IA mostraron rendimiento variable e inconsistente, lo que implica que no pueden reemplazar las búsquedas profesionales estándar en revisiones sistemáticas.
  • Pueden generar falsa confianza en usuarios sin experiencia. Se requiere conocimiento experto en construcción de estrategias y en validación de resultados para corregir limitaciones.
  • Limitaciones del estudio: solo se evaluaron 7 proyectos y 3 herramientas, sin analizar combinaciones entre ellas

Recomendaciones de implementación

La CDA-AMC propuso un uso limitado y estratégico:

  1. Lens.org: útil para revisiones con preguntas acotadas y técnicas (como dispositivos con una función o población bien definida) o para identificar rápidamente autores vinculados a un tema o indicación clínica cuando los métodos estándar no alcanzan.
  2. SpiderCite: complemento para búsquedas de citas en proyectos complejos, siempre que se disponga de artículos semilla.
  3. Copilot (u otros LLMs): apoyo en la generación de palabras clave y términos de búsqueda, pero no para estrategias completas

Conclusión

Las tres herramientas evaluadas (Lens.org, SpiderCite, Copilot) no son adecuadas para reemplazar estrategias de búsqueda complejas en revisiones sistemáticas, debido a variabilidad en sensibilidad y precisión. Sin embargo, tienen potencial como apoyos puntuales en tareas específicas: generación de términos, búsquedas simples o de citas, y exploración preliminar. El estudio subraya la necesidad de mantener el papel central del bibliotecario/experto en información en la validación de cualquier resultado generado con IA, y de continuar monitorizando nuevas herramientas dada la rápida evolución tecnológica.

Reflexiones para quienes trabajamos en bibliotecas médicas

  • Las herramientas de IA pueden ahorrar tiempo en fases preliminares, generar ideas de términos de búsqueda, identificar autores, pero no deben utilizarse como única estrategia para revisiones sistemáticas si se espera exhaustividad.
  • Es clave entender los límites: sensibilidad menor, posible sesgo en lo que captura IA, variabilidad según prompt o según lo cerrado o amplio que sea el tema.
  • Siempre debe haber validación humana experta, verificación de resultados únicos que aparezcan en IA, comparación con lo recuperado por métodos tradicionales.

Pasos de la búsqueda para síntesis de evidencia: Metodología de la JBI

El Manual del JBI para Síntesis de Evidencia acaba de actualizar el capítulo 2.4.correspondiente a la metodología de búsqueda (Disponible en: https://jbi-global-wiki.refined.site/space/MANUAL/355827873/2.4+Search+Methodology+for+JBI+Evidence+Syntheses).

Las revisiones del JBI se distinguen en el componente de búsqueda por su proceso de búsqueda explícito en 3 pasos. Este enfoque metodológico asegura una revisión exhaustiva y sistemática de la evidencia relevante, mejorando la calidad y la fiabilidad de los resultados de la revisión.

Paso 1: Búsqueda exploratoria inicial

El primer paso es una búsqueda exploratoria inicial para encontrar «referencias semilla», es decir, registros de estudios que cumplan los criterios de inclusión para la pregunta de la revisión. Tras estas búsquedas exploratorias iniciales, se recogen las palabras clave del título y el resumen, junto con los términos de indización (también denominados términos MeSH en MEDLINE, Tesauro, Vocabulario controlado, descriptores o encabezamientos de materia) de las referencias semilla. Se debe consultar con el equipo de revisión para recopilar otras palabras clave y términos indexados.

En esta fase utilizaremos las siguientes herramientas:

  • Bases de datos, generalmente MEDLINE y CINAHL.
  • Herramientas adicionales como Google, Google Académico y herramientas de descubrimiento de bibliotecas (PRIMO, OneSearch, SumSearch, etc.).
  • Herramientas de IA generativa (p. ej.: ChatGPT). Pueden ser útiles para encontrar estas referencias iniciales. Sin embargo, en el caso de las fuentes encontradas a través de ChatGPT, es importante verificar que no sean alucinaciones.

Paso 2: Desarrollo de la estrategia de búsqueda exhaustiva

El segundo paso consiste en desarrollar una estrategia de búsqueda exhaustiva utilizando estas palabras clave recolectadas y los términos de indización en la base de datos primaria/clave definida en nuestro Protocolo de revisión.

El desarrollo de una búsqueda exhaustiva es un proceso iterativo que implica probar combinaciones de palabras clave y términos indizados y comprobar que la estrategia de búsqueda recupera las referencias iniciales.

Una vez desarrollada la estrategia de búsqueda en la base de datos primaria, se traslada a otras bases de datos.

Paso 3: Búsqueda complementaria

El tercer paso es la búsqueda complementaria en la literatura gris, la búsqueda de citas y la búsqueda manual. La Declaración TARCiS (Terminology, Application and Reporting of Citation Searching) proporciona orientación sobre cuándo y cómo realizar búsquedas de citas como técnica de búsqueda complementaria en la síntesis de la evidencia y, lo que es más importante, cómo informar de ello (Hirt et al. 2024).

Para las preguntas de revisión que son complejas, la búsqueda de citas hacia delante y hacia atrás (forward and backward citation searching) se considera obligatoria.

Bibliografía

Search Methodology for JBI Evidence Syntheses. In: Aromataris E, Lockwood C, Porritt K, Pilla B, Jordan Z, editors. JBI Manual for Evidence Synthesis. JBI; 2024. Available from: https://synthesismanual.jbi.global. https://doi.org/10.46658/JBIMES-24-01

Hirt J, Nordhausen T, Fuerst T, Ewald H, Appenzeller-Herzog C; TARCiS study group. Guidance on terminology, application, and reporting of citation searching: the TARCiS statement. BMJ. 2024 May 9;385:e078384. doi: 10.1136/bmj-2023-078384. Erratum in: BMJ. 2024 Nov 7;387:q2458. doi: 10.1136/bmj.q2458. PMID: 38724089.

Búsqueda de revisiones sistemáticas en PubMed, MEDLINE (Ovid), EMBASE (Elsevier), CINAHL (EBSCO) y SCOPUS

Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.

Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).

Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):

(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])

Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):

«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.

Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):

‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt

CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5):
(MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))

SCOPUS actualizada a 20 de diciembre de 2021 (6):

TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )

BIBLIOGRAFÍA

  1. Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
  2. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. PubMed Research Methodology Search Filters and limits. Disponible en: https://www.yopl.info/post/pubmed-research-methodology-search-filters-and-a-couple-of-nifty-limits
  3. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. Ovid Medline Research Methodology Search Filters. Disponible en: https://www.yopl.info/post/ovid-medline-research-methodology-search-filters-and-a-couple-of-nifty-limits
  4. VonVille H. YOPL. 2023 [citado 4 de enero de 2024]. Embase (Elsevier) Research Methodology Search Filters and Limits. Disponible en: https://www.yopl.info/post/embase-elsevier-research-methodology-search-filters-and-limits
  5. CINAHL. In: CADTH Search Filters Database. Ottawa: CADTH; 2024 [citado 4 de enero de 2024]. Disponible en: https://searchfilters.cadth.ca/link/98.
  6. Scopus. In: CADTH Search Filters Database. Ottawa: CADTH; 2024 [citado 4 de enero de 2024]. Disponible en: https://searchfilters.cadth.ca/link/105. Accessed 2024-01-04.

Búsqueda de información, calidad de la evidencia científica y recursos de la biblioteca del Hospital de Getafe

Dentro del curso de «Principios básicos  en investigación clínica» que ha comenzado a celebrarse hoy en el Hospital Universitario de Getafe, he impartido una clase sobre la búsqueda de información, calidad de la evidencia científica y recursos de la Biblioteca del Hospital de Getafe.

Comparto con todos mi presentación, esperando os resulte de interés.

Comprueba lo que sabes del MeSH de MEDLINE

Los tesauros son los encabezamientos de materias utilizados por algunas de las principales bases de datos bibliográficas para describir el contenido de cada artículo publicado. Tesauro es el «vocabulario controlado» (lista de términos establecido) que categorizan artículos en función de su contenido (dichos términos variarán de una base de datos a otra). P. ej.: PubMed utiliza términos del Medical Subject Headings o MeSH, que es el vocabulario controlado de MEDLINE y Embase utiliza el EMTREE.

Los tesauros tienen una estructura jerárquica. Así, los términos MeSH se clasifican dentro de 16 «árboles» principales (como anatomía, organismos, enfermedades, medicamentos y productos químicos), cada uno de los cuales se ramifica de los términos más amplios a los más específicos. Por ejemplo, al ingresar demencia, PubMed identificará términos MeSH relevantes que incluyen demencia y enfermedad de Alzheimer. Al seleccionar Demencia, verá el árbol de términos, incluidas las subcategorías enumeradas a continuación, como la enfermedad de cuerpos de Lewy, Alzheimer o demencia vascular.

Aunque la búsqueda por el MeSH siempre es más precisa, no siempre es suficiente. Así, si el objetivo de nuestra búsqueda es localizar de forma exhaustiva toda la información de un tema, deberemos combinar la búsqueda del tesauro con el lenguaje natural. En la siguiente imagen vemos algunas de las causas:

Ahora os propongo un juego para que compruebes lo que conoces del MeSH.

¿Preparado para ver cuanto sabes del MeSH? Activa el audio y juega.

Cobertura y solapamiento de las bases de datos utilizadas en las revisiones sistemáticas de ciencias de la salud

Las revisiones sistemáticas son una herramienta valiosa para identificar y evaluar la evidencia existente sobre un tema en particular. Sin embargo, la realización de una revisión sistemática puede ser un proceso largo y laborioso que requiere una gran cantidad de tiempo y esfuerzo. Una de las tareas más importantes en este proceso es el de la búsqueda de evidencia.

En mi entrada anterior «En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas» hablé de la necesidad de que la búsqueda de estudios sea lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. También comenté la función del bibliotecario en determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes y de cuáles elegir.

Conjunto principal de bases de datos de ciencias de la salud

Es importante evaluar la cobertura de cada base de datos para determinar si se están buscando en la fuente adecuada. Además, es importante evaluar el solapamiento entre las bases de datos, aunque hay que tener en cuenta que bastantes estudios van a estar presentes en varias fuentes.

Merece la pena examinar la cobertura de las bases de datos, porque esto determina los resultados de la búsqueda y tendrá un impacto directo en la revisión. Las bases de datos pueden tener solapamientos en el contenido, y cada base de datos también cubre algunos títulos exclusivos (únicos).

En cuanto a la cobertura y solapamiento de MEDLINE, CINHAL Complete, Embase.com y PsycINFO. tenemos que tener en cuenta lo siguiente:

  • PubMed cubre todos los registros de Medline, además de algunos otros materiales (aproximadamente el 15%).
  • Embase incluye casi todas las revistas de Medline, mientras que más de 2,900 revistas en Embase no están cubiertas por Medline.
  • Medline tiene una mejor cobertura de revistas estadounidenses, mientras que Embase tiene una mejor cobertura de revistas europeas.Medline tiene alrededor de 1/3 (aprox. 1,800 revistas) solapadas con CINAHL Complete.
  • PsycINFO tiene alrededor de 1/2 (aprox. 1,200) revistas únicas que NO están cubiertas por Medline, Embase y CINAHL Complete.
  • La Biblioteca Cochrane incluye 6 bases de datos:
    • La Base de Datos Cochrane de Revisiones Sistemáticas (CDSR) está completamente indexada por Medline.
    • El Registro Central Cochrane de Ensayos Controlados (CENTRAL) contiene casi 530,000 citas, de las cuales 310,000 (~58%) son de Medline, 50,000 (aprox. 10%) son de Embase, y las 170,000 restantes (aprox. 32%) son de otras fuentes (Manual Cochrane, 2011).
    • CENTRAL cubre todos los Ensayos Controlados Aleatorios (ECA) y Ensayos Clínicos Controlados (ECC) indexados en Medline.

Bases de datos multidisciplinares: WoS y SCOPUS

Sin embargo, todavía hay muchas revistas fuera de la «conjunto principal» de bases de datos en enfermería y ciencias de la salud. Es posible que también debas realizar una búsqueda en más bases de datos para asegurarte que tu búsqueda bibliográfica esté completa.

Entre ellas, podemos buscar en la Web of Science y Scopus, que son dos grandes bases de datos de citas multidisciplinares. Por este motivo, es bueno saber hasta qué punto las bases de datos principales se solapan con estas dos.

En cuanto a la cobertura y solapamiento de las bases de datos principales de ciencias de la saludcon WoS y Scopus tenemos que tener en cuenta lo siguiente

  • Web of Science (SSCI) tiene más de 2400 títulos en el área de ciencias sociales y alrededor del 70% de estos títulos NO están cubiertos por Medline, CINAHL Complete, Embase y PsycINFO. Por lo tanto, si tu tema de investigación está en el campo de las ciencias sociales, es necesario incluir Web of Science SSCI en tu búsqueda.
  • Web of Science (SSCI) tiene alrededor de 660 títulos en las áreas de psiquiatría y psicología. Alrededor de 50 títulos NO están cubiertos por PsycINFO. Por lo tanto, si tu tema de investigación se refiere a cuestiones de psicología, incluye Web of Science (SSCI) en tu búsqueda.
  • Scopus cubre (casi) todos los títulos en Medline, PsycINFO y Web of Science. CINAHL Complete tiene aproximadamente 2000 títulos que NO están cubiertos por Scopus. De estos títulos, más de la mitad son revistas, publicaciones comerciales, etc.

En resumen, la selección, cobertura y solapamiento de las principales bases de datos es una tarea crucial en el proceso de búsqueda de estudios para una revisión sistemática. Es importante evaluar la cobertura de cada base de datos, el solapamiento entre ellas y buscar en bases de datos complementarias para garantizar la inclusión de todos los estudios relevantes. Además, se recomienda documentar y justificar la selección de bases de datos para garantizar la transparencia y la replicabilidad de la revisión sistemática.

Cómo buscar en PubMed II: Opciones avanzadas

Para que los resultados de la búsqueda sean mejores, PubMed dispone de las siguientes opciones:

Búsqueda combinada utilizando operadores:

Para ello disponemos de los siguientes operadores:

  • AND: recupera referencias que contengan los dos términos de búsqueda, teniendo en cuenta que deben aparecer en el mismo registro. Especifica y delimita la búsqueda.
  • OR: recupera referencias que contengan los dos términos, o al menos uno de ellos. Principalmente, se utiliza para localizar sinónimos, variantes y múltiples formas en las que se puede expresar un mismo tema.
  • NOT: excluye referencias que contengan el término escrito después del operador.

Búsquedas por frases

Nos permite buscar términos compuestos por múltiples palabras. Para ello has de escribir los términos entre comillas. Por ejemplo: “Blood glucose control» e «Intensive care Unit», buscará los artículos que tienen los tres términos seguidos y en ese orden. Veamos cómo sería la búsqueda en el siguiente vídeo:

Búsqueda por frases en PubMed

Truncamiento de términos

Para utilizar la función de truncar términos, escribe la raíz de la palabra y un asterisco. PubMed buscará términos que compartan la misma raíz. Por ejemplo, para la raíz «cardiovas»Intensive care Unit*», buscará términos como Intensive care unit e Intensive Care Units.

Búsqueda con truncamientos

Búsqueda sensible

Si queremos aumentar el resultado de nuestra búsqueda debemos incluir las posibles variaciones de cada concepto con sinónimos, cuasi sinónimos, acrónimos, etc.

En el caso de la búsqueda que estamos realizando sobre control glucémico en pacientes en UCI, algunas posibles variantes son las que vemos en la siguiente imagen:

Posibles términos a incluir en nuestra estrategia de búsqueda para aumentar el resultado.

De esta forma, nuestra estrategia podría ser la siguiente:

(«Critical Care» OR «Intensive Care» OR «Critical Illness» OR «Critically Ill Patient*» OR «Critically-ill Patient*» OR ICU OR ICUS OR «Intensive Care Unit*» OR «Intensive Treatment» OR «Intensive Therap*») AND («Glycemic control» OR «Glycaemic control» OR «Glucose control» OR «Glucose level*» OR «Glycemic Index» OR «Glycaemic Index» OR «Glycemic target*» OR «Glycaemic target*» OR «Glucose target*» OR Hyperglycemia OR Hypoglycemia OR «Insulin Therapy» OR «Insulin infusion» OR IIT)

En el siguiente vídeo vemos como hacer este tipo de búsqueda en PubMed:

Búsqueda en PubMed optimizando la sensibilidad.

Búsqueda en campos del registro

Aunque las listas de resultados se muestran en lenguaje natural, el registro de PubMed adopta un formato para su recuperación llamado MEDLINE. En este, la información se estructura en campos que se identifican por su etiqueta correspondiente o «tag».

Esta opción se utiliza cuando es preciso recuperar información localizándola en un campo concreto y no en todo el registro bibliográfico.

Se puede buscar en un campo determinado  desde la pantalla de inicio escribiendo junto al término su etiqueta de campo entre corchetes. En este caso. el investigador debe conocer previamente la etiqueta  correspondiente y la forma correcta de escribirla.

Las etiquetas se pueden escribir abreviadas o completas:

  • [TI] / [Title]
  • [AU] / [Author]
  • [AB] / [Abstract]

La lista de etiquetas se puede consultar en la página de ayuda de la NLM

Etiquetas de campos de PubMed

Para nuestro ejemplo, si queremos limitar el resultado a aquellos registros que incluyan nuestros términos de búsqueda en los campos de título o resumen, la estrategia sería:

(«Critical Care»[tiab] OR «Intensive Care»[tiab] OR «Critical Illness»[tiab] OR «Critically Ill Patient*»[tiab] OR «Critically-ill Patient*»[tiab] OR ICU[tiab] OR ICUS[tiab] OR «Intensive Care Unit*»[tiab] OR «Intensive Treatment»[tiab] OR «Intensive Therap*»[tiab]) AND («Glycemic control»[tiab] OR «Glycaemic control»[tiab] OR «Glucose control»[tiab] OR «Glucose level*»[tiab] OR «Glycemic Index»[tiab] OR «Glycaemic Index»[tiab] OR «Glycemic target*»[tiab] OR «Glycaemic target*»[tiab] OR «Glucose target*»[tiab] OR Hyperglycemia[tiab] OR Hypoglycemia[tiab] OR «Insulin Therapy»[tiab] OR «Insulin infusion»[tiab] OR IIT[tiab])

Y si queremos limitar el resultado a aquellos registros que incluyan nuestros términos, pero como palabras del título, sería:

(«Critical Care»[ti] OR «Intensive Care»[ti] OR «Critical Illness»[ti] OR «Critically Ill Patient*»[ti] OR «Critically-ill Patient*»[ti] OR ICU[ti] OR ICUS[ti] OR «Intensive Care Unit*»[ti] OR «Intensive Treatment»[ti] OR «Intensive Therap*»[ti]) AND («Glycemic control»[ti] OR «Glycaemic control»[ti] OR «Glucose control»[ti] OR «Glucose level*»[ti] OR «Glycemic Index»[ti] OR «Glycaemic Index»[ti] OR «Glycemic target*»[ti] OR «Glycaemic target*»[ti] OR «Glucose target*»[ti] OR Hyperglycemia[ti] OR Hypoglycemia[ti] OR «Insulin Therapy»[ti] OR «Insulin infusion»[ti] OR IIT[ti])

En el siguiente vídeo vemos estas dos últimas opciones de búsqueda:

Búsqueda en PubMed por campos

Estas son algunas de las opciones avanzadas. En próximas entradas veremos más posibilidades de búsqueda que nos brinda PubMed.

En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.

¿Por qué hay que buscar en varias bases de datos?

Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión. 

En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24

¿En cuántas bases de datos hay que buscar?

Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).

Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).

Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).

Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.

Pero, ¿cuáles elegir?

Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.

¿Qué dicen los expertos?

Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).

Recomendaciones del bibliotecario experto Wilchor Bramer (2017).

Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).

Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).

Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).

Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).

Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.

En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.

¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?

La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.

Razones por la que es necesario buscar en MEDLINE y en Embase.

¿Cómo incluye Embase el contenido de MEDLINE?

  • Más de 2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
  • 2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
  • Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.

¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?

Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.

Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».

Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.

Razones por las que debo buscar en Embase y SCOPUS.

¿Es recomendable buscar en Google Académico?

Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.

Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).

Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.

Elección de la plataforma

Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).

¿MEDLINE vía PubMed u Ovid?

PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).

Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.

Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).

Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor

Por contra del uso de PubMed estaría su problema de indización de revistas depredadoras (Ross-White A, et al.).

¿Embase vía Embase.com o Ovid?

No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)

Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.

Juego para ver las diferencias en la sintaxis de búsqueda.

BIBLIOGRAFÍA

Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002

Higgins JPT, Lasserson T, Chandler J, Tovey D, Thomas J, Flemyng E, Churchill R. Methodological Expectations of Cochrane Intervention Reviews. Cochrane: London, Version February 2022. Disponible en: https://community.cochrane.org/mecir-manual/standards-conduct-new-cochrane-intervention-reviews-c1-c75/performing-review-c24-c75

Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.

Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.

Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/

Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.

Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.

Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.

Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D

Elsevier. Learn and Support – Embase | Elsevier [Internet]. Elsevier.com. 2021 [consultado 19 dic 2022]. Disponible en: https://www.elsevier.com/solutions/embase-biomedical-research/learn-and-support#:~:text=Scopus%20searches%20focus%20on%20abstracts,significantly%20fewer%20results%20than%20Embase

Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.

Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.

¿Sabes que en PubMed se indizan revistas fraudulentas? [Internet]. BiblioGETAFE. BiblioGETAFE; 2018 [consultado el 19 dic 2022]. Disponible en: https://bibliogetafe.com/2018/10/09/sabes-que-en-pubmed-se-indizan-revistas-fraudulentas/

‌Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.

Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147

Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios

La lógica booleana es el enfoque establecido por la práctica para construir la estructura de las estrategias de búsqueda generales y para las revisiones de ciencias de la salud (1). Aun así, existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para revisiones sistemáticas. Dado que no hay ningún consejo en PRESS, PRISMA, MECIR o PRISMA-S que nos recomiende seguir uno u otro de los enfoques, es necesario que el bibliotecario conozca las principales construcciones y los utilice o combine según las necesidades. Por ello, la entrada del blog de Farhad Shokraneh (@FarhadShokrane) (2) me ha parecido de gran interés, ya que resume y describe lo que él considera los 3 tipos o enfoques para estructurar las estrategias de búsqueda:

  • Construcción línea a línea;
  • Búsqueda por bloques; y
  • Construcción en una única línea (párrafo).

Existen diversos enfoques para la construcción de nuestra estrategia de búsqueda experta para #RevisionesSistemáticas (por líneas, bloques o párrafo). El bibliotecario debe conocerlos y utilizar o combinar según las necesidades.

En la siguiente presentación resumo estos tres enfoques, en qué consisten, ejemplos de ellos, ventajas e inconvenientes, así como recomendaciones de uso.

A la hora decidir que enfoque utilizar tengo que tener en consideración desde el objetivo/propósito de nuestra búsqueda, nuestras preferencias y las del usuario. Además, la búsqueda en sí misma y su complejidad puede ser necesario utilizar un enfoque u otro e incluso una mezcla de varios en la misma estrategia de búsqueda. Por último, hay que tener en cuenta que no todas las interfaces de búsquedas/plataformas/bases de datos permiten los tres enfoques.

La estructura de la estrategia de búsqueda para #RevisionesSistemáticas dependerá del propósito de la presentación de la estrategia de búsqueda, preferencias, complejidad de la búsqueda y las posibilidades de búsqueda de la base de datos.

Tabla resumen de los principales enfoques utilizados en las estrategias de búsqueda para revisiones sistemáticas, adaptado de Farhad (2).

En mi caso, suelo preferir la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs). De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión (3). Sin embargo, en búsquedas complejas puede que no sea posible dividir las búsquedas en bloques de un solo concepto y que algunos bloques pueden tener subbloques y o que sea necesario una combinación de las tres estructuras.

BIBLIOGRAFÍA

  1. MacFarlane A, Russell-Rose T, Shokraneh F. Search Strategy Formulation for Systematic Reviews: issues, challenges and opportunities. Intelligent Systems with Applications. 2022: 200091.
  2. Shokraneh, Farhad. Structure of Search Strategies for Systematic Reviews: Line by Line versus Block by Block versus Single-Line. Medium 6 June 2021; [Revisado 9 June 2021]. Disponible en: https://farhadinfo.medium.com/structure-of-search-strategies-for-systematic-reviews-line-by-line-versus-block-by-block-versus-d59aae9e92df
  3. Campos-Asensio C. Cómo elaborar una estrategia de búsqueda bibliográfica. Enferm Intensiva. 2018 Oct-Dec;29(4):182-186. English, Spanish. doi: 10.1016/j.enfi.2018.09.001. PMID: 30291015.

8 puntos clave para las búsquedas de evidencias en las revisiones sistemáticas de precisión de pruebas diagnósticas

Las estrategias de búsqueda para las revisiones de estudios de precisión de pruebas diagnósticas (PPD) pueden ser particularmente complejas. Los estudios de PPD tienden a informarse de manera deficiente y buscarlos puede ser problemático debido a este informe inadecuado y terminología inconsistente, la ausencia de términos de indexación apropiados en algunas bases de datos para este tipo de publicación y el uso inconsistente de términos de indexación adecuados donde están disponibles.

Es conocida la existencia de debilidades en los resúmenes de los informes de los estudios de precisión diagnóstica. Un estudio exploratorio que evaluó la exhaustividad de los informes en los resúmenes de 12 revistas de alto impacto encontró que el 50 % de los artículos no identificaba el estudio como un estudio de precisión diagnóstica en el título y el 65 % incluía las estimaciones de sensibilidad y/o especificidad en el resumen (13). Además, la aplicación de la indexación disponible puede no ser coherente en las bases de datos y no se debe confiar en ella. Un estudio informó que la sensibilidad de tres encabezados clave de Emtree, incluida la etiqueta de verificación diagnostic test accuracy study», se encontró individualmente por debajo del 50 % y solo alcanzó el 72,7 % cuando se usaron juntos.

Aquí os dejo una infografía con el resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones.

Resumen de los 8 puntos clave para la búsqueda en este tipo de revisiones sacadas del borrador del capítulo 7 del Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy.

BIBLIOGRAFÍA

Spijker R, Dinnes J, Glanville J, Eisinga A. Chapter 7: Searching for and selecting studies. Draft version (7 February 2022) for inclusion in: Deeks JJ, Bossuyt PM, Leeflang MM, Takwoingi Y, editor(s). Cochrane Handbook for Systematic Reviews of Diagnostic Test Accuracy Version 2. London: Cochrane. 

Glanville J, Higgins C, Holubowich C, Spijker R, Fitzgerald A. Diagnostic accuracy. Last updated 24 October 2021. In: SuRe Info: Summarized Research in Information Retrieval for HTA. Disponible en: https://www.sure-info.org//diagnostic-accuracy 

Korevaar DA, Cohen JF, Hooft L, Bossuyt PMM. (2015). Literature survey of high-impact journals revealed reporting weaknesses in abstracts of diagnostic accuracy studies. J Clin Epidemiol. 68(6): 708-715. Disponible en: https://www.jclinepi.com/article/S0895-4356(15)00022-0/fulltext

Gurung P, Makineli S, Spijker R, Leeflang MMG. The EMTREE term «Diagnostic Test Accuracy Study» retrieved less than half of the diagnostic accuracy studies in EMBASE. J Clin Epidemiol. 2020; 126 :116-21. Disponible en: https://www.jclinepi.com/article/S0895-4356(20)30132-3/fulltext

Cómo buscar Guías de Práctica Clínica en PubMed

Las GPC son una herramienta de ayuda a los profesionales sanitarios para la toma de decisiones, que pueden reducir la variabilidad de la práctica clínica y mejorar la calidad y seguridad de los pacientes.

Hay una especial dificultad en localizar GPC dado que muchas de ellas se publican como “literatura gris” (generalmente por instituciones y asociaciones profesionales) y no se indexaban en las bases de datos bibliográficas tradicionales.

Pero para aquellas guías que se publican como artículos de revistas de repercusión internacional, pueden buscarse en bases de datos bibliográficas, como PubMed y Embase, utilizando términos de búsqueda controlados («Practice Guideline» [Publication Type] en MEDLINE o ‘practice guideline’/exp en Embase). Para buscar guías de práctica en CINAHL (EBSCO) escribimos el tema (como una condición, síntoma o procedimiento clínico) en el cuadro de búsqueda en la página de Búsqueda avanzada. Si ya conoce el nombre de la guía, haga una búsqueda por título. Seleccione «Practice Guidelines» en el menú «Tipo de publicación» en la sección Búsqueda avanzada o Límites.

En la siguiente presentación vemos la estrategia de búsqueda en PubMed para de GPC de vacunas de la hepatitis a:

Pero para una búsqueda más sensible disponemos de filtros metodológicos desarrollados para recuperar guías en diferentes bases de datos.

Aquí vemos el filtro CADTH’s para GPC en PubMed (última actualización el 2 de abril de 2020, disponible en: https://www.cadth.ca/strings-attached-cadths-database-search-filters):

«Clinical protocols»[MESH] OR «Consensus»[MESH] OR «Consensus development conferences as topic»[MESH] OR «Critical pathways»[MESH] OR «Guidelines as topic» OR «Practice guidelines as topic»[MESH] OR «Health planning guidelines»[MESH] OR «Clinical Decision Rules»[MESH] OR «guideline»[pt] OR «practice guideline»[pt] OR «consensus development conference»[pt] OR «consensus development conference, NIH»[pt] OR position statement*[tiab] OR policy statement*[tiab] OR practice parameter*[tiab] OR best practice*[tiab] OR standards[TI] OR guideline[TI] OR guidelines[TI] OR standards[ot] OR guideline[ot] OR guidelines[ot] OR guideline*[cn] OR standards[cn] OR consensus*[cn] OR recommendat*[cn] OR practice guideline*[tiab] OR treatment guideline*[tiab] OR CPG[tiab] OR CPGs[tiab] OR clinical guideline*[tiab] OR guideline recommendation*[tiab] OR consensus*[tiab] OR ((critical[tiab] OR clinical[tiab] OR practice[tiab]) AND (path[tiab] OR paths[tiab] OR pathway[tiab] OR pathways[tiab] OR protocol*[tiab] OR bulletin[tiab] OR bulletins[tiab])) OR recommendat*[ti] OR recommendat*[ot] OR (care[tiab] AND (standard[tiab] OR path[tiab] OR paths[tiab] OR pathway[tiab] OR pathways[tiab] OR map[tiab] OR maps[tiab] OR plan[tiab] OR plans[tiab])) OR (algorithm*[tiab] AND (screening[tiab] OR examination[tiab] OR test[tiab] OR tested[tiab] OR testing[tiab] OR assessment*[tiab] OR diagnosis[tiab] OR diagnoses[tiab] OR diagnosed[tiab] OR diagnosing[tiab])) OR (algorithm*[tiab] AND (pharmacotherap*[tiab] OR chemotherap*[tiab] OR chemotreatment*[tiab] OR therap*[tiab] OR treatment*[tiab] OR intervention*[tiab]))

En la siguiente presentación vemos como sería la búsqueda en PubMed aplicando el filtro anterior de CADTH.

Ayuda PubMed: Consejos de búsqueda en PubMed

En esta infografía encontrarás una ayuda para la búsqueda en PubMed:

PubMed contiene información de citas bibliográficas (por ejemplo, título, autor, revista, fecha de publicación) y los resúmenes de artículos y algunos libros. Incluye la base de datos de MEDLINE®; citas de artículos en el archivo PubMed Central (PMC) con textos completos de uso gratuito, incluso de artículos sobre informes de investigaciones financiadas por los Institutos Nacionales de Salud (NIH); y citas de libros Bookshelf del Centro Nacional para la Información Biotecnológica (NCBI) (www.ncbi.nlm.nih.gov/books).

Además, incluye enlaces al texto completo de otras fuentes, cuando están disponibles, tales como el sitio de la editorial, el archivo PubMed Central (PMC) y al texto completo de las revistas suscritas por tu Biblioteca.

En caso de duda, acude a tu Biblioteca donde te proporcionaremos más información y consejos que te ayudarán a sacar mayor partido de este recurso gratuito indispensable en ciencias de la salud.