La inteligencia artificial está irrumpiendo con fuerza en la síntesis de evidencia. Un estudio reciente de la Agencia Canadiense de Medicamentos (CDA-AMC) ofrece datos interesantes que conviene conocer (Featherstone R, Walter M, MacDougall D, Morenz E, Bailey S, Butcher R, et al. Artificial Intelligence Search Tools for Evidence Synthesis: Comparative Analysis and Implementation Recommendations. Cochrane Evidence Synthesis and Methods. 2025;3(5):e70045, doi: 10.1002/cesm.70045.).
Este artículo tuvo como objetivo evaluar el potencial de herramientas de búsqueda basadas en inteligencia artificial (Lens.org, SpiderCite y Microsoft Copilot) para apoyar la síntesis de evidencia vs. métodos de búsqueda tradicionales y establecer recomendaciones de implementación bajo un enfoque “fit for purpose”, es decir, utilizar cada herramienta solo para tareas específicas donde aporten valor. Se evaluaron siete proyectos completados en la agencia, aplicando búsquedas de referencia (método tradicional) frente a búsquedas con cada herramienta de IA. Se midieron sensibilidad/recall, número necesario a leer (NNR), tiempo de búsqueda y cribado, y contribuciones únicas de cada herramienta. Además, se recogió experiencias de los especialistas en información sobre usabilidad, limitaciones y sorpresas en el uso de los tres sistemas.
Resultados
Método / Herramienta
Sensibilidad promedio
Diferencias entre proyectos simples y complejos
NNR (número necesario a leer)
Tiempo de búsqueda
Observaciones principales
Métodos tradicionales
0.98 – 1 (casi perfecta)
Consistentemente alta en todos los proyectos
Más bajo que IA
2.88 h en promedio
Estándar de referencia, máxima fiabilidad
Lens.org
0.676
Simples: 0.816 Complejos: 0.6
Más alto que el estándar (98 vs 83)
Mayor tiempo (2.25 h, más que Copilot o SpiderCite)
Mejor de las IA, pero menos eficiente; útil en búsquedas simples y de autores
SpiderCite
0.23 – 0.26
Similar en simples y complejos
Variable (Cited by mejor que Citing)
~1.25 h
Muy baja sensibilidad, pero puede aportar referencias únicas en temas complejos; solo útil como complemento
Copilot
0.24 (muy variable: 0–0.91 según proyecto)
Simples: 0.41 Complejos: 0.15
Muy variable (mejor en simples, muy alto en complejos)
Más rápido (0.96 h promedio)
Dependiente de la calidad de los prompts; no sustituye estrategias, útil para sugerir palabras clave
Sensibilidad = proporción de estudios relevantes efectivamente recuperados. NNR = número necesario a leer; cuanto menor, mejor eficiencia de cribado.
Verde = mejor desempeño relativo. Amarillo = intermedio / aceptable. Rojo = débil. Naranja = muy variable según proyecto.
Discusión
Las herramientas de IA mostraron rendimiento variable e inconsistente, lo que implica que no pueden reemplazar las búsquedas profesionales estándar en revisiones sistemáticas.
Pueden generar falsa confianza en usuarios sin experiencia. Se requiere conocimiento experto en construcción de estrategias y en validación de resultados para corregir limitaciones.
Limitaciones del estudio: solo se evaluaron 7 proyectos y 3 herramientas, sin analizar combinaciones entre ellas
Recomendaciones de implementación
La CDA-AMC propuso un uso limitado y estratégico:
Lens.org: útil para revisiones con preguntas acotadas y técnicas (como dispositivos con una función o población bien definida) o para identificar rápidamente autores vinculados a un tema o indicación clínica cuando los métodos estándar no alcanzan.
SpiderCite: complemento para búsquedas de citas en proyectos complejos, siempre que se disponga de artículos semilla.
Copilot (u otros LLMs): apoyo en la generación de palabras clave y términos de búsqueda, pero no para estrategias completas
Conclusión
Las tres herramientas evaluadas (Lens.org, SpiderCite, Copilot) no son adecuadas para reemplazar estrategias de búsqueda complejas en revisiones sistemáticas, debido a variabilidad en sensibilidad y precisión. Sin embargo, tienen potencial como apoyos puntuales en tareas específicas: generación de términos, búsquedas simples o de citas, y exploración preliminar. El estudio subraya la necesidad de mantener el papel central del bibliotecario/experto en información en la validación de cualquier resultado generado con IA, y de continuar monitorizando nuevas herramientas dada la rápida evolución tecnológica.
Reflexiones para quienes trabajamos en bibliotecas médicas
Las herramientas de IA pueden ahorrar tiempo en fases preliminares, generar ideas de términos de búsqueda, identificar autores, pero no deben utilizarse como única estrategia para revisiones sistemáticas si se espera exhaustividad.
Es clave entender los límites: sensibilidad menor, posible sesgo en lo que captura IA, variabilidad según prompt o según lo cerrado o amplio que sea el tema.
Siempre debe haber validación humana experta, verificación de resultados únicos que aparezcan en IA, comparación con lo recuperado por métodos tradicionales.
La base de toda revisión sistemática y otros estudios de síntesis sólidos es una búsqueda de evidencia cuidadosamente diseñada y rigurosamente ejecutada (1). En la búsqueda bibliográfica cómo se busca, dónde se busca y quién diseña la estrategia son factores que pueden marcar una diferencia crítica en la calidad de la evidencia recopilada.
En el proceso de búsqueda pueden surgir dos tipos principales de sesgos:
Sesgo de identificación: aparece cuando no se localizan estudios relevantes, a menudo porque la estrategia de búsqueda no es suficientemente sensible o porque no se han explorado todas las fuentes pertinentes. Este tipo de sesgo es especialmente problemático en revisiones sistemáticas que sirven de base para tomar decisiones clínicas, ya que puede comprometer la validez de los resultados.
Sesgo de diseminación (o de publicación): se produce cuando los resultados de un estudio influyen en su probabilidad de ser publicados. Por ejemplo, los estudios con resultados positivos tienen más probabilidades de publicarse, de hacerlo en inglés, con mayor rapidez o de recibir más citas. Este fenómeno puede distorsionar la percepción de la eficacia de una intervención.
¿Cómo reducir estos sesgos?
Diseñar una estrategia de búsqueda rigurosa, con la colaboración de un especialista en información. Idealmente, esta estrategia debe ser revisada por pares antes de ser ejecutada (1,4-6). La participación de bibliotecarios especializados en ciencias de la salud en revisiones sistemáticas no es un añadido opcional, sino una práctica recomendada por las principales guías metodológicas (7-9) y respaldada por la evidencia científica (10-11).
Utilizar múltiples bases de datos bibliográficas. Se recomienda un mínimo de dos para revisiones sistemáticas, pero también se debe justificar su elección. Según el Cochrane Handbook, el objetivo de las búsquedas es identificar todos los estudios relevantes disponibles, lo que requiere desarrollar estrategias lo más sensibles posibles, sin perder de vista la pertinencia de los resultados (7). Debemos hacer balance entre la precisión y exhaustividad pero teniendo en cuenta que el objetivo de una búsqueda para una RS es identificar todos los estudios pertinentes (maximizar la sensibilidad pero con una precisión razonable). Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda. En este equilibrio entre amplitud y relevancia, la experiencia del bibliotecario resulta fundamental.
Ampliar la búsqueda más allá de las bases de datos. La inclusión de fuentes como motores de búsqueda, registros de ensayos clínicos, literatura gris, búsqueda complementaria de citas (forward y backward) y el contacto con expertos puede ser clave para identificar estudios que de otro modo pasarían desapercibidos.
Incluir estudios no publicados. Dado que una parte significativa de los estudios completados no se publican (12), buscarlos activamente en registros, literatura gris o sitios web especializados contribuye a mitigar el sesgo de publicación (13).
Tipo de sesgo
Descripción
Estrategias para minimizarlo
Sesgo de identificación
No se recuperan todos los estudios relevantes.
Diseñar una estrategia exhaustiva con ayuda de un bibliotecario experto Usar ≥2 bases de datos Evitar el uso uso de filtros/límites Ampliar con búsquedas complementarias
Sesgo de publicación o diseminación
Solo se publican ciertos tipos de resultados, como los positivos.
Buscar literatura gris Consultar registros de ensayos clínicos Contactar expertos Incluir estudios no publicados
Un dato revelador
Greenhalgh y Peacock (14) encontraron que solo el 25% de los artículos incluidos en su revisión fueron recuperados a través de bases de datos electrónicas. El resto provino de rastrear citas, conocimiento personal, contactos o búsqueda manual.
BIBLIOGRAFÍA
Metzendorf MI, Featherstone RM. Ensuring quality as the basis of evidence synthesis: leveraging information specialists’ knowledge, skills, and expertise. Cochrane Database of Systematic Reviews 2018, Issue 9. Art. No.: ED000125. doi: 10.1002/14651858.ED000125.
McGowan J, Sampson M. Systematic reviews need systematic searchers. JMLA 2005;93(1):74–80.
Rethlefsen ML, Farrell AM, Osterhaus Trzasko LC, Brigham TJ. Librarian co‐authors correlated with higher quality reported search strategies in general internal medicine systematic reviews. Journal of Clinical Epidemiology2015;68(6):617–26. doi: 10.1016/j.jclinepi.2014.11.025
McGowan J. Sampson M, Salzwedel DM, Cogo E, Foerster V, Lefebvre C. PRESS peer review of electronic search strategies: 2015 guideline statement. J Clin Epidemiol. 2016.75:40–46. doi: 10.1016/j.jclinepi.2016.01.021
Lefebvre C, Manheimer E, Glanville J. Chapter 6: Searching for studies. In: Higgins JPT, Green S. (Editors). Cochrane handbook for systematic reviews of interventions version 5.1.0. Updated March 2011. Accessed July 27, 2022. https://handbook-5-1.cochrane.org/chapter_6/6_searching_for_studies.htm
Aromataris E, Munn Z. Chapter 1: JBI systematic reviews. In: Aromataris E, Munn Z (Editors).In: JBI Manual for Evidence Synthesis. JBI; 2020. Accessed July 27, 2022. https://jbi-global-wiki.refined.site/space/MANUAL
Kugley S, Wade A, Thomas J, et al. Searching for studies: a guide to information retrieval for Campbell Systematic Reviews. Oslo: The Campbell Collaboration; 2017. Accessed July 27, 2022. doi: 10.4073/cmg.2016.1
Rethlefsen ML, Murad MH, Livingston EH. Engaging medical librarians to improve the quality of review articles. JAMA. 2014;312(10):999-1000. doi:10.1001/jama.2014.9263
Kirtley S. Increasing value and reducing waste in biomedical research: librarians are listening and are part of the answer. Lancet. 2016;387(10028):1601. doi:10.1016/S0140-6736(16)30241-0
Hong QN, Brunton G. Helping Trainees Understand the Strategies to Minimize Errors and Biases in Systematic Review Approaches. Educ Information. 2025;41(3):161–175; doi: 10.1177/01678329251323445.
Greenhalgh, T., & Peacock, R. (2005). Effectiveness and efficiency of search methods in systematic reviews of complex evidence: Audit of primary sources. BMJ. 2005:331(7524), 1064–1065. doi: 10.1136/bmj.38636.593461.68
El pasado 10 de junio participé, como cada año, en el curso de acogida y bienvenida a los nuevos residentes del Hospital Universitario de Getafe. Esta intervención, centrada tradicionalmente en los fundamentos de la búsqueda bibliográfica y los recursos de la biblioteca, ha ido evolucionando en los últimos años para dar cabida a los profundos cambios que la inteligencia artificial (IA) está generando en los procesos de búsqueda de información científica.
Les presenté el funcionamiento de la Biblioteca Virtual, un recurso esencial para el acceso a la información científica de calidad. Les mostré cómo registrarse correctamente en el portal para poder acceder, desde cualquier dispositivo y ubicación, a una amplia colección de bases de datos especializadas, revistas científicas, libros electrónicos y otros recursos suscritos por la red sanitaria pública. Hicimos especial hincapié en la importancia de utilizar estas fuentes institucionales frente a buscadores generalistas, y en cómo aprovechar al máximo los servicios disponibles para apoyar tanto la práctica clínica como sus actividades formativas e investigadoras.
En la edición de 2024, la IA ocupó aproximadamente un tercio del contenido. Este año, sin embargo, ha constituido ya la mitad de mi presentación, reflejo de su creciente relevancia tanto en la práctica clínica como en el proceso de aprendizaje e investigación de nuestros profesionales en formación.
Los propios residentes reconocieron utilizar con frecuencia herramientas de IA generativa —principalmente modelos como ChatGPT— para resolver dudas clínicas, localizar información rápida o redactar textos. Esta admisión evidencia una realidad incuestionable: la IA ya forma parte del entorno de trabajo cotidiano del personal sanitario. Sin embargo, también pone de manifiesto una necesidad urgente: formar a los nuevos profesionales en el uso crítico, seguro y eficaz de estas herramientas.
Durante la sesión, abordamos conceptos esenciales para entender la búsqueda de información basada en evidencia, desde el triángulo de la búsqueda eficiente hasta la jerarquía de las fuentes. En este contexto, presenté el papel complementario —que no sustitutivo— de la inteligencia artificial en la búsqueda bibliográfica. Se mostraron ejemplos concretos de herramientas de IA aplicadas a distintas fases del proceso: desde asistentes conversacionales como ChatGPT o Claude, hasta motores de síntesis como Elicit, y plataformas de análisis de citaciones como Scite.
Subrayé especialmente los riesgos de desinformación y sesgos si se emplean estas herramientas sin una evaluación humana crítica, y proporcioné orientaciones prácticas sobre cómo formular prompts efectivos.
Nuestro compromiso desde la biblioteca es acompañar esta transición, ofreciendo recursos de calidad, formación continua y apoyo experto. Porque saber buscar sigue siendo —más que nunca— una competencia esencial para el ejercicio profesional informado, riguroso y basado en la mejor evidencia disponible.
El pasado martes tuve el placer de impartir el curso “Fundamentos metodológicos de revisiones sistemáticas”, organizado por BiblioSalud, la red de bibliotecarios y profesionales de la información en ciencias de la salud de España. Esta sesión formativa, dirigida especialmente a bibliotecarios médicos, se centró en los aspectos clave que debemos conocer para comprender y acompañar con rigor el desarrollo de una revisión sistemática.
En esta entrada del blog quiero comenzar a compartir una selección de las herramientas y recomendaciones prácticas que utilizo habitualmente en mi trabajo diario con documentos de síntesis de evidencia.
El objetivo es ofrecer una guía no exhaustiva, hay muchas y variadas (ver figura) pero con recomendaciones y herramientas útiles y basada en mi experiencia, que sirva tanto a quienes empiezan como a quienes ya participan en revisiones sistemáticas desde las bibliotecas.
Voy a dividir las herramientas en varios apartados según su uso:
Recolección de términos controlados y libres.
Proceso de búsqueda y cribado.
Chatbots e inteligencia artificial para apoyar la confección de estrategias booleanas.
Herramientas para la búsqueda complementaria.
Otras herramientas recomendadas para las revisiones sistemáticas.
En esta entrada veremos las primeras de estas herramientas y recomendaciones para la recolección de términos.
Recolección de términos
Uno de los pasos más críticos en cualquier revisión sistemática es la correcta identificación de términos controlados y palabras clave. Una estrategia de búsqueda bien construida comienza con una recolección exhaustiva de términos y para ello contamos con una serie de recursos imprescindibles:
1.1. Entry Terms de MeSH Database.
La herramienta clásica para explorar la jerarquía de los Medical Subject Headings (MeSH). Nos permite ver la definición de cada término, sus sinónimos, su posición dentro del árbol jerárquico, subencabezamientos permitidos y términos relacionados o «Entry Terms». Fundamental para identificar los términos controlados exactos que se deben utilizar en PubMed y para entender el enfoque conceptual con el que el sistema indexa los documentos.
1.2. Sinónimos de Emtree de EMBASE
El Emtree es el tesauro específico de la base de datos Embase. Su lógica es similar al MeSH pero tiene su propia estructura y contiene más términos, especialmente útiles para temas en farmacología o dispositivos médicos. Conviene hacer búsquedas paralelas en MeSH y Emtree para comparar coberturas y encontrar sinónimos o variantes terminológicas que pueden enriquecer la estrategia.
Esta herramienta permite comparar los términos MeSH asignados, los términos empleados en el título y resumen así como las palabras clave de los autores a un conjunto de artículos. Es especialmente útil para detectar patrones o términos recurrentes en la literatura más relevante sobre tu tema. Solo necesitas extraer los PMIDs de los artículos clave y el analizador los agrupa mostrando visualmente los MeSH comunes. Ideal para verificar si estás pasando por alto términos relevantes o para ajustar tu estrategia inicial.
Esta herramienta permite analizar la frecuencia de palabras en títulos y resúmenes de los resultados de una búsqueda bibliográfica. Solo necesitas copiar y pegar el listado de referencias (por ejemplo, desde PubMed) y Word Freq generará un listado de términos ordenados por frecuencia. Es especialmente útil para:
Identificar términos clave y sinónimos que puedes haber pasado por alto.
Detectar conceptos emergentes o patrones de lenguaje en la literatura.
Afinar tu estrategia de búsqueda ajustando los términos libres.
Una herramienta sencilla pero muy eficaz para enriquecer la fase exploratoria de cualquier revisión sistemática.
Es una potente herramienta para realizar minería de datos sobre resultados de PubMed. Introduciendo una lista de PMIDs o haciendo una búsqueda directa, puedes ver las frecuencias de palabras en títulos, resúmenes y términos MeSH. También puedes analizar la aparición de autores, revistas, años de publicación… Es perfecta para afinar términos libres y obtener una imagen más clara del contexto bibliográfico.
Desarrollado por la National Library of Medicine, este recurso es especialmente útil cuando partimos de un texto breve (como el resumen de un protocolo o el título de un artículo). Solo tienes que copiar el contenido y MeSH on Demand te devuelve sugerencias de términos MeSH relevantes. Es una excelente forma de inspirarte cuando aún estás perfilando la estrategia inicial.
1.7. Asistente de inteligencia artificial MeshMaster
MeSHMaster es un chatbot especializado que utiliza inteligencia artificial para ayudarte a construir estrategias de búsqueda booleanas, combinando términos MeSH y palabras clave libres. A partir de una descripción breve del tema o una pregunta clínica, el asistente sugiere:
Términos MeSH relevantes y sinónimos.
Combinaciones booleanas iniciales (AND, OR, NOT).
Variantes terminológicas en inglés que pueden enriquecer la sensibilidad de la búsqueda.
Es una herramienta especialmente útil en las primeras fases de diseño de la estrategia, cuando se busca inspiración o una validación rápida de conceptos clave. Aporta rapidez sin perder la lógica estructural que requiere una buena estrategia de búsqueda.
Te invito a seguir mis próximas entradas para descubrir cómo integrar estas herramientas en tu revisión sistemática.
Características de las búsquedas para revisiones sistemáticas
Las revisiones sistemáticas requieren estrategias de búsqueda rigurosas (que identifiquen todos los registros relevantes, pero no tan amplia como para que haya demasiados artículos irrelevantes), transparentes y reproducibles (documentando los pasos que se dieron durante la búsqueda) de tal forma que permita que los futuros equipos de investigación se basen en el trabajo de la revisión sistemática (RS), así como también lo evalúen, valoren y critiquen.
Las revisiones sistemáticas requieren una búsqueda sistemática. Dada la complejidad de los lenguajes y reglas de indexación de las diversas bases de datos, la mejor manera para que el equipo de investigación asegure el rigor de la búsqueda es incluir un bibliotecario en el equipo de revisión.
Retos en la búsqueda de evidencia
El primer elemento de una revisión sistemática es la propia pregunta. La pregunta determinará el desarrollo de la estrategia de búsqueda y qué tipo de estudios se encontrarán. Si la pregunta no es lo suficientemente clara en este punto, es posible que no se detecten artículos que puedan ser de interés o que se encuentren muchos artículos que no son lo que se quiere.
Traslado de la pregunta de investigación a la estrategia de búsqueda. La pregunta es el punto de partida para estructurar una estrategia de búsqueda, es la de identificar los principales conceptos de la pregunta clínica (generalmente en un formato PICO para revisiones de intervención y PEO para revisiones de factores de riesgo). Los errores más comunes para traducir una pregunta de investigación en un plan de búsqueda incluyen perder un concepto importante y agregar demasiados conceptos. (ver entrada «¿Debo incluir los Resultados (Outcomes) en la estrategia de búsqueda de una revisión sistemática?«).
Aplicar límites. de forma segura para evitar sesgos y disminución de la sensibilidad. Los límites más empleados son los límites temporal, de idiomas o de acceso al texto completo gratuito pero estos solo se deben incluir en la estrategia si está justificado metodológicamente. La mejor manera de aplicar límites es hacerlo de tal manera que la búsqueda incluya registros indexados por un límite deseado sin faltar registros que cumplan con esa misma descripción pero que no se indexan de esa manera. Esto se puede lograr mediante el uso cuidadoso del operador booleano NOT (por ejemplo, para eliminar estudios animales y quedarnos solo con estudios en humanos). Ver entrada «¿Cómo limitamos el resultado de una búsqueda bibliográfica a solo humanos?: Recomendación para búsqueda en revisiones sistemáticas«. También debemos tener presente la utilización de los llamados filtros de búsqueda (ver entrada: «Qué son los filtros de búsqueda y principales herramientas para su localización«).
Errores comunes en las estrategias de búsqueda en revisiones sistemáticas
Errores en la selección de las fuentes de búsqueda
La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas. Se desconoce el número óptimo de bases de datos que hay que consultar, sin embargo, buscar en una sola base de datos no es suficiente, aunque no existe evidencia de la cantidad de bases de datos en las que se debe buscar. Una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Al elegir incluir solamente una base de datos, el revisor está introduciendo un sesgo de selección en esta etapa temprana del proceso de revisión. La búsqueda solo de PubMed y Embase recupera el 71.5% de las publicaciones incluidas, mientras que agregar bases de datos adicionales a las estrategias de búsqueda aumenta la recuperación al 94.2% (el 5.8% de las referencias no se recuperan en ninguna base de datos) (Frandsen TF, Moos C, Linnemann Herrera Marino CI, Brandt Eriksen M, Supplementary databases increased literature search coverage beyond PubMed and Embase, Journal of Clinical Epidemiology (2025), doi: https://doi.org/10.1016/j.jclinepi.2025.111704.). Ver entrada «En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.»En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas» y «Cobertura y solapamiento de las bases de datos utilizadas en las revisiones sistemáticas de ciencias de la salud«).
La búsqueda ha de realizarse en bases de datos automatizadas, pero también ha de incluirse búsquedas que complementen esta, como es la búsqueda de literatura gris. Si uno realmente quiere localizar toda la evidencia que hay no puede detenerse en la búsqueda de las principales bases de datos.
Insuficiente amplitud o sensibilidad de la búsqueda
La estrategia de búsqueda ha de ser una combinación de términos del lenguaje natural (campo de título y abstract) y el vocabulario controlado de las bases de datos consultadas (Leblanc V, Hamroun A, Bentegeac R, Le Guellec B, Lenain R, Chazard E. Added Value of Medical Subject Headings Terms in Search Strategies of Systematic Reviews: Comparative Study. J Med Internet Res. 2024 Nov 19;26:e53781. doi: 10.2196/53781.).
Debemos hacer balance entre la precisión y exhaustividad pero teniendo en cuenta que el objetivo de una búsqueda para una RS es identificar todos los estudios pertinentes (maximizar la sensibilidad pero con una precisión razonable). Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda. Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda.
Representación visual de precisión y sensibilidad al realizar una búsqueda de literatura de una revisión sistemática. Modificada y traducida de: Kumar V, Barik S, Raj V, Varikasuvu SR. Precision and Sensitivity: A Surrogate for Quality of Literature Search in Systematic Reviews. Clin Spine Surg. 2025;38(1):34-6.
Salvador-Oliván y cols., encontraron que, de las estrategias de búsqueda, el 92,7% contenían algún tipo de error. Para facilitar su presentación, los errores se agruparon en 2 categorías: los que afectan al recuerdo y los que no, siendo más frecuentes los primeros (78,1%) que los segundos (59,9%). La tabla siguiente presenta la frecuencia de los distintos tipos de errores.
Errores más comunes en las búsquedas en revisiones sistemáticas. Fuente: Salvador-Oliván JA, Marco-Cuenca G, Arquero-Avilés R. Errors in search strategies used in systematic reviews and their effects on information retrieval. J Med Libr Assoc. 2019 Apr;107(2):210-221. doi: 10.5195/jmla.2019.567.
Más recientemente, Rethlefsen y cols. encontraron que el 56.0% (163/291) de todas las búsquedas de bases de datos contenía al menos un error (Rethlefsen ML, Brigham TJ, Price C, Moher D, Bouter LM, Kirkham JJ, Schroter S, Zeegers MP. Systematic review search strategies are poorly reported and not reproducible: a cross-sectional metaresearch study. J Clin Epidemiol. 2024 Feb;166:111229. doi: 10.1016/j.jclinepi.2023.111229.).
Son relativamente fácil de tener errores con palabras mal escritas (3,8%) y errores en la sintaxis del sistema que no se encuentran fácilmente mediante la revisión ortográfica.
Es frecuente cometer errores en la aplicación de operadores booleanos (por ejemplo, OR puede haber sido sustituido involuntariamente por AND (o viceversa), o AND puede haberse utilizado para vincular frases o palabras (por ejemplo, como una conjunción) en lugar de como un operador booleano) y, más a menudo, olvidar usarlos son comunes. La mayoría de las bases de datos asumirán un AND cuando falte un operador, lo que reducirá en gran medida la sensibilidad y la precisión de su búsqueda. Por otro lado, algunas plataformas de búsqueda ignora los operadores booleanos cuando se escriben en minúscula aplicando el operador AND automáticamente al ser el operador por defecto. Esto ocurre en PubMed por lo que es recomendable escribir los operadores booleanos siempre en mayúscula.
Otro error común es la falta de precisión en la combinación con los operadores booleanos de los números de línea correcta. Por eso es muy recomendable verificar cada número de línea y combinaciones de números de línea para asegurarse de que la lógica de búsqueda se implementó correctamente.
Para intentar paliar estos errores de ejecución, es recomendable revisar la búsqueda y asegurarse de que el uso del anidamiento entre paréntesis sea lógico y se haya aplicado correctamente. También hay que tener en cuenta si el uso de un operador de proximidad o adyacencia en lugar de AND podría aumentar la precisión. Si se utilizan operadores de proximidad, considere si la amplitud elegida es demasiado reducida para capturar todos los casos esperados de los términos de búsqueda, que pueden variar dependiendo de si la base de datos en la que se busca reconoce o no palabras vacías. Considere si la amplitud es demasiado extensa. Y si se incluyen límites (por ejemplo, humanos o población de ancianos), debemos asegurarnos de que se haya utilizado la construcción adecuada.
De las diferentes formas de construcción de la estrategia de búsqueda, recomiendo la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs) para intentar minimizar los errores antes descritos. De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión. (ver entrada «Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios»).
Los términos de texto libre se utilizan normalmente para cubrir los encabezamientos de materia que faltan en la base de datos, recuperar registros no indizados o mal indizados. Debemos considerar los elementos del uso del texto libre, como demasiado restringido o demasiado amplio, la relevancia de los términos y si se han incluido sinónimos o antónimos.
Con respecto al uso de descriptores o encabezamientos de materia, hemos de comprobar si faltan encabezamientos o si son incorrectos los que utilizamos en nuestra estrategia, analizar la relevancia/irrelevancia de los términos y el uso correcto de la búsqueda ampliada para incluir términos relevantes más específicos.
Debemos considerar que el uso de subencabezamientos flotantes que en la mayoría de los casos son preferibles al uso de subencabezamientos ligados a encabezados de materias específicas.
Adaptación entre bases de datos y plataformas
Una vez hemos realizado la búsqueda en una base de datos debemos trasladar la estrategia a la siguiente base de datos. Esto significa que el vocabulario controlado, los términos del lenguaje natural y todas las demás etiquetas y operadores de campo utilizados deben ser lo más similar posible.
Deficiencias en la documentación de las estrategias de búsqueda de evidencia
Las búsquedas de revisión sistemática deben ser reproducibles, pero la mayoría no lo son. Rethlefsen y cols. encontraron que solo el 1% de las revisiones sistemáticas eran completamente reproducibles para todas las búsquedas de bases de datos. Además, las búsquedas de revisión sistemática siguen informándose mal. La gran mayoría de las revisiones sistemáticas (91%) ni siquiera proporciona suficientes detalles para identificar las bases de datos/plataformas utilizadas para todas las búsquedas de bases de datos (Rethlefsen ML, Brigham TJ, Price C, Moher D, Bouter LM, Kirkham JJ, Schroter S, Zeegers MP. Systematic review search strategies are poorly reported and not reproducible: a cross-sectional metaresearch study. J Clin Epidemiol. 2024 Feb;166:111229. doi: 10.1016/j.jclinepi.2023.111229.).
Recomendaciones para mejorar las estrategias de búsqueda en revisiones sistemáticas
Para intentar minimizar los errores en la búsqueda en revisiones sistemáticas, es recomendable que un segundo bibliotecario haga la revisión por pares de la búsqueda utilizando la herramienta PRESS (Peer Review of Electronic Search Strategies (McGowan J, Sampson M, Salzwedel DM, Cogo E, Foerster V, Lefebvre C. PRESS Peer Review of Electronic Search Strategies: 2015 Guideline Statement. J Clin Epidemiol. 2016 Jul;75:40-6. doi: 10.1016/j.jclinepi.2016.01.021. PMID: 27005575.) justo antes de finalizar el protocolo y antes de hacer las búsquedas definitivas de la revisión.
Y por último, para la mejora de las estrategias de búsqueda y su informe transparente es necesario implicar a los bibliotecarios, los equipos de revisión sistemática, los revisores por pares y los editores de revistas.
PubMed utiliza el Automatic Term Mapping (ATM) cuando introducimos términos en el cuadro de búsqueda. Es uno de los algoritmos aplicados a las búsquedas que compara los términos por nosotros escritos con una serie de tablas para encontrar términos relacionados y ampliar la búsqueda. Los términos no etiquetados que se introducen en el cuadro de búsqueda se cotejan (en este orden) con una tabla de traducción de Materias (incluido el MeSH o Medical Subject Headings), una tabla de traducción de Revistas, el índice de Autores y un índice de Investigadores (Colaboradores):
Si analizamos detenidamente la tabla de materias, veríamos que está formada por:
Términos MeSH
Entry Terms (See-Reference mappings) para los términos MeSH
MeSH Subheadings
Tipos de publicación
Pharmacological Actions
Supplementary Concepts (sustancias) y sus sinónimos
Tipo de publicación
Formas de palabras singulares y plurales
Ortografía británica y estadounidense
Marca comercial del medicamento la traduce al nombre genérico
Términos derivados del Unified Medical Language System (UMLS) que tienen sinónimos equivalentes o variantes léxicas en inglés
La asignación automática de términos significa que los términos de búsqueda que se introducen en la ventana de búsqueda se asignan automáticamente a términos MeSH. Sin embargo, cuando no se encuentra coincidencia dentro de la tabla de materias, el algoritmo continúa con la siguiente tabla de traducción y así sucesivamente. Si no se encuentra ninguna coincidencia, PubMed descompone la frase y repite el proceso de asignación automática de términos anterior hasta encontrar una coincidencia. Si no hay coincidencia, los términos individuales se combinarán con el operador «AND» y se buscarán así en todos los campos.
Cuando una búsqueda incluye términos que fueron etiquetados con un campo de búsqueda durante el proceso de asignación automática de términos y recupera cero resultados, el sistema activa una búsqueda posterior utilizando «Schema: all .» que modifica la búsqueda eliminando las etiquetas de campo de búsqueda añadidas automáticamente y, a continuación, busca cada término en todos los campos.
Podemos saber como ha aplicado el ATM a nuestra búsqueda entrando en el enlace «Advanced» situado debajo de la ventana de búsqueda. En la nueva página bajamos hasta ver «History and Search Details».
Veamos en el siguiente vídeo dos ejemplos:
Sin embargo, existen cuatro formas en los que se desactiva el algoritmo de búsqueda ATM. Son los siguientes:
Esta semana se está celebrando en el Hospital de Getafe la tercera edición del curso para residentes «Principios básicos en investigación clínica«. Dentro de este, el pasado martes he impartido una clase de búsqueda de información en medicina.
He comenzado con la representación del triángulo de búsqueda eficiente y efectiva cuyos vértices están formados por los objetivos («Why am I searching?»), la heurística («How am I searching?») y los sistemas («What am I searching with?»).
Triángulo de búsqueda eficiente y efectiva de la información
Objetivos («Why am I searching?»)
Cuáles son nuestros objetivos de la búsqueda, es decir, qué quiero saber o encontrar, determina cómo he de buscar. Podemos encontrarnos dentro de tres escenarios posibles:
Búsqueda clínica: identificación rápida y eficiente para una toma de decisiones.
Búsqueda exploratoria o búsqueda general de descubrimiento, aprendizaje, mantenerse actualizado, … aprender/aclarar uno o varios conceptos o conjuntos de investigaciones, incluidas sus características.
Búsqueda sistemática: identificar todos los estudios disponibles sobre un tema.
Tipos de búsqueda de información en medicina según la necesidad.
Heurística («How am I searching?»)
¿Qué heurísticas (forma de hacer la búsqueda) funcionan mejor para el tipo de búsqueda en cuestión y están disponibles en los sistemas elegidos?:
Búsqueda simple mediante el algoritmo de la fuente (PubMed, UpToDate, Google Académico, …): en búsquedas para toma de decisiones clínicas.
Snowballing (citation chasing): en búsquedas exploratorias y tb en sistemáticas.
Búsqueda booleana en bloques: en búsquedas sistemáticas.
Tipología de búsquedas.
Sistemas («What am I searching with?»)
¿Qué sistema/s de búsqueda funcionan mejor para un tipo de búsqueda determinado y son compatibles con la heurística elegida?. Tenemos que entender que no hay 2 sistemas de búsquedas iguales y cada sistema es más o menos adecuado para un tipo de búsqueda (clínica/exploratoria/sistemática) en términos de cobertura y heurística que permite/soporta.
Dependiendo de nuestros objetivos y heurística, debemos elegir el sistema que nos va a proporcionar la información de manera eficiente y efectiva. Eso implica que no siempre el sistema más sencillo es el más apropiado para nuestro tipo de búsqueda.
Búsqueda con herramientas sencillas no es la panacea.
Una vez aclarados los conceptos anteriores, debemos tener en cuenta y seguir una serie de pasos de la búsqueda:
Pasos que debemos tener en cuenta a la hora de buscar información en bases de datos.
Por último, repasamos algunas herramientas de IA interesantes para los residentes. Vimos vídeos con ejemplos de las siguientes 7 herramientas, pero podrían haber sido muchas más:
Herramientas de inteligencia artificial útiles.
Y terminé dando un último consejo: «practicar con las herramientas de búsqueda en su día a día es la mejor garantía de mejorar sus búsquedas de información«.
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
Los filtros de búsqueda son estrategias de búsqueda diseñadas para recuperar tipos específicos de registros, como los de un diseño metodológico concreto.
Aquí os dejo varios filtros que he localizado que nos ayudarán a buscar no solo por revisiones sistemáticas, si no también por las diferentes tipologías dentro de la gran familia de revisiones (1).
Filtro para PubMed actualizado el 26 de septiembre de 2023 (2):
(«Systematic Review»[Publication Type:NoExp] OR «Systematic Reviews as Topic»[mesh:noexp] OR ((«comprehensive»[TIAB] OR «integrated»[TIAB] OR «integrative»[TIAB] OR «mapping»[TIAB] OR «methodology»[TIAB] OR «narrative»[TIAB] OR «scoping»[TIAB] OR «systematic»[TIAB]) AND («search»[TIAB] OR «searched»[TIAB] OR «searches»[TIAB] OR «studies»[TIAB]) AND («cinahl»[TIAB] OR «cochrane»[TIAB] OR «embase»[TIAB] OR «psycinfo»[TIAB] OR «pubmed»[TIAB] OR «medline»[TIAB] OR «scopus»[TIAB] OR «web science»[TIAB] OR «bibliographic review»[TIAB:~1] OR «bibliographic reviews»[TIAB:~1] OR «literature review»[TIAB:~1] OR «literature reviews»[TIAB:~1] OR «literature search»[TIAB:~1] OR «literature searches»[TIAB:~1] OR «narrative review»[TIAB:~1] OR «narrative reviews»[TIAB:~1] OR «qualitative review»[TIAB:~1] OR «qualitative reviews»[TIAB:~1] OR «quantitative review»[TIAB] OR «quantitative reviews»[TIAB])) OR «comprehensive review»[TIAB] OR «comprehensive reviews»[TIAB] OR «comprehensive search»[TIAB] OR «comprehensive searches»[TIAB] OR «critical review»[TIAB] OR «critical reviews» [TIAB] OR ((«electronic database»[TIAB:~1] OR «electronic databases»[TIAB:~1] OR «databases searched»[TIAB:~3]) AND (eligibility[tiab] OR excluded[tiab] OR exclusion[tiab] OR included[tiab] OR inclusion[tiab])) OR «evidence assessment»[TIAB] OR «evidence review»[TIAB] OR «exploratory review»[TIAB] OR «framework synthesis»[TIAB] OR «Integrated review»[TIAB] OR «integrated reviews»[TIAB] OR «integrative review»[TIAB:~1] OR «integrative reviews»[TIAB:~1] OR «mapping review»[TIAB:~1] OR «meta-review»[TIAB:~1] OR «meta-synthesis»[TIAB:~1] OR «methodology review»[TIAB:~1] OR («mixed methods»[TIAB:~0] AND «methods review»[TIAB:~1]) OR («mixed methods»[TIAB:~0] AND «methods synthesis»[TIAB:~1]) OR «overview reviews»[TIAB:~4] OR («PRISMA»[TIAB] AND «preferred»[TIAB]) OR «PRISMA-P»[TIAB:~0] OR «prognostic review»[TIAB:~1] OR «psychometric review»[TIAB:~1] OR («rapid evidence»[TIAB:~0] AND «evidence assessment»[TIAB:~0]) OR «rapid realist»[TIAB:~0] OR «rapid review»[TIAB:~1] OR «rapid reviews»[TIAB:~1] OR «realist review»[TIAB:~1] OR «review of reviews»[TIAB:~1] OR «scoping review»[TIAB:~1] OR «scoping reviews»[TIAB:~1] OR «scoping study»[TIAB:~1] OR («state art «[TIAB:~2] AND «art review»[TIAB:~1]) OR «systematic evidence map»[TIAB] OR «systematic mapping»[TIAB:~1] OR «systematic literature»[TIAB:~1] OR «systematic Medline»[TIAB:~2] OR «systematic PubMed»[TIAB:~2] OR «systematic review»[TIAB:~1] OR «systematic reviews»[TIAB:~1] OR «systematic search»[TIAB:~1] OR «systematic searches»[TIAB:~1] OR «systematical review»[TIAB:~1] OR «systematical reviews»[TIAB:~1] OR «systematically identified»[TIAB:~1] OR «systematically review»[TIAB:~1] OR «systematically reviewed»[TIAB:~1] OR «umbrella review»[TIAB:~1] OR «umbrella reviews»[TIAB:~1] OR «Cochrane Database Syst Rev»[ta] OR «evid rep technol assess full rep»[Journal] OR «evid rep technol assess summ»[Journal])
Filtro para MEDLINE (OVID) actualizado a 22 de septiembre de 2023 (3):
«systematic review».pt. or «Systematic Reviews as Topic»/ or «Cochrane Database of Systematic Reviews».jn. or (evidence report technology assessment or evidence report technology assessment summary).jn. or (((comprehensive* or integrative or mapping or rapid or realist or scoping or systematic or systematical or systematically or systematicaly or systematicly or umbrella) adj3 (bibliographical or bibliographically or bibliographics or literature or review or reviews)) or (state adj3 art adj1 review) or (research adj2 synthesis) or ((data or information) adj3 synthesis)).ti,ab,kf. or ((data adj2 (extract or extracting or extractings or extraction or extraction)).ti,ab,kf. and («review».ti. or «review».pt.)) or (((electronic or searched) adj2 database*) and (eligibility or excluded or exclusion or included or inclusion)).ti,ab,kf. or (overview adj4 reviews).ti,ab,kf. or ((review adj3 (rationale or evidence)).ti,ab. and «review».pt.) or (PRISMA or (preferred adj1 reporting)).ab. or (cinahl or (cochrane adj3 (trial or trials)) or embase or medline or psyclit or (psycinfo not (psycinfo adj1 database)) or pubmed or scopus or (sociological adj1 abstracts) or (web adj2 science)).ab.
Filtro para EMBASE (Elsevier) actualizado a 21 de septiembre de 2023 (4):
‘systematic review’/de OR ‘systematic review (topic)’/de OR ((‘comprehensive’:ti,ab,kw OR ‘integrated’:ti,ab,kw OR ‘integrative’:ti,ab,kw OR ‘mapping’:ti,ab,kw OR ‘methodology’:ti,ab,kw OR ‘narrative’:ti,ab,kw OR ‘scoping’:ti,ab,kw OR ‘systematic’:ti,ab,kw) AND (‘search’:ti,ab,kw OR ‘searched’:ti,ab,kw OR ‘searches’:ti,ab,kw OR ‘studies’:ti,ab,kw) AND (‘cinahl’:ti,ab,kw OR ‘cochrane’:ti,ab,kw OR ‘embase’:ti,ab,kw OR ‘psycinfo’:ti,ab,kw OR ‘pubmed’:ti,ab,kw OR ‘medline’:ti,ab,kw OR ‘scopus’:ti,ab,kw OR ‘web of science’:ti,ab,kw OR ‘bibliographic review’:ti,ab,kw OR ‘bibliographic reviews’:ti,ab,kw OR ‘literature review’:ti,ab,kw OR ‘literature reviews’:ti,ab,kw OR ‘literature search’:ti,ab,kw OR ‘literature searches’:ti,ab,kw OR ‘narrative review’:ti,ab,kw OR ‘narrative reviews’:ti,ab,kw OR ‘qualitative review’:ti,ab,kw OR ‘qualitative reviews’:ti,ab,kw OR ‘quantitative review’:ti,ab,kw OR ‘quantitative reviews’:ti,ab,kw)) OR ‘comprehensive review’:ti,ab,kw OR ‘comprehensive reviews’:ti,ab,kw OR ‘comprehensive search’:ti,ab,kw OR ‘comprehensive searches’:ti,ab,kw OR ‘critical review’:ti,ab,kw OR ‘critical reviews’:ti,ab,kw OR ((‘electronic database’:ti,ab,kw OR ‘electronic databases’:ti,ab,kw OR databases NEAR/3 searched) AND (eligibility:ti,ab,kw OR excluded:ti,ab,kw OR exclusion:ti,ab,kw OR included:ti,ab,kw OR inclusion:ti,ab,kw)) OR ‘evidence assessment’:ti,ab,kw OR ‘evidence review’:ti,ab,kw OR ‘exploratory review’:ti,ab,kw OR ‘framework synthesis’:ti,ab,kw OR ‘Integrated review’:ti,ab,kw OR ‘integrated reviews’:ti,ab,kw OR ‘integrative review’:ti,ab,kw OR ‘integrative reviews’:ti,ab,kw OR ‘mapping review’:ti,ab,kw OR ‘meta-review’:ti,ab,kw OR ‘meta-synthesis’:ti,ab,kw OR ‘methodology review’:ti,ab,kw OR ‘mixed methods review’:ti,ab,kw OR ‘mixed methods synthesis’:ti,ab,kw OR (overview NEAR/4 reviews) OR ‘PRISMA’:ab OR (‘preferred’:ti,ab,kw and reporting:ti,ab,kw) OR ‘prognostic review’:ti,ab,kw OR ‘psychometric review’:ti,ab,kw OR ‘rapid evidence assessment’:ti,ab,kw OR ‘rapid literature review’:ti,ab,kw OR ‘rapid literature search’:ti,ab,kw OR ‘rapid realist’:ti,ab,kw OR ‘rapid review’:ti,ab,kw OR ‘rapid reviews’:ti,ab,kw OR ‘realist review’:ti,ab,kw OR ‘review of reviews’:ti,ab,kw OR ‘scoping review’:ti,ab,kw OR ‘scoping reviews’:ti,ab,kw OR ‘scoping study’:ti,ab,kw OR ‘state of the art review’:ti,ab,kw OR ‘systematic evidence map’:ti,ab,kw OR ‘systematic evidence mapping’:ti,ab,kw OR ‘systematic literature’:ti,ab,kw OR ‘systematic Medline’:ti,ab,kw OR ‘systematic PubMed’:ti,ab,kw OR ‘systematic review’:ti,ab,kw OR ‘systematic reviews’:ti,ab,kw OR ‘systematic search’:ti,ab,kw OR ‘systematic searches’:ti,ab,kw OR ‘systematical literature review’:ti,ab,kw OR ‘systematical review’:ti,ab,kw OR ‘systematical reviews’:ti,ab,kw OR ‘systematically identified’:ti,ab,kw OR ‘systematically review’:ti,ab,kw OR ‘systematically reviewed’:ti,ab,kw OR ‘umbrella review’:ti,ab,kw OR ‘umbrella reviews’:ti,ab,kw OR ‘13616137’:is OR ‘Cochrane Database of Systematic Reviews’/jt
CINAHL (Ebsco) actualizada a 1 de agosto de 2023 (5): (MH «meta analysis» OR MH «systematic review» OR MH «Technology, Medical/EV» OR PT «systematic review» OR PT «meta analysis» OR (((TI systematic* OR AB systematic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI methodologic* OR AB methodologic*) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*)))) OR (((TI quantitative OR AB quantitative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*) OR (TI synthes* OR AB synthes*))) OR ((TI research OR AB research) N3 ((TI integrati* OR AB integrati*) OR (TI overview* OR AB overview*)))) OR (((TI integrative OR AB integrative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI collaborative OR AB collaborative) N3 ((TI review* OR AB review*) OR (TI overview* OR AB overview*))) OR ((TI pool* OR AB pool*) N3 (TI analy* OR AB analy*))) OR ((TI «data synthes*» OR AB «data synthes*») OR (TI «data extraction*» OR AB «data extraction*») OR (TI «data abstraction*» OR AB «data abstraction*»)) OR ((TI handsearch* OR AB handsearch*) OR (TI «hand search*» OR AB «hand search*»)) OR ((TI «mantel haenszel» OR AB «mantel haenszel») OR (TI peto OR AB peto) OR (TI «der simonian» OR AB «der simonian») OR (TI dersimonian OR AB dersimonian) OR (TI «fixed effect*» OR AB «fixed effect*») OR (TI «latin square*» OR AB «latin square*»)) OR ((TI «met analy*» OR AB «met analy*») OR (TI metanaly* OR AB metanaly*) OR (TI «technology assessment*» OR AB «technology assessment*») OR (TI HTA OR AB HTA) OR (TI HTAs OR AB HTAs) OR (TI «technology overview*» OR AB «technology overview*») OR (TI «technology appraisal*» OR AB «technology appraisal*»)) OR ((TI «meta regression*» OR AB «meta regression*») OR (TI metaregression* OR AB metaregression*)) OR (TI meta-analy* OR TI metaanaly* OR TI «systematic review*» OR TI «biomedical technology assessment*» OR TI «bio-medical technology assessment*» OR AB meta-analy* OR AB metaanaly* OR AB «systematic review*» OR AB «biomedical technology assessment*» OR AB «bio-medical technology assessment*» OR MW meta-analy* OR MW metaanaly* OR MW «systematic review*» OR MW «biomedical technology assessment*» OR MW «bio-medical technology assessment*») OR ((TI medline OR AB medline OR MW medline) OR (TI cochrane OR AB cochrane OR MW cochrane) OR (TI pubmed OR AB pubmed OR MW pubmed) OR (TI medlars OR AB medlars OR MW medlars) OR (TI embase OR AB embase OR MW embase) OR (TI cinahl OR AB cinahl OR MW cinahl)) OR (SO Cochrane OR SO health technology assessment OR SO evidence report) OR ((TI comparative OR AB comparative) N3 ((TI efficacy OR AB efficacy) OR (TI effectiveness OR AB effectiveness))) OR ((TI «outcomes research» OR AB «outcomes research») OR (TI «relative effectiveness» OR AB «relative effectiveness»)) OR (((TI indirect OR AB indirect) OR (TI «indirect treatment» OR AB «indirect treatment») OR (TI mixed-treatment OR AB mixed-treatment) OR (TI bayesian OR AB bayesian)) N3 (TI comparison* OR AB comparison*)) OR ((TI multi* OR AB multi*) N3 (TI treatment OR AB treatment) N3 (TI comparison* OR AB comparison*)) OR ((TI mixed OR AB mixed) N3 (TI treatment OR AB treatment) N3 ((TI meta-analy* OR AB meta-analy*) OR (TI metaanaly* OR AB metaanaly*))) OR (TI «umbrella review*» OR AB «umbrella review*») OR ((TI multi* OR AB multi*) N2 (TI paramet* OR AB paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multiparamet* OR AB multiparamet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis)) OR ((TI multi-paramet* OR AB multi-paramet*) N2 (TI evidence OR AB evidence) N2 (TI synthesis OR AB synthesis))
SCOPUS actualizada a 20 de diciembre de 2021 (6):
TITLE-ABS-KEY((systematic* W/3 (review* OR overview* )) OR (methodologic* W/3 (review* OR overview* ))) OR TITLE-ABS-KEY((quantitative W/3 (review* OR overview* OR synthes* )) OR (research W/3 (integrati* OR overview* ))) OR TITLE-ABS-KEY((integrative W/3 (review* OR overview* )) OR (collaborative W/3 (review* OR overview* )) OR (pool* W/3 analy* )) OR TITLE-ABS-KEY(«data synthes*» OR «data extraction*» OR «data abstraction*» ) OR TITLE-ABS-KEY(handsearch* OR «hand search*» ) OR TITLE-ABS-KEY(«mantel haenszel» OR peto OR «der simonian» OR dersimonian OR «fixed effect*» OR «latin square*» ) OR TITLE-ABS-KEY(«met analy*» OR metanaly* OR «technology assessment*» OR HTA OR HTAs OR «technology overview*» OR «technology appraisal*» ) OR TITLE-ABS-KEY(«meta regression*» OR metaregression* ) OR TITLE-ABS-KEY(meta-analy* OR metaanaly* OR «systematic review*» OR «biomedical technology assessment*» OR «bio-medical technology assessment*» ) OR TITLE-ABS-KEY(medline OR cochrane OR pubmed OR medlars OR embase OR cinahl ) OR SRCTITLE(cochrane OR (health W/2 «technology assessment» ) OR «evidence report» ) OR TITLE-ABS-KEY(comparative W/3 (efficacy OR effectiveness )) OR TITLE-ABS-KEY(«outcomes research» OR «relative effectiveness» ) OR TITLE-ABS-KEY((indirect OR «indirect treatment» OR mixed-treatment OR bayesian ) W/3 comparison* ) OR TITLE-ABS-KEY(multi* W/3 treatment W/3 comparison* ) OR TITLE-ABS-KEY(mixed W/3 treatment W/3 (meta-analy* OR metaanaly* )) OR TITLE-ABS-KEY(«umbrella review*») OR TITLE-ABS-KEY(multi* W/2 paramet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multiparamet* W/2 evidence W/2 synthesis ) OR TITLE-ABS-KEY(multi-paramet* W/2 evidence W/2 synthesis )
BIBLIOGRAFÍA
Sutton A, Clowes M, Preston L, Booth A. Meeting the review family: exploring review types and associated information retrieval requirements. Health Info Libr J. 2019 Sep;36(3):202-222. doi: 10.1111/hir.12276.
Las etiquetas de campo (field tags) buscan en un campo específico en PubMed. Su uso en las búsquedas pueden ahorrarnos bastante tiempo, pero hay que tener en cuenta que las etiquetsa de campo de búsqueda debe ir entre corchetes y que si las usamos se desactiva el mapeo automático de términos (ATM) de PubMed, limitando la búsqueda término especificado.
De las 51 etiquetas de campo que existen, el campo subset es un método de restricción de la recuperación por tema, estado de la cita y categoría de la revista. Para utilizarlo, debemos emplear la etiqueta de campo [sb].
Uno de sus usos es para filtrar por el «estado de citación» («citation status«), que indican la fase de procesamiento interno de un artículo en la base de datos PubMed.
En el siguiente juego te reto a comprobar si sabrías usar el filtro de «estado de citación» para conocer y recuperar el número total de referencias incluidas en PubMed o el número de registros indexados con términos MeSH.
Las búsquedas de literatura son la base de las revisiones sistemáticas y los tipos de revisiones relacionadas. Sin embargo, el componente de búsqueda de literatura de las revisiones sistemáticas y los tipos de revisiones relacionados a menudo se informa de manera deficiente.
En esta nueva entrada, hablaremos de PRISMA-S (Preferred Reporting Items for Systematic reviews and Meta-Analyses literature search extension), creado par ayudar a los bibliotecarios y especialistas en información.
La extensión de PRISMA Search cubre múltiples aspectos del proceso de búsqueda de revisiones sistemáticas, ampliando PRISMA en las cuestiones relacionadas con el informe de la búsqueda de literatura para revisiones sistemáticas y metanálisis. Esta extensión incluye una lista de verificación PRISMA-S, así como su explicación y elaboración y están disponibles en: http://www.prisma-statement.org/Extensions/Searching
La lista de verificación final incluye dieciséis elementos de informes. Esta información debe de ir en la sección de métodos y cualquier material suplementario o anexo del manuscrito.
Elemento 1. Búsqueda en bases de datos: Nombre cada base de datos individual, indicando la plataforma para cada una.
Es importante que los autores indiquen no solo la base de datos, sino también la plataforma a través de la cual se buscó en la base de datos. Ejemplo:
“Se realizaron búsquedas en las siguientes bases de datos electrónicas: MEDLINE (Ovid), CINAHLPlus (EBSCO), PsycINFO (Ovid), CENTRAL (Wiley) y EMBASE (Elsevier)».
Elemento 2. Búsqueda en múltiples bases de datos: Si se buscaron bases de datos simultáneamente en una sola plataforma, indique el nombre de la plataforma, enumerando todas las bases de datos buscadas.
Ejemplo:
«Las estrategias de MEDLINE y Embase se ejecutaron simultáneamente como una búsqueda de múltiples archivos en Ovid y los duplicados se eliminaron de los resultados utilizando la herramienta de deduplicación de Ovid».
Elemento 3. Registros de estudios: Enumere los registros de estudios buscados.
Los registros de estudios (como ClinicalTrials.gov) son una fuente clave de información para revisiones sistemáticas y metanálisis en las ciencias de la salud y cada vez más en otras disciplinas y permiten a los investigadores localizar ensayos clínicos en curso y estudios que pueden no haber sido publicados.
Para describir los registros de estudios buscados, hay que indicar el nombre de cada registro de estudios buscado e incluir una cita o enlace al registro de estudios.
Tema 4. Recursos en línea y navegación: Describa cualquier fuente en línea o impresa buscada o navegada intencionalmente (p. ej., tablas de contenido, actas impresas de conferencias, sitios web) y cómo se hizo.
El objetivo de la búsqueda complementaria, más allá de las bases de datos bibliográficas, y la de eliminar el mayor sesgo posible del proceso de revisión de la literatura. Es importante señalar que este tipo de búsqueda implica una estrategia compleja, que recurre a una gran cantidad de recursos impresos y en línea como motores de búsqueda generales de Internet y la búsqueda en el contenido de sitios web específicos es un componente clave de muchas revisiones sistemáticas y actas de congresos.
Elemento 6. Contactos: Indique si se buscaron estudios o datos adicionales contactando a los autores, expertos, fabricantes u otros.
Elemento 7. Otros métodos: Describa cualquier fuente de información adicional o método de búsqueda utilizado.
En le siguiente ejemplo vemos la inclusión de estos últimos elementos:
Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344
Los ítems 8 a 13 son los que vemos en la siguiente figura:
Hay que señalar que se deben incluir las estrategias de búsqueda de cada base de datos y fuente de información, copiadas y pegadas exactamente como se ejecuta y siendo la ubicación preferida en los materiales complementarios. Las estrategias de búsqueda utilizadas para llevar a cabo esta recopilación de datos son esenciales para la transparencia y reproducibilidad de cualquier revisión sistemática. Sin poder evaluar la calidad de las estrategias de búsqueda utilizadas, los lectores no pueden evaluar la calidad de la revisión sistemática.
En la siguiente imagen vemos un ejemplo de informe del elemento 12 y 13:
Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344
Elemento 14. Revisión por pares: Describa cualquier proceso de revisión por pares de búsqueda.
Aquí vemos el extracto del mismo ejemplo:
Arias-Rivera S, Raurell-Torredà M, Fernández-Castillo RJ, Campos-Asensio C, Thuissard-Vasallo IJ, Andreu-Vázquez C, Rodríguez-Delgado ME. Blood glucose monitoring in critically ill adult patients: type of sample and method of analysis. Systematic review and meta-analysis. Enferm Intensiva (Engl Ed). 2023 Jul 18:S2529-9840(23)00034-4. doi: 10.1016/j.enfie.2023.02.002. Epub ahead of print. PMID: 37474427. https://www.sciencedirect.com/science/article/abs/pii/S2529984023000344
Elemento 15. Registros totales: Documente el número total de registros identificados en cada base de datos y otras fuentes de información.
Debemos indicar el número total de referencias recuperadas de todas las fuentes, incluidas las actualizaciones, en la sección de resultados. Además, debemos informar del número total de referencias de cada base de datos y fuente de información en los materiales complementarios. También, el informe el número total de referencias de cada base de datos es recomendable incluirlo en el diagrama de flujo PRISMA.
Artículo 16. Deduplicación: Describa los procesos y cualquier software utilizado para deduplicar registros de múltiples búsquedas en bases de datos y otras fuentes de información.
Debido al solapamiento de las bases de datos, siempre habrá registros duplicados que deberemos eliminar. Los autores deben describir y citar cualquier software o técnica utilizada para ello. El método de eliminación de duplicados utilizado debe indicarse en la sección de métodos. El número total de referencias después de la eliminar los duplicados debe informarse en el diagrama de flujo PRISMA.
Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.
¿Sabrías cómo hacerlo? Inténtalo:
¿CUÁL ES EL PROBLEMA?
Veamos los motivos por lo que la respuesta no es tan simple como a simple vista puede parecer.
Los dos primeros son comunes a toda búsqueda que realicemos con los descriptores o tesauro de indización de las bases de datos como MeSH o EMTREE. Si solo buscamos por estos descriptores, perderemos registros mal indizados y aquellos que no estén indizados, bien por ser muy recientes o por no asignar estos términos a alguna parte del contenido de la fuente. Esto último ocurre en PubMed, donde los registros procedentes de PMC o de otras colecciones que no son MEDLINE, nunca pasarán por el proceso de indización.
Pero es que, además, un hecho que muchas veces no tenemos en cuenta es que los humanos formamos parte del reino animal. Por lo tanto, la búsqueda por «Animals»[MeSH] recupera también los artículos asignados con los descriptores más específicos situados debajo de este árbol. Es decir, recuperaríamos también los humanos.
¿CUÁL ES LA SOLUCIÓN?
La mejor práctica consiste en identificar primero los estudios con animales y excluirlos de los resultados de la búsqueda (Usar la «DOBLE NEGACIÓN»).
SINTAXIS DE BÚSQUEDA EN DIFERENTES BASES DE DATOS/PLATAFORMAS
PubMed
2. MEDLINE (Ovid)
3. EMBASE (Ovid)
4. EMBASE (Elsevier)
5. CINAHL (Ebsco)
6. SCOPUS
Y ahora, te dejo la tabla con el resumen de estos filtros para buscar humanos en las diferentes bases de datos/plataformas:
Hoy iré al Servicio de Hematología del Hospital de Getafe a impartir una sesión en la que trataré de aclarar dudas y dar consejos para realizar búsquedas eficientes y de los recursos que tenemos disponibles a través del Portal de la Biblioteca Virtual (https://m-hug.c17.net/).
Los profesionales sanitarios muchas veces sienten que no realizan las búsquedas de modo eficiente, que pierden tiempo o información relevante.
Y para explicarles cómo deben plantearse las estrategias, partiremos de un supuesto práctico que es la búsqueda de estudios sobre eficacia y toxicidad de las terapias CAR-T en el tratamiento del mieloma múltiple refractario con recaídas múltiples.
La terapia con CAR-T son una opción para los pacientes con mieloma múltiple (MM) en recaída o refractario tras al menos cuatro líneas de terapia sistémica, y uno de nuestros tratamientos preferidos para el MM penta-refractario. Recientemente, se han publicado varios estudios en los que el tratamiento con idecabtagene vicleucal (KarMMa-3) y ciltacabtagene autoleucel (CARTITUDE-4) mejoraron sustancialmente la supervivencia libre de progresión en comparación con la quimioterapia estándar, aunque con un aumento de la toxicidad, incluidas las muertes relacionadas con el tratamiento.
Con este escenario iremos buscando en diferentes fuentes, empezando por UpToDate.
Búsqueda en UpToDate
Estrategia de búsqueda: Multiple Myeloma refractory
Búsqueda sencilla Estrategia de búsqueda: Multiple myeloma refractory Chimeric antigen receptor T cells Resultado: 262 referencias
Para luego pasar a enseñar las opciones de búsqueda avanzada. Para ello buscaremos todos los términos posibles para cada concepto, según vemos en la figura:
Y construiremos nuestra búsqueda combinando los términos de lenguaje natural con los descriptores de materia de MEDLINE, los MeSH.
Y no nos olvidaremos de buscar en EMBASE, dado que es la base de datos de elección para la búsqueda de estudios de intervenciones farmacológicas.
(‘multiple myeloma’/exp OR ‘kahler disease’ OR ‘morbus kahler’ OR ‘multiple myeloma’ OR ‘myeloma multiplex’ OR ‘myeloma, multiple’ OR ‘myelomatosis’ OR ‘plasma cell myeloma’) AND (‘chimeric antigen receptor t-cell’/exp OR ‘car t-cell’ OR ‘car t-lymphocyte’ OR ‘car engineered t-cell’ OR ‘car engineered t-lymphocyte’ OR ‘car modified t-cell’ OR ‘car modified t-lymphocyte’ OR ‘chimeric antigen receptor t-cell’ OR ‘chimeric antigen receptor t-lymphocyte’ OR ‘chimeric antigen receptor immunotherapy’/exp OR ‘car cancer immunotherapy’ OR ‘car immunotherapy’ OR ‘car therapy’ OR ‘chimeric antigen receptor cancer immunotherapy’ OR ‘chimeric antigen receptor engineered cancer immunotherapy’ OR ‘chimeric antigen receptor immunotherapy’ OR ‘chimeric antigen receptor therapy’ OR ‘ciltacabtagene autoleucel’/exp OR ‘carvykti’ OR ‘cilta-cel’ OR ‘ciltacabtagene autoleucel’ OR ‘jnj 4528’ OR ‘jnj 68284528’ OR ‘jnj4528’ OR ‘jnj68284528’ OR ‘lcar-b38m’ OR ‘lcar-b38m car-t’ OR ‘idecabtagene vicleucel’/exp OR ‘abecma’ OR ‘bb 2121’ OR ‘bb2121’ OR ‘ide-cel’ OR ‘idecabtagene vicleucel’) AND (‘refractory tumor’/exp OR ‘refractory neoplasm’ OR ‘refractory tumor’ OR ‘refractory tumour’ OR ‘relapsed refractory multiple myeloma’/exp OR ‘cancer recurrence’/exp OR ‘cancer recidive’ OR ‘cancer recurrence’ OR ‘cancer regeneration’ OR ‘cancer relapse’ OR ‘cancer reoccurrence’ OR ‘recurrent cancer’ OR ‘recurrent carcinoma’) AND ([cochrane review]/lim OR [systematic review]/lim OR [meta analysis]/lim OR [randomized controlled trial]/lim OR ‘controlled clinical trial’/de)
Los tesauros son los encabezamientos de materias utilizados por algunas de las principales bases de datos bibliográficas para describir el contenido de cada artículo publicado. Tesauro es el «vocabulario controlado» (lista de términos establecido) que categorizan artículos en función de su contenido (dichos términos variarán de una base de datos a otra). P. ej.: PubMed utiliza términos del Medical Subject Headings o MeSH, que es el vocabulario controlado de MEDLINE y Embase utiliza el EMTREE.
Los tesauros tienen una estructura jerárquica. Así, los términos MeSH se clasifican dentro de 16 «árboles» principales (como anatomía, organismos, enfermedades, medicamentos y productos químicos), cada uno de los cuales se ramifica de los términos más amplios a los más específicos. Por ejemplo, al ingresar demencia, PubMed identificará términos MeSH relevantes que incluyen demencia y enfermedad de Alzheimer. Al seleccionar Demencia, verá el árbol de términos, incluidas las subcategorías enumeradas a continuación, como la enfermedad de cuerpos de Lewy, Alzheimer o demencia vascular.
Aunque la búsqueda por el MeSH siempre es más precisa, no siempre es suficiente. Así, si el objetivo de nuestra búsqueda es localizar de forma exhaustiva toda la información de un tema, deberemos combinar la búsqueda del tesauro con el lenguaje natural. En la siguiente imagen vemos algunas de las causas:
Ahora os propongo un juego para que compruebes lo que conoces del MeSH.
¿Preparado para ver cuanto sabes del MeSH? Activa el audio y juega.
Uno de los primeros pasos en la planificación de nuestra revisión sistemática es la de buscar revisiones sistemáticas existentes de nuestra área de interés. Es decir, hay que buscar la existencia o no de revisiones sobre el tema publicadas y, si las hay, analizarlas para decidir si tiene cabida hacer la revisión o no.
El motivo para ello es el de evitar las revisiones redundantes. Estas se pueden definir como revisiones que ya se han realizado sobre el mismo tema, con las mismas o similares preguntas y métodos de investigación, y que han llegado a conclusiones similares o idénticas. Estas revisiones se realizan a menudo de forma innecesaria, lo que provoca varios perjuicios e ineficiencias (1).
La multiplicación de revisiones sistemáticas redundantes plantea cuestiones científicas, éticas y económicas a investigadores y editores.
Presentación «Antes de comenzar una revisión sistemática hay que buscar y evaluar revisiones relacionadas: Planificación de nuestra revisión para evitar revisiones redundantes».
Perjuicios de las revisiones sistemáticas redundantes
1. Desperdicio de recursos: La realización de revisiones redundantes supone una pérdida de tiempo, esfuerzo y recursos que podrían haberse utilizado para cuestiones de investigación nuevas y más relevantes.
2. Inconsistencias y contradicciones: Las revisiones redundantes pueden llegar a conclusiones diferentes debido a variaciones en la metodología o en la interpretación de los resultados, lo que puede causar confusión e incoherencias en la literatura.
3. Sesgo de publicación: Múltiples revisiones sobre el mismo tema pueden aumentar la probabilidad de informes selectivos y sesgo de publicación, ya que los investigadores pueden publicar solo las revisiones con resultados favorables.
4. Confundir a los profesionales sanitarios: Múltiples revisiones con resultados contradictorios pueden llevar a confusión a los profesionales sanitarios, lo que se traduce en decisiones de tratamiento subóptimas para los pacientes.
¿Cuándo está justificada una revisión sistemática redundante?
Solo en los casos de que: 1) el alcance de las revisiones existentes no sea la misma; 2) no exista una revisión anterior; 3) exista, pero esté obsoleta (podríamos decidir actualizarla desde la fecha de la revisión anterior); o 4) exista, pero sea de mala calidad, tendría justificación hacer una nueva revisión. En ese caso, el otro equipo puede decidir abordar ese tema de nuevo con métodos adecuados. Tales casos deben justificarse adecuadamente en la nueva revisión, apoyando esta decisión con pruebas de que la revisión anterior era inadecuada. Por ejemplo, el nuevo equipo podría proporcionar un análisis transparente de la calidad metodológica de la primera revisión utilizando la herramienta AMSTAR 2 (2), con los detalles de este análisis reportados en un archivo suplementario.
Si el equipo de la revisión es consciente de la existencia de una revisión sistemática finalizada con métodos adecuados, la única decisión apropiada para seguir adelante con el mismo tema sería llevar a cabo una actualización de dicha revisión sistemática. Aun así, algunas actualizaciones pueden no considerarse justificadas. Por ejemplo, si una gran revisión existente se actualiza con un nuevo estudio que probablemente no repercuta en los resultados, es razonable cuestionar el propósito de dicha actualización. Cochrane considera una revisión como «estable» si la última búsqueda no identificó ningún estudio potencialmente relevante que pudiera cambiar las conclusiones» (Babić A, Poklepovic Pericic T, Pieper D, Puljak L. How to decide whether a systematic review is stable and not in need of updating: Analysis of Cochrane reviews. Res Synth Methods. 2020 Nov;11(6):884-890. doi: 10.1002/jrsm.1451. PMID: 32890455.).
¿Dónde buscamos revisiones sistemáticas?
Por un lado, deberíamos buscar la existencia de procolos de revisiones sistemáticas en curso. Para ello deberíamos buscar en las plataformas donde es común su registro (ver entrada «Dónde registrar el protocolo de una Revisión Sistemática«; 3-4). Estas fuentes incluyen a PROSPERO, OSF, pasando por búsqueda en bases de datos tradicionales como MEDLINE.
Puede darse el caso de que encontremos «revisiones zombies» (5). Estos son aquellas cuyos registros de protocolo son abandonadas, por ejemplo, en PROSPERO. Para evitarlo, PROSPERO está desarrollando nueva versión que mejorará la funcionalidad de enviar recordatorios a los autores, solicitándoles que actualicen su estado de revisión y añadan detalles de publicación. También la organización Campbell contacta a los autores anualmente para preguntar si los equipos están procediendo con títulos y protocolos registrados (https://twitter.com/vawelch/status/1643576924998909953?s=20).
Puljak, L., Lund, H. Definition, harms, and prevention of redundant systematic reviews. Syst Rev. 2023;12(63). Disponible en: https://doi.org/10.1186/s13643-023-02191-8.
Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ. 2017 Sep 21;358:j4008. doi: 10.1136/bmj.j4008. PMID: 28935701; PMCID: PMC5833365.