¿Es la IA un sustituto, una amenaza o un aliado para los bibliotecarios especializados?

Hasta ahora, diseñar una estrategia de búsqueda sólida, localizar estudios relevantes y manejar cientos de referencias era un trabajo artesanal, intensivo en tiempo y dependiente por completo de la experiencia humana. Sin embargo, la integración de modelos de lenguaje generativo en los procesos de revisión sistemática está modificando de manera sustancial la fase de búsqueda y recuperación de información.

La clave está en entender qué puede hacer cada uno y cómo combinar sus fortalezas para obtener búsquedas más robustas, eficientes y reproducibles en un contexto donde la calidad de la evidencia importa más que nunca.

Tareas en las que puede intervenir la IA

La aportación de la IA no reside únicamente en la aceleración de tareas, sino en la capacidad de ampliar, diversificar y estructurar el acceso a la literatura científica, amplificando los procedimientos manuales.

  • Generación rápida y exhaustiva de términos de búsqueda. Los modelos de IA generativa son capaces de recopilar términos de miles de textos y, a partir de ahí, sugieren sinónimos, acrónimos y variantes de un mismo concepto. En otras palabras, ayudan a descubrir términos relevantes que, de otro modo, podrían pasarse por alto. Esta capacidad resulta especialmente útil en áreas emergentes o interdisciplinarias, donde la terminología aún no está normalizada y la literatura se dispersa en múltiples dominios temáticos.
  • Aumento de la sensibilidad/exhaustividad (recall) de la búsqueda. Estas herramientas son capaces de producir una primera estrategia de búsqueda con elevada sensibilidad, es decir, muy amplia, recuperando muchísimos resultados. Es verdad que luego hay que limpiarlos y depurarlos, pero esa “primera cosecha” sirve como una base sólida sobre la que seguir afinando la estrategia, añadir filtros y ajustar los términos. En este sentido, la IA funciona como un acelerador: te ayuda a arrancar rápido con un punto de partida fuerte, aunque siempre hace falta la mirada experta del bibliotecario para asegurar que todo tenga sentido y calidad.
  • Generación de búsquedas booleanas para distintas bases de datos/plataformas. Uno de los avances más visibles es la capacidad de la IA para traducir una estrategia conceptual en consultas operativas adaptadas a la sintaxis de cada proveedor: Ovid MEDLINE, Embase.com, Scopus, Web of Science, CINAHL (EBSCO, Ovid, …), PsycINFO (Proquest, EBSCO, …), entre otros. Esto incluye la aplicación correcta de campos de búsqueda, operadores de proximidad, truncamientos, tesauros controlados y peculiaridades funcionales de cada motor. Esta precisión reduce errores, evita pérdidas de sensibilidad y mejora la reproducibilidad del proceso.

Ventajas/Oportunidades del uso de la IA

  • Fase de búsqueda inicial más exhaustiva: La IA puede generar en pocos segundos un abanico enorme de términos, sinónimos y palabras clave relacionadas con un tema. Esto resulta especialmente útil cuando nos enfrentamos a un campo nuevo o del que sabemos poco: la herramienta propone conceptos que quizá no habríamos considerado y evita que la estrategia de búsqueda se quede corta.
  • Más referencias desde el principio: Las herramientas de IA suelen recuperar mucho más. Su forma de interpretar las palabras clave es más amplia que la nuestra, lo que se traduce en un volumen mayor de resultados. Luego tocará depurarlos, sí, pero arrancar con una red más grande ayuda a no dejar estudios relevantes fuera.
  • Menos tiempo perdido al adaptar estrategias entre bases de datos: Pasar una estrategia de búsqueda de MEDLINE (PubMed u OVID) a Embase.com, Scopus o WoS es un trabajo pesado, repetitivo y lleno de pequeños detalles que es fácil olvidar. La IA puede hacerlo automáticamente, respetando sintaxis, operadores booleanos y campos correctos en cada plataforma. En la práctica, esto supone menos errores y muchas horas ahorradas.
  • Orden y lógica en los términos: Además de reunir términos útiles, la IA es capaz de agruparlos por categorías o temas. No solo te dice qué palabras usar, sino que te ayuda a entender cómo se relacionan entre sí, lo que facilita estructurar la búsqueda con sentido.

Inconvenientes y retos del uso de IA en las revisiones sistemáticas

  • Mucho volumen, poca precisión: Que la IA recupere cientos o miles de referencias puede parecer una ventaja, pero tiene trampa: no distingue bien lo relevante de lo accesorio. Esto obliga a dedicar tiempo extra a revisar y descartar estudios que no encajan con la pregunta de investigación. En cambio, una estrategia elaborada por un bibliotecario suele ser más ajustada desde el principio, porque está pensada para responder a criterios concretos y no para abarcar “todo lo que pueda sonar parecido”.
  • La experiencia humana sigue siendo irremplazable: La IA propone muchos términos, sí, pero no sabe cuándo un matiz importa. Afinar la estrategia de búsqueda, elegir el descriptor correcto o decidir si un término aporta ruido o información útil sigue siendo territorio humano. Las listas generadas por la IA necesitan ser revisadas, depuradas y enriquecidas por alguien que entienda el contexto, las particularidades del tema y las implicaciones metodológicas.
  • Limitaciones de acceso a bases de datos suscritas: Hoy por hoy, la mayoría de modelos de IA no pueden entrar en bases de datos científicas de pago. Esto significa que no pueden comprobar en tiempo real qué términos están indexados, qué descriptores existen o cómo se estructura un determinado tesauro especializado.
  • No puede moverse por tesauros especializados: Al no tener acceso a bases como EMBASE, CINAHL o PsycINFO, la IA no es capaz de navegar por sus tesauros y proponer descriptores correctos. Este es un punto crítico porque las estrategias de búsqueda más sólidas combinan términos libres con términos controlados, y esa fineza todavía no está al alcance de las herramientas generativas.
  • No descarga ni extrae referencias: Otra limitación importante es que la IA no puede descargar los resultados de la búsqueda ni gestionarlos en un gestor bibliográfico. Sigue siendo necesario pasar por las plataformas originales para obtener los registros y preparar la deduplicación o el cribado.
  • Siempre necesita supervisión: El uso de IA no elimina la figura del bibliotecario experto ni del equipo de revisión. Más bien cambia su papel: deja de ser quien hace cada paso manualmente para convertirse en quien valida, corrige y toma decisiones informadas. Sin esa supervisión, la IA puede generar estrategias amplias, pero no necesariamente adecuadas.

Un modelo sinérgico: IA + bibliotecario

El futuro inmediato no pasa por elegir entre inteligencia artificial o bibliotecario especializado, sino por combinarlos teniendo en cuenta las fortalezas y limitaciones de cada uno de ellos. Cada uno aporta algo diferente y, cuando trabajan juntos, el proceso de búsqueda y revisión gana en velocidad, alcance y rigor.

¿Cuál sería el rol de la IA?
La IA es especialmente útil en las primeras fases del trabajo. Su fortaleza está en generar cantidad: propone términos, sugiere combinaciones, construye borradores de estrategias de búsqueda y automatiza tareas tediosas como adaptar consultas entre plataformas o expandir sinónimos. Es rápida y eficiente para mover grandes volúmenes de información.

¿Qué aporta el bibliotecario?
El bibliotecario, por su parte, aporta calidad. No solo afina la terminología y valida los conceptos relevantes, sino que es quien domina el uso de tesauros, entiende la lógica de indexación de cada base de datos y detecta inconsistencias que la IA no ve. Además, garantiza el rigor metodológico: sabe cuándo un término es demasiado amplio, cuándo un operador puede distorsionar la pregunta de investigación y cómo documentar correctamente una estrategia reproducible.

En resumen (recuerda las pautas RAISE) …

  • La IA debe usarse como compañera de los humanos, no como sustituta.
  • Tú eres, en última instancia, responsable de su síntesis de la evidencia, incluida la decisión de usar IA y de garantizar la adhesión a las normas legales y éticas.
  • Usa la IA siempre que no comprometas el rigor metodológico ni la integridad de la síntesis.
  • Debes de informar de forma completa y trasparente del uso de cualquier IA que emita o sugiera juicios.

¿Herramientas de IA en búsquedas para revisiones sistemáticas?

La inteligencia artificial está irrumpiendo con fuerza en la síntesis de evidencia. Un estudio reciente de la Agencia Canadiense de Medicamentos (CDA-AMC) ofrece datos interesantes que conviene conocer (Featherstone R, Walter M, MacDougall D, Morenz E, Bailey S, Butcher R, et al. Artificial Intelligence Search Tools for Evidence Synthesis: Comparative Analysis and Implementation Recommendations. Cochrane Evidence Synthesis and Methods. 2025;3(5):e70045, doi: 10.1002/cesm.70045.).

Este artículo tuvo como objetivo evaluar el potencial de herramientas de búsqueda basadas en inteligencia artificial (Lens.org, SpiderCite y Microsoft Copilot) para apoyar la síntesis de evidencia vs. métodos de búsqueda tradicionales y establecer recomendaciones de implementación bajo un enfoque “fit for purpose”, es decir, utilizar cada herramienta solo para tareas específicas donde aporten valor. Se evaluaron siete proyectos completados en la agencia, aplicando búsquedas de referencia (método tradicional) frente a búsquedas con cada herramienta de IA. Se midieron sensibilidad/recall, número necesario a leer (NNR), tiempo de búsqueda y cribado, y contribuciones únicas de cada herramienta. Además, se recogió experiencias de los especialistas en información sobre usabilidad, limitaciones y sorpresas en el uso de los tres sistemas.

Resultados

Método / HerramientaSensibilidad promedioDiferencias entre proyectos simples y complejosNNR (número necesario a leer)Tiempo de búsquedaObservaciones principales
Métodos tradicionales0.98 – 1 (casi perfecta)Consistentemente alta en todos los proyectosMás bajo que IA2.88 h en promedioEstándar de referencia, máxima fiabilidad
Lens.org0.676Simples: 0.816 Complejos: 0.6Más alto que el estándar (98 vs 83)Mayor tiempo (2.25 h, más que Copilot o SpiderCite)Mejor de las IA, pero menos eficiente; útil en búsquedas simples y de autores
SpiderCite0.23 – 0.26Similar en simples y complejosVariable (Cited by mejor que Citing)~1.25 hMuy baja sensibilidad, pero puede aportar referencias únicas en temas complejos; solo útil como complemento
Copilot0.24 (muy variable: 0–0.91 según proyecto)Simples: 0.41 Complejos: 0.15Muy variable (mejor en simples, muy alto en complejos)Más rápido (0.96 h promedio)Dependiente de la calidad de los prompts; no sustituye estrategias, útil para sugerir palabras clave

Sensibilidad = proporción de estudios relevantes efectivamente recuperados.
NNR = número necesario a leer; cuanto menor, mejor eficiencia de cribado.

Verde = mejor desempeño relativo. Amarillo = intermedio / aceptable. Rojo = débil. Naranja = muy variable según proyecto.

Discusión

  • Las herramientas de IA mostraron rendimiento variable e inconsistente, lo que implica que no pueden reemplazar las búsquedas profesionales estándar en revisiones sistemáticas.
  • Pueden generar falsa confianza en usuarios sin experiencia. Se requiere conocimiento experto en construcción de estrategias y en validación de resultados para corregir limitaciones.
  • Limitaciones del estudio: solo se evaluaron 7 proyectos y 3 herramientas, sin analizar combinaciones entre ellas

Recomendaciones de implementación

La CDA-AMC propuso un uso limitado y estratégico:

  1. Lens.org: útil para revisiones con preguntas acotadas y técnicas (como dispositivos con una función o población bien definida) o para identificar rápidamente autores vinculados a un tema o indicación clínica cuando los métodos estándar no alcanzan.
  2. SpiderCite: complemento para búsquedas de citas en proyectos complejos, siempre que se disponga de artículos semilla.
  3. Copilot (u otros LLMs): apoyo en la generación de palabras clave y términos de búsqueda, pero no para estrategias completas

Conclusión

Las tres herramientas evaluadas (Lens.org, SpiderCite, Copilot) no son adecuadas para reemplazar estrategias de búsqueda complejas en revisiones sistemáticas, debido a variabilidad en sensibilidad y precisión. Sin embargo, tienen potencial como apoyos puntuales en tareas específicas: generación de términos, búsquedas simples o de citas, y exploración preliminar. El estudio subraya la necesidad de mantener el papel central del bibliotecario/experto en información en la validación de cualquier resultado generado con IA, y de continuar monitorizando nuevas herramientas dada la rápida evolución tecnológica.

Reflexiones para quienes trabajamos en bibliotecas médicas

  • Las herramientas de IA pueden ahorrar tiempo en fases preliminares, generar ideas de términos de búsqueda, identificar autores, pero no deben utilizarse como única estrategia para revisiones sistemáticas si se espera exhaustividad.
  • Es clave entender los límites: sensibilidad menor, posible sesgo en lo que captura IA, variabilidad según prompt o según lo cerrado o amplio que sea el tema.
  • Siempre debe haber validación humana experta, verificación de resultados únicos que aparezcan en IA, comparación con lo recuperado por métodos tradicionales.

Evitar sesgos en la búsqueda bibliográfica: claves para revisiones rigurosas

La base de toda revisión sistemática y otros estudios de síntesis sólidos es una búsqueda de evidencia cuidadosamente diseñada y rigurosamente ejecutada (1). En la búsqueda bibliográfica cómo se busca, dónde se busca y quién diseña la estrategia son factores que pueden marcar una diferencia crítica en la calidad de la evidencia recopilada.

En dos entradas anteriores de este blog de título «Sesgo de publicación y sesgos relacionados» (2) y «Sesgos en la localización de estudios para una revisión sistemática» (3) ya tratamos el tema de los sesgos. Ahora veremos los principales tipos de sesgos del proceso de búsqueda y cómo minimizarlos.

¿Qué sesgos pueden aparecer?

En el proceso de búsqueda pueden surgir dos tipos principales de sesgos:

Sesgo de identificación: aparece cuando no se localizan estudios relevantes, a menudo porque la estrategia de búsqueda no es suficientemente sensible o porque no se han explorado todas las fuentes pertinentes. Este tipo de sesgo es especialmente problemático en revisiones sistemáticas que sirven de base para tomar decisiones clínicas, ya que puede comprometer la validez de los resultados.

Sesgo de diseminación (o de publicación): se produce cuando los resultados de un estudio influyen en su probabilidad de ser publicados. Por ejemplo, los estudios con resultados positivos tienen más probabilidades de publicarse, de hacerlo en inglés, con mayor rapidez o de recibir más citas. Este fenómeno puede distorsionar la percepción de la eficacia de una intervención.

¿Cómo reducir estos sesgos?

  1. Diseñar una estrategia de búsqueda rigurosa, con la colaboración de un especialista en información. Idealmente, esta estrategia debe ser revisada por pares antes de ser ejecutada (1,4-6). La participación de bibliotecarios especializados en ciencias de la salud en revisiones sistemáticas no es un añadido opcional, sino una práctica recomendada por las principales guías metodológicas (7-9) y respaldada por la evidencia científica (10-11).
  2. Utilizar múltiples bases de datos bibliográficas. Se recomienda un mínimo de dos para revisiones sistemáticas, pero también se debe justificar su elección. Según el Cochrane Handbook, el objetivo de las búsquedas es identificar todos los estudios relevantes disponibles, lo que requiere desarrollar estrategias lo más sensibles posibles, sin perder de vista la pertinencia de los resultados (7). Debemos hacer balance entre la precisión y exhaustividad pero teniendo en cuenta que el objetivo de una búsqueda para una RS es identificar todos los estudios pertinentes (maximizar la sensibilidad pero con una precisión razonable). Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda. En este equilibrio entre amplitud y relevancia, la experiencia del bibliotecario resulta fundamental.
  3. Ampliar la búsqueda más allá de las bases de datos. La inclusión de fuentes como motores de búsqueda, registros de ensayos clínicos, literatura gris, búsqueda complementaria de citas (forward y backward) y el contacto con expertos puede ser clave para identificar estudios que de otro modo pasarían desapercibidos.
  4. Incluir estudios no publicados. Dado que una parte significativa de los estudios completados no se publican (12), buscarlos activamente en registros, literatura gris o sitios web especializados contribuye a mitigar el sesgo de publicación (13).
Tipo de sesgoDescripciónEstrategias para minimizarlo
Sesgo de identificaciónNo se recuperan todos los estudios relevantes.Diseñar una estrategia exhaustiva con ayuda de un bibliotecario experto
Usar ≥2 bases de datos
Evitar el uso uso de filtros/límites
Ampliar con búsquedas complementarias
Sesgo de publicación o diseminaciónSolo se publican ciertos tipos de resultados, como los positivos.Buscar literatura gris
Consultar registros de ensayos clínicos
Contactar expertos
Incluir estudios no publicados

Un dato revelador

Greenhalgh y Peacock (14) encontraron que solo el 25% de los artículos incluidos en su revisión fueron recuperados a través de bases de datos electrónicas. El resto provino de rastrear citas, conocimiento personal, contactos o búsqueda manual.

BIBLIOGRAFÍA

  1. Metzendorf MI, Featherstone RM. Ensuring quality as the basis of evidence synthesis: leveraging information specialists’ knowledge, skills, and expertise. Cochrane Database of Systematic Reviews 2018, Issue 9. Art. No.: ED000125. doi: 10.1002/14651858.ED000125.
  2. Campos-Asensio C. Sesgo de publicación y sesgos relacionados. 2023. Available from: https://bibliogetafe.com/2023/11/09/sesgo-de-publicacion-y-sesgos-relacionados/ [Last accessed: 6/23/2025].
  3. Campos-Asensio C. Sesgos en la localización de estudios para una revisión sistemática. 2021. Available from: https://bibliogetafe.com/2021/05/17/sesgos-en-la-localizacion-de-estudios-para-una-revision-sistematica/ [Last accessed: 6/23/2025].
  4. McGowan J, Sampson M. Systematic reviews need systematic searchers. JMLA 2005;93(1):74–80.
  5. Rethlefsen ML, Farrell AM, Osterhaus Trzasko LC, Brigham TJ. Librarian co‐authors correlated with higher quality reported search strategies in general internal medicine systematic reviews. Journal of Clinical Epidemiology2015;68(6):617–26. doi: 10.1016/j.jclinepi.2014.11.025
  6. McGowan J. Sampson M, Salzwedel DM, Cogo E, Foerster V, Lefebvre C. PRESS peer review of electronic search strategies: 2015 guideline statement. J Clin Epidemiol. 2016.75:40–46. doi: 10.1016/j.jclinepi.2016.01.021
  7. Lefebvre C, Manheimer E, Glanville J. Chapter 6: Searching for studies. In: Higgins JPT, Green S. (Editors). Cochrane handbook for systematic reviews of interventions version 5.1.0. Updated March 2011. Accessed July 27, 2022. https://handbook-5-1.cochrane.org/chapter_6/6_searching_for_studies.htm
  8. Aromataris E, Munn Z. Chapter 1: JBI systematic reviews. In: Aromataris E, Munn Z (Editors). In: JBI Manual for Evidence Synthesis. JBI; 2020. Accessed July 27, 2022. https://jbi-global-wiki.refined.site/space/MANUAL 
  9. Kugley S, Wade A, Thomas J, et al. Searching for studies: a guide to information retrieval for Campbell Systematic Reviews. Oslo: The Campbell Collaboration; 2017. Accessed July 27, 2022. doi: 10.4073/cmg.2016.1
  10. Rethlefsen ML, Murad MH, Livingston EH. Engaging medical librarians to improve the quality of review articles. JAMA. 2014;312(10):999-1000. doi:10.1001/jama.2014.9263
  11. Kirtley S. Increasing value and reducing waste in biomedical research: librarians are listening and are part of the answer. Lancet. 2016;387(10028):1601. doi:10.1016/S0140-6736(16)30241-0
  12. Campos-Asensio C. ¿Sabes cuantos ensayos clínicos que empiezan y llegan a terminarse nunca se publican? 2021. Disponible en: https://bibliogetafe.com/2021/04/12/sabes-cuantos-ensayos-clinicos-que-empiezan-y-llegan-a-terminarse-nunca-se-publican/ [Last accessed: 6/23/2025].
  13. Hong QN, Brunton G. Helping Trainees Understand the Strategies to Minimize Errors and Biases in Systematic Review Approaches. Educ Information. 2025;41(3):161–175; doi: 10.1177/01678329251323445.
  14. Greenhalgh, T., & Peacock, R. (2005). Effectiveness and efficiency of search methods in systematic reviews of complex evidence: Audit of primary sources. BMJ. 2005:331(7524), 1064–1065. doi: 10.1136/bmj.38636.593461.68

Herramientas y tips para revisiones sistemáticas desde la práctica bibliotecaria. Parte 1. Recolección de términos controlados y libres.

El pasado martes tuve el placer de impartir el curso “Fundamentos metodológicos de revisiones sistemáticas”, organizado por BiblioSalud, la red de bibliotecarios y profesionales de la información en ciencias de la salud de España. Esta sesión formativa, dirigida especialmente a bibliotecarios médicos, se centró en los aspectos clave que debemos conocer para comprender y acompañar con rigor el desarrollo de una revisión sistemática.

En esta entrada del blog quiero comenzar a compartir una selección de las herramientas y recomendaciones prácticas que utilizo habitualmente en mi trabajo diario con documentos de síntesis de evidencia.

El objetivo es ofrecer una guía no exhaustiva, hay muchas y variadas (ver figura) pero con recomendaciones y herramientas útiles y basada en mi experiencia, que sirva tanto a quienes empiezan como a quienes ya participan en revisiones sistemáticas desde las bibliotecas.

Voy a dividir las herramientas en varios apartados según su uso:

  1. Recolección de términos controlados y libres.
  2. Proceso de búsqueda y cribado.
  3. Chatbots e inteligencia artificial para apoyar la confección de estrategias booleanas.
  4. Herramientas para la búsqueda complementaria.
  5. Otras herramientas recomendadas para las revisiones sistemáticas.

En esta entrada veremos las primeras de estas herramientas y recomendaciones para la recolección de términos.

Recolección de términos

Uno de los pasos más críticos en cualquier revisión sistemática es la correcta identificación de términos controlados y palabras clave. Una estrategia de búsqueda bien construida comienza con una recolección exhaustiva de términos y para ello contamos con una serie de recursos imprescindibles:

1.1. Entry Terms de MeSH Database.

La herramienta clásica para explorar la jerarquía de los Medical Subject Headings (MeSH). Nos permite ver la definición de cada término, sus sinónimos, su posición dentro del árbol jerárquico, subencabezamientos permitidos y términos relacionados o «Entry Terms». Fundamental para identificar los términos controlados exactos que se deben utilizar en PubMed y para entender el enfoque conceptual con el que el sistema indexa los documentos.

1.2. Sinónimos de Emtree de EMBASE

El Emtree es el tesauro específico de la base de datos Embase. Su lógica es similar al MeSH pero tiene su propia estructura y contiene más términos, especialmente útiles para temas en farmacología o dispositivos médicos. Conviene hacer búsquedas paralelas en MeSH y Emtree para comparar coberturas y encontrar sinónimos o variantes terminológicas que pueden enriquecer la estrategia.

1.3. Yale MESH Analyzer https://mesh.med.yale.edu/

Esta herramienta permite comparar los términos MeSH asignados, los términos empleados en el título y resumen así como las palabras clave de los autores a un conjunto de artículos. Es especialmente útil para detectar patrones o términos recurrentes en la literatura más relevante sobre tu tema. Solo necesitas extraer los PMIDs de los artículos clave y el analizador los agrupa mostrando visualmente los MeSH comunes. Ideal para verificar si estás pasando por alto términos relevantes o para ajustar tu estrategia inicial.

1.4. Word Freq de SR Accelerator (ahora TERA) https://tera-tools.com/

Esta herramienta permite analizar la frecuencia de palabras en títulos y resúmenes de los resultados de una búsqueda bibliográfica. Solo necesitas copiar y pegar el listado de referencias (por ejemplo, desde PubMed) y Word Freq generará un listado de términos ordenados por frecuencia. Es especialmente útil para:

  • Identificar términos clave y sinónimos que puedes haber pasado por alto.
  • Detectar conceptos emergentes o patrones de lenguaje en la literatura.
  • Afinar tu estrategia de búsqueda ajustando los términos libres.

Una herramienta sencilla pero muy eficaz para enriquecer la fase exploratoria de cualquier revisión sistemática.

1.5. PubReminer https://hgserver2.amc.nl/cgi-bin/miner/miner2.cgi

Es una potente herramienta para realizar minería de datos sobre resultados de PubMed. Introduciendo una lista de PMIDs o haciendo una búsqueda directa, puedes ver las frecuencias de palabras en títulos, resúmenes y términos MeSH. También puedes analizar la aparición de autores, revistas, años de publicación… Es perfecta para afinar términos libres y obtener una imagen más clara del contexto bibliográfico.

1.6. MeSH on Demand https://meshb.nlm.nih.gov/MeSHonDemand

Desarrollado por la National Library of Medicine, este recurso es especialmente útil cuando partimos de un texto breve (como el resumen de un protocolo o el título de un artículo). Solo tienes que copiar el contenido y MeSH on Demand te devuelve sugerencias de términos MeSH relevantes. Es una excelente forma de inspirarte cuando aún estás perfilando la estrategia inicial.

1.7. Asistente de inteligencia artificial MeshMaster

MeSHMaster es un chatbot especializado que utiliza inteligencia artificial para ayudarte a construir estrategias de búsqueda booleanas, combinando términos MeSH y palabras clave libres. A partir de una descripción breve del tema o una pregunta clínica, el asistente sugiere:

  • Términos MeSH relevantes y sinónimos.
  • Combinaciones booleanas iniciales (AND, OR, NOT).
  • Variantes terminológicas en inglés que pueden enriquecer la sensibilidad de la búsqueda.

Es una herramienta especialmente útil en las primeras fases de diseño de la estrategia, cuando se busca inspiración o una validación rápida de conceptos clave. Aporta rapidez sin perder la lógica estructural que requiere una buena estrategia de búsqueda.

Te invito a seguir mis próximas entradas para descubrir cómo integrar estas herramientas en tu revisión sistemática.

Los robots no vienen a reemplazarnos: los bibliotecarios podemos liderar la revolución de la inteligencia artificial

La inteligencia artificial (IA) está transformando profundamente todos los sectores, y el ámbito bibliotecario no es la excepción. Lejos de suponer una amenaza, la IA representa una oportunidad histórica para que los profesionales de la información reforcemos nuestro papel como guías y mediadores en un entorno informativo cada vez más complejo.

Tras más de 35 años buscando información científica, nunca hemos experimentado una transformación como la que nos ofrece la inteligencia artificial. Es el momento de aprovechar esta oportunidad y ser parte del cambio

Los robots no vienen a sustituirnos. Al contrario: los bibliotecarios somos hoy más relevantes que nunca, especialmente si sabemos evolucionar junto a estas herramientas. Gracias al apoyo de esta tecnología, los bibliotecarios podemos liberar tiempo para centrarnos en tareas más creativas y estratégicas, diseñando nuevas formas de compartir conocimiento y facilitando el acceso a la información. La IA proporciona a bibliotecarios y otros profesionales de la información nuevas oportunidades para mostrar nuestras habilidades y proporcionar aún más valor a los usuarios. Para ello debemos mantenernos informados sobre las últimas herramientas de IA y dominar el arte de la ingeniería de prompts. Solo así conseguiremos posicionarnos en vanguardia de la revolución de la IA.

La IA no nos reemplaza (los bibliotecarios), nos libera para pensar.

Los bibliotecarios estamos estratégicamente posicionados para destacar en esta nueva era. Dominamos el arte del algoritmo de búsqueda, que va mucho más allá de encontrar información: implica comprender las necesidades del usuario, anticipar preguntas y guiarlo a través de un océano de datos hacia fuentes fiables, pertinentes y de calidad. Esta habilidad nos permite no solo acceder a información de manera eficiente, sino también evaluar su relevancia y credibilidad, asegurando así que los usuarios reciban respuestas de alta calidad a sus consultas. Nuestra formación nos capacita para utilizar tecnologías avanzadas y estrategias de investigación que enriquecen la experiencia de aprendizaje de nuestros usuarios. También tenemos la responsabilidad de educar al público sobre cómo interactuar de forma crítica y segura con estas herramientas emergentes.

La IA puede generar una estrategia de búsqueda, sí. Pero solo nosotros sabemos si esa estrategia tiene sentido.

Los desafíos: veracidad, alfabetización, transparencia y privacidad

Uno de los principales riesgos de los grandes modelos de lenguaje es la ilusión de veracidad. Estos sistemas pueden generar textos que suenan correctos, pero que no necesariamente lo son. La IA no entiende el significado de lo que produce: simplemente predice cuál es la palabra más probable que debe aparecer a continuación.

El uso sin crítica puede llevar a la propagación de información falsa en la investigación. Por ello, es fundamental desarrollar una alfabetización en IA que permita evaluar críticamente tanto la información que proporcionan estas herramientas.

«La inteligencia artificial no reemplaza el juicio experto; sin embargo, tiene la capacidad de potenciarlo de maneras significativas y, en algunos casos, puede distorsionarlo de formas inesperadas.»

Es imprescindible mantener principios de transparencia sobre el uso de herramientas de IA y responsabilidad en la verificación de la información generada. Debemos establecer prácticas claras para citar apropiadamente el trabajo asistido por IA y garantizar que las contribuciones humanas y artificiales sean debidamente reconocidas.

La privacidad es otra preocupación importante cuando se trata del uso de IA. Los sistemas de IA dependen de grandes cantidades de datos, datos que pueden incluir información confidencial sobre los usuarios. El uso de herramientas de IA puede exponer una biblioteca a los riesgos de ciberseguridad.

Conclusión

Los bibliotecarios no seremos sustituidos por la inteligencia artificial. Seremos reemplazados, eso sí, solo si decidimos no adaptarnos. Pero si abrazamos el cambio, nos formamos y lideramos la adopción crítica de estas herramientas, podremos consolidar nuestro papel como actores clave en la revolución del conocimiento.

Si no estamos en la conversación sobre IA, otros decidirán por nosotros. La revolución ya ha comenzado. Es momento de estar al frente.

El futuro no está escrito. Y nosotros —como tantas veces— ayudaremos a su desarrollo.

Inteligencia artificial en las revisiones sistemáticas

Las herramientas de inteligencia artificial aumentan significativamente la eficiencia y la precisión en tareas repetitivas, permitiendo a los investigadores concentrarse en la generación de ideas y el análisis crítico. Las herramientas de IA facilitan el descubrimiento de patrones complejos en grandes volúmenes de datos que serían difíciles de identificar mediante métodos tradicionales.

Estas herramientas pueden acelerar significativamente el proceso de producción o actualización de síntesis de evidencia, lo que beneficia tanto a investigadores como a usuarios. Sin embargo, comprender las fortalezas y limitaciones de estas tecnologías es fundamental para mantener la calidad.

La inteligencia artificial no reemplaza el juicio experto; sin embargo, tiene la capacidad de potenciarlo de maneras significativas y, en algunos casos, puede distorsionarlo de formas inesperadas.

Todos aquellos involucrados en la metodología de las revisiones sistemáticas deben ponerse al día en el uso de la IA. Porque ya no se trata de una idea futura: está ocurriendo ahora, en tiempo real.

En esta entrada voy a dar una visión panorámica de cómo la IA puede intervenir en las diferentes fases del proceso de una revisión sistemática.

Fase por fase: promesas y preguntas

Figura 1. Fases de una revisión sistemática en las que puede intervenir la inteligecia artificial.

En una reciente revisión de alcance de Lieberum et al. (1) incluía 37 artículos del uso de LLM (modelo de lenguaje de gran tamaño) como apoyo en 10 de 13 pasos de las revisiones sistemáticas (ver figura 2).

Como vemos, es en las fases de búsqueda de literatura (41%) , selección de estudios (38%) y extracción de datos (30%) donde hay más estudios publicados. De todas las LLM utilizadas, es GPT (Generative Pretrained Transformer) el más empleado (89%). En la mitad de los estudios, los autores valoran los LLM como prometedores (54%).

Figura 3. Gráfico que muestra las proporciones de los pasos de la RS. Pasos de la RS (capa interna de pastel) y las aplicaciones asociadas de modelos de lenguaje grande (MLG) (capa externa de donut).

¿Puede la IA diseñar estrategias de búsqueda?

Garantizar la «reproducibilidad«, que es la piedra angular de la investigación académica y las búsquedas de literatura, como lo demuestran el enfoque de doble revisión descritos en las directrices de PRISMA. Las herramientas actuales de IA se quedan cortas en precisión y sensibilidad. Además, los usuarios pueden hacer los motores de búsqueda de IA la misma pregunta varias veces y recibir diferentes respuestas informadas por diferentes fuentes.

Aunque los LLM parecen ser potencialmente útiles como punto de partida, se necesita experiencia para revisar/supervisar/ contextualizar los outputs. En las tareas que requieren mucho tiempo, como la actualización de las búsquedas pueden automatizarse parcialmente. La IA «no es de gran ayuda» para los pasos «mecánicos» de una búsqueda (ejecución, exportación, importación). Por otro lado, las bases de datos de suscripción juegan un papel importante y restringen la posibilidad de automatización. Puede ser útil como punto de partida para el desarrollo de estrategias de búsqueda, pero no como un método único, sin ser auditado por un especialista en búsqueda de información.

Herramientas de búsquedas basadas en IA como Elicit, Consensus y el ChatGPT son inexactos y carecen de comprensión en comparación con las búsquedas de literatura iniciadas por humanos (2). Estas herramientas deben evolucionar más allá de la simple identificación de palabras clave hacia una comprensión matizada de la jerarquía académica y el contexto. Por lo tanto, la integración de la IA en las búsquedas de literatura para revisiones sistemáticas exige mejoras sustanciales en su comprensión del contexto y la jerarquía, en el cumplimiento del criterio de reproducibilidad y alinearse con los rigurosos estándares de las revisiones sistemáticas realizadas por los humanos.

Tras más de 35 años buscando información científica, puedo afirmar que nunca hemos experimentado una transformación como la que nos ofrece la inteligencia artificial. Es el momento de aprovechar esta oportunidad y ser parte del cambio que está revolucionando nuestro mundo. En conclusión, podemos decir: No puede reemplazar a los especialistas en información «todavía» …

Cuestiones éticas: la parte menos visible

El uso ético de ChatGPT y otros sistemas de LLM es un tema de debate académico y público. Aspectos que debemos reflexionar y tener en consideración:

  • Las herramientas de IA están desarrolladas, en su mayoría, por empresas privadas.
  • Los autores deben ser responsables de la revisión de literatura, no la IA. Es imprescindible mantener principios de transparencia sobre el uso de herramientas de IA y responsabilidad en la verificación de la información generada. Los investigadores deben establecer prácticas claras para citar apropiadamente el trabajo asistido por IA y garantizar que las contribuciones humanas y artificiales sean debidamente reconocidas.
  • El uso sin crítica puede llevar a la propagación de información falsa en la investigación.
  • La búsqueda con IA generativa utiliza al menos 4 a 5 veces más poder computacional que la búsqueda estándar (3). Debemos reconocer los impactos ambientales y promover un uso responsable y sostenible de los LLMs para tareas específicas en la síntesis de evidencia y la búsqueda.

BIBLIOGRAFÍA

  1. Lieberum JL, Töws M, Metzendorf MI, Heilmeyer F, Siemens W, Haverkamp C, Böhringer D, Meerpohl JJ, Eisele-Metzger A. Large language models for conducting systematic reviews: on the rise, but not yet ready for use-a scoping review. J Clin Epidemiol. 2025 Feb 26;181:111746. doi: 10.1016/j.jclinepi.2025.111746.
  2. Seth I., Lim B., Xie Y., Ross RJ., Cuomo R., Rozen WM. Artificial intelligence versus human researcher performance for systematic literature searches: a study focusing on the surgical management of base of thumb arthritis. Plast Aesthet Res. 2025, doi: 10.20517/2347-9264.2024.99.
  3. http://www.insiderintelligence.com/content/ai-search-s-high-costs-could-vicious-cycle-big-tech-eyes-profitability, 13 Feb 2023.

Retos y errores frecuentes en la búsqueda de evidencia en revisiones sistemáticas

Características de las búsquedas para revisiones sistemáticas

Las revisiones sistemáticas requieren estrategias de búsqueda rigurosas (que identifiquen todos los registros relevantes, pero no tan amplia como para que haya demasiados artículos irrelevantes), transparentes y reproducibles (documentando los pasos que se dieron durante la búsqueda) de tal forma que permita que los futuros equipos de investigación se basen en el trabajo de la revisión sistemática (RS), así como también lo evalúen, valoren y critiquen.

Fuente: elaboración propia (Importacia de las estrategias de búsqueda en las revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Entre los objetivos de la búsqueda en revisiones sistemáticas es de realizar una búsqueda exhaustiva evitando sesgos como los resultantes de la no publicación de estudios, el sesgo de publicación y el sesgo del idioma ver entradas «Sesgo de publicación y sesgos relacionados» y «Sesgos en la localización de estudios para una revisión sistemática«).

Fuente: elaboración propia (Implicaciones de los errores de búsqueda de evidencia en la validez de los resultados de la revisión sistemática © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Las revisiones sistemáticas requieren una búsqueda sistemática. Dada la complejidad de los lenguajes y reglas de indexación de las diversas bases de datos, la mejor manera para que el equipo de investigación asegure el rigor de la búsqueda es incluir un bibliotecario en el equipo de revisión.

Retos en la búsqueda de evidencia

El primer elemento de una revisión sistemática es la propia pregunta. La pregunta determinará el desarrollo de la estrategia de búsqueda y qué tipo de estudios se encontrarán. Si la pregunta no es lo suficientemente clara en este punto, es posible que no se detecten artículos que puedan ser de interés o que se encuentren muchos artículos que no son lo que se quiere.

Fuente: elaboración propia (Retos comunes en las estrategias en las revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Traslado de la pregunta de investigación a la estrategia de búsqueda. La pregunta es el punto de partida para estructurar una estrategia de búsqueda, es la de identificar los principales conceptos de la pregunta clínica (generalmente en un formato PICO para revisiones de intervención y PEO para revisiones de factores de riesgo). Los errores más comunes para traducir una pregunta de investigación en un plan de búsqueda incluyen perder un concepto importante y agregar demasiados conceptos. (ver entrada «¿Debo incluir los Resultados (Outcomes) en la estrategia de búsqueda de una revisión sistemática?«).

Aplicar límites. de forma segura para evitar sesgos y disminución de la sensibilidad. Los límites más empleados son los límites temporal, de idiomas o de acceso al texto completo gratuito pero estos solo se deben incluir en la estrategia si está justificado metodológicamente. La mejor manera de aplicar límites es hacerlo de tal manera que la búsqueda incluya registros indexados por un límite deseado sin faltar registros que cumplan con esa misma descripción pero que no se indexan de esa manera. Esto se puede lograr mediante el uso cuidadoso del operador booleano NOT (por ejemplo, para eliminar estudios animales y quedarnos solo con estudios en humanos). Ver entrada «¿Cómo limitamos el resultado de una búsqueda bibliográfica a solo humanos?: Recomendación para búsqueda en revisiones sistemáticas«. También debemos tener presente la utilización de los llamados filtros de búsqueda (ver entrada: «Qué son los filtros de búsqueda y principales herramientas para su localización«).

Errores comunes en las estrategias de búsqueda en revisiones sistemáticas

Errores en la selección de las fuentes de búsqueda

La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas. Se desconoce el número óptimo de bases de datos que hay que consultar, sin embargo, buscar en una sola base de datos no es suficiente, aunque no existe evidencia de la cantidad de bases de datos en las que se debe buscar. Una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Al elegir incluir solamente una base de datos, el revisor está introduciendo un sesgo de selección en esta etapa temprana del proceso de revisión. La búsqueda solo de PubMed y Embase recupera el 71.5% de las publicaciones incluidas, mientras que agregar bases de datos adicionales a las estrategias de búsqueda aumenta la recuperación al 94.2% (el 5.8% de las referencias no se recuperan en ninguna base de datos) (Frandsen TF, Moos C, Linnemann Herrera Marino CI, Brandt Eriksen M, Supplementary databases increased literature search coverage beyond PubMed and Embase, Journal of Clinical Epidemiology (2025), doi: https://doi.org/10.1016/j.jclinepi.2025.111704.). Ver entrada «En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas.»En qué bases de datos debemos buscar para una revisión sistemática: La producción de una revisión sistemática requiere la búsqueda sistemática en varias bases de datos bibliográficas» y «Cobertura y solapamiento de las bases de datos utilizadas en las revisiones sistemáticas de ciencias de la salud«).

Fuente: elaboración propia (Errores en la selección de las fuentes de información en la búsqueda en revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

La búsqueda ha de realizarse en bases de datos automatizadas, pero también ha de incluirse búsquedas que complementen esta, como es la búsqueda de literatura gris. Si uno realmente quiere localizar toda la evidencia que hay no puede detenerse en la búsqueda de las principales bases de datos.

Insuficiente amplitud o sensibilidad de la búsqueda

La estrategia de búsqueda ha de ser una combinación de términos del lenguaje natural (campo de título y abstract) y el vocabulario controlado de las bases de datos consultadas (Leblanc V, Hamroun A, Bentegeac R, Le Guellec B, Lenain R, Chazard E. Added Value of Medical Subject Headings Terms in Search Strategies of Systematic Reviews: Comparative Study. J Med Internet Res. 2024 Nov 19;26:e53781. doi: 10.2196/53781.).

Fuente: elaboración propia (Búsquedas para revisiones sistemáticas © 2024 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

La recolección de términos consiste en localizar toda la terminología que represente cada concepto de la pregunta de investigación.

Fuente: elaboración propia (Insuficiente amplitud o sensibilidad de la búsqueda en revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Debemos hacer balance entre la precisión y exhaustividad pero teniendo en cuenta que el objetivo de una búsqueda para una RS es identificar todos los estudios pertinentes (maximizar la sensibilidad pero con una precisión razonable). Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda. Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda.

Representación visual de precisión y sensibilidad al realizar una búsqueda de literatura de una revisión sistemática. Modificada y traducida de: Kumar V, Barik S, Raj V, Varikasuvu SR. Precision and Sensitivity: A Surrogate for Quality of Literature Search in Systematic Reviews. Clin Spine Surg. 2025;38(1):34-6.

Para maximizar la sensibilidad de nuestra búsqueda hemos de maximizar la inclusión de todos los términos de búsqueda relevantes para cada concepto. Utilizar el operador booleano OR entre los términos sinónimos e incluir los encabezamientos de materia junto con los términos de texto libre. Además, debemos evitar el uso uso de filtros. A la búsqueda en base de datos debemos añadir la búsqueda de la bibliografía de los estudios incluidos y la búsqueda prospectiva de las citas a estos estudios (ver entrada «Persecución de citas «hacia delante» y «hacia atrás» en una revisión sistemática (‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’)«).

Errores en la ejecución de las búsquedas

Salvador-Oliván y cols., encontraron que, de las estrategias de búsqueda, el 92,7% contenían algún tipo de error. Para facilitar su presentación, los errores se agruparon en 2 categorías: los que afectan al recuerdo y los que no, siendo más frecuentes los primeros (78,1%) que los segundos (59,9%). La tabla siguiente presenta la frecuencia de los distintos tipos de errores.

Errores más comunes en las búsquedas en revisiones sistemáticas. Fuente: Salvador-Oliván JA, Marco-Cuenca G, Arquero-Avilés R. Errors in search strategies used in systematic reviews and their effects on information retrieval. J Med Libr Assoc. 2019 Apr;107(2):210-221. doi: 10.5195/jmla.2019.567.

Más recientemente, Rethlefsen y cols. encontraron que el 56.0% (163/291) de todas las búsquedas de bases de datos contenía al menos un error (Rethlefsen ML, Brigham TJ, Price C, Moher D, Bouter LM, Kirkham JJ, Schroter S, Zeegers MP. Systematic review search strategies are poorly reported and not reproducible: a cross-sectional metaresearch study. J Clin Epidemiol. 2024 Feb;166:111229. doi: 10.1016/j.jclinepi.2023.111229.).

Son relativamente fácil de tener errores con palabras mal escritas (3,8%) y errores en la sintaxis del sistema que no se encuentran fácilmente mediante la revisión ortográfica.

Fuente: elaboración propia (Errores en la ejecución de las búsquedas en revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Es frecuente cometer errores en la aplicación de operadores booleanos (por ejemplo, OR puede haber sido sustituido involuntariamente por AND (o viceversa), o AND puede haberse utilizado para vincular frases o palabras (por ejemplo, como una conjunción) en lugar de como un operador booleano) y, más a menudo, olvidar usarlos son comunes. La mayoría de las bases de datos asumirán un AND cuando falte un operador, lo que reducirá en gran medida la sensibilidad y la precisión de su búsqueda. Por otro lado, algunas plataformas de búsqueda ignora los operadores booleanos cuando se escriben en minúscula aplicando el operador AND automáticamente al ser el operador por defecto. Esto ocurre en PubMed por lo que es recomendable escribir los operadores booleanos siempre en mayúscula.

Otro error común es la falta de precisión en la combinación con los operadores booleanos de los números de línea correcta. Por eso es muy recomendable verificar cada número de línea y combinaciones de números de línea para asegurarse de que la lógica de búsqueda se implementó correctamente.

Para intentar paliar estos errores de ejecución, es recomendable revisar la búsqueda y asegurarse de que el uso del anidamiento entre paréntesis sea lógico y se haya aplicado correctamente. También hay que tener en cuenta si el uso de un operador de proximidad o adyacencia en lugar de AND podría aumentar la precisión. Si se utilizan operadores de proximidad, considere si la amplitud elegida es demasiado reducida para capturar todos los casos esperados de los términos de búsqueda, que pueden variar dependiendo de si la base de datos en la que se busca reconoce o no palabras vacías. Considere si la amplitud es demasiado extensa.
Y si se incluyen límites (por ejemplo, humanos o población de ancianos), debemos asegurarnos de que se haya utilizado la construcción adecuada.

De las diferentes formas de construcción de la estrategia de búsqueda, recomiendo la búsqueda por bloques, es decir, una línea por cada concepto de búsqueda partiendo de nuestra pregunta estructurada (PICOs) para intentar minimizar los errores antes descritos. De esta forma, la búsqueda se corresponderá con el marco de nuestra pregunta del que partimos en nuestra revisión. (ver entrada «Cómo estructurar la estrategia de búsqueda para revisiones sistemáticas: tres enfoques diferentes pero complementarios»).

Los términos de texto libre se utilizan normalmente para cubrir los encabezamientos de materia que faltan en la base de datos, recuperar registros no indizados o mal indizados. Debemos considerar los elementos del uso del texto libre, como demasiado restringido o demasiado amplio, la relevancia de los términos y si se han incluido sinónimos o antónimos.

Con respecto al uso de descriptores o encabezamientos de materia, hemos de comprobar si faltan encabezamientos o si son incorrectos los que utilizamos en nuestra estrategia, analizar la relevancia/irrelevancia de los términos y el uso correcto de la búsqueda ampliada para incluir términos relevantes más específicos.

Debemos considerar que el uso de subencabezamientos flotantes que en la mayoría de los casos son preferibles al uso de subencabezamientos ligados a encabezados de materias específicas.

Adaptación entre bases de datos y plataformas

Una vez hemos realizado la búsqueda en una base de datos debemos trasladar la estrategia a la siguiente base de datos. Esto significa que el vocabulario controlado, los términos del lenguaje natural y todas las demás etiquetas y operadores de campo utilizados deben ser lo más similar posible.

Fuente: elaboración propia (Errores en el traslado de la estrategia entre bases de datos y plataformas en revisiones sistemáticas© 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Deficiencias en la documentación de las estrategias de búsqueda de evidencia

Las búsquedas de revisión sistemática deben ser reproducibles, pero la mayoría no lo son. Rethlefsen y cols. encontraron que solo el 1% de las revisiones sistemáticas eran completamente reproducibles para todas las búsquedas de bases de datos. Además, las búsquedas de revisión sistemática siguen informándose mal. La gran mayoría de las revisiones sistemáticas (91%) ni siquiera proporciona suficientes detalles para identificar las bases de datos/plataformas utilizadas para todas las búsquedas de bases de datos (Rethlefsen ML, Brigham TJ, Price C, Moher D, Bouter LM, Kirkham JJ, Schroter S, Zeegers MP. Systematic review search strategies are poorly reported and not reproducible: a cross-sectional metaresearch study. J Clin Epidemiol. 2024 Feb;166:111229. doi: 10.1016/j.jclinepi.2023.111229.).

Fuente: elaboración propia (Deficiencias en la documentación de las estrategias en revisiones sistemáticas© 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

El uso de pautas de informes, en concreto de PRISMA-S y PRISMA 2020, puede ayudar a guiar a los autores y bibliotecarios sobre las mejores prácticas para realizar informes transparentes (ver entrada «Actualización de la guía para la presentación de informes de revisiones sistemáticas: desarrollo de la declaración PRISMA 2020«).

Recomendaciones para mejorar las estrategias de búsqueda en revisiones sistemáticas

Para intentar minimizar los errores en la búsqueda en revisiones sistemáticas, es recomendable que un segundo bibliotecario haga la revisión por pares de la búsqueda utilizando la herramienta PRESS (Peer Review of Electronic Search Strategies (McGowan J, Sampson M, Salzwedel DM, Cogo E, Foerster V, Lefebvre C. PRESS Peer Review of Electronic Search Strategies: 2015 Guideline Statement. J Clin Epidemiol. 2016 Jul;75:40-6. doi: 10.1016/j.jclinepi.2016.01.021. PMID: 27005575.) justo antes de finalizar el protocolo y antes de hacer las búsquedas definitivas de la revisión.

Fuente: elaboración propia (Recomendaciones para mejorar las estrategias de búsqueda en revisiones sistemáticas © 2025 by Concepción Campos-Asensio is licensed under CC BY-ND 4.0 )

Y por último, para la mejora de las estrategias de búsqueda y su informe transparente es necesario implicar a los bibliotecarios, los equipos de revisión sistemática, los revisores por pares y los editores de revistas.

Pasos de la búsqueda para síntesis de evidencia: Metodología de la JBI

El Manual del JBI para Síntesis de Evidencia acaba de actualizar el capítulo 2.4.correspondiente a la metodología de búsqueda (Disponible en: https://jbi-global-wiki.refined.site/space/MANUAL/355827873/2.4+Search+Methodology+for+JBI+Evidence+Syntheses).

Las revisiones del JBI se distinguen en el componente de búsqueda por su proceso de búsqueda explícito en 3 pasos. Este enfoque metodológico asegura una revisión exhaustiva y sistemática de la evidencia relevante, mejorando la calidad y la fiabilidad de los resultados de la revisión.

Paso 1: Búsqueda exploratoria inicial

El primer paso es una búsqueda exploratoria inicial para encontrar «referencias semilla», es decir, registros de estudios que cumplan los criterios de inclusión para la pregunta de la revisión. Tras estas búsquedas exploratorias iniciales, se recogen las palabras clave del título y el resumen, junto con los términos de indización (también denominados términos MeSH en MEDLINE, Tesauro, Vocabulario controlado, descriptores o encabezamientos de materia) de las referencias semilla. Se debe consultar con el equipo de revisión para recopilar otras palabras clave y términos indexados.

En esta fase utilizaremos las siguientes herramientas:

  • Bases de datos, generalmente MEDLINE y CINAHL.
  • Herramientas adicionales como Google, Google Académico y herramientas de descubrimiento de bibliotecas (PRIMO, OneSearch, SumSearch, etc.).
  • Herramientas de IA generativa (p. ej.: ChatGPT). Pueden ser útiles para encontrar estas referencias iniciales. Sin embargo, en el caso de las fuentes encontradas a través de ChatGPT, es importante verificar que no sean alucinaciones.

Paso 2: Desarrollo de la estrategia de búsqueda exhaustiva

El segundo paso consiste en desarrollar una estrategia de búsqueda exhaustiva utilizando estas palabras clave recolectadas y los términos de indización en la base de datos primaria/clave definida en nuestro Protocolo de revisión.

El desarrollo de una búsqueda exhaustiva es un proceso iterativo que implica probar combinaciones de palabras clave y términos indizados y comprobar que la estrategia de búsqueda recupera las referencias iniciales.

Una vez desarrollada la estrategia de búsqueda en la base de datos primaria, se traslada a otras bases de datos.

Paso 3: Búsqueda complementaria

El tercer paso es la búsqueda complementaria en la literatura gris, la búsqueda de citas y la búsqueda manual. La Declaración TARCiS (Terminology, Application and Reporting of Citation Searching) proporciona orientación sobre cuándo y cómo realizar búsquedas de citas como técnica de búsqueda complementaria en la síntesis de la evidencia y, lo que es más importante, cómo informar de ello (Hirt et al. 2024).

Para las preguntas de revisión que son complejas, la búsqueda de citas hacia delante y hacia atrás (forward and backward citation searching) se considera obligatoria.

Bibliografía

Search Methodology for JBI Evidence Syntheses. In: Aromataris E, Lockwood C, Porritt K, Pilla B, Jordan Z, editors. JBI Manual for Evidence Synthesis. JBI; 2024. Available from: https://synthesismanual.jbi.global. https://doi.org/10.46658/JBIMES-24-01

Hirt J, Nordhausen T, Fuerst T, Ewald H, Appenzeller-Herzog C; TARCiS study group. Guidance on terminology, application, and reporting of citation searching: the TARCiS statement. BMJ. 2024 May 9;385:e078384. doi: 10.1136/bmj-2023-078384. Erratum in: BMJ. 2024 Nov 7;387:q2458. doi: 10.1136/bmj.q2458. PMID: 38724089.

Revisiones paraguas / Revisión de revisiones / Umbrella reviews /Overviews

La revisiónes paraguas, que a veces las encontraremos como Revisión de revisiones o Umbrella review y Overview of review en inglés, son una solución eficiente para navegar el creciente volumen de revisiones sistemáticas en salud y son de gran valor para la toma de decisiones de atención médica al combinar grandes volúmenes de datos de revisiones sistemáticas (RS) en una sola síntesis. 

Origen

Surgen por el desafío de la sobrecarga de Información debido al incremento de estudios y de las revisiones sistemáticas que los sintetizan. Además, muchas de estas revisiones son conflictivas, es decir, arrojan resultados opuestos.

Ejemplo de metaanálisis discordantes. Disponible en: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0115934

Por otro lado, existe la imperiosa necesidad de abordar preguntas amplias presentando una visión general sobre un tema, en lugar de estrechar el enfoque a una sola intervención. Por último, evita derrochan recursos de llevar a cabo nuevas revisiones en lugar de aprovechar las existentes.

¿Qué es una Revisión Paraguas?

Los Overviews son revisiones sistemáticas de revisiones sistemáticas existentes sobre un tema de salud específico. A diferencia de las revisiones sistemáticas, la unidad de análisis son las revisiones sistemáticas y no los estudios primarios. Es decir, buscar e incluye solo revisiones sistemáticas (con o sin metanálisis) y recopila, analiza y presenta los datos de las revisiones sistemáticas incluidas.

Por lo tanto, un requisito previo para realizar una revisión paraguas es la disponibilidad de múltiples revisiones sistemáticas actualizadas de alta calidad que cubran todas las intervenciones de interés. Las revisiones paraguas no deben buscar e incluir revisiones narrativas, capítulos de libros de texto, informes gubernamentales, guías de práctica clínica o cualquier otro informe resumido que no se ajuste a su definición predefinida de revisión sistemática.

Las Overviews no son apropiadas para identificar brechas en la investigación, clasificar intervenciones o hacer comparaciones indirectas.

También se desaconsejas las comparaciones indirectas en las revisiones paraguas. Por ejemplo, imaginemos un Overview que incluya dos revisiones sistemáticas. La revisión sistemática 1 incluye estudios que comparan la intervención A con la intervención B, y concluye que A es más eficaz que B. La revisión sistemática 2 incluye estudios que comparan la intervención B con la intervención C, y concluye que B es más eficaz que C. Sería tentador para los autores del resumen concluir que A es más eficaz que C. Sin embargo, esto requeriría una comparación indirecta, un procedimiento estadístico que compara dos intervenciones (es decir, A frente a C) a través de un comparador común (es decir, B) a pesar de que las dos intervenciones nunca se han comparado directamente entre sí dentro de un estudio primario (Glenny et al 2005).

Beneficios de las Revisiones Paraguas

Visión Amplia: Proporciona una perspectiva general sobre un tema de salud complejo. Identifica áreas de consenso y controversia en la evidencia disponible.

Ahorro de Tiempo: Ofrece una síntesis rápida para la toma de decisiones con plazos ajustados. Evita la duplicación innecesaria de esfuerzos en la revisión de evidencia.

Calidad de la Evidencia: Se basa en revisiones sistemáticas, que ya han pasado por un riguroso proceso. Permite una evaluación crítica de la calidad de múltiples revisiones.

Características

Búsqueda y fuentes de información para las revisiones paraguas

Como en las revisiones sistemáticas, la búsqueda bibliográfica que ha de ser exhaustiva y reproducible.

En general, MEDLINE/PubMed y Embase indexan la mayoría de las revisiones sistemáticas. Los autores también pueden buscar en bases de datos regionales y temáticas adicionales (por ejemplo, LILACS, CINAHL, PsycINFO) y en repositorios de revisiones sistemáticas como la Cochrane Library, Epistemonikos y KSR Evidence.

En la búsqueda en bases de datos generales se debe utilizar filtros validados para solo recuperar revisiones sistemáticas.

Solapamiento de revisiones sistemáticas

Un paso importante una vez que los autores tienen su lista final de revisiones sistemáticas incluidas es evaluar el solapamiento, es decir, determinar qué estudios primarios están incluidos en qué revisiones sistemáticas.

Cochrane recomienda crear una matriz de citas similar a la tabla para demostrar visualmente la cantidad de solapamientos. Los autores también deben describir narrativamente el número y el tamaño de los estudios primarios que se solapan, así como la ponderación que aportan a los análisis. Pieper et al (Pieper D, Antoine S, Mathes T, Neugebauer E, Eikermann M. Systematic review finds overlapping reviews were not mentioned in every other overview. Journal of Clinical Epidemiology 2014; 67: 7.) proporciona instrucciones detalladas para crear matrices de citas, describir el solapamiento y calcular el área cubierta corregida.

Calidad metodológica o el riesgo de sesgo de las revisiones sistemáticas incluidas en las síntesis

La herramienta AMSTAR 2 (Shea BJ, Reeves BC, Wells G, Thuku M, Hamel C, Moran J, Moher D, Tugwell P, Welch V, Kristjansson E, Henry DA. AMSTAR 2: a critical appraisal tool for systematic reviews that include randomised or non-randomised studies of healthcare interventions, or both. BMJ 2017; 358: j4008.) está diseñada para evaluar la calidad metodológica de las revisiones sistemáticas de ensayos controlados aleatorizados, y hasta la fecha ha sido la herramienta más utilizada en los Overviews. Se puede utilizar para evaluar la calidad metodológica de las revisiones sistemáticas que incluyen estudios aleatorizados y no aleatorizados de intervenciones sanitarias. Esta proporciona orientación para calificar la confianza general en los resultados de una revisión (alta, moderada, baja o críticamente baja en función del número de defectos críticos y/o debilidades no críticas).

Otra herramienta disponible para evaluar el riesgo de sesgo de las revisiones sistemáticas en los resúmenes pueden utilizar la herramienta ROBIS disponible en el sitio web de ROBIS (https://www.bristol.ac.uk/population-health-sciences/projects/robis/). Este sitio web también contiene formularios de extracción de datos y tablas de presentación de datos.

BIBLIOGRAFÍA

El futuro de la búsqueda de información con inteligencia artificial, ¿será sencilla y fácil?

Releía ayer el artículo Easy ≠ Right (1) con estupendas reflexiones de la bibliotecaria Melissa L. Rethlefsen, autora principal de las directrices PRISMA-S, que en 2008 nos advertía que «no hay soluciones únicas para una investigación de calidad» y que a «la hora de buscar información, ¿Qué es lo correcto y qué lo fácil?

El desarrollo de estrategias de búsqueda sólidas para buscar en la literatura e identificar estudios es un paso crucial en la metodología de síntesis de la evidencia. Sin embargo, su complejidad hizo aparecer herramientas que facilitaban la localización de evidencia de alta calidad (2). En la década de los 90, la búsqueda federada, también conocida como metabúsqueda o búsqueda cruzada en bases de datos, permitía la práctica de utilizar una interfaz para buscar en múltiples fuentes de una sola vez. Fue anunciada como la próxima novedad en búsquedas.

Rethlefsen afirmaba que encontrar la mejor información o la más completa sobre un tema requiere más esfuerzo que buscar introduciendo una o dos palabras clave en una caja de búsqueda. Y he reflexionado sobre la búsqueda con inteligencia artificial de la que hoy en día tanto interés nos despierta. Por el momento podemos seguir afirmando lo mismo que la autora nos decía hablando de Google, pero el futuro nos dirá la última palabra.

Por último, estos avances en los «sistemas de búsqueda» no permiten la transparencia o la reproducibilidad de la metodología de búsqueda (3). Esto ha sido, hasta la fecha, una de las claves para las revisiones sistemáticas de calidad y libre de sesgos (4).

BIBLIOGRAFÍA

  1. Rethlefsen ML. Easy ≠ Right. Libr J 2008;133:12–14.
  2. Solomons T, Hinton E. Federated searches: why a one-stop shop approach to literature searching falls short for evidence synthesis. JBI Evidence Synthesis 19(6):p 1259-1262, June 2021. | DOI: 10.11124/JBIES-21-00177
  3. Rethlefsen ML, Kirtley S, Waffenschmidt S, Ayala AP, Moher D, Page MJ, et al. PRISMA-S: an extension to the PRISMA Statement for Reporting Literature Searches in Systematic Reviews. Syst Rev 2021;10 (1):39.
  4. Why Does the Reproducibility of Search Strategies and Search Results in Systematic Reviews Reduce Over Time? What We Can Do About It? by @FarhadShokrane Disponible en: https://link.medium.com/jezQLPFeyFb 

Búsqueda de información, calidad de la evidencia científica y recursos de la biblioteca del Hospital de Getafe

Dentro del curso de «Principios básicos  en investigación clínica» que ha comenzado a celebrarse hoy en el Hospital Universitario de Getafe, he impartido una clase sobre la búsqueda de información, calidad de la evidencia científica y recursos de la Biblioteca del Hospital de Getafe.

Comparto con todos mi presentación, esperando os resulte de interés.

¿Cómo limitamos el resultado de una búsqueda bibliográfica a solo humanos?: recomendación para búsqueda en revisiones sistemáticas

Es una práctica habitual y recomendada en la búsqueda de evidencia para documentos de síntesis de evidencia, limitar los resultados a estudios realizados solo en humanos.

¿Sabrías cómo hacerlo? Inténtalo:

¿CUÁL ES EL PROBLEMA?

Veamos los motivos por lo que la respuesta no es tan simple como a simple vista puede parecer.

Los dos primeros son comunes a toda búsqueda que realicemos con los descriptores o tesauro de indización de las bases de datos como MeSH o EMTREE. Si solo buscamos por estos descriptores, perderemos registros mal indizados y aquellos que no estén indizados, bien por ser muy recientes o por no asignar estos términos a alguna parte del contenido de la fuente. Esto último ocurre en PubMed, donde los registros procedentes de PMC o de otras colecciones que no son MEDLINE, nunca pasarán por el proceso de indización.

Pero es que, además, un hecho que muchas veces no tenemos en cuenta es que los humanos formamos parte del reino animal. Por lo tanto, la búsqueda por «Animals»[MeSH] recupera también los artículos asignados con los descriptores más específicos situados debajo de este árbol. Es decir, recuperaríamos también los humanos.

¿CUÁL ES LA SOLUCIÓN?

La mejor práctica consiste en identificar primero los estudios con animales y excluirlos de los resultados de la búsqueda (Usar la «DOBLE NEGACIÓN»).

SINTAXIS DE BÚSQUEDA EN DIFERENTES BASES DE DATOS/PLATAFORMAS

  1. PubMed

2. MEDLINE (Ovid)

3. EMBASE (Ovid)

4. EMBASE (Elsevier)

5. CINAHL (Ebsco)

6. SCOPUS

Y ahora, te dejo la tabla con el resumen de estos filtros para buscar humanos en las diferentes bases de datos/plataformas:

Comprueba lo que sabes del MeSH de MEDLINE

Los tesauros son los encabezamientos de materias utilizados por algunas de las principales bases de datos bibliográficas para describir el contenido de cada artículo publicado. Tesauro es el «vocabulario controlado» (lista de términos establecido) que categorizan artículos en función de su contenido (dichos términos variarán de una base de datos a otra). P. ej.: PubMed utiliza términos del Medical Subject Headings o MeSH, que es el vocabulario controlado de MEDLINE y Embase utiliza el EMTREE.

Los tesauros tienen una estructura jerárquica. Así, los términos MeSH se clasifican dentro de 16 «árboles» principales (como anatomía, organismos, enfermedades, medicamentos y productos químicos), cada uno de los cuales se ramifica de los términos más amplios a los más específicos. Por ejemplo, al ingresar demencia, PubMed identificará términos MeSH relevantes que incluyen demencia y enfermedad de Alzheimer. Al seleccionar Demencia, verá el árbol de términos, incluidas las subcategorías enumeradas a continuación, como la enfermedad de cuerpos de Lewy, Alzheimer o demencia vascular.

Aunque la búsqueda por el MeSH siempre es más precisa, no siempre es suficiente. Así, si el objetivo de nuestra búsqueda es localizar de forma exhaustiva toda la información de un tema, deberemos combinar la búsqueda del tesauro con el lenguaje natural. En la siguiente imagen vemos algunas de las causas:

Ahora os propongo un juego para que compruebes lo que conoces del MeSH.

¿Preparado para ver cuanto sabes del MeSH? Activa el audio y juega.

Cómo buscar en PubMed II: Opciones avanzadas

Para que los resultados de la búsqueda sean mejores, PubMed dispone de las siguientes opciones:

Búsqueda combinada utilizando operadores:

Para ello disponemos de los siguientes operadores:

  • AND: recupera referencias que contengan los dos términos de búsqueda, teniendo en cuenta que deben aparecer en el mismo registro. Especifica y delimita la búsqueda.
  • OR: recupera referencias que contengan los dos términos, o al menos uno de ellos. Principalmente, se utiliza para localizar sinónimos, variantes y múltiples formas en las que se puede expresar un mismo tema.
  • NOT: excluye referencias que contengan el término escrito después del operador.

Búsquedas por frases

Nos permite buscar términos compuestos por múltiples palabras. Para ello has de escribir los términos entre comillas. Por ejemplo: “Blood glucose control» e «Intensive care Unit», buscará los artículos que tienen los tres términos seguidos y en ese orden. Veamos cómo sería la búsqueda en el siguiente vídeo:

Búsqueda por frases en PubMed

Truncamiento de términos

Para utilizar la función de truncar términos, escribe la raíz de la palabra y un asterisco. PubMed buscará términos que compartan la misma raíz. Por ejemplo, para la raíz «cardiovas»Intensive care Unit*», buscará términos como Intensive care unit e Intensive Care Units.

Búsqueda con truncamientos

Búsqueda sensible

Si queremos aumentar el resultado de nuestra búsqueda debemos incluir las posibles variaciones de cada concepto con sinónimos, cuasi sinónimos, acrónimos, etc.

En el caso de la búsqueda que estamos realizando sobre control glucémico en pacientes en UCI, algunas posibles variantes son las que vemos en la siguiente imagen:

Posibles términos a incluir en nuestra estrategia de búsqueda para aumentar el resultado.

De esta forma, nuestra estrategia podría ser la siguiente:

(«Critical Care» OR «Intensive Care» OR «Critical Illness» OR «Critically Ill Patient*» OR «Critically-ill Patient*» OR ICU OR ICUS OR «Intensive Care Unit*» OR «Intensive Treatment» OR «Intensive Therap*») AND («Glycemic control» OR «Glycaemic control» OR «Glucose control» OR «Glucose level*» OR «Glycemic Index» OR «Glycaemic Index» OR «Glycemic target*» OR «Glycaemic target*» OR «Glucose target*» OR Hyperglycemia OR Hypoglycemia OR «Insulin Therapy» OR «Insulin infusion» OR IIT)

En el siguiente vídeo vemos como hacer este tipo de búsqueda en PubMed:

Búsqueda en PubMed optimizando la sensibilidad.

Búsqueda en campos del registro

Aunque las listas de resultados se muestran en lenguaje natural, el registro de PubMed adopta un formato para su recuperación llamado MEDLINE. En este, la información se estructura en campos que se identifican por su etiqueta correspondiente o «tag».

Esta opción se utiliza cuando es preciso recuperar información localizándola en un campo concreto y no en todo el registro bibliográfico.

Se puede buscar en un campo determinado  desde la pantalla de inicio escribiendo junto al término su etiqueta de campo entre corchetes. En este caso. el investigador debe conocer previamente la etiqueta  correspondiente y la forma correcta de escribirla.

Las etiquetas se pueden escribir abreviadas o completas:

  • [TI] / [Title]
  • [AU] / [Author]
  • [AB] / [Abstract]

La lista de etiquetas se puede consultar en la página de ayuda de la NLM

Etiquetas de campos de PubMed

Para nuestro ejemplo, si queremos limitar el resultado a aquellos registros que incluyan nuestros términos de búsqueda en los campos de título o resumen, la estrategia sería:

(«Critical Care»[tiab] OR «Intensive Care»[tiab] OR «Critical Illness»[tiab] OR «Critically Ill Patient*»[tiab] OR «Critically-ill Patient*»[tiab] OR ICU[tiab] OR ICUS[tiab] OR «Intensive Care Unit*»[tiab] OR «Intensive Treatment»[tiab] OR «Intensive Therap*»[tiab]) AND («Glycemic control»[tiab] OR «Glycaemic control»[tiab] OR «Glucose control»[tiab] OR «Glucose level*»[tiab] OR «Glycemic Index»[tiab] OR «Glycaemic Index»[tiab] OR «Glycemic target*»[tiab] OR «Glycaemic target*»[tiab] OR «Glucose target*»[tiab] OR Hyperglycemia[tiab] OR Hypoglycemia[tiab] OR «Insulin Therapy»[tiab] OR «Insulin infusion»[tiab] OR IIT[tiab])

Y si queremos limitar el resultado a aquellos registros que incluyan nuestros términos, pero como palabras del título, sería:

(«Critical Care»[ti] OR «Intensive Care»[ti] OR «Critical Illness»[ti] OR «Critically Ill Patient*»[ti] OR «Critically-ill Patient*»[ti] OR ICU[ti] OR ICUS[ti] OR «Intensive Care Unit*»[ti] OR «Intensive Treatment»[ti] OR «Intensive Therap*»[ti]) AND («Glycemic control»[ti] OR «Glycaemic control»[ti] OR «Glucose control»[ti] OR «Glucose level*»[ti] OR «Glycemic Index»[ti] OR «Glycaemic Index»[ti] OR «Glycemic target*»[ti] OR «Glycaemic target*»[ti] OR «Glucose target*»[ti] OR Hyperglycemia[ti] OR Hypoglycemia[ti] OR «Insulin Therapy»[ti] OR «Insulin infusion»[ti] OR IIT[ti])

En el siguiente vídeo vemos estas dos últimas opciones de búsqueda:

Búsqueda en PubMed por campos

Estas son algunas de las opciones avanzadas. En próximas entradas veremos más posibilidades de búsqueda que nos brinda PubMed.