La importancia de un buen resumen en las revisiones sistemáticas: inteligencia artificial y cribado de estudios

El resumen es, a menudo, la única parte de un artículo que muchos lectores llegan a consultar. Es la primera puerta de entrada para investigadores, clínicos, revisores y facilita la comprensión rápida de los objetivos, métodos y resultados principales de un estudio. Pero además cumple un papel esencial en la recuperación de información: en bases de datos y motores de búsqueda -especialmente si no disponen de tesauro- las búsquedas se realizan fundamentalmente en los campos de título y resumen, y no en el texto completo de los artículos. Esto significa que, si los conceptos clave del estudio no están descritos de forma clara y completa en el resumen, es probable que el artículo no sea recuperado en una búsqueda bibliográfica, aunque sea muy relevante para la pregunta de investigación.

La calidad del resumen no solo es importante para que los lectores comprendan el estudio, sino también para que el artículo sea recuperable y visible en las búsquedas bibliográficas.

En un contexto donde cada vez se publican más artículos, los resúmenes no solo son leídos por personas, sino también procesados por herramientas automáticas de cribado y algoritmos de inteligencia artificial que ayudan en la selección de estudios para revisiones sistemáticas.

Un artículo reciente publicado en el Journal of Clinical Epidemiology (Write Your Abstracts Carefully – The Impact of Abstract Reporting Quality on Findability by Semi-Automated Title-Abstract Screening Tools, Spiero et al., 2025) demuestra con claridad esta idea:

  • Resúmenes de mayor calidad (medidos con los criterios TRIPOD) son más fáciles de identificar como relevantes por herramientas de cribado semiautomatizado.
  • El uso de subapartados en resúmenes estructurados también aumenta la probabilidad de que los artículos sean detectados.
  • En cambio, aspectos como la longitud del resumen o la variación terminológica no influyen en la capacidad de las herramientas para identificar artículos relevantes.

¿Por qué es importante esto?

Porque si los resúmenes están mal redactados, los estudios relevantes pueden pasar desapercibidos, lo que introduce sesgo de selección en las revisiones sistemáticas, y debilita la calidad de la síntesis de la evidencia.

Implicaciones prácticas

Para los autores de los artículos:

  • Redactar resúmenes completos, claros y estructurados, siguiendo las guías de reporte, aumenta la visibilidad de sus estudios en revisiones sistemáticas.
  • Una mala calidad de resumen puede traducirse en menor probabilidad de ser incluido en síntesis de evidencia, incluso si el estudio es relevante.

Para los equipos de revisiones sistemáticas:

  • Deben ser conscientes de que los algoritmos de cribado dependen de la calidad del resumen: resúmenes pobres pueden ser omitidos por las herramientas.
  • Es recomendable mantener estrategias de búsqueda amplias y sensibles, y vigilar el posible sesgo por omisión de estudios relevantes con resúmenes deficientes.
  • Documentar esta limitación metodológica en los protocolos y discusiones de las revisiones.

Para los bibliotecarios:

  • Al apoyar en búsquedas y cribado, conviene alertar sobre el riesgo de sesgo asociado a resúmenes mal redactados.
  • Los bibliotecarios pueden desempeñar un papel formativo, promoviendo la adhesión a guías de reporte (CONSORT, STROBE, TRIPOD…) entre investigadores y clínicos.
  • En la práctica, esto refuerza el papel del bibliotecario como garante de la calidad metodológica y transparencia en la síntesis de la evidencia.

En definitiva, escribir un buen resumen no es solo un ejercicio de comunicación científica: es una garantía de visibilidad, accesibilidad y rigor científico.

Referencia

Spiero I, Leeuwenberg AM, Moons KGM, Hooft L, Damen JAA, Write Your Abstracts Carefully – The Impact of Abstract Reporting Quality on Findability by Semi-Automated Title-Abstract Screening Tools. J Clin Epidemiol. 2025, doi: https://doi.org/10.1016/j.jclinepi.2025.111987.

¿Por qué cuesta tanto abandonar cribados oncológicos de bajo valor?

En la literatura científica se habla mucho de cómo implementar prácticas basadas en la evidencia, pero mucho menos de cómo desimplementar aquellas que han demostrado ser ineficaces o incluso dañinas.

Las prácticas de bajo valor se consideran una fuente de “desperdicio” en los sistemas sanitarios: en EE. UU., se calcula que la atención de bajo valor supone entre 75 y 100 mil millones de dólares al año. La desimplementación no es simplemente “dejar de hacer algo”, sino un proceso activo que requiere superar barreras culturales, organizativas y de expectativas de pacientes y profesionales. Al igual que la implementación de prácticas de alto valor, la desimplementación es lenta: el artículo muestra que pueden pasar de 4 a 16 años hasta lograr una reducción del 50 % en el uso de ciertas pruebas.

Un reciente artículo publicado en BMJ Quality & Safety (LeLaurin JH, et al., 2025) analiza precisamente este aspecto: el tiempo que tarda el sistema sanitario en dejar de utilizar cribados oncológicos de bajo valor, es decir, pruebas que no aportan beneficio real al paciente y que pueden generar costes innecesarios, ansiedad o complicaciones derivadas de procedimientos invasivos.

El artículo revisa el tiempo necesario para la desimplementación de prácticas de cribado oncológico de bajo valor en EE. UU. (clasificadas como Grade D por la USPSTF). Se estudian seis prácticas: cribado de cáncer cervical en <21 y >65 años, cribado de próstata en ≥70 años, y cribados de ovario, tiroides, testículo y páncreas en adultos asintomáticos.

Lo que muestra el estudio

En el caso del cribado de cáncer de cuello uterino:

  • en mujeres menores de 21 años, se tardaron solo 4 años en reducir su uso a la mitad.
  • en mayores de 65 años, la desimplementación llevó 16 años.

En el cribado de próstata en varones ≥70 años, más de una década después de publicarse las guías, aún no se ha alcanzado la reducción del 50 %.

Para otros cribados (ovario, tiroides, testículo, páncreas), la falta de datos fiables impide conocer el tiempo de desimplementación.

Barreras para la desimplementación

  • Deficiente diseminación de la evidencia: los hallazgos que muestran la ineficacia o los daños de ciertas prácticas no siempre llegan de manera efectiva a los profesionales.
  • Normas y hábitos arraigados: la inercia clínica y la práctica establecida dificultan abandonar procedimientos habituales.
  • Resistencia al cambio: tanto de profesionales como de pacientes, que pueden percibir la retirada de una práctica como pérdida de calidad en la atención.
  • Confusión y escepticismo: los cambios frecuentes en las guías clínicas generan dudas y desconfianza en la validez de las recomendaciones.
  • Expectativas de los pacientes: algunos esperan recibir pruebas o tratamientos de rutina, incluso cuando no son necesarios, lo que ejerce presión sobre los médicos para mantenerlos.
  • Necesidad de atención personalizada y decisión compartida: en algunos casos puede justificarse un uso selectivo de la práctica en pacientes concretos, lo que complica su retirada universal.
  • Consecuencias no deseadas de la desimplementación:
    • reducción de ingresos en el sistema sanitario,
    • utilización inapropiada de otras prácticas,
    • pérdida de confianza por parte de los pacientes.

Conclusiones

Retirar de forma sistemática el cribado oncológico de bajo valor podría aumentar la eficiencia de los sistemas de salud, mejorar los resultados en salud (menos efectos adversos y menos ansiedad en pacientes), reducir los costes de la atención sanitaria y aumentar la eficiencia de los sistemas de salud.

Si implementar lo nuevo ya es lento (de media 15 años para que una innovación llegue al 50 % de uso), abandonar lo que no funciona puede ser aún más difícil y desigual. De ahí la importancia de contar con estrategias activas de desimplementación, sistemas de monitorización sólidos y profesionales de la salud comprometidos con la mejora continua.

Bibliografía

LeLaurin JH, Pluta K, Norton WE, Salloum RG, Singh Ospina N. Time to de-implementation of low-value cancer screening practices: a narrative review. BMJ Qual Saf. 2025 Jul 18;34(8):547-555. doi: 10.1136/bmjqs-2025-018558. 

Shrank WH, Rogstad TL, Parekh N. Waste in the US Health Care System: Estimated Costs and Potential for Savings. JAMA. 2019 Oct 15;322(15):1501-1509. doi: 10.1001/jama.2019.13978. 

Khan S , Chambers D , Neta G . Revisiting time to translation: implementation of evidence-based practices (EBPs) in cancer control. Cancer Causes Control 2021;32:221–30. doi:10.1007/s10552-020-01376-z

¿Herramientas de IA en búsquedas para revisiones sistemáticas?

La inteligencia artificial está irrumpiendo con fuerza en la síntesis de evidencia. Un estudio reciente de la Agencia Canadiense de Medicamentos (CDA-AMC) ofrece datos interesantes que conviene conocer (Featherstone R, Walter M, MacDougall D, Morenz E, Bailey S, Butcher R, et al. Artificial Intelligence Search Tools for Evidence Synthesis: Comparative Analysis and Implementation Recommendations. Cochrane Evidence Synthesis and Methods. 2025;3(5):e70045, doi: 10.1002/cesm.70045.).

Este artículo tuvo como objetivo evaluar el potencial de herramientas de búsqueda basadas en inteligencia artificial (Lens.org, SpiderCite y Microsoft Copilot) para apoyar la síntesis de evidencia vs. métodos de búsqueda tradicionales y establecer recomendaciones de implementación bajo un enfoque “fit for purpose”, es decir, utilizar cada herramienta solo para tareas específicas donde aporten valor. Se evaluaron siete proyectos completados en la agencia, aplicando búsquedas de referencia (método tradicional) frente a búsquedas con cada herramienta de IA. Se midieron sensibilidad/recall, número necesario a leer (NNR), tiempo de búsqueda y cribado, y contribuciones únicas de cada herramienta. Además, se recogió experiencias de los especialistas en información sobre usabilidad, limitaciones y sorpresas en el uso de los tres sistemas.

Resultados

Método / HerramientaSensibilidad promedioDiferencias entre proyectos simples y complejosNNR (número necesario a leer)Tiempo de búsquedaObservaciones principales
Métodos tradicionales0.98 – 1 (casi perfecta)Consistentemente alta en todos los proyectosMás bajo que IA2.88 h en promedioEstándar de referencia, máxima fiabilidad
Lens.org0.676Simples: 0.816 Complejos: 0.6Más alto que el estándar (98 vs 83)Mayor tiempo (2.25 h, más que Copilot o SpiderCite)Mejor de las IA, pero menos eficiente; útil en búsquedas simples y de autores
SpiderCite0.23 – 0.26Similar en simples y complejosVariable (Cited by mejor que Citing)~1.25 hMuy baja sensibilidad, pero puede aportar referencias únicas en temas complejos; solo útil como complemento
Copilot0.24 (muy variable: 0–0.91 según proyecto)Simples: 0.41 Complejos: 0.15Muy variable (mejor en simples, muy alto en complejos)Más rápido (0.96 h promedio)Dependiente de la calidad de los prompts; no sustituye estrategias, útil para sugerir palabras clave

Sensibilidad = proporción de estudios relevantes efectivamente recuperados.
NNR = número necesario a leer; cuanto menor, mejor eficiencia de cribado.

Verde = mejor desempeño relativo. Amarillo = intermedio / aceptable. Rojo = débil. Naranja = muy variable según proyecto.

Discusión

  • Las herramientas de IA mostraron rendimiento variable e inconsistente, lo que implica que no pueden reemplazar las búsquedas profesionales estándar en revisiones sistemáticas.
  • Pueden generar falsa confianza en usuarios sin experiencia. Se requiere conocimiento experto en construcción de estrategias y en validación de resultados para corregir limitaciones.
  • Limitaciones del estudio: solo se evaluaron 7 proyectos y 3 herramientas, sin analizar combinaciones entre ellas

Recomendaciones de implementación

La CDA-AMC propuso un uso limitado y estratégico:

  1. Lens.org: útil para revisiones con preguntas acotadas y técnicas (como dispositivos con una función o población bien definida) o para identificar rápidamente autores vinculados a un tema o indicación clínica cuando los métodos estándar no alcanzan.
  2. SpiderCite: complemento para búsquedas de citas en proyectos complejos, siempre que se disponga de artículos semilla.
  3. Copilot (u otros LLMs): apoyo en la generación de palabras clave y términos de búsqueda, pero no para estrategias completas

Conclusión

Las tres herramientas evaluadas (Lens.org, SpiderCite, Copilot) no son adecuadas para reemplazar estrategias de búsqueda complejas en revisiones sistemáticas, debido a variabilidad en sensibilidad y precisión. Sin embargo, tienen potencial como apoyos puntuales en tareas específicas: generación de términos, búsquedas simples o de citas, y exploración preliminar. El estudio subraya la necesidad de mantener el papel central del bibliotecario/experto en información en la validación de cualquier resultado generado con IA, y de continuar monitorizando nuevas herramientas dada la rápida evolución tecnológica.

Reflexiones para quienes trabajamos en bibliotecas médicas

  • Las herramientas de IA pueden ahorrar tiempo en fases preliminares, generar ideas de términos de búsqueda, identificar autores, pero no deben utilizarse como única estrategia para revisiones sistemáticas si se espera exhaustividad.
  • Es clave entender los límites: sensibilidad menor, posible sesgo en lo que captura IA, variabilidad según prompt o según lo cerrado o amplio que sea el tema.
  • Siempre debe haber validación humana experta, verificación de resultados únicos que aparezcan en IA, comparación con lo recuperado por métodos tradicionales.

Evitar sesgos en la búsqueda bibliográfica: claves para revisiones rigurosas

La base de toda revisión sistemática y otros estudios de síntesis sólidos es una búsqueda de evidencia cuidadosamente diseñada y rigurosamente ejecutada (1). En la búsqueda bibliográfica cómo se busca, dónde se busca y quién diseña la estrategia son factores que pueden marcar una diferencia crítica en la calidad de la evidencia recopilada.

En dos entradas anteriores de este blog de título «Sesgo de publicación y sesgos relacionados» (2) y «Sesgos en la localización de estudios para una revisión sistemática» (3) ya tratamos el tema de los sesgos. Ahora veremos los principales tipos de sesgos del proceso de búsqueda y cómo minimizarlos.

¿Qué sesgos pueden aparecer?

En el proceso de búsqueda pueden surgir dos tipos principales de sesgos:

Sesgo de identificación: aparece cuando no se localizan estudios relevantes, a menudo porque la estrategia de búsqueda no es suficientemente sensible o porque no se han explorado todas las fuentes pertinentes. Este tipo de sesgo es especialmente problemático en revisiones sistemáticas que sirven de base para tomar decisiones clínicas, ya que puede comprometer la validez de los resultados.

Sesgo de diseminación (o de publicación): se produce cuando los resultados de un estudio influyen en su probabilidad de ser publicados. Por ejemplo, los estudios con resultados positivos tienen más probabilidades de publicarse, de hacerlo en inglés, con mayor rapidez o de recibir más citas. Este fenómeno puede distorsionar la percepción de la eficacia de una intervención.

¿Cómo reducir estos sesgos?

  1. Diseñar una estrategia de búsqueda rigurosa, con la colaboración de un especialista en información. Idealmente, esta estrategia debe ser revisada por pares antes de ser ejecutada (1,4-6). La participación de bibliotecarios especializados en ciencias de la salud en revisiones sistemáticas no es un añadido opcional, sino una práctica recomendada por las principales guías metodológicas (7-9) y respaldada por la evidencia científica (10-11).
  2. Utilizar múltiples bases de datos bibliográficas. Se recomienda un mínimo de dos para revisiones sistemáticas, pero también se debe justificar su elección. Según el Cochrane Handbook, el objetivo de las búsquedas es identificar todos los estudios relevantes disponibles, lo que requiere desarrollar estrategias lo más sensibles posibles, sin perder de vista la pertinencia de los resultados (7). Debemos hacer balance entre la precisión y exhaustividad pero teniendo en cuenta que el objetivo de una búsqueda para una RS es identificar todos los estudios pertinentes (maximizar la sensibilidad pero con una precisión razonable). Una de las cuestiones más complicadas es cuando dar por finalizada la búsqueda. En este equilibrio entre amplitud y relevancia, la experiencia del bibliotecario resulta fundamental.
  3. Ampliar la búsqueda más allá de las bases de datos. La inclusión de fuentes como motores de búsqueda, registros de ensayos clínicos, literatura gris, búsqueda complementaria de citas (forward y backward) y el contacto con expertos puede ser clave para identificar estudios que de otro modo pasarían desapercibidos.
  4. Incluir estudios no publicados. Dado que una parte significativa de los estudios completados no se publican (12), buscarlos activamente en registros, literatura gris o sitios web especializados contribuye a mitigar el sesgo de publicación (13).
Tipo de sesgoDescripciónEstrategias para minimizarlo
Sesgo de identificaciónNo se recuperan todos los estudios relevantes.Diseñar una estrategia exhaustiva con ayuda de un bibliotecario experto
Usar ≥2 bases de datos
Evitar el uso uso de filtros/límites
Ampliar con búsquedas complementarias
Sesgo de publicación o diseminaciónSolo se publican ciertos tipos de resultados, como los positivos.Buscar literatura gris
Consultar registros de ensayos clínicos
Contactar expertos
Incluir estudios no publicados

Un dato revelador

Greenhalgh y Peacock (14) encontraron que solo el 25% de los artículos incluidos en su revisión fueron recuperados a través de bases de datos electrónicas. El resto provino de rastrear citas, conocimiento personal, contactos o búsqueda manual.

BIBLIOGRAFÍA

  1. Metzendorf MI, Featherstone RM. Ensuring quality as the basis of evidence synthesis: leveraging information specialists’ knowledge, skills, and expertise. Cochrane Database of Systematic Reviews 2018, Issue 9. Art. No.: ED000125. doi: 10.1002/14651858.ED000125.
  2. Campos-Asensio C. Sesgo de publicación y sesgos relacionados. 2023. Available from: https://bibliogetafe.com/2023/11/09/sesgo-de-publicacion-y-sesgos-relacionados/ [Last accessed: 6/23/2025].
  3. Campos-Asensio C. Sesgos en la localización de estudios para una revisión sistemática. 2021. Available from: https://bibliogetafe.com/2021/05/17/sesgos-en-la-localizacion-de-estudios-para-una-revision-sistematica/ [Last accessed: 6/23/2025].
  4. McGowan J, Sampson M. Systematic reviews need systematic searchers. JMLA 2005;93(1):74–80.
  5. Rethlefsen ML, Farrell AM, Osterhaus Trzasko LC, Brigham TJ. Librarian co‐authors correlated with higher quality reported search strategies in general internal medicine systematic reviews. Journal of Clinical Epidemiology2015;68(6):617–26. doi: 10.1016/j.jclinepi.2014.11.025
  6. McGowan J. Sampson M, Salzwedel DM, Cogo E, Foerster V, Lefebvre C. PRESS peer review of electronic search strategies: 2015 guideline statement. J Clin Epidemiol. 2016.75:40–46. doi: 10.1016/j.jclinepi.2016.01.021
  7. Lefebvre C, Manheimer E, Glanville J. Chapter 6: Searching for studies. In: Higgins JPT, Green S. (Editors). Cochrane handbook for systematic reviews of interventions version 5.1.0. Updated March 2011. Accessed July 27, 2022. https://handbook-5-1.cochrane.org/chapter_6/6_searching_for_studies.htm
  8. Aromataris E, Munn Z. Chapter 1: JBI systematic reviews. In: Aromataris E, Munn Z (Editors). In: JBI Manual for Evidence Synthesis. JBI; 2020. Accessed July 27, 2022. https://jbi-global-wiki.refined.site/space/MANUAL 
  9. Kugley S, Wade A, Thomas J, et al. Searching for studies: a guide to information retrieval for Campbell Systematic Reviews. Oslo: The Campbell Collaboration; 2017. Accessed July 27, 2022. doi: 10.4073/cmg.2016.1
  10. Rethlefsen ML, Murad MH, Livingston EH. Engaging medical librarians to improve the quality of review articles. JAMA. 2014;312(10):999-1000. doi:10.1001/jama.2014.9263
  11. Kirtley S. Increasing value and reducing waste in biomedical research: librarians are listening and are part of the answer. Lancet. 2016;387(10028):1601. doi:10.1016/S0140-6736(16)30241-0
  12. Campos-Asensio C. ¿Sabes cuantos ensayos clínicos que empiezan y llegan a terminarse nunca se publican? 2021. Disponible en: https://bibliogetafe.com/2021/04/12/sabes-cuantos-ensayos-clinicos-que-empiezan-y-llegan-a-terminarse-nunca-se-publican/ [Last accessed: 6/23/2025].
  13. Hong QN, Brunton G. Helping Trainees Understand the Strategies to Minimize Errors and Biases in Systematic Review Approaches. Educ Information. 2025;41(3):161–175; doi: 10.1177/01678329251323445.
  14. Greenhalgh, T., & Peacock, R. (2005). Effectiveness and efficiency of search methods in systematic reviews of complex evidence: Audit of primary sources. BMJ. 2005:331(7524), 1064–1065. doi: 10.1136/bmj.38636.593461.68

Curso de acogida de residentes 2025: la alfabetización informacional en la era de la inteligencia artificial

El pasado 10 de junio participé, como cada año, en el curso de acogida y bienvenida a los nuevos residentes del Hospital Universitario de Getafe. Esta intervención, centrada tradicionalmente en los fundamentos de la búsqueda bibliográfica y los recursos de la biblioteca, ha ido evolucionando en los últimos años para dar cabida a los profundos cambios que la inteligencia artificial (IA) está generando en los procesos de búsqueda de información científica.

Les presenté el funcionamiento de la Biblioteca Virtual, un recurso esencial para el acceso a la información científica de calidad. Les mostré cómo registrarse correctamente en el portal para poder acceder, desde cualquier dispositivo y ubicación, a una amplia colección de bases de datos especializadas, revistas científicas, libros electrónicos y otros recursos suscritos por la red sanitaria pública. Hicimos especial hincapié en la importancia de utilizar estas fuentes institucionales frente a buscadores generalistas, y en cómo aprovechar al máximo los servicios disponibles para apoyar tanto la práctica clínica como sus actividades formativas e investigadoras.

En la edición de 2024, la IA ocupó aproximadamente un tercio del contenido. Este año, sin embargo, ha constituido ya la mitad de mi presentación, reflejo de su creciente relevancia tanto en la práctica clínica como en el proceso de aprendizaje e investigación de nuestros profesionales en formación.

Los propios residentes reconocieron utilizar con frecuencia herramientas de IA generativa —principalmente modelos como ChatGPT— para resolver dudas clínicas, localizar información rápida o redactar textos. Esta admisión evidencia una realidad incuestionable: la IA ya forma parte del entorno de trabajo cotidiano del personal sanitario. Sin embargo, también pone de manifiesto una necesidad urgente: formar a los nuevos profesionales en el uso crítico, seguro y eficaz de estas herramientas.

Durante la sesión, abordamos conceptos esenciales para entender la búsqueda de información basada en evidencia, desde el triángulo de la búsqueda eficiente hasta la jerarquía de las fuentes. En este contexto, presenté el papel complementario —que no sustitutivo— de la inteligencia artificial en la búsqueda bibliográfica. Se mostraron ejemplos concretos de herramientas de IA aplicadas a distintas fases del proceso: desde asistentes conversacionales como ChatGPT o Claude, hasta motores de síntesis como Elicit, y plataformas de análisis de citaciones como Scite.

Subrayé especialmente los riesgos de desinformación y sesgos si se emplean estas herramientas sin una evaluación humana crítica, y proporcioné orientaciones prácticas sobre cómo formular prompts efectivos.

Nuestro compromiso desde la biblioteca es acompañar esta transición, ofreciendo recursos de calidad, formación continua y apoyo experto. Porque saber buscar sigue siendo —más que nunca— una competencia esencial para el ejercicio profesional informado, riguroso y basado en la mejor evidencia disponible.

El papel del bibliotecario en la fase inicial de una revisión sistemática

En otras entradas de este blog hemos hablado de la importancia de planificar correctamente una revisión sistemática, como en los 13 pasos para la planificación de una revisión o en la explicación de la metodología de búsqueda según JBI. Hoy ponemos el foco en un momento clave del proceso: el primer paso que da el bibliotecario cuando comienza a colaborar en una revisión sistemática.

Antes de diseñar la estrategia de búsqueda definitiva, es imprescindible realizar una búsqueda preliminar exploratoria, identificar revisiones en curso en registros como PROSPERO y, a partir de todo ello, refinar y delimitar adecuadamente la pregunta de investigación. Esta fase inicial es fundamental para asegurar la pertinencia del trabajo, evitar duplicaciones y aportar valor a la evidencia existente.

Estos primeros pasos no siempre son visibles, pero son esenciales para que la revisión tenga solidez metodológica desde el inicio. El papel del bibliotecario en esta fase no solo es técnico, sino estratégico: contribuye activamente a que el equipo investigador formule una pregunta clara, contextualizada y alineada con la literatura disponible. Como se muestra en la imagen, incluso las herramientas de IA generativa pueden ser un apoyo en esta etapa exploratoria, aunque siempre deben usarse de forma crítica y complementaria, nunca como sustituto de las fuentes especializadas.

Currículum Vítae Normalizado (CVN) de FECYT: Formación online en mayo 2025

Van a realizarse en el mes de mayo de 2025 tres sesiones formativas de la FECYT (ver todas: https://www.recursoscientificos.fecyt.es/servicios/formacion/online) entre la que destaca una especialmente dirigida a investigadores y profesionales con actividad científica:

El Currículum Vítae Normalizado (CVN) es una norma estándar que permite presentar los datos curriculares de los investigadores en un formato común y compatible con diferentes bases de datos institucionales. Es una herramienta clave para la presentación de méritos en convocatorias del Plan Estatal de I+D+i y de convocatorias autonómicas.

Contenido de la sesión:

  • Presentación del CVN, a cargo de Aurelia Andrés (FECYT)
  • Servicios de apoyo a la investigación basados en CVN, también por Aurelia Andrés
  • Opciones de exportación desde Web of Science, por Anne Delgado

📝 Inscripción:

La inscripción es obligatoria y debe realizarse con correo electrónico institucional (las inscripciones con correos comerciales como Gmail, Hotmail, etc., serán automáticamente rechazadas).

📌 Puedes inscribirte desde el siguiente enlace:
👉 [INSCRIPCIÓN]

Al inscribirse, es muy importante introducir los datos personales correctos, ya que se utilizarán para generar el certificado de asistencia. Este certificado se expedirá automáticamente una sola vez, e incluirá todas las sesiones del I Ciclo de Formación (enero-junio) en las que se haya participado activamente, respondiendo a los cuestionarios correspondientes.

⚠️ IMPORTANTE: Una vez realizada la inscripción, recibirás un correo de confirmación con el enlace único de acceso al curso. Si no lo recibes, revisa tu carpeta de correo no deseado o spam.

💻 Recuerda: para un correcto seguimiento de la jornada, es imprescindible utilizar un ordenador personal (no se recomienda el uso de móviles o tablets).

🎥 Las sesiones se grabarán. El vídeo de la formación y el material utilizado estarán disponibles al día siguiente en la web https://www.recursoscientificos.fecyt.es/servicios/formacion/material .

Los robots no vienen a reemplazarnos: los bibliotecarios podemos liderar la revolución de la inteligencia artificial

La inteligencia artificial (IA) está transformando profundamente todos los sectores, y el ámbito bibliotecario no es la excepción. Lejos de suponer una amenaza, la IA representa una oportunidad histórica para que los profesionales de la información reforcemos nuestro papel como guías y mediadores en un entorno informativo cada vez más complejo.

Tras más de 35 años buscando información científica, nunca hemos experimentado una transformación como la que nos ofrece la inteligencia artificial. Es el momento de aprovechar esta oportunidad y ser parte del cambio

Los robots no vienen a sustituirnos. Al contrario: los bibliotecarios somos hoy más relevantes que nunca, especialmente si sabemos evolucionar junto a estas herramientas. Gracias al apoyo de esta tecnología, los bibliotecarios podemos liberar tiempo para centrarnos en tareas más creativas y estratégicas, diseñando nuevas formas de compartir conocimiento y facilitando el acceso a la información. La IA proporciona a bibliotecarios y otros profesionales de la información nuevas oportunidades para mostrar nuestras habilidades y proporcionar aún más valor a los usuarios. Para ello debemos mantenernos informados sobre las últimas herramientas de IA y dominar el arte de la ingeniería de prompts. Solo así conseguiremos posicionarnos en vanguardia de la revolución de la IA.

La IA no nos reemplaza (los bibliotecarios), nos libera para pensar.

Los bibliotecarios estamos estratégicamente posicionados para destacar en esta nueva era. Dominamos el arte del algoritmo de búsqueda, que va mucho más allá de encontrar información: implica comprender las necesidades del usuario, anticipar preguntas y guiarlo a través de un océano de datos hacia fuentes fiables, pertinentes y de calidad. Esta habilidad nos permite no solo acceder a información de manera eficiente, sino también evaluar su relevancia y credibilidad, asegurando así que los usuarios reciban respuestas de alta calidad a sus consultas. Nuestra formación nos capacita para utilizar tecnologías avanzadas y estrategias de investigación que enriquecen la experiencia de aprendizaje de nuestros usuarios. También tenemos la responsabilidad de educar al público sobre cómo interactuar de forma crítica y segura con estas herramientas emergentes.

La IA puede generar una estrategia de búsqueda, sí. Pero solo nosotros sabemos si esa estrategia tiene sentido.

Los desafíos: veracidad, alfabetización, transparencia y privacidad

Uno de los principales riesgos de los grandes modelos de lenguaje es la ilusión de veracidad. Estos sistemas pueden generar textos que suenan correctos, pero que no necesariamente lo son. La IA no entiende el significado de lo que produce: simplemente predice cuál es la palabra más probable que debe aparecer a continuación.

El uso sin crítica puede llevar a la propagación de información falsa en la investigación. Por ello, es fundamental desarrollar una alfabetización en IA que permita evaluar críticamente tanto la información que proporcionan estas herramientas.

«La inteligencia artificial no reemplaza el juicio experto; sin embargo, tiene la capacidad de potenciarlo de maneras significativas y, en algunos casos, puede distorsionarlo de formas inesperadas.»

Es imprescindible mantener principios de transparencia sobre el uso de herramientas de IA y responsabilidad en la verificación de la información generada. Debemos establecer prácticas claras para citar apropiadamente el trabajo asistido por IA y garantizar que las contribuciones humanas y artificiales sean debidamente reconocidas.

La privacidad es otra preocupación importante cuando se trata del uso de IA. Los sistemas de IA dependen de grandes cantidades de datos, datos que pueden incluir información confidencial sobre los usuarios. El uso de herramientas de IA puede exponer una biblioteca a los riesgos de ciberseguridad.

Conclusión

Los bibliotecarios no seremos sustituidos por la inteligencia artificial. Seremos reemplazados, eso sí, solo si decidimos no adaptarnos. Pero si abrazamos el cambio, nos formamos y lideramos la adopción crítica de estas herramientas, podremos consolidar nuestro papel como actores clave en la revolución del conocimiento.

Si no estamos en la conversación sobre IA, otros decidirán por nosotros. La revolución ya ha comenzado. Es momento de estar al frente.

El futuro no está escrito. Y nosotros —como tantas veces— ayudaremos a su desarrollo.

Inteligencia artificial en las revisiones sistemáticas

Las herramientas de inteligencia artificial aumentan significativamente la eficiencia y la precisión en tareas repetitivas, permitiendo a los investigadores concentrarse en la generación de ideas y el análisis crítico. Las herramientas de IA facilitan el descubrimiento de patrones complejos en grandes volúmenes de datos que serían difíciles de identificar mediante métodos tradicionales.

Estas herramientas pueden acelerar significativamente el proceso de producción o actualización de síntesis de evidencia, lo que beneficia tanto a investigadores como a usuarios. Sin embargo, comprender las fortalezas y limitaciones de estas tecnologías es fundamental para mantener la calidad.

La inteligencia artificial no reemplaza el juicio experto; sin embargo, tiene la capacidad de potenciarlo de maneras significativas y, en algunos casos, puede distorsionarlo de formas inesperadas.

Todos aquellos involucrados en la metodología de las revisiones sistemáticas deben ponerse al día en el uso de la IA. Porque ya no se trata de una idea futura: está ocurriendo ahora, en tiempo real.

En esta entrada voy a dar una visión panorámica de cómo la IA puede intervenir en las diferentes fases del proceso de una revisión sistemática.

Fase por fase: promesas y preguntas

Figura 1. Fases de una revisión sistemática en las que puede intervenir la inteligecia artificial.

En una reciente revisión de alcance de Lieberum et al. (1) incluía 37 artículos del uso de LLM (modelo de lenguaje de gran tamaño) como apoyo en 10 de 13 pasos de las revisiones sistemáticas (ver figura 2).

Como vemos, es en las fases de búsqueda de literatura (41%) , selección de estudios (38%) y extracción de datos (30%) donde hay más estudios publicados. De todas las LLM utilizadas, es GPT (Generative Pretrained Transformer) el más empleado (89%). En la mitad de los estudios, los autores valoran los LLM como prometedores (54%).

Figura 3. Gráfico que muestra las proporciones de los pasos de la RS. Pasos de la RS (capa interna de pastel) y las aplicaciones asociadas de modelos de lenguaje grande (MLG) (capa externa de donut).

¿Puede la IA diseñar estrategias de búsqueda?

Garantizar la «reproducibilidad«, que es la piedra angular de la investigación académica y las búsquedas de literatura, como lo demuestran el enfoque de doble revisión descritos en las directrices de PRISMA. Las herramientas actuales de IA se quedan cortas en precisión y sensibilidad. Además, los usuarios pueden hacer los motores de búsqueda de IA la misma pregunta varias veces y recibir diferentes respuestas informadas por diferentes fuentes.

Aunque los LLM parecen ser potencialmente útiles como punto de partida, se necesita experiencia para revisar/supervisar/ contextualizar los outputs. En las tareas que requieren mucho tiempo, como la actualización de las búsquedas pueden automatizarse parcialmente. La IA «no es de gran ayuda» para los pasos «mecánicos» de una búsqueda (ejecución, exportación, importación). Por otro lado, las bases de datos de suscripción juegan un papel importante y restringen la posibilidad de automatización. Puede ser útil como punto de partida para el desarrollo de estrategias de búsqueda, pero no como un método único, sin ser auditado por un especialista en búsqueda de información.

Herramientas de búsquedas basadas en IA como Elicit, Consensus y el ChatGPT son inexactos y carecen de comprensión en comparación con las búsquedas de literatura iniciadas por humanos (2). Estas herramientas deben evolucionar más allá de la simple identificación de palabras clave hacia una comprensión matizada de la jerarquía académica y el contexto. Por lo tanto, la integración de la IA en las búsquedas de literatura para revisiones sistemáticas exige mejoras sustanciales en su comprensión del contexto y la jerarquía, en el cumplimiento del criterio de reproducibilidad y alinearse con los rigurosos estándares de las revisiones sistemáticas realizadas por los humanos.

Tras más de 35 años buscando información científica, puedo afirmar que nunca hemos experimentado una transformación como la que nos ofrece la inteligencia artificial. Es el momento de aprovechar esta oportunidad y ser parte del cambio que está revolucionando nuestro mundo. En conclusión, podemos decir: No puede reemplazar a los especialistas en información «todavía» …

Cuestiones éticas: la parte menos visible

El uso ético de ChatGPT y otros sistemas de LLM es un tema de debate académico y público. Aspectos que debemos reflexionar y tener en consideración:

  • Las herramientas de IA están desarrolladas, en su mayoría, por empresas privadas.
  • Los autores deben ser responsables de la revisión de literatura, no la IA. Es imprescindible mantener principios de transparencia sobre el uso de herramientas de IA y responsabilidad en la verificación de la información generada. Los investigadores deben establecer prácticas claras para citar apropiadamente el trabajo asistido por IA y garantizar que las contribuciones humanas y artificiales sean debidamente reconocidas.
  • El uso sin crítica puede llevar a la propagación de información falsa en la investigación.
  • La búsqueda con IA generativa utiliza al menos 4 a 5 veces más poder computacional que la búsqueda estándar (3). Debemos reconocer los impactos ambientales y promover un uso responsable y sostenible de los LLMs para tareas específicas en la síntesis de evidencia y la búsqueda.

BIBLIOGRAFÍA

  1. Lieberum JL, Töws M, Metzendorf MI, Heilmeyer F, Siemens W, Haverkamp C, Böhringer D, Meerpohl JJ, Eisele-Metzger A. Large language models for conducting systematic reviews: on the rise, but not yet ready for use-a scoping review. J Clin Epidemiol. 2025 Feb 26;181:111746. doi: 10.1016/j.jclinepi.2025.111746.
  2. Seth I., Lim B., Xie Y., Ross RJ., Cuomo R., Rozen WM. Artificial intelligence versus human researcher performance for systematic literature searches: a study focusing on the surgical management of base of thumb arthritis. Plast Aesthet Res. 2025, doi: 10.20517/2347-9264.2024.99.
  3. http://www.insiderintelligence.com/content/ai-search-s-high-costs-could-vicious-cycle-big-tech-eyes-profitability, 13 Feb 2023.

Brecha entre el conocimiento científico y su aplicación en la práctica clínica

Persistente la brecha entre el conocimiento científico y su aplicación en la práctica clínica. La incorporación de la evidencia en la atención médica, se demora una media estimada de 17 años.

Auge de la síntesis de la evidencia

Las revisiones sistemáticas se han vuelto cada vez más comunes en los últimos años, reflejando un enfoque creciente en la práctica basada en la evidencia. Podemos comprobarlo fácilmente observando el aumento significativo en las revisiones sistemáticas publicadas a través de una búsqueda básica en PubMed.

Estas fuentes de análisis de datos secundarios están destinadas a informar la práctica y las políticas, pero su traducción a la aplicación en la cabecera del paciente sigue siendo un desafío.

Desafíos para implementar las mejores prácticas

Si bien el acceso a la evidencia está fácilmente disponible, persiste una desconexión significativa entre la evidencia y la práctica. Los estudios sugieren que solo el 60% de la atención se alinea con las guías publicadas y una parte de la atención incluso puede ser perjudicial.

Esto destaca la importancia de la transferencia e implementación de la evidencia para mejorar los resultados de la atención al paciente.

¿Cuáles son las causas de esta brecha, disponemos de las estrategias para superarla y cuál es el papel de la investigación en la mejora de la calidad de la atención?

BIBLIOGRAFÍA

  • Balas EA, Boren SA. Managing clinical knowledge for health care improvement. In: Bemmel J, McCray AT, editors. Yearbook of Medical Informatics 2000: Patient-Centered Systems. Schattauer Verlag; 2000.
  • Weed LL. New connections between medical knowledge and patient care. Br Med J 1997;315:231-5.
  • Braithwaite J, Glasziou P, Westbrook J. The three numbers you need to know about healthcare: the 60-30-10 challenge. BMC Med 2020;18:102.
  • Song F, Parekh S, Hooper L, Loke YK, Ryder J, Sutton AJ, Hing C, Kwok CS, Pang C, Harvey I. Dissemination and publication of research findings: an updated review of related biases. Health Technol Assess. 2010 Feb;14(8):iii, ix-xi, 1-193. doi: 10.3310/hta14080.
  • Balas EA, Austin SM, Ewigman BG, Brown GD, Mitchell JA. Methods of randomized controlled clinical trials in health services research. Med Care. 1995 Jul;33(7):687-99. doi: 10.1097/00005650-199507000-00005.
  • Pulido M, González JC, Sanz F. Artículos originales publicados en Medicina Clínica durante 30 años (1962-1992): número de autores, intervalo entre la aceptación y publicación y referencias bibliográficas. Med Clin (Barc). 1994 Dec 10;103(20):770-5.
  • Kumar PD. Publication lag intervals–a reason for authors’apathy? J Assoc Physicians India. 1992 Sep;40(9):623-4.
  • Antman EM, Lau J, Kupelnick B, Mosteller F, Chalmers TC. A comparison of results of meta-analyses of randomized control trials and recommendations of clinical experts. Treatments for myocardial infarction. JAMA. 1992 Jul 8;268(2):240-8.
  • Easterbrook PJ, Berlin JA, Gopalan R, Matthews DR. Publication bias in clinical research. Lancet. 1991 Apr 13;337(8746):867-72. doi: 10.1016/0140-6736(91)90201-y.
  • Koren G, Graham K, Shear H, Einarson T. Bias against the null hypothesis: the reproductive hazards of cocaine. Lancet. 1989 Dec 16;2(8677):1440-2. doi: 10.1016/s0140-6736(89)92044-8.
  • Dickersin K, Chan S, Chalmers TC, Sacks HS, Smith H Jr. Publication bias and clinical trials. Control Clin Trials. 1987 Dec;8(4):343-53. doi: 10.1016/0197-2456(87)90155-3.
  • Poynard T, Conn HO. The retrieval of randomized clinical trials in liver disease from the medical literature. A comparison of MEDLARS and manual methods. Control Clin Trials. 1985 Dec;6(4):271-9. doi: 10.1016/0197-2456(85)90103-5.

SISTEMA GRADE (Grading of Recommendations Assessment, Development and Evaluation)

El efecto o las estimaciones resumidas de una revisión sistemática presentan lo que esperamos sea más cercano a la verdadera estimación del efecto; sin embargo, siempre habrá algún nivel de incertidumbre porque siempre existe la posibilidad de un error aleatorio. Por ello, hay que expresar lo seguro que se está de que las estimaciones del efecto presentadas son representativas de la verdad. 

A lo largo del tiempo se diseñaron un amplio número de sistemas refinados de categorización de la evidencia científica, entre los que podemos señalar el modelo inglés Oxford Centre for Evidence-Based Medicine (OCEBM), el escocés Scottish Intercollegiate Guidelines Network (SIGN) o el estadounidense del American College of Chest Physicians (ACCP). Todos ellos atribuían diferentes niveles de calidad a los estudios sobre un determinado problema, que luego permitían asignar distintos grados de recomendación. Coexistían estas clasificaciones de la evidencia cuyo principal problema es la falta de interoperabilidad, de manera tal que no siempre un “nivel I” o una recomendación “grado A” significa lo mismo para cada sistema. Por este motivo surge GRADE (Grading of Recommendations Assessment, Development and Evaluation).

El sistema GRADE es el método más utilizado por revisores sistemáticos y desarrolladores de guías para evaluarse la calidad de la evidencia en las revisiones sistemáticas y para la evaluación de la calidad de la evidencia y la fuerza de las recomendaciones de la Guías de Práctica Clínica

Se diferencia de las anteriores herramientas de evaluación en:

  • Separa la calidad de la evidencia y la fuerza de la recomendación. ;
  • La calidad de la evidencia se evalúa por separado para cada resultado o desenlace de interés; y
  • Los estudios observacionales se pueden subir su nivel inicial de calidad si cumplen con ciertos criterios (pueden hacer bajar o subir). Los ensayos clínicos aleatorizados solo pueden bajar su nivel alto inicial.

Esquema de aplicación de GRADE

Esquema del proceso. Traducido de Guyatt G, Oxman AD, Akl EA, Kunz R, Vist G, Brozek J, Norris S, Falck-Ytter Y, Glasziou P, DeBeer H, Jaeschke R, Rind D, Meerpohl J, Dahm P, Schünemann HJ. GRADE guidelines: 1. Introduction-GRADE evidence profiles and summary of findings tables. J Clin Epidemiol. 2011 Apr;64(4):383-94. doi: 10.1016/j.jclinepi.2010.04.026. PMID: 21195583.

Factores que pueden disminuir la calidad de la evidencia

Hay 5 criterios que se pueden usar para degradar (bajar uno, dos o, a veces tres grados). Estos son: 

  1. Riesgo de sesgo en los estudios individuales, en los ECA por:
    • Falta de una secuencia de asignación claramente aleatorizada.
    • Falta de cegamiento.
    • Falta de ocultación de la asignación.
    • Incumplimiento del análisis por intención de tratar.
    • La prueba se interrumpe.
    • Grandes pérdidas durante el seguimiento.
  2. Inconsistencia de resultados entre estudios. Cuando existe una variabilidad significativa e inexplicable en los resultados de diferentes ensayos. 
  3. La evidencia indirecta (por ejemplo, los participantes eran niños, aunque la revisión sistemática se centró en adultos) puede referirse a varias cosas (una comparación indirecta de dos fármacos, una comparación indirecta de población, resultado o intervención).
  4. Imprecisión cuando tenemos amplios intervalos de confianza.
  5. Sesgo de publicación.

Factores que pueden subir la calidad de la evidencia

  • Efecto grande: cuando el efecto observado muestra una asociación fuerte (riesgo relativo u odds ratio >2 ó <0,5) o muy fuerte (riesgo relativo u odds ratio >5 ó <0,2).
  • Relación dosis-respuesta: cuando el resultado es proporcional al grado de exposición.
  • Evidencia de que todos los posibles factores de confusión o sesgos podrían haber reducido el efecto observado.

En el enfoque GRADE, los ensayos aleatorizados comienzan como evidencia de alta calidad y los estudios observacionales como evidencia de baja calidad, pero ambos pueden calificarse a la baja si existen preocupaciones graves en cualquiera de los dominios de GRADE y pueden calificarse si se cumplen criterios específicos.

Chu DK, Golden DBK, Guyatt GH. Translating Evidence to Optimize Patient Care Using GRADE. J Allergy Clin Immunol Pract. 2021 Dec;9(12):4221-4230. doi: 10.1016/j.jaip.2021.09.035.PMID: 34624540.

De la evidencia a la elaboración de recomendaciones

GRADE evalúa el cuerpo de evidencia a través de los resultados individuales para determinar si se está muy seguros de que la estimación está cerca de la verdad (alta), moderadamente seguro de que la estimación se acerca a la verdad (moderada), tiene poca certeza de que la estimación se acerca a la verdad (baja), o tiene una certeza muy baja y se piensa que la estimación no se acerca en absoluto (muy baja).

La fuerza de la recomendación indica hasta qué punto podemos confiar si poner en práctica la recomendación conllevará más beneficios que riesgos.

La fuerza de las recomendaciones se apoya no solo en la calidad de la evidencia, sino en una serie de factores como son el balance entre riesgos y beneficios, los valores y preferencias de pacientes y profesionales y el consumo de recursos o costes

Goldet G, Howick J. Understanding GRADE: an introduction. J Evid Based Med. 2013 Feb;6(1):50-54. doi: 10.1111/jebm.12018. PMID: 23557528.

Cómo usar GRADE

Los resultados de la evaluación se pueden presentar en la tabla de resumen, presentando los resultados abreviados.

El sistema GRADE cuenta con un software para la aplicación del mismo denominado GRADEpro GDT (https://www.gradepro.org/) que sintetiza y presenta la información para la toma de decisiones en el campo de la salud (permite la elaboración de tablas de resumen de los hallazgos).

Más información y recursos GRADE

GRADE handbook  https://training.cochrane.org/resource/grade-handbook

GRADE working group https://www.gradeworkinggroup.org/  

GRADEPro Website http://gradepro.org/ (Es el software usado para facilitar la aplicación del sistema GRADE a la elaboración de las Tablas de resumen de resultados (Summary of Findings, SoF) en revisiones Cochrane y al desarrollo de guías de práctica clínica).

Schünemann HJ, Higgins JPT, Vist GE, Glasziou P, Akl EA, Skoetz N, Guyatt GH. Chapter 14: Completing ‘Summary of findings’ tables and grading the certainty of the evidence. In: Higgins JPT, Thomas J, Chandler J, Cumpston M, Li T, Page MJ, Welch VA (editors). Cochrane Handbook for Systematic Reviews of Interventions version 6.2 (updated February 2021). Cochrane, 2021. Available from http://www.training.cochrane.org/handbookChu DK,

Golden DBK, Guyatt GH. Translating Evidence to Optimize Patient Care Using GRADE. J Allergy Clin Immunol Pract. 2021 Dec;9(12):4221-4230. doi: 10.1016/j.jaip.2021.09.035. PMID: 34624540.

Guía Fisterra: La evaluación de la calidad de la evidencia y la graduación de la fuerza de las recomendaciones: el sistema GRADE. 

Búsqueda de información en medicina

Esta semana se está celebrando en el Hospital de Getafe la tercera edición del curso para residentes «Principios básicos en investigación clínica«. Dentro de este, el pasado martes he impartido una clase de búsqueda de información en medicina.

He comenzado con la representación del triángulo de búsqueda eficiente y efectiva cuyos vértices están formados por los objetivos («Why am I searching?»), la heurística («How am I searching?») y los sistemas («What am I searching with?»).

Triángulo de búsqueda eficiente y efectiva de la información

Objetivos («Why am I searching?»)

Cuáles son nuestros objetivos de la búsqueda, es decir, qué quiero saber o encontrar, determina cómo he de buscar. Podemos encontrarnos dentro de tres escenarios posibles:

  • Búsqueda clínica: identificación rápida y eficiente para una toma de decisiones.
  • Búsqueda exploratoria o búsqueda general de descubrimiento, aprendizaje, mantenerse actualizado, … aprender/aclarar uno o varios conceptos o conjuntos de investigaciones, incluidas sus características. 
  • Búsqueda sistemática: identificar todos los estudios disponibles sobre un tema.
Tipos de búsqueda de información en medicina según la necesidad.

Heurística («How am I searching?»)

¿Qué heurísticas (forma de hacer la búsqueda) funcionan mejor para el tipo de búsqueda en cuestión y están disponibles en los sistemas elegidos?:

  • Búsqueda simple mediante el algoritmo de la fuente (PubMed, UpToDate, Google Académico, …): en búsquedas para toma de decisiones clínicas.
  • Snowballing (citation chasing): en búsquedas exploratorias y tb en sistemáticas.
  • Búsqueda booleana en bloques: en búsquedas sistemáticas.
Tipología de búsquedas.

Sistemas («What am I searching with?»)

¿Qué sistema/s de búsqueda funcionan mejor para un tipo de búsqueda determinado y son compatibles con la heurística elegida?. Tenemos que entender que no hay 2 sistemas de búsquedas iguales y cada sistema es más o menos adecuado para un tipo de búsqueda (clínica/exploratoria/sistemática) en términos de cobertura y heurística que permite/soporta.

Dependiendo de nuestros objetivos y heurística, debemos elegir el sistema que nos va a proporcionar la información de manera eficiente y efectiva. Eso implica que no siempre el sistema más sencillo es el más apropiado para nuestro tipo de búsqueda.

Búsqueda con herramientas sencillas no es la panacea.

Una vez aclarados los conceptos anteriores, debemos tener en cuenta y seguir una serie de pasos de la búsqueda:

Pasos que debemos tener en cuenta a la hora de buscar información en bases de datos.

Por último, repasamos algunas herramientas de IA interesantes para los residentes. Vimos vídeos con ejemplos de las siguientes 7 herramientas, pero podrían haber sido muchas más:

Herramientas de inteligencia artificial útiles.

Y terminé dando un último consejo: «practicar con las herramientas de búsqueda en su día a día es la mejor garantía de mejorar sus búsquedas de información«.

Despedida y última recomendación.

Importancia de la creación de perfiles e identidad digital digital del investigador

Mañana, 28 de mayo de 2024, impartiré el webinar «Importancia de la creación de perfiles e identidad digital digital del investigador» que será el módulo 4 de los Seminarios de investigación biomédica del año 2024 del Hospital de Getafe.

Hablaremos de los siguientes tema:

Los perfiles como ORCID, WoS y Scopus, desempeñan un papel crucial en la identificación y promoción de la producción científica de los investigadores. Estos perfiles muestran información relevante sobre la carrera profesional y de investigación de un autor, como su nombre, afiliación, historial de empleo, información de contacto, publicaciones, proyectos de investigación en los que ha participado, becas, premios, etc.

Haremos un análisis de ORCID ID, Web of Science Research Profile, Scopus Author ID y Google Scholar Author ID.

Daremos las siguientes recomendaciones prácticas:

Y como conclusiones terminares señalando:

  • Las herramientas de identidad digital son fundamentales para que los investigadores puedan destacar y ser reconocidos por su trabajo. Estas herramientas permiten a los académicos mantener un registro de su producción científica, rastrear el impacto de sus publicaciones y establecer su presencia en el entorno digital.
  • Cada una de las herramientas analizadas, como ORCID, Web of Science Author ID, Scopus Author ID y el perfil de autor en Google Scholar, proporciona información valiosa desde diferentes perspectivas. Mientras unas se enfocan en la gestión de la identidad digital, otras se centran en el análisis bibliométrico de la actividad investigadora.
  • Por lo tanto, es importante que los investigadores seleccionen la combinación de herramientas que mejor se ajuste a sus necesidades y objetivos profesionales. De esta forma, podrán aumentar la visibilidad de su trabajo, establecer conexiones con colegas de su campo y acceder a métricas que les permitan evaluar el impacto de sus publicaciones.

¿Qué hacen los bibliotecarios de hospital?

Cómo muchos de vosotros ya sabéis, soy bibliotecaria de ciencias de la salud en el Hospital Universitario de Getafe y con anterioridad del Hospital Central de la Cruz Roja. Me defino como especialista en documentación científica en ciencias de la salud y en documentos de síntesis de evidencia científica como revisiones sistemáticas y revisiones de alcance. Docente de cursos de competencias informacionales (alfabetización informacional) en ciencias de la salud orientados a profesionales sanitarios y profesionales de la información. Y, por último, produzco y difundo información científica a través de publicaciones científicas (https://orcid.org/0000-0003-2724-2563), mi blog biblioGetafe (https://bibliogetafe.com) y redes sociales como Twitter (https://twitter.com/biblioGetafe) o LinkedIn (https://es.linkedin.com/in/concepción-campos-asensio-28089721).

Los bibliotecarios de ciencias de la salud desempeñamos un papel importante dentro de los hospitales. Somos expertos en la recuperación y evaluación de la información necesaria para el apoyo de la toma de decisiones clínicas, científicas y de gestión basadas en el conocimiento y la evidencia en todas las instituciones sanitarias. Los bibliotecarios de ciencias de la salud también tenemos la responsabilidad de formar a los profesionales sanitarios en los mejores métodos de recuperación para la práctica basada en el conocimiento, la investigación y el aprendizaje permanente.

Los bibliotecarios médicos, también conocidos como profesionales de la información sanitaria, especialistas en información médica o sus múltiples variantes, buscan, analizan, proporcionan acceso y presentan información esencial que mejora la atención al paciente y apoya la educación, la investigación y la publicación médica y sanitaria.

Los bibliotecarios de hospital buscan, analizan, proporcionan acceso y presentan información esencial que mejora la atención al paciente y apoya la educación, la investigación y la publicación médica y sanitaria.

Como ya vimos en la anterior entrada «Impacto y valor de los servicios de las bibliotecas de hospital» desempeñan muchas funciones críticas en el hospital actual, ya que proporcionan la información adecuada en el momento adecuado de diversas maneras para mejorar la eficacia del hospital y del personal médico, optimizar la atención al paciente, mejorar los resultados del paciente y aumentar la satisfacción del paciente y de la familia con el hospital y sus servicios. Dado que los bibliotecarios de hospital y sus servicios proporcionan un excelente retorno de la inversión para el hospital y le ayudan a mantener su ventaja competitiva, el personal del hospital debe tener acceso a los servicios de un bibliotecario profesional.

Las bibliotecas biomédicas tienen unos usuarios únicos, con grandes exigencias y recursos y colecciones costosos. La capacidad de la biblioteca para responder a las necesidades de información en ciencias de la salud de la institución no es suficiente, debemos mantenernos actualizados de los nuevos avances (p. ej.: IA) y debemos visualizar y difundir de forma calculada y creativa nuestro trabajo para evitar la incesante percepción de que somos prescindibles.

Teniendo esto último presente, acepté la ocasión que me ofreció el jefe de la Unidad de Documentación del Hospital de Getafe, Javier Gómez, de que David Sañudo me entrevistara en la Cadena Ser. Agradezco a los dos la oportunidad y aquí os dejo el audio y el enlace:

La biblioteca científica del Hospital de Getafe tramitó 4.000 préstamos de libros y revistas especializadas en el último año | Ocio y cultura | Cadena SER

Impacto y valor de los servicios de las bibliotecas de hospital

Demostrar el valor y el impacto de los servicios bibliotecarios en el entorno hospitalario puede ser un desafío, especialmente en términos de justificar recursos limitados y asegurar el apoyo institucional continuo.

En una revisión sistemática de Weightman del 2005 encontró evidencias del cómo los servicios de las bibliotecas de centros sanitarios pueden influir en los resultados de los pacientes (Figura 1).

Figura 1. Impacto de los servicios de las bibliotecas de centros sanitarios en los resultados de los pacientes.

En esta misma revisión se evidenció una reducción del 10-19% en la duración de la estancia del paciente.

También hay evidencia de cómo la información proporcionada por los bibliotecarios médicos mejoró la atención de los pacientes (Figura 2).

Figura 2. Impacto de la información proporcionada por los bibliotecarios de centros sanitarios en la atención de los pacientes.

Los hospitales tienen multitud de necesidades y recursos limitados. Por esto es Importante comunicar el valor añadido que aporta la Biblioteca al Hospital en su labor educativa, investigadora y clínica.

Las bibliotecas de ciencias de la salud ha de estar apoyando las misiones del Hospital proporcionando los mejores recursos, colecciones y servicios posibles, y seguir centrada en su objetivo de demostrar continuamente su valor comprometiéndose con los usuarios y siendo percibida no como una unidad de apoyo, sino como un socio integral a nivel clínico, académico e investigador.

BIBLIOGRAFÍA

Aitken, EM, Powelson, SE, Reaume, RD, & Ghali, WA (2011). Involving clinical librarians at the point of care: results of a controlled intervention. Academic Medicine, 86(12), 1508-1512. DOI: 10.1097/ACM.0b013e31823595cd

Brettle, A., Maden, M. and Payne, C. (2016), The impact of clinical librarian services on patients and health care organizations (full text). Health Information and Libraries Journal, 33: 100–120. DOI: 10.1111/hir.12136

McGowan, J, Hogg, W, Campbell, C, & Rowan, M (2008), Just-in-time information improved decision-making in primary care: a randomized controlled trial. PLoS One, 3(11), e3785. DOI: 10.1371/journal.pone.0003785

Marshall JG, Sollenberger J, Easterby-Gannett S, et al. The value of library and information services in patient care: results of a multisite study. Journal of the Medical Library Association,101(1):38-46. DOI: 10.3163/1536-5050.101.1.007

Weightman, A. L., & Williamson, J. (2005). The value and impact of information provided through library services for patient care: A systematic review. Health Information & Libraries Journal, 22(1), 4-25. https://doi.org/10.1111/j.1471-1842.2005.00549.x