Al trabajar en una revisión sistemática o de síntesis de evidencia, los bibliotecarios debemos desarrollar y documentar de forma transparente y completa las estrategias de búsqueda para que sean reproducibles.
Los pasos para desarrollar una consulta de búsqueda integral para proyectos de síntesis de evidencia, como revisiones sistemáticas o de alcance, son los siguientes:
Paso 1: Partimos de una pregunta estructurada adecuada. Tener una pregunta de investigación bien desarrollada ayuda a identificar los conceptos principales para incluir en la consulta de búsqueda. El formato más utilizado en la investigación en salud es el marco PICO.
Paso 2: Recolección de términos de búsqueda. Una de las mejores maneras de informar el proceso de recolección de términos es realizar una búsqueda preliminar o de alcance del tema. Estas búsquedas son sencillas y están compuestas de solo unas pocas palabras clave, pero nos sirven para ver qué resultados proporciona.
Una estrategia de búsqueda óptima incluirá tanto el vocabulario controlado de las diversas bases de datos de literatura (p. ej., términos de PubMed Medical Subject Heading [MeSH]) como términos de lenguaje natural. La mejor manera de identificar los términos de la búsqueda es revisar algunos artículos de su búsqueda preliminar, hojear los resúmenes en sus resultados y buscar palabras clave proporcionadas por el autor o ver qué vocabulario controlado se ha etiquetado en los artículos.
Estrategias para la recolección de términos de búsqueda
De esta forma, vamos completando nuestra estrategia de búsqueda y logramos que sea exhaustiva. La exhaustividad se define como la sensibilidad de la estrategia de búsqueda para recuperar un número suficientemente grande de resultados para garantizar que se incluyan en la revisión tantos estudios relevantes como sea posible.
Sensibilidad y precisión de la búsqueda bibliográfica para una revisión sistemática
Paso 3: Crear segmentos o facetas de búsqueda para cada concepto principal o componente utilizando PubMed.
Para crear un segmento de búsqueda para cada concepto, combine los términos relacionados identificados (vocabulario controlado y palabras clave) y combinarlos usando el operador booleano OR entre cada término. Una vez que haya creado las cadenas de búsqueda, ejecute cada segmento de búsqueda por separado en PubMed.
Después de buscar todos los segmentos de nuestra estrategia, usaremos el historial de búsqueda de PubMed, que se puede encontrar en la página de Búsqueda avanzada. Ahora es cuando debemos combinar nuestros segmentos de búsqueda con el operador booleano AND.
Paso 4: Trasladar nuestra estrategia a las diferentes fuentes. Una vez que haya desarrollado una consulta de búsqueda para una base de datos, necesitaremos «traducir» la consulta de búsqueda para que funcione con otras bases de datos adaptando la sintaxis a la particular del recurso.
Este es un paso especialmente difícil dada la heterogeneidad de las bases de datos y plataformas. Por ejemplo, los operadores con sintaxis idéntica se pueden tratar de manera diferente, por ejemplo, NEAR/5. En el caso de la Web of Science específica un máximo de 5 palabras entre los términos de búsqueda. En el caso de Embase, especifica un máximo de 4 palabras. Otro caso lo tenemos con ‘?’ que en Embase.com hace referencia a un solo carácter, mientras que en Ovid es 0 o 1 caracteres. Con respecto al ‘$’ en Embase.com hace referencia a 0 o 1 caracteres, mientras que en Ovid es un número ilimitado de caracteres.
Paso 5: Guardar su consulta de búsqueda. Para ello debemos copiar y pegar las estrategias de búsqueda completas en un documento con el número de resultados y la fecha en que se ejecutó la búsqueda. Siguiendo las directrices PRISMA, el proceso de búsqueda debe informarse con suficiente detalle en la sección de métodos de su artículo, incluyendo como anexo las estrategias completas de todas las búsquedas realizadas. Esto es así para garantizar la transparencia y reaplicabilidad de la revisión.
Si estás planteándote realizar una revisión sistemática o una síntesis de evidencia, te puede ser de ayuda esta entrada en la que detallo los pasos necesarios para su planificación.
PASO 1. Definir la pregunta que ha de contestar la RS. Para ello hay el equipo ha de utilizar uno de los formatos existentes de pregunta estructurada. La elección del tipo de pregunta estructurada vendrá determinada por el tipo de pregunta. Aunque la más frecuente es el formato PICOs, utilizada en investigación cualitativa, existen otros como PEO y SPICE para preguntas de investigación cualitativa; y SPIDER en la investigación de métodos mixtos.
Tipos de preguntas estructuradas más frecuentes en ciencias de la salud.
Encontrar y evaluar revisiones relacionadas. Para ello, hay que analizar las revisiones ya realizadas y analizar si tiene cabida hacer la revisión o no. Solo en los casos de que: 1) el alcance de las revisiones existentes no sea la misma, 2) no exista una revisión anterior, 3) exista, pero esté obsoleta (podríamos decidir actualizarla desde la fecha de la revisión anterior) o 4) exista, pero sea de mala calidad, tendría justificación hacer una nueva revisión. Puedes encontrar más información en mi entrada «Antes de comenzar una revisión sistemática hay buscar y evaluar revisiones relacionadas«.
Por estos motivos, lo primero que ha de hacer la bibliotecaria es una búsqueda exploratoria en MEDLINE de las revisiones realizadas hasta la fecha de este tema. El resultado se envía al resto del equipo para que analice e indique si es pertinente seguir adelante con la RS e identifique de 5 a 10 artículos que deben recuperarse por su pertinencia y los trasladen al bibliotecario.
Fuentes útiles para identificar revisiones sistemáticas.
Paso 3. Establecer los miembros del equipo de revisión. Hay que tener claro que una RS la tiene que realizar varias personas, pues su metodología así lo exige. Lo ideal es que el equipo esté formado por expertos en búsqueda, metodólogos, expertos en el contenido clínico y definir quién será el líder que coordine el equipo. En mi entrada «¿Puede una sola persona hacer una revisión sistemática?«, encontrarás más información. Los miembros del equipo deben conocer la metodología de cómo hacer una revisión y de cómo reportarla. Tal vez te ayude mi entrada “Guías, manuales y estándares para hacer y para reportar una revisión sistemática”. También, hay que ver si hay cualquier conflicto de intereses de los miembros del equipo.
Paso 4. Analizar los recursos disponibles como acceso a las bases de datos, software de gestión de la RS, programa gestor de referencias, etc.
Paso 5. Estimar el tiempo necesario. Es conveniente establecer un calendario de tareas con fechas límite y ten una idea clara de la cantidad de tiempo de la que disponen tus coautores para trabajar en la revisión.
Paso 6. El equipo ha de redactar un breve documento con los antecedentes, es decir, explicar el tema de investigación y poner la revisión en el contexto de lo que realmente se desea saber y las preguntas que desea responder la RS. Debe contener: una breve descripción de la pregunta de investigación; una discusión de la pregunta de investigación y de su importancia; una declaración breve de la importancia de la pregunta de investigación (por qué es importante realizar esta revisión). En este texto se debe hacer referencia a cualquier revisión anterior del tema de investigación cuando exista y las razones de la necesidad de la revisión actual.
PASO 7. Redactar los objetivos de la revisión. Estos deben derivar de la pregunta que se establece en el título de la revisión y debe estar apoyado por la sección anterior de antecedentes. Debe estar relacionado con los elementos PICO de la pregunta de revisión, y en particular con la población, la intervención y la comparación, pero no incluye los desenlaces. La estructura más común para presentar los objetivos es: «Evaluar los efectos de [intervención o comparación] para [problema de salud] para/en [tipos de pacientes, enfermedad o problema y contexto, si están especificados].
PASO 8. Definir los criterios de inclusión/exclusión con lo que luego el equipo va a realizar la selección de los estudios. Los más frecuentes son: Fecha (solo si está justificado: p. ej. si queremos actualizar una RS existente o por el tema o el tema es muy novedoso), Idioma (como norma general, no debe aplicarse límites de idioma), exposición de interés (si los participantes en el estudio deben tener una condición particular para que el estudio sea incluido. Ej.: se le dio un medicamento en particular, tener un nivel de la enfermedad en un grado determinado), Localización geográfica del estudio (puede ser necesario limitar la revisión solo a los estudios dirigidos al mismo grupo de población de interés o a países que tienen factores demográficos o económicos similares con el grupo que se va a estudiar), participantes (la revisión puede estar limitada a estudios en adultos, en niños o a grupos de una determinada edad), revisión por pares (algunas veces, en las revisiones, excluyen aquellos estudios o publicaciones no revisadas por pares. Pero la literatura gris –como informes técnicos o guías clínicas- puede ser importante para estudiar ciertas cuestiones), contexto (el estudio puede incluirse o excluirse según dónde se encuentren los participantes. Por ejemplo, escuela, hospital, paciente interno o externo, etc.), tipo de publicación (las revisiones sistemáticas suelen buscar estudios originales. En mi opinión, lo ideal sería poder limitarlo a RCT), etc.
PASO 10. Establecer la metodología de la selección de los estudios: proceso de valoración de títulos/abstract, textos completos (p. ej.: cribado por 2 personas, quienes son estas personas, cómo se evaluarán (P) y se han evaluado (RS) los desacuerdos, si la selección es ciega). Cualquier otro método utilizado para seleccionar los estudios (incluido el uso de programas informáticos).
PASO 11. Hacer un borrador del formulario de recogida de datos y establecer la metodología de la extracción de los datos de los estudios: cómo se controlará la verificación de los datos extraídos de cada informe (p. ej. extracción por dos revisores, de forma independiente); las categorías de los datos que se van a obtener; si la extracción de los datos la realizó un experto en el área de contenido, un metodólogo o ambos; pruebas piloto, adiestramiento y existencia de instrucciones de codificación para el formulario de extracción de datos; cómo se extraen los datos de múltiples informes del mismo estudio; y cómo se trataron los desacuerdos si más de un autor extrajo los datos de cada informe.
PASO 12. Establecer la metodología de cómo se evaluará el posible sesgo, cómo se interpretarán y sintetizarán los hallazgos.
Tanto el análisis bibliométrico como la revisión sistemática son metodologías utilizadas en investigación, pero difieren en su finalidad y enfoque metodológico.
El análisis bibliométrico es un análisis cuantitativo de las publicaciones científicas que permite identificar y evaluar tendencias y patrones de investigación dentro de un campo disciplinario. Por otro lado, la revisión sistemática es un enfoque metodológico que tiene como objetivo sintetizar la evidencia disponible sobre un tema de investigación particular para proporcionar una respuesta a la pregunta de investigación de manera sistemática y objetiva.
Mientras que el análisis bibliométrico se centra en la cuantificación de los resultados científicos, la revisión sistemática se centra en la síntesis y evaluación crítica de la evidencia disponible sobre un tema de investigación particular para proporcionar una respuesta a la pregunta de investigación.
El análisis bibliométrico es un enfoque cuantitativo utilizado para analizar datos bibliográficos. Utilizando características como el número total de publicaciones y citas de un autor, un tema, una universidad y una nación, el enfoque crea una imagen completa. El número de publicaciones, por ejemplo, indica el volumen de los trabajos publicados, pero el número de citas indica la importancia y popularidad de la revista.
Software más utilizados para la construcción de redes bibliométricas
Estos programas admiten tres tipos de relaciones cienciométricas:
1) coautoría (nodos que representan a investigadores, instituciones o países vinculados entre sí en función del número de publicaciones (nodos que representan a investigadores, instituciones o países vinculados entre sí en función del número de publicaciones de las que son autores);
2) citación (citas conjuntas o acoplamiento bibliográfico); y
3) concurrencia de palabras clave (basada en el número de publicaciones en las que ambas palabras clave aparecen juntas en el título, el resumen o la lista de palabras clave), resumen o lista de palabras clave).
Veamos algunos de los más utilizados:
Bibliometrix es un paquete R que incluye muchos de los análisis bibliométricos que se encuentran en la literatura. Puede procesar datos bibliográficos de diferentes fuentes y puede crear una variedad de visualizaciones y análisis fácilmente.
Bibliometrix se desarrolla en varios niveles de análisis (fuentes, autores y documentos) y en tres estructuras de análisis, denominadas estructuras K, es decir, la conceptual, la intelectual y la social. Los principales análisis disponibles en el ámbito de fuente son el cálculo del índice H, el análisis de la dinámica de las fuentes (producción de artículos a lo largo del tiempo) y las fuentes más relevantes del conjunto de datos analizado (las fuentes con más artículos). Con respecto a autor, se pueden identificar los autores más relevantes (los que tienen más artículos), la producción anual por autor, el índice H, las afiliaciones más relevantes y la procedencia de los autores. En cuanto a documento, se pueden identificar los artículos más artículos citados, las referencias citadas y los análisis de frecuencia de los resúmenes, las palabras clave y títulos. Para el análisis de la estructura conceptual, la principal técnica adoptada es la técnica de la co-palabra clave, desarrollada a partir de diversas técnicas estadísticas como el análisis de redes, el análisis factorial y la cartografía temática. La estructura intelectual puede analizarse realizando análisis de co-citación y citación, utilizando análisis de redes. Por último, la estructura social puede analizarse visualizando cómo colaboran los autores utilizando la Red de Colaboración (Collaboration Network).
VOSviewer es una herramienta informática para construir y visualizar redes bibliométricas. Estas redes pueden incluir, por ejemplo, revistas, investigadores o publicaciones individuales, y pueden construirse a partir de relaciones de citación, acoplamiento bibliográfico, cocitación o coautoría. VOSviewer también ofrece funciones de minería de textos que pueden utilizarse para construir y visualizar redes de co-ocurrencia de términos importantes extraídos de un corpus de literatura científica.
CitNetExplorer es una herramienta informática para visualizar y analizar redes de citas de publicaciones científicas. Está diseñado específicamente para manejar conjuntos de datos bibliográficos a gran escala de WoS, y proporciona una serie de características que son diferentes de VOSviewer, lo que permite a los usuarios complementar sus investigaciones con conocimientos adicionales sobre la estructura y la dinámica de la red bibliométrica.
La herramienta permite importar redes de citas directamente desde la base de datos Web of Science. Las redes de citas pueden explorarse de forma interactiva, por ejemplo, profundizando en una red e identificando grupos de publicaciones estrechamente relacionadas.
Avenali, Alessandro, et al. «Systematic reviews as a metaknowledge tool: caveats and a review of available options.» International Transactions in Operational Research (2023). Disponible en: https://onlinelibrary.wiley.com/doi/pdf/10.1111/itor.13309
Es esencial seleccionar múltiples fuentes porque una solo no puede contener toda la información que responde a nuestra pregunta. Es decir, una sola base de datos no representa todas las investigaciones potencialmente relevantes que existen. Si eligiéramos incluir solamente una base de datos, estaríamos introduciendo un sesgo de selección en una etapa temprana del proceso de revisión.
En #RevisionesSistemáticas, la búsqueda de estudios debe ser lo más amplia posible para reducir el riesgo de sesgo de publicación e identificar la mayor cantidad de evidencia relevante. Estandar MECIR C24
Teniendo ya claro que hay que buscar en más de una base de datos (Bramer W, 3013 y 2016), hay que decir que se desconoce el número óptimo de bases de datos que hay que consultar y que no existe evidencia de la cantidad de bases de datos en las que se debe buscar (Ross-White A et al.).
Debido a la diversidad de preguntas abordadas por las revisiones sistemáticas, no puede haber un estándar acordado para lo que constituye una búsqueda aceptable en términos del número de bases de datos buscadas (CRD’s guidance, 2009).
Debemos tener presente que añadir múltiples bases de datos puede dará lugar a búsquedas con resultados muy elevados en los que, pasado un número de base de datos, resulten irrelevantes. Por otro lado, hay que tener en consideración las desventajas en el uso de múltiples bases de datos para los bibliotecarios. Resulta muy arduo y complicado traducir una estrategia de búsqueda a múltiples interfaces y sintaxis de búsqueda, ya que los diferentes códigos de campo, sintaxis de cada base de datos y plataforma, los operadores de proximidad que difieren entre interfaces y las diferencias en los términos del tesauro entre bases de datos añaden una carga importante. Además, para los revisores el proporcionarles el resultados de un exceso número de bases de datos les conlleva mucho tiempo ya que deben examinar un exceso de títulos y resúmenes, probablemente irrelevantes.
Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de revisiones sistemáticas proporcionen resultados eficientes (es decir, para minimizar la carga de los investigadores sin reducir la validez de la investigación al omitir referencias relevantes).
Es función del bibliotecario determinar la combinación de bases de datos necesaria para que las búsquedas de #RevisionesSistemáticas proporcionen resultados eficientes.
Las bases de datos que utilicemos para localizar la evidencia va a depender del tema de revisión, de la posibilidad de acceso a las bases de datos y el presupuesto disponible para el equipo de revisión, y siempre dentro de la limitación de tiempo. Como norma general, hay que empezar por las fuentes de información que tienen mayor probabilidad de ser más productivas dentro del tema de nuestra revisión, ya que te proporcionarán la mayoría de los estudios. En caso de duda, recomiendo hacer pruebas de búsqueda de nuestro tema de revisión en varias bases de datos y seleccionar las que proporcionen mayores y mejores resultados.
¿Qué dicen los expertos?
Un estudio de Wilchor M. Bramer concluye que las búsquedas han de realizarse en Embase, MEDLINE (incluidas las publicaciones Epub ahead of print), Web of Science (Core Collection) y Google Académico (las 200 primeras referencias relevantes) como mínimo. Para temas especiales como enfermería y ciencias del comportamiento y mental se debe añadir bases de datos como CINAHL y PsycINFO, respectivamente. Para revisiones donde los ECA hay que buscar en CENTRAL. Si se ignora una o más de las bases de datos que identifican como las cuatro bases de datos clave dará lugar a búsquedas más precisas, con un menor número de resultados, pero los investigadores deben decidir si eso vale la pena por el aumento de una mayor probabilidad de pérdidas de referencias relevantes. Este estudio también destaca una vez más que buscar bases de datos solo no es suficiente para recuperar todas las referencias relevantes. (Bramer WM, et al.).
Recomendaciones del bibliotecario experto Wilchor Bramer (2017).
Si nuestra revisión fuera de intervenciones terapéuticas, habría que buscar en las bases de datos generales (MEDLINE y Embase) y CENTRAL. Además, se deben incluir las bases de datos relevantes para el tema de revisión (p. ej., CINAHL para temas relacionados con la enfermería, PsycINFO para intervenciones psicológicas).
Además de MEDLINE y Embase, que suelen considerarse las principales bases de datos internacionales sobre atención sanitaria general, muchos países y regiones producen bases de datos bibliográficas que se centran en la bibliografía producida en esas regiones y que suelen incluir revistas y otras publicaciones no indexadas en otros sitios, como el African Index Medicus y LILACS (para América Latina y el Caribe) (MECIR C24-25).
Para la búsqueda de estudios cualitativos, además de MEDLINE y Embase, hay que buscar en CINAHL y PsycINFO. A lo que habría que añadir Scopus, y ProQuest Dissertations & Theses Global. Agregar PubMed aumenta la recuperación a 93.1% (Frandsen TF et al.).
Para las revisiones de evaluaciones económicas, la combinación de las bases de datos Embase + Scopus + HTA Database + MEDLINE o PubMED (indistintamente) es la más eficiente (Arber M et al.).
Si el tema incluye la asistencia social, hay una serie de bases de datos disponibles, como ASSIA (Applied Social Sciences Index and Abstracts), CSA Sociological Abstracts y CSA Social Services Abstracts, que podrían utilizarse. Las bases de datos mencionadas anteriormente son todas temáticas, pero hay otras, como AgeInfo, Ageline y ChildData, que se centran en un grupo de población específico que podría ser relevante para el tema de la revisión.
En revisiones de ciencias sociales y humanas, Lluís Codina recomienda utilizar siempre Scopus + Web of Science del grupo general, así como Dialnet Plus y las bases de datos del CSIC si la investigación se va a presentar en una universidad española.
¿Si busco en Embase (Elsevier), es necesario buscar también en MEDLINE?
La búsqueda en Embase.com incluye MEDLINE. Sin embargo, debemos buscar en las dos bases de datos por separado, ya que Embase tiene un contenido significativo que no está disponible en PubMed/MEDLINE. Además, la indexación Emtree hace que incluso la información compartida por las dos bases de datos se pueda encontrar de forma exclusiva en Embase.
Razones por la que es necesario buscar en MEDLINE y en Embase.
¿Cómo incluye Embase el contenido de MEDLINE?
Más de2800 revistas son exclusivas de Embase y 3000 títulos de revistas están cubiertos tanto por Embase como por MEDLINE. Ambos conjuntos están indexados por Embase usando Emtree.
2500 revistas de MEDLINE no están indexadas por Embase usando Emtree, sino que están indexadas usando el MEDLINE thesaurus MeSH.
Estos registros indexados de MEDLINE se entregan a Elsevier diariamente. Después de la deduplicación, se incorporan a Embase para producir «registros exclusivos de MEDLINE». Elsevier no vuelve a indexar estos registros exclusivos de MEDLINE. Sin embargo, su indexación se asigna a los términos de Emtree. De esta manera, los términos de Emtree se pueden usar para buscar todos los registros de Embase, incluidos los de MEDLINE.
¿Si tengo acceso a SCOPUS, también necesito buscar en Embase y en la WoS?
Las búsquedas en Scopus se centran en resúmenes y citas, mientras que una búsqueda en Embase proporciona información adicional a partir de su indexación estructurada de texto completo con el tesauro EMTREE.
Dado que Scopus no utiliza Emtree para facilitar la asignación de sinónimos y las búsquedas jerárquicas, nuestra búsqueda puede recuperar un número significativamente menor de resultados que en Embase. Por ejemplo, una búsqueda en Scopus sobre «heart attack» omite los registros que mencionan «myocardial infarction» o los indizados utilizando el término Emtree «heart infarction».
Además, los subtítulos de Embase no están disponibles en Scopus, por lo que las búsquedas no pueden acotarse del mismo modo. Por ejemplo, no es posible limitar las búsquedas de fármacos a los registros centrados en los efectos adversos.
Razones por las que debo buscar en Embase y SCOPUS.
¿Es recomendable buscar en Google Académico?
Dado que Google Scholar indexa el texto completo de los artículos, la búsqueda en él añade artículos relevantes que no se encuentran en las otras bases de datos. Por lo tanto, encuentra artículos en los que el tema de investigación no se menciona en el título, el resumen o los términos del tesauro, sino que los conceptos sólo se tratan en el texto completo.
Sin embargo, la búsqueda en Google Académico supone un reto, ya que carece de las funciones básicas de las bases de datos bibliográficas tradicionales. Además, las estrategias de búsqueda están limitadas a un máximo de 256 caracteres, lo que significa que crear una estrategia de búsqueda exhaustiva puede resultar laborioso (Bramer W, 2017).
Wilchor Bramer recomienda limitar la búsqueda en Google Académico a las primeras 200 referencias relevantes.
Elección de la plataforma
Como es lógico, la búsqueda en diferentes bases de datos dará inevitablemente resultados diferentes al ser su cobertura distinta. Pero además, la búsqueda en la misma base de datos a través de diferentes interfaces o plataformas puede dar lugar a resultados diferentes. Por ejemplo, buscar en Embase a través de Embase.com o mediante OVID, o buscar en MEDLINE a través de Web of Science, EBSCO, OVID o incluso a través de PubMed. Y no solo porque las plataformas difieran en diferentes sintaxis y herramientas de búsqueda, sino que el contenido también puede diferir (PubMed vs MEDLINE/Ovid; Embase/Elsevier vs. Embase/Ovid).
¿MEDLINE vía PubMed u Ovid?
PubMed es considerado por algunos como más fácil de usar. Además, en búsquedas de revisiones sistemáticas, PubMed tiene una sensibilidad más alta que Ovid/MEDLINE con una precisión comparable y NNR (number needed to read) (Katchamart W et al.).
Por el contrario, muchos bibliotecarios eligen Ovid MEDLINE, ya que permite realizar una búsqueda más enfocada. Sus herramientas que permiten una sintaxis de búsqueda con, por ejemplo, operadores de adyacencia, que hacen que nuestro resultado sea más preciso que con PubMed.
Otros especialistas en información estaban a favor de buscar en ambas. Indicaban que merece la pena realizar una búsqueda complementaria de PubMed, además de la búsqueda principal en MEDLINE (Ovid) para una revisión sistemática, ya que se realiza rápidamente y si recupera estudios únicos, recientemente publicados, y ahead-of-print, mejorando la actualización de las revisiones sistemáticas. Sin embargo, tal como indica Wichor Bramer en su correo de 12 de diciembre de 2022 a la lista de distribución expertsearching@pss.mlanet.org, hoy en día buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar. La razón de por qué antes se recomendaba era porque había bastante retraso entre los artículos añadidos a PubMed y a MEDLINE, pero ya no es así. Hoy en día el retraso es solo de 1 o 2 días, por lo que se puede ignorar ya que esos días extra no suponen ninguna diferencia en nuestra revisión. (Más información en: https://wkhealth.force.com/ovidsupport/s/article/PubMed-vs-Ovid-s-Medline-1489081398582).
Hoy en día, buscar en PubMed no añade ningún valor cuando ya se ha buscado en MEDLINE a través de OVID u otra plataforma similar dado que el retraso en la indización es de solo 1 o 2 días. @wichor
No hay una diferencia notable entre Ovid y Embase.com en términos de resultados de búsqueda sin embargo, Embase.com fue calificado como más fácil de usar en comparación con Ovid (Fortier KJ et al.)
Aquí os dejo un Trivial interactivo para aprender las diferencias en la sintaxis de búsqueda entre plataformas.
Juego para ver las diferencias en la sintaxis de búsqueda.
BIBLIOGRAFÍA
Bramer WM, Rethlefsen ML, Kleijnen J, Franco OH. Optimal database combinations for literature searches in systematic reviews: a prospective exploratory study. Syst Rev. 2017;6(1):245. doi: 10.1186/s13643-017-0644-y. PMID: 29208034; PMCID: PMC5718002
Bramer WM, Giustini D, Kramer BM, Anderson PF. The comparative recall of Google Scholar versus PubMed in identical searches for biomedical systematic reviews: a review of searches used in systematic reviews. Syst Rev. 2013;2:115.
Bramer WM, Giustini D, Kramer BMR. Comparing the coverage, recall, and precision of searches for 120 systematic reviews in Embase, MEDLINE, and Google Scholar: a prospective study. Syst Rev. 2016;5:39.
Centre for Reviews and Dissemination. Systematic reviews: CRD’s guidance for undertaking reviews in health care The Centre; 2009. Disponible en: https://www.york.ac.uk/crd/guidance/
Ross-White A, Godfrey C. Is there an optimum number needed to retrieve to justify inclusion of a database in a systematic review search? Health Inf Libr J. 2017;33:217–24.
Frandsen TF, Gildberg FA, Tingleff EB. Searching for qualitative health research required several databases and alternative search strategies: a study of coverage in bibliographic databases. J Clin Epidemiol. 2019 Jun 25;114:118-124. doi: 10.1016/j.jclinepi.2019.06.013. PMID: 31251982.
Arber M, Glanville J, Isojarvi J, Baragula E, Edwards M, Shaw A, Wood H. Which databases should be used to identify studies for systematic reviews of economic evaluations? Int J Technol Assess Health Care. 2018 Jan;34(6):547-554. doi: 10.1017/S0266462318000636. PMID: 30442221.
Codina, Lluís. Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018 [documento en pdf, acceso: https://repositori.upf.edu/handle/10230/34497%5D
Katchamart W, Faulkner A, Feldman B, Tomlinson G, Bombardier C. PubMed had a higher sensitivity than Ovid-MEDLINE in the search for systematic reviews. J Clin Epidemiol. 2011 Jul;64(7):805-7. doi: 10.1016/j.jclinepi.2010.06.004. PubMed PMID: 20926257.
Duffy S, de Kock S, Misso K, Noake C, Ross J, Stirk L. Supplementary searches of PubMed to improve currency of MEDLINE and MEDLINE In-Process searches via Ovid. J Med Libr Assoc. 2016 Oct;104(4):309-312. PMID: 27822154; PMCID: PMC5079494.
Ross-White A, Godfrey CM, Sears KA, Wilson R. Predatory publications in evidence syntheses. J Med Libr Assoc. 2019 Jan;107(1):57-61. doi: 10.5195/jmla.2019.491. PMID: 30598649; PMCID: PMC6300240.
Fortier KJ, Kiss N, Tongbram V. What is the optimal search engine for results from Embase and Medline: Ovid or Embase.com? Value Health 2013;16(3):A25 doi: 10.1016/j.jval.2013.03.147
Entrando a UpToDate desde el HCIS, las credenciales del usuario (anonimizadas) se envían junto con el término(s) de búsqueda.
Acceso a UpToDate desde la Historia Clínica del Hospital de Getafe
Las ventajas de este acceso desde el HCIS son las siguientes:
Poder descargar y usar la aplicación móvil;
Conseguir Créditos de Formación Médico Continuada (incluso usando UpToDate sin estar en la cuenta);
La re-verificación del acceso cada vez que se entra a UpToDate desde la historia clínica (no es necesario verificar la cuenta cada 90 días, entrando con usuario y contraseña);
Se dispone de una carpeta de Favoritos, Historial de búsqueda y Temas más consultados por cada usuario.
A raíz de una conversación en Twitter en la que se planteaba la idoneidad de que los estudiantes de enfermería realicen una revisión sistemática como TFG o TFM, me he planteado aclarar por qué una revisión sistemática (RS) requiere un equipo de revisores.
Las razones más relevantes serían las dos siguientes:
Son necesarios diversos conjuntos de conocimientos y habilidades para realizar una RS rara vez (o nunca) residen en una sola persona.
Se necesita más de una persona para realizar verificaciones de confiabilidad entre evaluadores para garantizar la integridad de las decisiones clave, la extracción de datos y la codificación.
¿Y qué personas serían necesarias?
Expertos en la materia
Los expertos en la materia son necesarios para formular preguntas de revisión que sean significativas. Al poseer un conocimiento profundo del tema y de las cuestiones actuales en ese campo, los expertos en la materia pueden articular preguntas que son relevantes para el campo de la revisión y pueden conocer con anticipación los tipos de estudios que probablemente estén disponibles.
Especialista en información (bibliotecario)
Los bibliotecarios, como especialistas de información que son, pueden diseñar, ejecutar y documentar estrategias de búsqueda que sean eficaces, eficientes, transparentes y reproducibles.
La mayoría de los estudiantes universitarios aprenden a utilizar cadenas de palabras clave y operadores booleanos para buscar en bases de datos bibliográficas, pero este nivel de conocimiento no es suficiente para las #RevisionesSistemáticas.
En las #RevisionesSistemáticas, los especialistas en información (#bibliotecarios) son esenciales en el diseño y la realización de estrategias eficaces y eficientes para encontrar estudios potencialmente relevantes.
Los metodólogos son importantes artífices de las RS, ya que pueden ayudar a establecer los criterios de inclusión de los estudios, los métodos de evaluación de los riesgos de sesgo y los planes de extracción, análisis y síntesis de los datos.
Estadístico experto en metaanálisis
La estadística y el metaanálisis deben utilizarse para analizar y sintetizar los resultados cuantitativos siempre que sea posible, por lo que la experiencia en esta área es importante en el diseño de las revisiones sistemáticas. Los metaanalistas pueden ayudar a diseñar formularios de extracción y codificación de datos para facilitar el análisis y la síntesis.
Podemos concluir que las revisiones sistemáticas no deben realizarse como proyectos individuales.
Podemos concluir que las #RevisionesSistemáticas no deben realizarse como proyectos individuales. Es necesario la formación de un equipo que incluya expertos en la materia, #bibliotecario, metodólogo y estadístico.
Littell, J. H., Valentine, J. C., & Pigott, T. D. Unit 1: Introduction. In J. C. Valentine, J. H. Littell, & S. Young (Eds.), Systematic reviews and meta-analysis: A Campbell Collaboration online course. Open Learning Initiative, 2022. Disponible en: https://oli.cmu.edu/courses/systematic-reviews-and-meta-analysis/
Puljak L. If there is only one author or only one database was searched, a study should not be called a systematic review. J Clin Epidemiol. 2017 Nov;91:4-5. doi: 10.1016/j.jclinepi.2017.08.002. PMID: 28823649.
Pacheco RL, Riera R, Santos GM, Martins Sá KM, Peres Bomfim LG, da Silva GR, de Oliveira FR, Martimbianco ALC. Many systematic reviews with a single author are indexed in PubMed. J Clin Epidemiol. 2023 Jan 27:S0895-4356(23)00007-0. doi: 10.1016/j.jclinepi.2023.01.007. PMID: 36716980.
Buscemi N, Hartling L, Vandermeer B, Tjosvold L, Klassen TP. Single data extraction generated more errors than double data extraction in systematic reviews. J Clin Epidemiol. 2005;59:697-703. doi:10.1016/j.jclinepi.2005.11.010.
Al buscar artículos de investigación para, por ejemplo, una revisión sistemática o una revisión de alcance, debemos ir más allá de la búsqueda automatizada en bases de datos a partir de nuestra búsqueda del tema.
Una de las técnicas de búsqueda que se realiza tras seleccionar los estudios a incluir en nuestra revisión, consiste en obtener las listas de artículos que citan a estos y las referencias que citan nuestros estudios seleccionados. Este método de seguimiento de citas es simplemente otra forma de buscar en bases de datos para encontrar fuentes y artículos relevantes. También llamada ‘citation chasing’, ‘citation searching’, ‘citation tracking’, ‘snowballing’, ‘pearl growing’, ‘footnote chasing’, ‘reference scanning’, ‘reference checking’, ‘bibliographic checking’, ‘citation mining’ o ‘reference harvesting’. Con esta técnica encontramos investigaciones específicas y relevantes mediante las citas hacia atrás en el tiempo (un artículo inicial hace referencia a un conjunto de artículos publicados previamente) y hacia adelante en el tiempo (los artículos publicados después del artículo inicial lo incluyen en sus listas de referencia).
Tradicionalmente, el proceso de búsqueda de artículos citados («hacia atrás») se realizaba manualmente revisando el apartado de bibliografía y los registros resultantes debían verificarse uno por uno con los estudios incluidos en una revisión para identificar registros potencialmente relevantes que deberían incluirse en una revisión. Otra opción es utilizar alguna de las muchas bases de datos, mantienen una lista de las fuentes que cita el artículo mostrado.
La búsqueda de citas «hacia adelante» requiere el uso de herramientas que rastrean las citas a medida que se indexan los registros de citas. Los tres recursos se han utilizado con mayor frecuencia en la búsqueda de citas (tanto hacia adelante como hacia atrás) hasta la fecha: Web of Science, Scopus y Google Scholar.
CitationChaser
Últimamente, he utilizado la herramienta CitationChaser (https://estech.shinyapps.io/citationchaser/) y puedo deciros que me ha facilitado mucho esta tarea y ahorra mucho tiempo.
CitationChaser utiliza el agregador de base de datos bibliográfico Lens.org, que recopila contenido de cinco recursos bibliográficos: Microsoft Academic Graph (MAG), CrossRef, CORE, PubMed y PubMedCentral (https://www.lens.org/lens/search/scholar/structured). En enero de 2022 Lens.org contenía más de 245 millones de registros académicos.
Podemos pegar identificadores directamente en los campos de entrada del artículo en la pestaña «Article input». Citationchaser acepta identificadores de objetos digitales (DOI), COREID (los identificadores del repositorio CORE), MAGID (identificadores de Microsoft Academic Graph), PMID (identificadores de PubMed) y PMCID (identificadores de PubMed Central). Una actualización reciente permite buscar varias identificaciones al mismo tiempo pegándolas en el cuadro correspondiente en la pestaña «Article input».
Como primer paso, debemos comprobar que los registros que introducimos se identificaron correctamente en la base de datos de The Lens.org. La tabla de registros iniciales recuperados se puede descargar como un archivo RIS. Una vez hecho esto procedemos a ir a las pestañas de backward citation chasing y/o citaciones (forward citation chasing). Para cada uno, obtenemos la opción de un resumen textual debajo del botón de acción que resume la cantidad de registros obtenidos, el conjunto de registros únicos (es decir, deduplicados) recuperados de la búsqueda de citas y la cantidad de registros que se muestran en la tabla y que se pueden descargar como un archivo RIS.
En un paso adicional, los usuarios pueden visualizar su red de citas utilizando la pestaña ‘Network’, que proporciona una visualización interactiva de qué artículos recuperados que son citados por (puntos rojos) y citan (puntos azules) los artículos iniciales (puntos negros). Podemos acercar y alejar, y al hacer clic en un artículo, podemos navegar al registro relevante en The Lens.org en una nueva pestaña del navegador.
BIBLIOGRAFÍA
1. Cooper C, Booth A, Britten N, Garside R. A comparison of results of empirical studies of supplementary search techniques and recommendations in review methodology handbooks: a methodological review. Syst Rev. 2017;6(1):234. doi: 10.1186/s13643-017-0625-1 . [Disponible texto completo]
2. Robinson KA, Dunn AG, Tsafnat G, Glasziou P. Citation networks of related trials are often disconnected: implications for bidirectional citation searches. J Clin Epidemiol. 2014;67(7): 793-799.
3. Horsley T, Dingwall O, Tetzlaff JM, Sampson M. Checking reference lists to find additional studies for systematic reviews. Cochrane Database Syst Rev. 2009(1):MR000026 . [Disponible texto completo]
4. Preston L, Carroll C, Gardois P, Paisley S, Kaltenthaler E. Improving search efficiency for systematic reviews of diagnostic test accuracy: an exploratory study to assess the viability of limiting to MEDLINE, EMBASE and reference checking. Syst Rev. 2015;4:82. [Disponible texto completo]
5. Chapman AL, Morgan LC, Gartlehner G. Semi-automating the manual literature search for systematic reviews increases efficiency. Health Info Libr J. 2010;27(1):22-7. [Disponible texto completo]
6. Papaioannou D, Sutton A, Carroll C, Booth A, Wong R. Literature searching for social science systematic reviews: consideration of a range of search techniques. Health Info Libr J. 2010;27(2):114-22. [Disponible texto completo]
7. Westphal A, Kriston L, Holzel LP, Harter M, von Wolff A. Efficiency and contribution of strategies for finding randomized controlled trials: a case study from a systematic review on therapeutic interventions of chronic depression. J Public Health Res. 2014;3(2):177. [Disponible texto completo]
8. Wright K, Golder S, Rodriguez-Lopez R. Citation searching: a systematic review case study of multiple risk behaviour interventions. BMC Med Res Methodol. 2014;14:73. [Disponible texto completo]
9. Linder SK, Kamath GR, Pratt GF, Saraykar SS, Volk RJ. Citation searches are more sensitive than keyword searches to identify studies using specific measurement instruments. J Clin Epidemiol. 2015;68(4):412-7. [Disponible texto completo]
10. Sampson M, Shojania KG, McGowan J, Daniel R, Rader T, Iansavichene AE, et al. Surveillance search techniques identified the need to update systematic reviews. J Clin Epidemiol. 2008;61(8):755-62.
11. Sampson M. Complementary approaches to searching MEDLINE may be sufficient for updating existing systematic reviews. J Clin Epidemiol. 2016;78:108-15.
12. Waffenschmidt S, Janzen T, Hausner E, Kaiser T. Simple search techniques in PubMed are potentially suitable for evaluating the completeness of systematic reviews. J Clin Epidemiol. 2013;66(6):660-5.
13. Littlewood A, Kloukos D. Searching the literature for studies for a systematic review. Part 5: Beyond the standard electronic databases. Am J Orthod Dentofacial Orthop. 2019 Jun;155(6):894-895. doi: 10.1016/j.ajodo.2018.12.016. PubMed PMID: 31153512.
14. Haddaway NR, Grainger MJ, Gray CT. Citationchaser: A tool for transparent and efficient forward and backward citation chasing in systematic searching. Res Synth Methods. 2022 Jul;13(4):533-545. doi: 10.1002/jrsm.1563. PMID: 35472127.
Ayer llegaron los nuevos residentes y hoy, en el curso de bienvenida, voy a introducirles en la búsqueda de información y recursos digitales disponibles.
Entre otros, les voy a dar algunos biblioconsejos:
El último biblioconsejo sería «hazte amiga de la bibliotecaria».
Tal como ayer anunciaba, hoy he estado impartiendo la Sesión en el Hospital Universitario de Puerta de Hierro-Majadahonda de título: «Diseño de búsquedas expertas para revisiones sistemáticas y otros documentos de síntesis«.
Aquí os dejo un breve resumen de lo tratado en la Sesión que he impartido en el #HospitalPuertaHierro de título: «Diseño de búsquedas expertas para revisiones sistemáticas y otros documentos de síntesis de evidencia» #RevSys #RevisionesSistemáticas
Hemos empezado hablando de los pasos a seguir en la búsqueda de evidencia y que, en esquema, vemos en la siguiente figura:
Pasos de la búsqueda de evidencia para revisiones sistemáticas
Lo primero es la búsqueda de revisiones sistemáticas sobre el tema del que deseamos hacer nuestra revisión. Aquí tenéis alguno de los sitios útiles para esta búsqueda.
Fuentes útiles para identificar revisiones sistemáticas
Otro paso necesario es ir recolectando los términos con los que construir la búsqueda y les he dado mis 4 consejos particulares.
Les he explicado el porqué es necesario combinar la búsqueda en texto libre en los campos de título y resumen con los términos del tesauro, si la fuente dispone de este.
He dado mis particulares consejos de búsqueda en PubMed:
También nos ha dado tiempo de mencionar las principales guías y estándares metodológicos para realizar revisiones de síntesis de evidencia:
En el turno de preguntas he recalcado la necesidad de realizar un protocolo previo a nuestra revisión, de para qué sirve y dónde registrarlo.
Y les he mostrado alguna de las herramientas disponibles y recursos para buscarlas:
Ante la sobreabundancia de información, las bases de datos y los motores de búsqueda están adoptando el aprendizaje automático. Introducen algoritmos para proporcionar resultados más rápidos y «relevantes». Veamos como PubMed incorpora varios de estos algoritmos:
La sugerencia de consultas (autocompletar) que consiste en presentar al usuario consultas populares a medida que ingresa términos en el cuadro de búsqueda, lo que puede resultar en búsquedas con más éxito (https://www.ncbi.nlm.nih.gov/labs/pmc/articles/PMC2815412/). Esta característica ha sido muy utilizada en Google durante bastante tiempo.
2. La expansión de consultas es cuando un algoritmo modifica ligeramente la consulta del usuario para corregir términos mal escritos o agregar opciones de vocabulario controlado. Esto incluye el mapeo automático de términos.
Aquí os dejo algunos ejemplos de mapeos incongruentes que nos podemos encontrar. Os recomiendo que siempre vayáis a «Details» en la pantalla de búsqueda avanzada.
Nursig mapea a «breast feeding»PPE (abreviatura de personal protective equipment) mapea a la revista «Polit Philos econ»St. Louis OR Saint Louis mapea a un investiadorAge spots mapea y busca age como revista y spots como exanthema y metrorrhagia
4. Utilización del aprendizaje automático para indexar algunos artículos, lo que significa que a una parte de los artículos se les asignan términos MeSH sin intervención de personas a través de un algoritmo con un componente de aprendizaje automático. Esta indización pasará a ser automática a mediados de 2022. Más información en: https://www.nlm.nih.gov/pubs/techbull/nd21/nd21_medline_2022.html
5. Algoritmo Best Match de recuperación de la información que primero usa BM25 para procesar los resultados de la búsqueda y luego usa LambdaMART, un algoritmo L2R, para reclasificar los primeros 500 resultados (https://jmla.mlanet.org/ojs/jmla/article/view/1236).
La #IA en #PubMed nos ayudará a encontrar las respuestas que necesitan más rápidamente? ¿O el algoritmo sesgará sus resultados, lo que conducirá a la supresión potencial de resultados más recientes o relevantes?
Hemos normalizado encender el ordenador y buscar MEDLINE en Internet de forma gratuita. Pero eso no siempre ha sido así. Por eso es bueno recordar la historia de cómo unos visionarios hicieron posible este enorme avance.
El Index Medicus fue desarrollado por John Shaw Billings, director de la Biblioteca de la Surgeon General’s Office, del Ejército de los Estados Unidos. Esta biblioteca más tarde se convirtió en la Biblioteca Nacional de Medicina de los Estados Unidos (NLM). Cuando trabajaba en su tesis doctoral descubrió que no había una biblioteca que tuviera los recursos necesarios para su investigación. Para solucionar esto, John Shaw Billings creó una colección y también creó catálogos de índices.
El Index Medicus comenzó a editarse en 1879. Tenía una periodicidad mensual. Existió otra versión acumulada anual, el Cumulated Index Medicus publicada en papel desde 1960 hasta 2004. También existió una versión reducida desde 1970 hasta 1997, llamada Abridge Index Medicus con la indización de revistas nucleares.
Durante los 125 años que el Index Medicus se publicó en papel. El último número de Index Medicus se publicó en diciembre de 2004 (Volumen 45) siendo desplazado por los recursos en línea.
En 1957 el personal de la NLM comenzó a planificar la mecanización del Index Medicus, para poder manipular toda la información para producir productos auxiliares como índices impresos, catálogos y bibliografías temáticas. En la década de 1960, la NLM comenzó a computarizar el trabajo de indexación mediante la creación de MEDLARS: En 1960 se preparó un pliego de condiciones detalladas y para la primavera de 1961 se envió a 72 empresas una solicitud de propuestas para desarrollar el sistema. Como resultado, se adjudicó un contrato a la empresa General Electric. Nació MEDLARS en 1964 que tuvo un coste de $ 3 millones para su desarrollo y en el momento de su conclusión no permitía el acceso al público.
MEDLARS se convirtió en MEDLINE (MEDLARS OnLine) en 1971 cuando la NLM ofreció búsquedas de MEDLARS «en línea» a otras bibliotecas médicas y computadoras remotas capaces de iniciar sesión en NLM MEDLARS system. Rápidamente, la NLM puso a disposición de determinadas instituciones las cintas magnéticas con los datos del sistema disponible para establecer servicios descentralizados de búsqueda en todo el país.
Pero para la búsqueda eficaz en los primeros MEDLINE hacía falta un entrenamiento especial en los encabezamientos de materia, los comandos de búsqueda y la lógica booleana. Además, la consulta era muy costosa pues se realizaba a través de módem telefónico. Por esto los bibliotecarios y especialistas en información buscaban por los investigadores y profesionales de la salud (búsquedas mediadas, con intermediario).
Cuando en 1984 Donald A. B. Lindberg MD prestó juramento como Director de la Biblioteca Nacional de Medicina norteamericana (NLM), MEDLINE era consultado fundamentalmente por bibliotecarios entrenados para usar su interfaz de lenguaje de comandos. Había tarifas por búsqueda, principalmente por el coste de usar redes comerciales de telecomunicaciones.
Trece años más tarde, en 1997, MEDLINE pasó a ser gratuito para cualquier persona con conexión a Internet y un navegador web. Lindberg director de la Biblioteca Nacional de Medicina de EE. UU. (NLM) durante 30 años. El énfasis de Lindberg en el acceso abierto a la literatura biomédica se considera un ejemplo de apertura científica ética.
El año 1986 también fue el comienzo de importantes avances en el frente tecnológico de la NLM. El objetivo de Don Lindberg era poner más información médica al alcance de los profesionales de la salud. La NLM ofreció su base de datos MEDLINE a las empresas que distribuyen información en discos de video. Uno de los primeros jugadores en este campo del CD-ROM fue Cambridge Scientific Abstracts, que pronto fue seguido por otras 20 o más compañías.
La Conferencia de la FNLM (Friends of the National Library of Medicine) en junio de 1996 sobre aplicaciones de atención médica de la autopista de la información presentó la oportunidad perfecta para presentar al Senador Frist el lanzamiento de Internet Grateful Med (IGM) e invitarle a realizar una búsqueda.
El 26 de junio de 1997 MEDLINE estuvo disponible de forma gratuita en Internet. El vicepresidente Gore, cuyos esfuerzos estaban centrados en promover la importancia de la “carretera digital” de la nación norteamericana, participó en el lanzamiento de PubMed, un sistema que brindaría acceso gratuito a MEDLINE a través de la World Wide Web. El vicepresidente Al Gore sentado en Capitol Hill frente a un ordenador realizó la búsqueda gratuita inaugural de MEDLINE.
BIBLIOGRAFÍA
Kulikowski CA. Donald A. B. Lindberg: Inspiring Leader and Visionary in Biomedicine, Healthcare, and Informatics. Yearb Med Inform. 2020 Aug;29(1):253-258. doi: 10.1055/s-0040-1701972. PMID: 32303093; PMCID: PMC: 7442506.
Smith KA. Free MEDLINE Access Worldwide. Stud Health Technol Inform. 2022 Feb 1;288:167-177. doi: 10.3233/SHTI210992. PMID: 35102838.
Cravedi K. NLM’s Revolution in Consumer Health Information to Improve Patient Outcomes. Stud Health Technol Inform. 2022 Feb 1;288:245-254. doi: 10.3233/SHTI211000. PMID: 35102845.
En esta infografía encontrarás una ayuda para la búsqueda en PubMed:
PubMed contiene información de citas bibliográficas (por ejemplo, título, autor, revista, fecha de publicación) y los resúmenes de artículos y algunos libros. Incluye la base de datos de MEDLINE®; citas de artículos en el archivo PubMed Central (PMC) con textos completos de uso gratuito, incluso de artículos sobre informes de investigaciones financiadas por los Institutos Nacionales de Salud (NIH); y citas de libros Bookshelf del Centro Nacional para la Información Biotecnológica (NCBI) (www.ncbi.nlm.nih.gov/books).
Además, incluye enlaces al texto completo de otras fuentes, cuando están disponibles, tales como el sitio de la editorial, el archivo PubMed Central (PMC) y al texto completo de las revistas suscritas por tu Biblioteca.
En caso de duda, acude a tu Biblioteca donde te proporcionaremos más información y consejos que te ayudarán a sacar mayor partido de este recurso gratuito indispensable en ciencias de la salud.