¿Qué significan las fechas en MeSH Database?

Una de las cosas que tenemos que tener cuidado cuando buscamos en MEDLINE con el tesauro MeSH son las fechas que aparecen la descripción desarrollada del término. Nos podemos encontrar con tres posibilidades:

UNA FECHA

Si, por ejemplo, entramos en MeSH Database y buscamos por “PubMed”, el resultado nos muestra la información relativa a ese término del MeSH. Tras una breve definición, vemos que nos indica “Year introduced: 2003”, es decir, que ese término de indización se apareció como término del tesauro en el año 2003. Esto significa que podemos utilizar este término MeSH para recuperar información desde 2003. Para recuperar bibliografía de años anteriores a este año por este concepto o similar, debemos utilizar los términos MeSH que encontramos en el apartado de “Previous Indexing”. En nuestro caso sería “MEDLINE”.

DOS FECHAS

Pero ¿qué pasa si nos encontramos dos fechas en el año de introducción del término, una de ellas entre paréntesis?

Veamos el ejemplo de “Triage” donde aparece “Year Introduced: 1991 (1976)”. En este caso, nos indica que el “concepto” relativo a triaje ha estado en MeSH desde 1976 y que se indizaba con un “término histórico” MeSH que significaba Triaje, pero la palabra triaje no se usaba en ese momento. No podemos saber cuál fue el término histórico.

Posteriormente, en 1991, se introdujo el término Triaje en MeSH. En ese momento, todas las citas que habían sido indexadas con el «término histórico» se volvieron a indexar (utilizando -Buscar y reemplazar-). Esa acción Buscar y reemplazar nos permite buscar hasta 1976 con Triage, aunque el término se introdujo en 1991.

Por último, si deseamos buscar literatura de triage que se indexó antes de 1976, debemos revisar la información de indexación anterior en el Registro MeSH que aparece en “Previous Indexing”.

NINGÚN AÑO

Por último, tenemos el caso de aquellos encabezamientos que no incluyen información de año de introducción en el tesauro. Por ejemplo, el encabezamiento “Eye” no aporta esa información. Esto nos indica que el encabezamiento ha existido desde el comienzo de MEDLINE y podemos utilizarlo para buscar todas las referencias de esta base de datos.

Nueva versión de la guía EUnetHTA del proceso de búsqueda de información en revisiones sistemáticas y evaluación de tecnología

EUnetHTA

Ya en 2015 daba cuenta de la Guía metodológica EUnetHTA desarrollada por el Institute for Quality and Efficiency in Health Care (IQWiG) / Germany y cuyo objetivo es proporcionar una visión general, actualizada y transparente de todo el proceso de recuperación de la información.

Ahora está disponible la versión 2.0 de diciembre de 2019 de la directriz metodológica EUnetHTA sobre «Proceso de recuperación de información para revisiones sistemáticas y evaluaciones de tecnología de salud sobre efectividad clínica» actualizada por IQWiG junto con el NIPH (Noruega) y AETSA (España).

Podéis descargar esta nueva versión en:

https://eunethta.eu/wp-content/uploads/2020/01/EUnetHTA_Guideline_Information_Retrieval_v2-0.pdf

Citar como:

EUnetHTA JA3WP6B2-2 Authoring Team. Process of information retrieval for systematic
reviews and health technology assessments on clinical effectiveness. Methodological
Guidelines. Diemen (The Netherlands): EUnetHTA; 2019. Available from
https://www.eunethta.eu/

Qué sabes de revisiones sistemáticas, ¿juegas?

En la entrada del pasado 10 de julio Las 10 etapas del proceso de revisiones sistemáticas os presentaba una infografía interactiva sobre las diferentes etapas de una revisión sistemática.

Hoy os propongo un juego sencillo para que comprobéis cuál es vuestro conocimiento de algunas de estas fases. Espero que os guste.

¿Qué es el nuevo algoritmo Best Match de PubMed?

Best Match es un nuevo algoritmo de búsqueda por relevancia para PubMed implantado en julio de 2017 que aprovecha la inteligencia de los usuarios y la tecnología de aprendizaje automático como una alternativa al orden por fecha que tradicionalmente nos ofrecía PubMed.

pm_best_match_fig1.png

Hasta hace poco de forma predeterminada los resultados se mostraban en orden cronológico inverso. Es decir, los artículos recién publicados primero. Si bien este orden de clasificación es deseable para buscar la información más reciente sobre un tema determinado o para un autor individual, puede no ser adecuado para otros tipos de búsquedas. Esto se agrava pues, como ocurre cuando buscamos en Google, más del 80% de los clics de los usuarios en los resultados de búsqueda ocurren en la primera página. Por lo tanto, para la mayoría de las consultas de PubMed con más de 20 resultados, los usuarios pueden fácilmente pasar por alto los documentos más útiles de la segunda o posteriores páginas.

Best Match se basa en un algoritmo de frecuencia de término ponderado. Incorpora el aprendizaje automático para volver a clasificar los principales artículos devueltos para una mayor relevancia. El algoritmo Best Match se construye con búsquedas pasadas de usuarios y con más de 150 señales de clasificación de relevancia (factores). La mayoría de estas señales se calculan a partir del número de coincidencias entre los términos de búsqueda y el registro de PubMed, mientras que otras son específicas de un registro (por ejemplo, tipo de publicación, año de publicación) o específicas de una búsqueda (por ejemplo, longitud de búsqueda).  journal.pbio.2005343.g002

Dado que generalmente los usuarios que ordenan por este nuevo algoritmo hacen clic en las citas de la primera página PubMed limita la lista de resultados a 10.000 referencias.

Si deseamos utilizar Best Match como nuestro orden predeterminado para los resultados de PubMed podemos cambiar las preferencias de nuestra cuenta de My NCBI .

Si quieres comprender mejor este nuevo algoritmo de PubMed no dejes de leer el artículo siguiente:

Fiorini N, Canese K, Starchenko G, Kireev E, Kim W, Miller V, Osipov M, Kholodov M, Ismagilov R, Mohan S, Ostell J, Lu Z. Best Match: New relevance search for PubMed. PLoS Biol. 2018 Aug 28;16(8):e2005343. doi: 10.1371/journal.pbio.2005343. eCollection 2018 Aug. PubMed PMID: 30153250.

También tienes más información aquí.

Qué límites y filtros podemos aplicar en búsquedas de información en cuidados

Para acotar el resultado de búsqueda, las bases de datos nos proporcionan diferentes recursos de filtrado con límites. Con ellos podemos excluir idiomas que no entendemos, buscar artículos que han sido publicados en cierto periodo de tiempo, recuperar artículos referentes a una población específica o buscar sólo determinados tipos de estudio o grupos de edad. Podemos limitar nuestro resultado a artículos publicados en revistas de enfermería seleccionado «Nursing Journals» dentro de la categoría de límite «Journal Categories» o directamente añadiendo a nuestra estrategia de búsqueda jsubsetn[text] (p. ej.: “Diabetes AND jsubsetn[text]”).

También disponemos de los filtros metodológicos o filtros de búsqueda («hedges«) de los que ya hablé extensamente en una entrada anterior (https://ccamposhugf.wordpress.com/2013/08/22/que-son-los-filtros-de-busqueda/). Son estrategias de búsquedas desarrolladas y validadas para utilizar en bases de datos electrónicas que nos ayudan a perfeccionar la estrategia de búsqueda para recuperar estudios científicamente sólidos y clínicamente relevantes, por ejemplo, estudios diseñados para responder preguntas relacionadas con la efectividad de una terapia o la precisión de una prueba de diagnóstica. Estas estrategias prediseñadas se han de combinar con el término/s o descriptor/es de lo que deseamos buscar permitiéndonos una recuperación de la información con un alto grado de exactitud. En la página del Centre for Reviews and Dissemination (The InterTASC Information Specialists’ Sub-Group Search Filter Resource) podemos encontrar una recopilación de diferentes filtros para diversas bases de datos y plataformas (1). El desarrollo de filtros de búsqueda para la profesión de enfermería es limitado y se ha centrado en aspectos específicos del cuidado de enfermería (2-4).

Por último, recordar que en PubMed podemos guardar nuestros filtros creando y personalizando una cuenta MyNCBI tal como contamos en una anterior entrada de BiblioGETAFE (https://ccamposhugf.wordpress.com/2013/11/26/como-crearnos-una-cuenta-personal-en-pubmed-myncbi/).

Bibliografía:

  1. ISSG Search Filter Resource [Internet]. Glanville J, Lefebvre C, Wright K, editors.  York (UK):  The InterTASC Information Specialists’ Sub-Group; 2008 [actualizado 26 Febrero 2018; consultado el 8 mayo 2018].  Disponible en: https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home
  2. Berg A, Fleischer S, Behrens J. Development of two search strategies for literature in MEDLINE-PubMed: nursing diagnoses in the context of evidence-based nursing. Int J Nurs Terminol Classif. 2005 Apr;16(2):26–32.
  3. Lavin MA, Krieger MM, Meyer GA, Spasser MA, Cvitan T, Reese CG, Carlson JH, Perry AG, McNary P. Development and evaluation of evidence-based nursing (EBN) filters and related databases. J Med Lib Assoc. 2005 Jan;93(1):104–15.
  4. Simon M, Hausner E, Klaus SF, Dunton NE. Identifying nurse staffing research in MEDLINE: development and testing of empirically derived search strategies with the PubMed interface. BMC Med Res Methodol. 2010 Aug 23;10:76.

¿Cuánto tiempo y personas son necesarias para realizar una revisión sistemática?

Recientemente en la lista que estoy subscrita IRMG se ha tratado el interesante tema del tiempo necesario para realizar una revisión sistemática y se ha aportado bibliografía de estudios sobre el tema. Este es un asunto que debe tenerse en cuenta antes de iniciar el proyecto y muchas veces somos los bibliotecarios los que alertamos a nuestros usuarios de la logística necesaria para llegar a buen puerto.

La realización de una revisión sistemática lleva mucho tiempo y no es una tarea a realizar en solitario, un grupo de 4-6 es el ideal debido a la gran cantidad de literatura que debe revisarse. Rohit Borah y cols. de la Universidad de Alabama han publicado un meta-análisis, utilizando el registro PROSPERO para cuantificar el tiempo y las persona necesarias para llevar a cabo una revisión sistemática. Este estudio proporciona una estimación actualizada del tiempo y el esfuerzo necesarios para realizar y publicar una revisión sistemática utilizando una amplia muestra de revisiones publicadas recientemente sobre una variedad de temas de intervenciones médicas. El tiempo medio estimado para completar el proyecto y publicar la revisión (desde inicio del registro del proyecto hasta la fecha de publicación) fue de 67,3 semanas (IQR = 42). El número de estudios encontrados en las búsquedas bibliográficas varió de 27 a 92 020; la tasa de rendimiento promedio de los estudios incluidos (eficiencia de la búsqueda o la tasa de rendimiento que se calcula dividiendo el número final de estudios incluidos por el número inicial de estudios encontrados, excluidos los duplicados, en la búsqueda bibliográfica) fue 2.94% (IQR = 2.5); y el número promedio de autores por revisión fue de 5, SD = 3.

En cuanto a los bibliotecarios médicos que participan en el una RS el cálculo del tiempo dedicado debe incluir las tareas específicas tales como el proceso de entrevista inicial y reuniones de seguimiento, desarrollo de estrategias de búsqueda, traducción de estrategias de búsqueda para volver a ejecutar en otras bases de datos, búsqueda en la literatura gris, realización de búsquedas manuales, documentación de la estrategia de búsqueda, utilización de software bibliográfico para la gestión y eliminación de duplicados y entrega de los resultados y redacción de la sección de métodos con la metodología de búsqueda. Recientemente Bullers y cols. estimaron que la duración acumulada en todas estas tareas fue de una media de 30.7 horas (SD = 30.0) con una mediana de 22 horas y un rango de 2 a 219 horas.

El resultado de referencias obtenidas tras las búsquedas y que hay que revisar suele ser muy abultado y suele desalentar a las personas que tienen que realizar la revisión. Sin embargo, la Cochrane en su manual (Cochrane Handbook,  Capítulo 6.4.4. Sensitivity versus precisión) nos dice que los resúmenes de artículos identificados a través de una búsqueda bibliográfica pueden ser revisados muy rápidamente para determinar la relevancia potencial. A una tasa de lectura estimada de forma conservadora de dos resúmenes por minuto, los resultados de una búsqueda en la base de datos pueden leerse a una tasa de 120 por hora (o aproximadamente 1000 en un período de 8 horas).

Por último, quiero mencionar PredicTER que es una herramienta de software para ayudar a los investigadores y profesionales a estimar el tiempo necesario para completar una revisión sistemática (SR) o un mapa sistemático (SM). Los valores predeterminados para cada entrada se toman de una encuesta de practicantes de síntesis de evidencia ambiental realizada por Neal Haddaway. PredicTER fue diseñado por Neal Haddaway (Stockholm Environment Institute) y Martin Westgate (Australian National University).

Referencias:

Borah R, Brown AW, Capers PL, et al. Analysis of the time and workers needed to conduct systematic reviews of medical interventions using data from the PROSPERO registry. BMJ Open 2017;7:e012545. doi: 10.1136/bmjopen-2016-012545

Allen IE, Olkin I. Estimating time to conduct a meta-analysis from number of citations retrieved. JAMA. 1999 Aug 18;282(7):634-5. PubMed PMID: 10517715

Bullers K, Howard AM, Hanson A, Kearns WD, Orriola JJ, Polo RL, Sakmar KA. It takes longer than you think: librarian time spent on systematic review tasks. J Med Libr Assoc. 2018 Apr;106(2):198-207. doi: 10.5195/jmla.2018.323. Epub 2018 Apr 1. PubMed PMID: 29632442; PubMed Central PMCID: PMC5886502

Saleh, A., Ratajeski, M., & Bertolet, M. (2014). Grey Literature Searching for Health Sciences Systematic Reviews: A Prospective Study of Time Spent and Resources Utilized. Evidence Based Library and Information Practice, 9(3), 28-50. https://doi.org/10.18438/B8DW3K

Herramientas para las búsquedas en revisiones sistemáticas: Conversores de estrategias de búsqueda

Cuando hacemos una búsqueda exhaustiva y sistemática de bibliográfica para un documento de síntesis de evidencia como una revisión sistemática, necesitamos buscar en más de una base de datos. En estos casos las estrategias de búsqueda son complejas e implican texto libre, términos de vocabulario controlado, comodines o sintaxis de adyacencia, por lo que la conversión no es un proceso sencillo. Además, las diferentes interfaces y motores de búsqueda tienen diferentes funciones disponibles e interpretan la lógica del usuario de formas distintas. Por ejemplo, la interfaz de PubMed hace la búsqueda ampliada o «explode» de los encabezados de materias MeSH de manera automática mientras que la interfaz de Ovid no lo hace. También los tesauros de encabezamientos de materias son distintos o incluso inexistentes como en la WOS (Más información aquí).

Por ello son útiles las herramientas que nos ayuda a «traducir» nuestra estrategia a diferentes bases de datos. Si bien no son perfectas, nos ayudan en un primer paso con la sintaxis de búsqueda. Entre los que utilizo destaco los dos siguientes:

MEDLINE Transpose
Este proyecto es una colaboración entre el College of Physicians and Surgeons of British Columbia (CPSBC)y la Collaboration for Leadership in Applied Health Research and Care South West Peninsula (PenCLAHRC).

Ha sido desarrollado para mitigar un problema de convertir la sintaxis de búsqueda entre las interfaces de PubMed y Ovid/MEDLINE.  Más información aquí.

Polyglot Search

En esta escribimos nuestra estrategia de búsqueda compleja en formato PubMed u Ovid MEDLINE y Polyglot Search intenta traducirla a cualquiera de los formatos admitidos del motor de búsqueda: EMBASE, WOS, CINAHL, SCOPUS, Cochrane,…
Systematic Review Accelerator.jpgEste módulo es parte del paquete de herramientas del Asistente de Revisión Sistemática gratuito del Bond University Centre for Research in Evidence-Based Practice. Polyglot Search Syntax Translator forma parte del Systematic Review Accelerator. Más información aquí.

¿Y tú, conoces algún conversor más?

MEDLINE/Ovid incorpora un nuevo campo de búsqueda (fx) a la búsqueda en texto libre (.mp)

Ovid_MEDLINE.jpgA partir del 1 de junio de 2018 MEDLINE en la plataforma Ovid incorporará el campo de palabra de subencabezamiento flotante o “Floating Subheading Word” (FX) al conjunto predeterminado de campos para búsquedas de texto libre (MP), en línea con el comportamiento de búsqueda en PubMed de NLM.

El conjunto de campos MP para la búsqueda de texto libre (o .mp.) cambiará de:

[mp=title, abstract, original title, name of substance word, subject heading word, keyword heading word, protocol supplementary concept word, rare disease supplementary concept word, unique identifier, synonyms]
A:
[mp=title, abstract, original title, name of substance word, subject heading word, keyword heading word, protocol supplementary concept word, rare disease supplementary concept word, unique identifier, synonyms, floating subheading word]
Si una estrategia de búsqueda existente utiliza cualquiera de las palabras de subencabezamientos flotantes (79 términos), este cambio puede afectar a los resultados y / o los resultados de las alertas que tengamos configuradas.

 

Revisiones sistemáticas: Cómo documentar los artículos obtenidos en búsquedas no automatizadas en la metodología de búsqueda bibliográfica