Qué límites y filtros podemos aplicar en búsquedas de información en cuidados

Para acotar el resultado de búsqueda, las bases de datos nos proporcionan diferentes recursos de filtrado con límites. Con ellos podemos excluir idiomas que no entendemos, buscar artículos que han sido publicados en cierto periodo de tiempo, recuperar artículos referentes a una población específica o buscar sólo determinados tipos de estudio o grupos de edad. Podemos limitar nuestro resultado a artículos publicados en revistas de enfermería seleccionado “Nursing Journals” dentro de la categoría de límite “Journal Categories” o directamente añadiendo a nuestra estrategia de búsqueda jsubsetn[text] (p. ej.: “Diabetes AND jsubsetn[text]”).

También disponemos de los filtros metodológicos o filtros de búsqueda (“hedges“) de los que ya hablé extensamente en una entrada anterior (https://ccamposhugf.wordpress.com/2013/08/22/que-son-los-filtros-de-busqueda/). Son estrategias de búsquedas desarrolladas y validadas para utilizar en bases de datos electrónicas que nos ayudan a perfeccionar la estrategia de búsqueda para recuperar estudios científicamente sólidos y clínicamente relevantes, por ejemplo, estudios diseñados para responder preguntas relacionadas con la efectividad de una terapia o la precisión de una prueba de diagnóstica. Estas estrategias prediseñadas se han de combinar con el término/s o descriptor/es de lo que deseamos buscar permitiéndonos una recuperación de la información con un alto grado de exactitud. En la página del Centre for Reviews and Dissemination (The InterTASC Information Specialists’ Sub-Group Search Filter Resource) podemos encontrar una recopilación de diferentes filtros para diversas bases de datos y plataformas (1). El desarrollo de filtros de búsqueda para la profesión de enfermería es limitado y se ha centrado en aspectos específicos del cuidado de enfermería (2-4).

Por último, recordar que en PubMed podemos guardar nuestros filtros creando y personalizando una cuenta MyNCBI tal como contamos en una anterior entrada de BiblioGETAFE (https://ccamposhugf.wordpress.com/2013/11/26/como-crearnos-una-cuenta-personal-en-pubmed-myncbi/).

Bibliografía:

  1. ISSG Search Filter Resource [Internet]. Glanville J, Lefebvre C, Wright K, editors.  York (UK):  The InterTASC Information Specialists’ Sub-Group; 2008 [actualizado 26 Febrero 2018; consultado el 8 mayo 2018].  Disponible en: https://sites.google.com/a/york.ac.uk/issg-search-filters-resource/home
  2. Berg A, Fleischer S, Behrens J. Development of two search strategies for literature in MEDLINE-PubMed: nursing diagnoses in the context of evidence-based nursing. Int J Nurs Terminol Classif. 2005 Apr;16(2):26–32.
  3. Lavin MA, Krieger MM, Meyer GA, Spasser MA, Cvitan T, Reese CG, Carlson JH, Perry AG, McNary P. Development and evaluation of evidence-based nursing (EBN) filters and related databases. J Med Lib Assoc. 2005 Jan;93(1):104–15.
  4. Simon M, Hausner E, Klaus SF, Dunton NE. Identifying nurse staffing research in MEDLINE: development and testing of empirically derived search strategies with the PubMed interface. BMC Med Res Methodol. 2010 Aug 23;10:76.

¿Debo incluir los Resultados (Outcomes) en la estrategia de búsqueda de una revisión sistemática?

Una revisión sistemática debe comenzar con una pregunta claramente definida y delimitada. La pregunta ha de especificar los tipos de población (los participantes), los tipos de intervenciones (y comparaciones) y los tipos de desenlaces que son de interés. Esta pregunta estructurada es lo que conocemos como PICO (iniciales en inglés). A estos componentes de la pregunta se puede añadir el tipo de diseño del estudio que será incluido (PICOS, donde la S significa diseño del estudio -Study-) y puede ser, por ejemplo, un ‘filtro’ para ensayos clínicos aleatorios.

Pero al trasladarlo a la estrategia de búsqueda es innecesario e incluso indeseable incluir todos los aspectos de la pregunta clínica. Este es el caso de los componentes relativos a las comparaciones y a los resultados. La evidencia nos dice que estos conceptos pueden no estar adecuadamente descritos en las partes “buscables” (como título o resumen) de los artículos y, a menudo, no están bien indexados con términos de vocabulario controlado (Chan 2004, Chalmers I, Glasziou P, Mantziari S).

Existe el sesgo de efecto adverso en las revisiones sistemáticas. El 62% de los autores de revisiones sistemáticas no mencionaron los resultados de efectos adversos en el protocolo. Además, el 35% de las revisiones sistemáticas modificaron, informaron parcialmente o excluyeron el resultado de los eventos adversos según se especificaba en sus respectivos protocolos registrados en PROSPERO (Parson R).

bias.jpg

Por otro lado, en muchos casos la búsqueda nos devuelve una gran cantidad de resultados y con baja precisión por lo que requerirá muchos recursos y esto podría convertirse en un problema. En tales circunstancias, los revisores pueden buscar medios alternativos para aumentar la precisión. La inclusión de términos de búsqueda que se relacionan con los resultados es una técnica comúnmente utilizada para aumentar la precisión en revisiones muy amplias. Sin embargo, dado que la notificación de los resultados ha demostrado ser pobre o sesgada agregar estos a la búsqueda puede aumentar el número de pérdida de estudios relevantes. Por lo tanto, los resultados se omiten intencionalmente de las estrategias de búsqueda y la estrategia para las revisiones de intervención a menudo se estructuran para encontrar los participantes, las intervenciones y el diseño del estudio.

Referencias:

Chan AW, Hróbjartsson A, Haahr MT, Gøtzsche PC, Altman DG. Empirical evidence for selective reporting of outcomes in randomized trials: comparison of protocols to published articles. JAMA. 2004 May 26;291(20):2457-65. PubMed PMID: 15161896.

Chalmers I, Glasziou P. Avoidable waste in the production and reporting of research evidence. Lancet. 2009 Jul 4;374(9683):86-9. doi: 10.1016/S0140-6736(09)60329-9. Epub 2009 Jun 12. Review. PubMed PMID: 19525005.

Faber Frandsen T, Friberg Bruun Nielsen M, Lindhardt CL, Brandt Eriksen M. Using the full PICO model as a search tool for systematic reviews resulted in lower recall for some PICO elements. J Clin Epidemiol. 2020 https://doi.org/10.1016/j.jclinepi.2020.07.005

Glasziou P, Altman DG, Bossuyt P, Boutron I, Clarke M, Julious S, Michie S, Moher D, Wager E. Reducing waste from incomplete or unusable reports of biomedical research. Lancet. 2014 Jan 18;383(9913):267-76. doi: 10.1016/S0140-6736(13)62228-X. Epub 2014 Jan 8. PubMed PMID: 24411647.

Mantziari S, Demartines N. Poor outcome reporting in medical research; building practice on spoilt grounds. Ann Transl Med. 2017 May;5(Suppl 1):S15. doi: 10.21037/atm.2017.03.75. PubMed PMID: 28567397; PubMed Central PMCID: PMC5440299

Parsons R, Golder S, Watt I. More than one-third of systematic reviews did not fully report the adverse events outcome. J Clin Epidemiol. 2019;108:95-101. doi: 10.1016/j.jclinepi.2018.12.007. Epub 2018 Dec 13. PubMed PMID: 30553831.

Revisiones sistemáticas: Cómo documentar las estrategias de búsqueda en bases de datos automatizadas

Los bibliotecarios que participan en un proyecto de revisión sistemática deben redactar la parte del manuscrito que se refiere a los resultados de búsqueda. En una anterior entrada hablaba de “Cómo documentar los artículos obtenidos en búsquedas no automatizadas en la metodología de búsqueda bibliográfica” en una revisión sistemática. Hoy voy a tratar cuestiones de estilo cuando documentamos la estrategia de búsqueda en bases de datos automatizadas siguiendo el modelo propuesto por el Manual de estilo Cochrane.

Lo primero es relativo al formato de elección para las bases de datos más frecuentemente utilizadas. La Cochrane nos indica que deben escribirse con letras mayúsculas: MEDLINE, CENTRAL, OLDMEDLINE y CINAHL (no CINHAL). Otras bases de datos usan una combinación de letras minúsculas y mayúsculas, por ejemplo, Embase (no EMBASE ), PsycLIT (no PsychLIT) y PsycINFO (no PsychINFO).

Las fuentes de búsqueda se han de mencionar en el apartado de “Métodos” como “Métodos de búsqueda para la identificación de estudios” siguiendo el siguiente orden: [Cochrane Group name] Specialised Register (o Specialized Register o Trials Register), CENTRAL, MEDLINE, Embase y cualquier otra base de datos.

También se han de describir brevemente en el resumen de la revisión sistemática, por ejemplo, “Se realizaron búsquedas en CENTRAL, MEDLINE, Embase, otras cinco bases de datos y tres registros de ensayos (mes y año)”.

En la sección Métodos de búsqueda, se debe proporcionar la fecha de la búsqueda más reciente (día/mes/año) junto con el número de versión o versión (según corresponda) de cada base de datos. La fecha de inicio de la base de datos debe darse cuando se conozca. Los nombres de las bases de datos deben incluir la plataforma o el nombre del proveedor y los sitios web deben incluir el nombre completo y la URL.

Algunos ejemplos:

  • MEDLINE Ovid (1946 al 10 de febrero de 2015);
  • Embase Ovid (desde 1974 hasta el 9 de febrero de 2015);
  • CINAHL EBSCO (1982 a 9 de febrero de 2015);
  • PsycINFO Ovid (de 1806 a 10 de febrero de 2015);
  • LILACS (1982 a 10 de febrero de 2015);
  • Registro ISRCTN (www.isrctn.com; busqueda realizada el 10 de febrero de 2015);
  • ClinicalTrials.gov (www.clinicaltrials.gov; búsquedas realizadas el 10 de febrero de 2015).

Los términos de búsqueda serán “palabras de texto” (“text words” en inglés) y términos del vocabulario indexado o controlado. El formato preferido para referirse al vocabulario controlado de la NLM utilizado para indexar artículos para MEDLINE (y PubMed ) es MeSH (no MESH).

Si mostramos los enlaces a sitios web dentro del texto copiaremos y pegaremos la URL del sitio web, pero eliminando los caracteres innecesarios del final de la URL. Por ejemplo:

https://www.researchinformation.info/news/digital-science-opens-russia-subsidiary?utm_source=adestra&utm_medium=RINewsline&utm_campaign=RI%20NL%20MAY17

Debe acortarse a:

https://www.researchinformation.info/news/digital-science-opens-russia-subsidiary

Hay que omitir el prefijo ‘http: //’ o ‘https: //’ de este campo, no omitir el ‘www.’ si está presente (aunque la dirección probablemente funcionará sin ella) y no agregar ‘www.’ si no está incluido.

Además, cuando enviemos nuestro manuscrito a publicar hay que tener en cuenta que la mayoría de las revistas siguen las guías PRISMA (Preferred Reporting Items for  Systematic Reviews and Meta-Analyses Checklist item 8) que indican que hay que publicar como apéndice del artículo la estrategia de búsqueda de, al menos, una base de datos principal de tal forma que pueda ser reproducible.

El formato puede ser similar al de este ejemplo adaptado del artículo Alejandria MM, Lansang MA, Dans LF, Mantaring JB. Intravenous immunoglobulin for treating sepsis and septic shock. Cochrane Database Syst Rev2002;(1):CD001090, doi:10.1002/14651858.CD001090:

Apéndice: “Estrategia de búsqueda: MEDLINE (OVID)

#1         immunoglobulins/

#2         immunoglobulin$.tw.

#3         ivig.tw.

#4         1 or 2 or 3

#5         sepsis/

#6         sepsis.tw.

#7         septic shock/

#8         septic shock.tw.

#9         septicemia/

#10        septicaemia.tw.

#11        septicemia.tw.

#12        5 or 6 or 7 or 8 or 9 or 10 or 11

#13        4 and 12

#14        randomised controlled trials/

#15        randomised-controlled-trial.pt.

#16        controlled-clinical-trial.pt.

#17        random allocation/

#18        double-blind method/

#19        single-blind method/

#20        14 or 15 or 16 or 17 or 18 or 19

#21        exp clinical trials/

#22        clinical-trial.pt.

#23        (clin$ adj trial$).ti,ab.

#24        ((singl$ or doubl$ or trebl$ or tripl$) adj (blind$)).ti,ab.

#25        placebos/

#26        placebo$.ti,ab.

#27        random$.ti,ab.

#28        21 or 22 or 23 or 24 or 25 or 26 or 27

#29        research design/

#30        comparative study/

#31        exp evaluation studies/

#32        follow-up studies/

#33        prospective studies/

#34        (control$ or prospective$ or volunteer$).ti,ab.

#35        30 or 31 or 32 or 33 or 34

#36        20 or 28 or 29 or 35

#37        13 and 36”

¿Cuánto tiempo y personas son necesarias para realizar una revisión sistemática?

Recientemente en la lista que estoy subscrita IRMG se ha tratado el interesante tema del tiempo necesario para realizar una revisión sistemática y se ha aportado bibliografía de estudios sobre el tema. Este es un asunto que debe tenerse en cuenta antes de iniciar el proyecto y muchas veces somos los bibliotecarios los que alertamos a nuestros usuarios de la logística necesaria para llegar a buen puerto.

La realización de una revisión sistemática lleva mucho tiempo y no es una tarea a realizar en solitario, un grupo de 4-6 es el ideal debido a la gran cantidad de literatura que debe revisarse. Rohit Borah y cols. de la Universidad de Alabama han publicado un meta-análisis, utilizando el registro PROSPERO para cuantificar el tiempo y las persona necesarias para llevar a cabo una revisión sistemática. Este estudio proporciona una estimación actualizada del tiempo y el esfuerzo necesarios para realizar y publicar una revisión sistemática utilizando una amplia muestra de revisiones publicadas recientemente sobre una variedad de temas de intervenciones médicas. El tiempo medio estimado para completar el proyecto y publicar la revisión (desde inicio del registro del proyecto hasta la fecha de publicación) fue de 67,3 semanas (IQR = 42). El número de estudios encontrados en las búsquedas bibliográficas varió de 27 a 92 020; la tasa de rendimiento promedio de los estudios incluidos (eficiencia de la búsqueda o la tasa de rendimiento que se calcula dividiendo el número final de estudios incluidos por el número inicial de estudios encontrados, excluidos los duplicados, en la búsqueda bibliográfica) fue 2.94% (IQR = 2.5); y el número promedio de autores por revisión fue de 5, SD = 3.

En cuanto a los bibliotecarios médicos que participan en el una RS el cálculo del tiempo dedicado debe incluir las tareas específicas tales como el proceso de entrevista inicial y reuniones de seguimiento, desarrollo de estrategias de búsqueda, traducción de estrategias de búsqueda para volver a ejecutar en otras bases de datos, búsqueda en la literatura gris, realización de búsquedas manuales, documentación de la estrategia de búsqueda, utilización de software bibliográfico para la gestión y eliminación de duplicados y entrega de los resultados y redacción de la sección de métodos con la metodología de búsqueda. Recientemente Bullers y cols. estimaron que la duración acumulada en todas estas tareas fue de una media de 30.7 horas (SD = 30.0) con una mediana de 22 horas y un rango de 2 a 219 horas.

El resultado de referencias obtenidas tras las búsquedas y que hay que revisar suele ser muy abultado y suele desalentar a las personas que tienen que realizar la revisión. Sin embargo, la Cochrane en su manual (Cochrane Handbook,  Capítulo 6.4.4. Sensitivity versus precisión) nos dice que los resúmenes de artículos identificados a través de una búsqueda bibliográfica pueden ser revisados muy rápidamente para determinar la relevancia potencial. A una tasa de lectura estimada de forma conservadora de dos resúmenes por minuto, los resultados de una búsqueda en la base de datos pueden leerse a una tasa de 120 por hora (o aproximadamente 1000 en un período de 8 horas).

Por último, quiero mencionar PredicTER que es una herramienta de software para ayudar a los investigadores y profesionales a estimar el tiempo necesario para completar una revisión sistemática (SR) o un mapa sistemático (SM). Los valores predeterminados para cada entrada se toman de una encuesta de practicantes de síntesis de evidencia ambiental realizada por Neal Haddaway. PredicTER fue diseñado por Neal Haddaway (Stockholm Environment Institute) y Martin Westgate (Australian National University).

Referencias:

Borah R, Brown AW, Capers PL, et al. Analysis of the time and workers needed to conduct systematic reviews of medical interventions using data from the PROSPERO registry. BMJ Open 2017;7:e012545. doi: 10.1136/bmjopen-2016-012545

Allen IE, Olkin I. Estimating time to conduct a meta-analysis from number of citations retrieved. JAMA. 1999 Aug 18;282(7):634-5. PubMed PMID: 10517715

Bullers K, Howard AM, Hanson A, Kearns WD, Orriola JJ, Polo RL, Sakmar KA. It takes longer than you think: librarian time spent on systematic review tasks. J Med Libr Assoc. 2018 Apr;106(2):198-207. doi: 10.5195/jmla.2018.323. Epub 2018 Apr 1. PubMed PMID: 29632442; PubMed Central PMCID: PMC5886502

Saleh, A., Ratajeski, M., & Bertolet, M. (2014). Grey Literature Searching for Health Sciences Systematic Reviews: A Prospective Study of Time Spent and Resources Utilized. Evidence Based Library and Information Practice, 9(3), 28-50. https://doi.org/10.18438/B8DW3K

PRISMA-P: elementos de informes preferidos para los protocolos de revisión sistemática y metaanálisis

Menos de la mitad de las revisiones sistemáticas indexadas en MEDLINE informan que trabajan a partir de un protocolo debido, en gran parte, a la falta de conocimiento de los autores sobre cómo escribirlos y qué incluir. Sin embargo, la preparación de un protocolo es un componente esencial del proceso de revisión sistemática. En el contexto de revisiones sistemáticas y meta-análisis, un protocolo es un documento que presenta un plan explícito para una revisión sistemática. El protocolo detalla los fundamentos y el enfoque metodológico y analítico a priori de la revisión.

PRISMA-P es una guía para ayudar a los autores a preparar protocolos para revisiones sistemáticas y metaanálisis que les proporcionen un conjunto mínimo de elementos para ser incluidos en el protocolo. El objetivo de un protocolo es proporcionar los fundamentos para la revisión y el enfoque metodológico y analítico planeado previamente, antes de iniciar una revisión. Los investigadores deben preparar un protocolo de revisión antes de registrarlo en PROSPERO (Registro Internacional Prospectivo de Revisiones Sistemáticas), de modo que los detalles que requieran mayor consideración se puedan ser tenidos en cuenta con anticipación, evitando la necesidad de enmiendas múltiples a la información de registro. Los ítems de PRISMA-P se han derivado principalmente de la lista de verificación de PRISMA y los ítems del registro de PROSPERO, a fin de facilitar el registro sin problemas.

En la tabla podéis ver la clecklist PROSPERO-P y en este enlace los diferentes documentos para su descarga.

PRISMA-P

 

Mejoras en el formulario PICO de EMBASE.com

Desde el pasado 31 de enero de 2016 disponemos de una opción de búsqueda PICO en EMBASE.com que ya anunciamos en biblioGETAFE (Búsqueda PICO en EMBASE).

Recientemente, el 24 de junio de 2016, han mejorado el formulario de búsqueda PICO incluyendo el campo de diseño de estudio (o varios) de campo, lo que permite búsquedas de medicina basada en la evidencia más estructurados. Además, se han realizado mejoras adicionales a la búsqueda de PICO que harán que la búsqueda de información sobre los sinónimos sea más fácil y el uso de la página sea aún más sencillo.

EMBASE PICO Junio 2016

Para una descripción completa de todas las mejoras aquí.