365 77 2MB
Spanish Pages [286] Year 2013
Versión en español de la primera edición de la obra original en inglés Epidemiology and Biostatistics Secrets Robert J. Nordness Copyright © MMVI, Elsevier Inc., an Elsevier Imprint Revisión Antonio Trilla Director de la Unidad de Evaluación, Soporte y Prevención Hospital Clínic. Barcelona © 2006 Edición en español Elsevier España, S.A. Génova, 17, 3.º 28004 Madrid. España
KWWSERRNVPHGLFRVRUJ
An Elsevier Imprint Fotocopiar es un delito (Art. 270 C.P.) Para que existan libros es necesario el trabajo de un importante colectivo (autores, traductores, dibujantes, correctores, impresores, editores…). El principal beneficiario de ese esfuerzo es el lector que aprovecha su contenido. Quien fotocopia un libro, en las circunstancias previstas por la ley, delinque y contribuye a la «no» existencia de nuevas ediciones. Además, a corto plazo, encarece el precio de las ya existentes. Este libro está legalmente protegido por los derechos de propiedad intelectual. Cualquier uso, fuera de los límites establecidos por la legislación vigente, sin el consentimiento del editor, es ilegal. Esto se aplica en particular a la reproducción, fotocopia, traducción, grabación o cualquier otro sistema de recuperación de almacenaje de información. Coordinación y producción editorial: EDIDE, S.L. ISBN edición original: 0-323-03406-3 ISBN edición española: ISBN-13: 978-84-8174-950-2 ISBN-10: 84-8174-950-8 Depósito legal: Impreso en España por Gráficas Hermanos Gómez, S.L.L. ADVERTENCIA La medicina es un área en constante evolución. Aunque deben seguirse unas precauciones de seguridad estándar, a medida que aumenten nuestros conocimientos gracias a la investigación básica y clínica habrá que introducir cambios en los tratamientos y en los fármacos. En consecuencia, se recomienda a los lectores que analicen los últimos datos aportados por los fabricantes sobre cada fármaco para comprobar la dosis recomendada, la vía y duración de la administración y las contraindicaciones. Es responsabilidad ineludible del médico determinar las dosis y el tratamiento más indicado para cada paciente, en función de su experiencia y del conocimiento de cada caso concreto. Ni los editores ni los directores asumen responsabilidad alguna por los daños que pudieran generarse a personas o propiedades como consecuencia del contenido de esta obra. EL
EDITOR
COLABORADORES Robbie Ali, MD, MPH, MPPM Visiting Associate Professor, Department of Behavioral and Community Health Sciences, University of Pittsburgh Graduate School of Public Health, Pittsburgh, Pennsylvania Adam M. Brown, DO Instructor, Naval Undersea Medical Institute, Groton, Connecticut Mark Glover, BA, BM, BCh, MRCGP, MFOM Consultant Occupant Physician, Undersea Medicine Division, Institute of Naval Medicine, Alverstoke, Gosport, Hampshire, United Kingdom Moore H. Jan, MD, MPH Head, Occupational Medicine, U.S. Naval Medical Center and Branch Clinics, Portsmouth, Virginia Christopher Jankosky, MD, MPH Chief Resident, Department of Occupational Medicine, Johns Hopkins School of Public Health, Baltimore, Maryland John L. Kane, MD Great Lakes Naval Hospital, Great Lakes, Illinois Sue Kim, MD Division of Hematology, Stanford University Medical Center, Stanford, California Michael D. Lappi, DO, PhD Department of Occupational and Environmental Medicine, Harvard Medical School, Boston, Massachusetts Patrick R. Laraby, MD, MBA, MPH, FACOEM Head, Occupational and Environmental Health, Naval Hospital, Naples, Italy Jonathan M. Lieske, MD, MPH Senior Medical Officer, Naval Special Warfare Group Two, Norfolk, Virginia Neal Andrew Naito, MD, MPH Head, Occupational Health Clinic, National Naval Medical Center; Adjunct Assistant Research Professor, Uniformed Services University of the Health Sciences, Bethesda, Maryland Mark Nordness, MD ProHealth Care, Inc., Waukesha, Wisconsin Robert J. Nordness, MD, MPH Formerly, Officer in Charge, Naval Undersea Medical Institute, Groton, Connecticut Lee Okurowski, MD, MPH, MBA South Walpole, Massachusetts
vii
viii
COLABORADORES
Philip D. Parks, MD, MPH Diving Medical Officer, Naval Special Warfare Group Two, United States Navy, Norfolk, Virginia Robert W. Perkins, MD, MPH Medical Corps, United States Navy, Poulsbo, Washington Ward L. Reed, MD, MPH Naval Aerospace Medicine Institute, Pensacola, Florida Ashita Tolwani, MD, MSc Division of Nephrology, Department of Medicine, University of Alabama at Birmingham School of Medicine, Birmingham, Alabama Thomas H. Winters, MD, FACOEM, FACPM President and Chief Medical Officer, Occupational and Environmental Health Network; Lecturer, Harvard School of Public Health and Harvard Medical School, Boston, Massachusetts Richard I. Wittman, MD, MPH Associate Medical Director, Workforce Medical Center, Redwood City, California Ann M. Zaia, NP-C, SM, MSN, MHA, CHS-III, CHE, COHN-S Sudbury, Massachusetts
PRÓLOGO El arte de tomar decisiones radica en una base constituida por el conocimiento y la experiencia en el campo médico. Nunca antes los médicos se habían visto inundados por este aluvión de información publicada e indicada para ser útil en la atención a los pacientes, aunque muchos hábiles cuidadores notan que carecen de la capacidad para utilizar eficazmente la literatura médica actual. Este libro pretende servir de base y reciclaje de algunos de los conceptos fundamentales en epidemiología y bioestadística para profesionales sanitarios de todo nivel de experiencia. Puede obtenerse una perspectiva más completa, enfocada y/o teórica de los temas introducidos en una amplia variedad de textos disponibles en el campo de la epidemiología y la bioestadística. Robert J. Nordness, MD, MPH
D E D I C AT O R I A A mis hijos Daniel, Oscar y Claire
que son mi vida
ix
PRÓLOGO El arte de tomar decisiones radica en una base constituida por el conocimiento y la experiencia en el campo médico. Nunca antes los médicos se habían visto inundados por este aluvión de información publicada e indicada para ser útil en la atención a los pacientes, aunque muchos hábiles cuidadores notan que carecen de la capacidad para utilizar eficazmente la literatura médica actual. Este libro pretende servir de base y reciclaje de algunos de los conceptos fundamentales en epidemiología y bioestadística para profesionales sanitarios de todo nivel de experiencia. Puede obtenerse una perspectiva más completa, enfocada y/o teórica de los temas introducidos en una amplia variedad de textos disponibles en el campo de la epidemiología y la bioestadística. Robert J. Nordness, MD, MPH
D E D I C AT O R I A A mis hijos Daniel, Oscar y Claire
que son mi vida
ix
LOS 100 SECRETOS PRINCIPALES Estos secretos son 100 de las alertas más importantes. Resumen los conceptos, principios y detalles más relevantes de la epidemiología y de la bioestadística.
1. La epidemiología es el estudio de la distribución y determinantes de la enfermedad en la población humana. Es la ciencia básica y práctica fundamental de la salud pública. 2. Algunas premisas básicas de la epidemiología son que la enfermedad humana no se produce al azar, y que pueden identificarse los factores causales y preventivos de la enfermedad mediante una investigación sistemática de diferentes poblaciones o subgrupos de población en diversos lugares o momentos. 3. La epidemiología descriptiva se ocupa de la identificación de las características generales de la distribución de la enfermedad, especialmente en relación con la persona, el lugar y el momento. Los estudios descriptivos incluyen estudios ecológicos (es decir, de correlación), descripción de casos clínicos y series de casos, y estudios transversales. 4. La epidemiología analítica requiere un estudio para probar una hipótesis específica en lo que respecta a la relación entre una exposición a un factor de riesgo y un desenlace o consecuencia, clásicamente, una enfermedad. Se considera que tanto los estudios observacionales como los experimentales son estudios analíticos, pero sólo en los estudios experimentales el investigador determina la exposición. 5. Generalmente, las tasas de morbilidad o mortalidad brutas deben ajustarse para ser útiles en la comparación de poblaciones diferentes. Las tasas ajustadas se denominan también tasas estandarizadas, y la distribución por edades es el factor ajustado más habitual. 6. En la salud pública se consideran los tres niveles de prevención siguiente: ■ Prevención primaria: la prevención de la enfermedad o de lesión (p. ej., programas de promoción de la salud e inmunizaciones). ■ Prevención secundaria: la detección precoz de la enfermedad y su rápido tratamiento (p. ej., programas de cribado). ■ Prevención terciaria: la reducción de la discapacidad y la promoción de la rehabilitación resultante de la enfermedad (p. ej., correcciones quirúrgicas y programas de rehabilitación). 7. Los factores de riesgo de enfermedad –o salud– pueden ser genéticos, medioambientales o relacionados con el estilo de vida. La combinación de estos factores puede afectar de modo profundo al riesgo en un individuo concreto. Cuando sea posible, debe interpretarse el riesgo en términos de números reales de sucesos, y tener en consideración el riesgo basal y la prevalencia de la exposición a los factores de riesgo. 8. Una tasa tiene un denominador con unidades que incluyen el tiempo (p. ej., 25 muertes por 100.000 personas por año). Un riesgo no requiere el tiempo en el denominador (p. ej., 2,6 muertes por 100 operaciones cardíacas). Se debe comprobar siempre el denomina-
1
2
LOS 1OO SECRETOS PRINCIPALES
dor en un cálculo del riesgo para establecer exactamente qué población proporciona la fuente de las observaciones. 9. Un riesgo relativo (RR), o razón de riesgos, es una medida del riesgo absoluto en una población, como una proporción del riesgo absoluto en otra. Por lo general, pero no de modo invariable, se utiliza el riesgo más alto en el numerador. 10. Puede calcularse la posibilidad relativa (odds ratio, OR) en los estudios de cohortes y de casos y controles, pero no puede calcularse el riesgo relativo en un estudio de casos y controles. No obstante, cuando el desenlace es infrecuente, la posibilidad relativa es una buena aproximación al riesgo relativo. 11. El riesgo atribuible, definido como el riesgo adicional de enfermedad en un grupo expuesto sobre el que existe en un grupo no expuesto, está influido por la magnitud del riesgo basal, mientras que no existe dicha influencia en el riesgo relativo. 12. La tasa de incidencia es el número de nuevos casos de la enfermedad en un período especificado, dividido por la población en riesgo durante dicho período. La prevalencia es el número de individuos con una enfermedad en un momento o período determinado, dividido por la población en riesgo en dicho momento o período. Puede calcularse la prevalencia multiplicando la tasa de incidencia por la duración promedio de la afección. 13. Como instrumentos de recogida de datos, las encuestas son transversales, lo que significa que la información en relación con la exposición y el desenlace se recoge simultáneamente. En las encuestas o estudios transversales es imposible asegurar cualquier tipo de información sobre la relación temporal entre un factor de riesgo posible y su desenlace. Las encuestas son útiles para identificar a las personas con procesos crónicos o enfermedades menos graves, porque los sujetos tienen una mayor probabilidad de estar presentes y de tener una salud lo suficientemente buena como para participar, a diferencia de los individuos que padecen enfermedades graves rápidamente progresivas. 14. La vigilancia es la recogida, el análisis y la difusión sistemática de los datos de la enfermedad sobre grupos de personas, y está diseñada para detectar signos precoces de enfermedad. La vigilancia se lleva a cabo en muchos niveles, en relación con una amplia variedad de poblaciones, y es una piedra angular de la medicina preventiva. Su finalidad principal es prevenir la enfermedad y la lesión y, en último término, mejorar la calidad de vida. 15. Las tasas basales establecen el estándar con el que pueden compararse todas las futuras apariciones de un suceso (p. ej., días de enfermedad o cáncer). Pueden también emplearse para detectar patrones atípicos, como una epidemia. 16. El National Center for Health Statistics (NCHS) recoge las estadísticas vitales en Estados Unidos. Las estadísticas vitales son acontecimientos críticos en la vida de un individuo. En Estados Unidos, estos acontecimientos son el nacimiento, la muerte, el matrimonio, el divorcio y la muerte fetal. 17. El Bureau of Labor Statistics (BLS) es la principal agencia de investigación del gobierno federal estadounidense en relación con los aspectos económicos y estadísticos del trabajo, como: la inflación, los salarios, la productividad, la salud, la demografía y el desempleo.
LOS 1OO SECRETOS PRINCIPALES
18. El triángulo epidemiológico está compuesto por un huésped, un agente y un ambiente. Un huésped es un organismo vivo capaz de infectarse, un agente es un factor que ha de estar presente (o potencialmente ausente) para que se produzca una enfermedad, y un ambiente es una fuerza o situación extrínseca que afecta a la oportunidad de que un huésped quede expuesto a un agente. 19. La transmisión directa es la transferencia de un agente infeccioso por contacto físico con lesiones, sangre, saliva u otra secreción. La transmisión indirecta se produce cuando un agente infeccioso pasa un tiempo variable en el interior o sobre la superficie de una sustancia u organismo vivo intermedio. 20. La infectividad es la proporción de personas que, expuestas a un agente causal, llegan a padecer en último término una enfermedad infecciosa. La patogenicidad es la capacidad de un organismo para causar un estado de enfermedad (es decir, morbilidad). La virulencia es la capacidad para causar la muerte (es decir, mortalidad). 21. Una epidemia o brote es, sencillamente, la aparición de una frecuencia mayor de la enfermedad o lesión de la esperada, en relación con una población clásica durante un período de tiempo determinado. 22. Las 10 medidas básicas de la investigación de un brote son las siguientes: ■ Prepararse para el trabajo de campo. ■ Establecer la existencia de un brote. ■ Comprobar el diagnóstico. ■ Definir e identificar los casos. ■ Describir y orientar los datos en términos de tiempo, lugar y persona. ■ Desarrollar hipótesis. ■ Evaluar hipótesis. ■ Depurar hipótesis y llevar a cabo estudios adicionales. ■ Llevar a la práctica medidas de control y de prevención. ■ Comunicar los hallazgos. 23. Una asociación puede deberse a los cuatro mecanismos siguientes: ■ Lo espurio (es decir, artefactual): la asociación es consecuencia de un error o sesgo en el diseño del estudio, en su puesta en práctica o en su análisis. ■ Variable de confusión: la relación entre una exposición y el desarrollo de una enfermedad se distorsiona por una variable adicional. ■ Casualidad: una asociación observada se debe sólo a la casualidad. ■ Causalidad: un factor causa, directa o indirectamente, un desenlace observado. 24. Los Criterios de Hill en relación con la causalidad son los siguientes: ■ Fuerza de la asociación. ■ Gradiente biológico. ■ Consistencia. ■ Verosimilitud. ■ Especificidad. ■ Coherencia. ■ Temporalidad. ■ Datos experimental sugestivos. ■ Gradiente biológico. ■ Analogía. 25. Existen cuatro tipos de relaciones causales: ■ Necesaria y suficiente. . ■ Necesaria pero no suficiente.
■ ■
Suficiente pero no necesaria. Ni suficiente ni necesaria.
3
4
LOS 1OO SECRETOS PRINCIPALES
26. Existe una variable capaz de causar confusión cuando una asociación exposición-desenlace se produce solamente porque un tercer factor distinto se asocia con la exposición y el desenlace. La asociación observada es verdadera, pero no causal. 27. La modificación del efecto se produce cuando el efecto de un factor de riesgo sobre un desenlace particular varía con la presencia y/o el nivel de una tercera variable. La tercera variable recibe la denominación de modificador del efecto, porque modifica el efecto (es decir, el desenlace) del factor de riesgo. 28. El «efecto del trabajador sano» describe el fenómeno según el cual los trabajadores como grupo están, generalmente, más sanos que los desempleados. No solamente los sanos tienen una mayor probabilidad de obtener empleo sino que también, una vez obtenido un trabajo, tienen una mayor probabilidad de tener un seguro de la empresa, lo que mejora su acceso al sistema de atención sanitaria. 29. El sesgo es un error sistemático en el diseño, en la puesta en práctica o en el análisis de un estudio, lo que causa un resultado falso que, generalmente, desvía las observaciones en una dirección. Las dos principales clasificaciones del sesgo son la selección y la observación (es decir, la información). 30. Los estudios descriptivos incluyen los siguientes: ■ Estudios de correlación (p. ej., estudios de poblaciones o estudios ecológicos). ■ Casos clínicos. ■ Series de casos. ■ Estudios transversales o encuestas. 31. Los estudios analíticos incluyen los siguientes: ■ Estudios observacionales (p. ej., estudios de casos y controles o estudios de cohortes). ■ Estudios de intervención (p. ej., ensayos clínicos). 32. En un estudio de casos y controles, se seleccionan sujetos que llegan a padecer una afección (es decir, casos) y sujetos que no llegan a padecer una afección (es decir, controles), y se realiza una comparación de los dos grupos con respecto a su exposición previa. 33. En un estudio de cohortes, se definen los sujetos por la presencia o ausencia de una exposición a un factor de riesgo de una enfermedad. A continuación, estos sujetos son estudiados en el tiempo. Se analiza la frecuencia relativa del desenlace de interés, para determinar si la exposición es, en efecto, un factor de riesgo de la enfermedad. 34. El modelo de estudio de intervención compara diferentes protocolos de tratamiento o de intervenciones preventivas aportadas a diversos grupos de sujetos, y se compara el desenlace entre los grupos. El estudio controlado y aleatorio (RCT) es un tipo de modelo de intervención que proporciona el dato más consistente con respecto a la relación entre la intervención y el desenlace. 35. Cuando se utilice un artículo médico para responder a problemas clínicos, se deben realizar siempre las siguientes preguntas: ■ ¿Son válidos los resultados del estudio? ■ ¿Son importantes los datos sugestivos? ■ ¿De qué modo pueden aplicarse los resultados válidos e importantes a la atención médica de los pacientes?
LOS 1OO SECRETOS PRINCIPALES
36. A continuación, se expone una clasificación jerárquica de los datos sugestivos, utilizada en la medicina basada en la evidencia, por orden de mayor a menor utilidad: ■ Número de estudios controlados aleatorios. ■ Revisión sistemática de estudios controlados aleatorios. ■ Estudio aleatorio único. ■ Revisión sistemática de estudios observacionales. ■ Estudio observacional único. ■ Estudio fisiológico. ■ Observación clínica no sistemática. 37. Las pruebas diagnósticas con unos valores de sensibilidad muy elevadas son de utilidad para descartar una enfermedad o afección dada, cuando los resultados son negativos. Puede recordarse por la mnemotécnica SnNout: una prueba sensible con un resultado negativo descarta (out) una enfermedad. 38. Las pruebas diagnósticas con valores de especificidad muy elevados son útiles para admitir la presencia de una enfermedad o afección dada, cuando los resultados son positivos. Puede recordarse por la mnemotécnica SpPin: una prueba específica con un resultado positivo incluye una enfermedad. 39. El número que es necesario tratar (NNT) es una expresión numérica del número de pacientes que reciben un tratamiento activo que es necesario incluir para demostrar un beneficio con respecto a la ausencia de tratamiento. El NNT es el valor inverso de la reducción del riesgo absoluto (ARR) y se indica por la expresión NNT=1/ARR. 40. Los cocientes de verosimilitud (likelihood ratio) miden hasta qué punto una prueba diagnóstica eleva o disminuye la posibilidad preprueba en relación con una enfermedad o trastorno concreto. Cuanto mayor sea el cociente de verosimilitud positivo (es decir, el cociente entre la sensibilidad y la tasa de falsos positivos), mayor será el aumento entre la posibilidad preprueba y la posibilidad posprueba. 41. Mediante la aplicación de los principios estadísticos a las ciencias biológicas, los bioestadísticos pueden distinguir metódicamente entre las diferencias verdaderas entre las observaciones y las variaciones por azar, lo que les permite determinar asociaciones entre factores de riesgo y enfermedad, para reducir la enfermedad y la lesión. 42. La regla empírica establece que, en una distribución normal, aproximadamente el 68% de los datos se hallan comprendidos entre una desviación estándar (SD) a ambos lados de la media, casi el 95% de la distribución se encuentran entre dos SD a ambos lados de la media, y, aproximadamente, el 99,7% de los datos están entre tres SD a ambos lados de la media. 43. La media, la mediana y la moda son medidas de la tendencia central. La mediana se halla menos afectada que la media por los valores atípicos, lo que hace que la mediana sea una medida más consistente consistente de la tendencia central y, por tanto, una medida mejor de la tendencia central en los datos sesgados. 44. El intervalo o recorrido, la desviación estándar y la varianza son medidas clásicas de la dispersión, o diseminación, del conjunto de datos que se está examinando.
5
6
LOS 1OO SECRETOS PRINCIPALES
45. Sensibilidad =
VP = tasa de verdaderos positivos = 1 – tasa de falsos negativos VP + FN
46. Especificidad =
VN = tasa de verdaderos negativos = 1 – tasa falsos positivos VN + FP
47. Una distribución de datos asimétrica está sesgada hacia la izquierda (o sesgada negativamente) si la «cola» más larga de la curva se extiende a la izquierda; si lo está en sentido contrario, se dice que la distribución está sesgada a la derecha o sesgada positivamente. La moda se halla situada en el punto más elevado de la curva, la media se localiza hacia la «cola» más larga, y la mediana se halla situada entre la moda y la media. 48. Una variable es cualquier cosa que puede medirse y observar cómo fluctúa. Las variables cuantitativas se miden en una escala numérica, mientras que las variables cualitativas se miden sin un sentido numérico. 49. Las cuatro escalas de medida típicas son las siguientes: ■ Escalas nominales: empleadas para agrupar arbitrariamente datos cualitativos. ■ Escalas ordinales: muestran la posición, pero no dan información sobre la distancia entre los valores. ■ Escalas de intervalos: tienen posiciones e intervalos significativos entre los valores. ■ Escalas de cocientes: tienen ceros, valores e intervalos significativos, y todos ellos dan un sentido al cociente entre dos valores. 50. Las siguientes son medidas de tendencia central: ■ Media: el promedio aritmético de los valores observados; está muy afectada por los valores extremos. ■ Mediana: división de la distribución en dos partes iguales. ■ Moda: el valor observado más frecuente en la distribución; en un conjunto de datos puede haber múltiples modas. 51. Las siguientes son medidas de dispersión en un conjunto de datos de una muestra: ■ Intervalo: la diferencia entre el valor más bajo y el más alto; confiere amplitud a la distribución, pero nada más. ■ Desviación estándar: la medida de dispersión empleada más habitualmente, calculada con el empleo de la fórmula: Σ(x – x–)2 DE = n–1 donde S = suma de, x = puntuación individual, x– = media de todas las puntuaciones, y n = tamaño de la muestra, o número de las puntuaciones ■ Varianza: es el cuadrado de la desviación estándar (DE2). 52. El error de medida aleatorio aumenta la dispersión, es impredecible y, probablemente, se sitúa a cualquier lado del valor verdadero de la propiedad que se está midiendo. La precisión es la falta de error al azar, lo que lleva a un agrupamiento ajustado con la repetición de las mediciones. 53. El error sistemático (es decir, el sesgo) es causa de que las medidas repetidas se sitúen, generalmente, alrededor de un valor distinto al verdadero valor de la propiedad que se está midiendo. La validez es la ausencia de error sistemático.
LOS 1OO SECRETOS PRINCIPALES
54. Una distribución de frecuencias ilustra con qué frecuencia las diferentes categorías de datos (o intervalos de los valores) aparecen en una muestra de datos. Esta información puede ser presentada en muchos formatos diferentes, como tablas, gráficos y líneas. Los datos tabulados son de utilidad cuando hay que mostrar un gran número de variables. 55. En una distribución de frecuencias, un área bajo la curva delimitada por los valores limitantes es proporcional al porcentaje de los datos de la muestra situados entre dichos límites. 56. Las medias de muestras repetidas a partir de una población tienden a quedar distribuidas normalmente, aun cuando no lo sea la población de la que han sido tomadas. Este fenómeno se describe mediante el teorema fundamental del límite. 57. El error estándar de la media describe la dispersión de las medias de las muestras alrededor de la media de la población, del mismo modo que la desviación estándar describe la dispersión de los valores de la muestra alrededor de la media de la muestra. 58. En una muestra aleatoria en la búsqueda de un suceso o rasgo dicotómico es improbable (pero no imposible) muestrear una proporción de dicho rasgo que sea muy diferente al de la población tomada puramente por azar. Las distribuciones binomiales cuantifican dicha verosimilitud. 59. Hay una distribución binomial diferente para cada combinación de tamaño de muestra (n) y probabilidad base (p). 60. Un histograma es una representación gráfica de una distribución de frecuencias dada, en la que se dibujan rectángulos (columnas) cuyas bases representan un intervalo dado. Las áreas de los rectángulos son proporcionales al número de valores de frecuencia dentro del intervalo abarcado. En los histogramas, se pierde con frecuencia la información sobre los extremos de las distribuciones debido al empleo de los intervalos «menor que» y «mayor que» en los extremos. 61. Un polígono de frecuencias es un gráfico formado al juntar con líneas rectas los puntos medios del extremo superior de las columnas del histograma. Un polígono de frecuencias reduce los cambios bruscos que pueden producirse en los trazos del histograma, y ayuda a demostrar la continuidad. 62. Un diagrama de barras es una representación gráfica de datos discretos en el que se representan categorías o clasificaciones diferentes sobre un eje y el recuento de frecuencias se representa sobre el otro. Igual que en los histogramas, el área de la barra es proporcional al recuento. 63. Un diagrama «de tallo y hojas» es, esencialmente, un histograma rotado en su lado: los valores del «tallo» representan los intervalos, y las «hojas» representan el recuento de frecuencias en el intervalo. En este diagrama, el tronco representa los dígitos de la mano izquierda de los datos numéricos, mientras que las hojas son el último dígito a la derecha del tronco. La frecuencia, o número de hojas, de cada valor del tronco se da en una columna distinta. 64. Un diagrama de caja (box-plot) es una representación visual de datos, con un cuadro de tamaño arbitrario construido alrededor de la mediana del valor, representado por una línea vertical media, con otras dos divisiones verticales que representan el primer cuartil (es decir, el percentil 25) y el tercer cuartil (es decir, el percentil 75).
7
8
LOS 1OO SECRETOS PRINCIPALES
65. Un diagrama «en pastel» es un diagrama circular dividido en segmentos, cada uno de los cuales representa la frecuencia de una categoría. El total de porciones del pastel suma el 100%. 66. Un gráfico lineal es un método útil para mostrar datos durante un período de tiempo. Clásicamente, en el eje y (ordenadas) se representa el índice de incidencia de algún tipo, y el tiempo durante el que se traza la incidencia se representa sobre el eje x (abscisas). 67. Una hipótesis nula típica afirma que no se detectan diferencias en el resultado entre dos grupos con exposiciones diferentes. La aceptación de la hipótesis nula significa que, en el estudio, no se encontró una diferencia estadísticamente significativa. 68. Un error de tipo I consiste en afirmar que existe una diferencia cuando, de hecho, ésta no existe. Se comete este error al rechazar la hipótesis nula cuando ésta es verdadera. El símbolo α (alfa) indica la probabilidad de cometer un error de tipo I. Un error de tipo II consiste en afirmar que no existe diferencia cuando, de hecho, sí existe diferencia. Se comete este error al aceptar la hipótesis nula cuando ésta es falsa. El símbolo β (beta) indica la probabilidad de cometer un error de tipo II. 69. Hay que saber que un efecto pequeño en un estudio con un gran tamaño de la muestra puede tener el mismo valor de p que un efecto grande en un estudio con un tamaño pequeño de muestra. 70. Un resultado con significación estadística no debe llevar automáticamente a una conclusión de importancia clínica. 71. El valor de un estudio es la probabilidad de no aceptar una hipótesis nula falsa, y es igual a 1 – β. Los estudios con bajo poder estadístico pueden estar justificados, probablemente, en dos contextos: cuando se investiga una enfermedad infrecuente y cuando se llevan a cabo estudios piloto sobre nuevos fármacos o tratamientos. 72. La probabilidad cuantifica la verosimilitud de que se produzca un suceso A en estudios ilimitados. La ecuación estándar para estimar la probabilidad es P (suceso) = A/N, donde N es el número de estudios ensayados en los que podría ocurrir A. 73. La posibilidad (odds) de que tenga lugar un suceso es el cociente entre la probabilidad de que tenga lugar el suceso y la probabilidad de que no tenga lugar dicho suceso; se expresa por la siguiente fórmula: Posibilidad = probabilidad de un suceso/(1 – probabilidad del suceso) 74. La regla aditiva afirma que P(A o B) = P(A) + (P(B) – P(A y B). Si A y B son mutuamente excluyentes, esta ecuación se reduce a P(A o B) = P(A) + P(B). 75. La regla multiplicativa de sucesos independientes afirma que P(A y B) = P(A) ⫻ P(B) Si los dos sucesos no son independientes, puede emplearse una forma especial de regla multiplicativa: P(A y B) = (P(A | B) P(B) = P(B | A) P(A). 76. El muestreo permite al investigador hacer inferencias sobre la población diana utilizando sólo una porción de la población, conocida como muestra. Una buena muestra debe ser representa-
LOS 1OO SECRETOS PRINCIPALES
tiva de las características de la población diana. La aleatorización es una herramienta empleada para aumentar la probabilidad de que la muestra represente verdaderamente a la población general de la que procede. 77. La estimación del tamaño de la muestra se lleva a cabo antes de realizar un estudio, para valorar la factibilidad y las restricciones posibles en caso de que éste se lleve a cabo. 78. El valor predictivo depende mucho de la prevalencia de la afección en la población estudiada. Un valor predictivo positivo en una prueba es, casi siempre, muy bajo cuando la prevalencia es baja. 79. Hay que saber siempre que la prueba patrón de referencia tiene también sus imperfecciones. 80. Se emplea el valor kappa de Cohen para proporcionar un valor cuantitativo (de –1 a 1) en relación con el grado de acuerdo entre los clasificadores individuales sobre un desenlace o prueba particular, teniendo en consideración el posible acuerdo debido al azar. 81. El rendimiento de una prueba puede alterarse según dónde se fija el punto de corte positivo. Una curva ROC (receiver operating charasteristic) ilustra los efectos de esta variabilidad sobre la sensibilidad y la especificidad. 82. Una prueba paralela proporciona un resultado sensible, pero inespecífico; una prueba seriada proporciona un resultado específico, pero no sensible. 83. Se debe emplear la prueba de la t para comparar la media de una muestra con la media poblacional en dos muestras independientes, o las de la misma muestra en dos momentos diferentes (con frecuencia, antes y después de un tratamiento), cuando no se conoce la desviación estándar de la población. 84. La distribución t y la distribución normal se comparan como sigue: ■ La distribución t y la distribución normal son similares en tres aspectos: ambas son simétricas alrededor de 0, ambas tienen forma de campana y ambas tienen un solo pico. ■ La distribución t difiere de la distribución normal en que la distribución t tiene una cola más grande que la distribución normal, aunque a medida que aumentan los grados de libertad, la distribución en la cola se aproxima a los de una distribución normal. ■ En las muestras mayores de 30 efectivos, la distribución t es casi idéntica a la distribución normal (distribución z). 85. Un intervalo de confianza determinado muestra la probabilidad de que el verdadero valor de la media se encuentre en el intervalo especificado. 86. Antes de analizar sus datos, hágase las siguientes preguntas: ■ ¿Son sus datos continuos, discretos o categóricos? ■ ¿Son los datos pareados? ■ ¿Se supone que cualquiera de los datos sigue una distribución normal? Las respuestas determinarán, en gran medida, qué pruebas o métodos estadísticos pueden aplicarse. 87. Si no puede o no desea realizar suposiciones de normalidad, emplee un planteamiento no paramétrico. Se deben considerar los métodos no paramétricos cuando el tamaño de la muestra es pequeño.
9
10
LOS 1OO SECRETOS PRINCIPALES
88. Un diagrama de dispersión debe ser la primera etapa en el análisis de los datos pareados bivariantes, continuos o discretos. El coeficiente de correlación de Pearson es un procedimiento paramétrico que expresa, en términos cuantitativos, la asociación implicada por un diagrama de dispersión de dos variables. En cuanto a los datos no paramétricos, debe emplearse la correlación de rangos de Spearman. 89. La regresión lineal simple es un método de modelado para determinar la ecuación lineal de «mejor ajuste» formada entre dos conjuntos de datos pareados continuos. La variable independiente x, y la variable dependiente y forman una línea con una pendiente m y un valor b en la intersección con el eje y: y = mx + b Puede predecirse un valor de y para un valor dado de x con exactitud variable, dependiendo de la bondad del ajuste del modelo. 90. El concepto estadístico «ji al cuadrado» es una prueba no paramétrica de recuento bivariante o datos de frecuencia. Examina la disparidad entre las frecuencias de recuentos reales y las frecuencias de recuentos esperados, cuando la hipótesis nula es cierta. Para un determinado número de grados de libertad, se calcula un valor de p, que indica la probabilidad de obtener el valor de la ji al cuadrado observado sólo por azar. Cuanto mayor sea el valor de ji al cuadrado, menos probable es que el azar sea la causa de la distribución. 91. En el análisis de regresión típico, la variable dependiente ha de ser continua. A menos que se empleen técnicas especiales, la variable dependiente también debe tener una distribución normal y una variabilidad que se mantenga igual para todos los valores de la variable independiente. 92. El coeficiente de correlación (R2) describe la bondad del ajuste del modelo de regresión como la proporción de la variación en la variable dependiente (es decir, variación explicada/variación total, que va de 0 a 1) que explica el modelo. Cuanto más próximo esté R2 a 1, mejor explica el modelo la variación. 93. Un coeficiente logit (p. ej., expb) puede interpretarse como una posibilidad relativa (odds ratio) que indica la cantidad relativa por la que cambia la posibilidad relativa global cuando aumenta en una unidad el valor de la variable independiente x. 94. Se emplea el estadístico F en el análisis de la variación entre grupos (ANOVA), y tiene dos grados de libertad: uno para la varianza entre grupos, y otro para la varianza dentro del mismo grupo. Si el cociente F es mucho mayor que 1, se rechaza la hipótesis nula. 95. El modelo de riesgos proporcionales de Cox es una forma de modelo de regresión multivariante empleado para analizar las curvas de supervivencia (p. ej., Kaplan-Meier) y también estudios clínicos con un desenlace dicotómico en el tiempo (p. ej., muerto o vivo; con enfermedad o sin enfermedad). 96. El análisis de supervivencia es un método estadístico para estudiar el tiempo entre el ingreso en un estudio y un suceso posterior. Un tiempo de observación desigual por medio de la censura de los sujetos en estudio hace que el análisis de supervivencia sea singular. El análisis de supervivencia es útil para realizar predicciones sobre una población, comparar el efecto del tratamiento entre dos grupos, e investigar la importancia de características específicas sobre la supervivencia.
LOS 1OO SECRETOS PRINCIPALES
97. Una función de supervivencia, matemáticamente definida como S(t) = P(T > t), describe la proporción de sujetos que sobreviven hasta un tiempo dado t o más. 98. La tasa de fracasos condicional, o función de riesgo, proporciona el potencial instantáneo de fracasar en el tiempo t por unidad de tiempo, dada la supervivencia hasta el tiempo t. 99. El análisis de las tablas de vida divide el período total de observación de un grupo en intervalos fijos, proporcionando una indicación de la distribución de los fracasos en el tiempo. 100. El método de Kaplan-Meier permite la estimación de la función de supervivencia directamente a partir de los tiempos continuos de supervivencia o fracaso. Es la base del cálculo de la proporción de supervivientes en un momento concreto en el tiempo de que se produzca un fracaso o suceso, en lugar de intervalos fijos, y genera una curva de supervivencia característica de «peldaños de escalera».
11
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA John L. Kane, MD
CAPÍTULO 1
I. EPIDEMIOLOGÍA
1. ¿Dónde se puede encontrar la referencia más temprana del pensamiento epidemiológico? Hipócrates escribió un tratado titulado Sobre los aires, aguas y lugares, aproximadamente, 400 años antes de Jesucristo. En él subrayaba su conocimiento no sólo de los síntomas de los pacientes sino también de su relación con la estación del año y las condiciones de vida, alimentación, ingesta de líquidos y hábitos de ejercicio físico de los mismos: Si se conocen bien estas cosas, o al menos la mayor parte de ellas, no se puede dejar de conocer, cuando se llega a una ciudad extraña, las enfermedades peculiares de dicho lugar, o la naturaleza particular de las enfermedades comunes, de modo que no tendrá duda en cuanto al tratamiento de las enfermedades, ni cometerá errores, como probablemente ocurriría en el caso de que previamente no hubiese considerado estos asuntos. Y en particular, a medida que avanza la estación y el año, puede decir qué enfermedades epidémicas atacarán la ciudad, ya sea en verano o en invierno, y qué individuo se encontrará en peligro de experimentar por el cambio de régimen. Hippocrates: En Airs, Waters, and Places, Parts 1 and 2. Adams F (trans). 400 BC, Disponible en www.classics.mit.edu/Hippocrates/airwatpl.html.
2. ¿Quién describió las heridas como «ventanas del cuerpo»? Galeno, el gran médico y anatomista del segundo siglo después de Jesucristo, pasó sus primeros años médicos trabajando como cirujano de los gladiadores en Pérgamo. Empleó hasta 20 escribas para que escribieran todo lo que él dijo en esta ocupación. Galeno diseccionó innumerables animales en su prolífica investigación médica. Estudió también filosofía, y afirmó que el objetivo de obtener provecho o lucro era incompatible con una devoción importante a la medicina, afirmando que los doctores deben aprender a desdeñar el dinero. Fue defensor de la teoría de los miasmas en relación con la infección, que especialmente responsabilizaba de la infección a las nubes de gases venenosos. Galen. Disponible en http://www.med.virginia.edu/hs-library/historical/antiqua/galen.htm.
3. ¿Cuáles son los distintos tipos de peste? ■ Pulmonar: manifestada por distrés respiratorio, hemorragia pulmonar y asociada con una tasa de mortalidad del 100%; se transmite fácilmente por el aire mediante las secreciones respiratorias. ■ Septicémica: manifestada con frecuencia por muerte súbita, sin advertencia previa, después de invadir de forma preferente el torrente circulatorio. ■ Bubónica: manifestada por adenopatías a gran escala, con hemorragia cutánea; fallecen, aproximadamente, el 60% de las víctimas. 4. ¿Cuántas pandemias de peste han habido? Han habido tres: ■ La primera pandemia duró desde el 541 al 544 de nuestra era, y comenzó en Pelusium, Egipto, antes de diseminarse por todo el Oriente Medio y la cuenca Mediterránea. No se dis-
13
14
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
■
■
pone de datos estadísticos exactos de los fallecimientos causados por esta pandemia. Se la denomina Peste de Justiniano porque el emperador Justiniano sucumbió a la enfermedad. La segunda pandemia, que diezmó Europa y fue denominada la Muerte Negra, probablemente comenzó en Sicilia, en 1347, y duró hasta 1351. Probablemente, esta peste llegó a Sicilia procedente de Oriente, diseminándose por las rutas marítimas de comercio. La tercera pandemia comenzó en 1855 en la provincia china de Yunnan, y se extendió hasta el resto del mundo, pero devastó especialmente India y China. Sólo en la India fallecieron 12,5 millones de personas.
Perry RD, Fetherston JD: Yersinia pestis—Etiologic agent of plague. Clin Microbiol Rev 10(1): 35–66, 1997.
5. ¿Cuántas personas fallecieron por la Muerte Negra? No se dispone de una cifra exacta, pero los cálculos varían entre 17 y 28 millones de muertes o, aproximadamente, un tercio de la población europea, desde 1330 a 1351. 6. ¿Se encuentran en la literatura buenas descripciones de la peste bubónica? Hay muchas. Dos de especial relevancia son El Decamerón, de Boccacio, y A Journal of the Plague Year, de Daniel Defoe (famoso por ser el autor de Moll Flanders y Robinson Crusoe). El Decamerón fue escrito entre 1349 y 1351, y describe cómo siete doncellas y tres jóvenes florentinos se evaden de los estragos de la enfermedad. Su autor sobrevivió a la peste de Florencia del año 1347. El libro de Defoe describe la peste de Londres en el año 1665, inmediatamente antes del gran incendio de la ciudad. Defoe describió la enfermedad como sigue: El dolor de la hinchazón era particularmente muy violento, y para algunos, intolerable; se puede afirmar que los médicos y cirujanos han torturado a muchas pobres criaturas, incluso hasta la muerte. Las hinchazones en algunos eran excrecencias duras, y aplicaban de modo violento vendajes de yeso o cataplasmas para romperlas; y si no lo conseguían, las cortaban y escarificaban de un modo terrible: en algunos enfermos, algunas hinchazones se endurecían, en parte por la fuerza del malestar y en parte por aplicar los vendajes de modo muy violento, y eran tan duras que no había instrumento que las pudiera cortar, y luego las quemaban con cáusticos, de modo que muchos fallecían enloquecidos por el tormento; y algunos en la misma operación… Si se podía encontrar una cabeza en estas hinchazones y romperla o hacer que gotease, o como los cirujanos lo llamaban, digerirlas, el paciente generalmente se recuperaba. Defoe D: A Journal of the Plague Year. 1722. Oxford, Oxford University Press, 1990, pp 81–82. Boccacio G: The Decameron of Giovanni Boccacio. Rigg JM (trans), c 1350. Disponible en http://www.brown.edu/Departments/Italian_Studies/dweb/dweb.shtml.
7. ¿Cuáles eran las suposiciones predominantes sobre la causa de la peste? La Facultad de Medicina de París echó la culpa a la alineación de Saturno, Júpiter y Marte que se produjo en marzo de 1345. Otros, responsabilizaron a los cometas, y otros, a las estrellas. Algunos atribuyeron la peste al terremoto de 1348, diciendo que éste había liberado gases contaminantes de las profundidades. Algunos dieron la culpa a los miasmas. Y algunos observaron que las ciudades fueron golpeadas más violentamente y postularon varias posibilidades de contagios. El Dr. Joseph Browne declaraba en su Treatise on the Plague que el contagio se extiende por «aire, personas enfermas, bienes transportados desde lugares infectados…, alimentos y enfermedades que son las causas de otras enfermedades». Sin embargo, la peste fue vista especialmente como una maldición de Dios, y muchos intentaron identificar el pecado colectivo por el que estaban siendo castigados. Lamentablemente,
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
gran parte de la población culpabilizó a los judíos, pensando que estaban envenenando expresamente el suelo o el agua, o quizá traían el castigo de Dios sencillamente por existir. En 1349, en Estrasburgo, Francia, 2.000 judíos fueron quemados vivos, y en Maguncia, Alemania, 6.000 fueron incinerados. Hubo más de 350 masacres de judíos registradas en estos años. Browne J: A Practical Treatise of the Plague. 1720. Disponible en http://whqlibdoc.who.int/rarebooks/a56989.pdf.
8. ¿Cuál es la verdadera causa de la peste? La infección por Yersinia pestis. El bacilo infecta las ratas, lo que causa la muerte de las mismas. Las pulgas que se alimentan de la sangre de las ratas ingieren las bacterias. Cuando muere el huésped, las pulgas saltan al huésped disponible más próximo y lo infectan, con frecuencia un huésped humano. Las condiciones en la Edad Media, con una gran población de ratas, leña y casas con techumbre de paja, que permitían a las ratas una fácil entrada, y el hacinamiento general, llevaron a una fácil diseminación de la enfermedad. En 1894, durante la tercera pandemia, dos investigadores descubrieron la bacteria de modo independiente, Shibasaburo Kitasato y Alexander Yersin, quienes la denominaron Pasteurella pestis y la asociaron con la rata negra. En 1897, Paul Louis Simond y Masanoro Gata (también de modo independiente) descubrieron el papel de la pulga en la transmisión. Perry RD, Fetherston JD: Yersinia pestis—Etiologic Agent of Plague. Clin Microbiol Rev, 10(1):35–66, 1997.
9. ¿Qué medidas se adoptaron para detener la diseminación de la peste? La principal medida fue el aislamiento. Tan pronto como se descubría la peste en una casa, se sellaba ésta y no se permitía a persona alguna que entrara en ella ni que la abandonara. Se apostaron vigilantes para impedir que los ocupantes se aventuraran a salir, lo que con frecuencia dio lugar a la muerte de sus habitantes. Otras medidas fueron quemar incienso, tañer las campanas de las iglesias o disparar cañones, bañarse en orina humana, colocar «vapores hediondos» (animales muertos) en el hogar, emplear sanguijuelas y otros métodos de producir sangría, beber el exudado de un bubón, beber oro líquido, y el movimiento de los flagelantes. 10. ¿Quiénes eran los flagelantes? Eran un grupo de hombres religiosos entregados que iban de ciudad en ciudad en Europa, en procesiones solitarias que duraban 33 días y un tercio. Durante sus procesiones se reunían en las plazas de las ciudades; se flagelaban y flagelaban también a otras personas de su grupo con correas de cuero con puntas de piezas metálicas con la esperanza de purgarse a sí mismos y a las personas de las ciudades de su pecado colectivo y culpa, apartando así la ira de Dios, que había descendido en la forma de peste. La gente asistía a los encuentros con mucha devo-
PUNTOS CLAVE: FECHAS IMPORTANTES 1. 400 años antes de Jesucristo: Hipócrates publicó Sobre los aires, aguas y lugares, donde presentaba los principios epidemiológicos de la observación y del registro de los hábitos de los pacientes, su alimentación y ambientes, para la predicción de los patrones de la enfermedad. 2. 1747: James Lind realizó un estudio aleatorio y controlado para establecer la causa del escorbuto. 3. 1946: se establecieron los Centers for Disease Control (CDC) a partir de la Office of Malaria Control in War Areas. 4. 1977: se diagnosticó el último caso natural de viruela en un paciente somalí.
15
16
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
ción, y con frecuencia dichos encuentros conducían a la persecución de los judíos locales. El Papa aprobó inicialmente el movimiento, pero rápidamente éste cayó en la desaprobación papal; el movimiento se extinguió en 1350. 11. ¿Quién fue John Graunt? Un ciudadano londinense autodidacta quien, aproximadamente en 1620, observó el caudal de información potencialmente importante disponible en los Weekly Bills of Mortality de Londres. Graunt comenzó a recoger y tabular datos. En 1662 publicó las Natural and Political Observations, que se basaban en su examen de los Bills of Mortality. Fue la primera utilización y publicación de un registro de estadísticas vitales. 12. ¿Cuáles fueron algunos de los hallazgos de Graunt? Graunt observó que no podía mantenerse un recuento verdadero de muertes por la peste sin un cálculo meticuloso de las muertes por las numerosas enfermedades distintas del día. Observó que un tercio de los niños nacidos vivos fallecía antes de los 5 años, que dos personas de cada nueve fallecían por una enfermedad aguda, y que 70 de cada 229 fallecían de enfermedad crónica. Observó también que el 7% de la población fallecía a una edad avanzada, y que sólo 1 de cada 4.000 fallecían de hambre en Londres. Además, Graunt realizó observaciones y sugerencias sobre el empleo de mendigos, la moralidad del suicidio y si el hecho de manipular o fabricar oro beneficiaría a la población. Graunt J: Natural and Political Observations Mentioned in a following Index, and made upon the Bills of Mortality. 1622. Disponible en http://www.ac.wwu.edu/~stephan/Graunt/bills.html.
13. ¿Quién fue conocido como el Hipócrates inglés? Thomas Sydenham (1624-1689) es quien lleva este epíteto. Fue un médico inglés que revivió la práctica de Hipócrates al enfatizar la observación clínica minuciosa. Sydenham pensaba que el estudio de la medicina debía llevarse a cabo a la cabecera del paciente. Está considerado como uno de los padres de la epidemiología, y aportó tratados sobre la gota, la malaria, la escarlatina, el sarampión, la histeria y el trastorno nervioso postestreptocócico que lleva su nombre, la corea de Sydenham. Se le cita por decir que: «La llegada de un buen payaso ejerce una influencia más beneficiosa sobre la salud de una ciudad que veinte asnos cargados de medicinas». Thomas Sydenham. Available at http://www.whonamedit.com.
14. ¿Qué se describe en la obra De morbis artificum diatriba? Escrito por Ramazzini y publicado en 1700, es el primer trabajo extenso sobre las enfermedades laborales. Describe los peligros sobre la salud observados en trabajadores de 52 ocupaciones, como albañiles, granjeros, enfermeras y soldados. Ramazzini comenta las dificultades a las que se enfrentan los «hombres cultos» por causa de sus mentes agobiadas, así como la necesidad de limpieza en las parteras, y los peligros de contraer la infección sifilítica. Bernardino Ramazzini. Disponible en http://www.whonamedit.com.
15. ¿Qué es el escorbuto? El escorbuto es la hipovitaminosis C que produce el deterioro del colágeno y lleva, entre otras manifestaciones, a la ausencia de colágeno en las paredes de los capilares, lo cual provoca hemorragias en las células de todo el organismo. El paciente se debilita, y presenta artralgias secundarias a hemorragias subperiósticas. En la piel, aparecen manchas elevadas de color rojo alrededor de los folículos pilosos de piernas, nalgas, brazos y espalda. Las encías sangran, y el tejido gingival se vuelve débil y esponjoso. La dentina, que está debajo del esmalte y es parte de la raíz de los dientes, se desestructura. Los dientes se aflojan, y el comer se vuelve difícil y doloroso.
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
16. ¿Cómo describió el escorbuto un observador no médico? Richard Walter, capellán de la Royal Navy, durante un viaje en 1740 describió los síntomas, que incluían una piel negra como la tinta, úlceras, dificultad respiratoria, ensanchamiento de las extremidades, caída de los dientes y, quizá el más repugnante de todos, una extraña plétora de tejido gomoso que brotaba fuera de la boca, que inmediatamente se pudría y daba al aliento de la víctima un olor abominable. Lamb J: Captain Cook and the Scourge of Scurvy. 2002. Disponible en http://www.bbc.co.uk/history/ discovery/exploration/captaincook_scurvy_01.shtml.
17. ¿Por qué se convirtió el escorbuto en un problema únicamente en las grandes expediciones? La deficiencia vitamínica precisa de 2 a 6 meses para manifestarse, y los síntomas pueden mejorar con el consumo de vitamina C, que los marineros devoraban vorazmente cuando tocaban puerto. Vasco de Gama perdió a dos tercios de su tripulación por la enfermedad en su viaje a la India en 1499, y Magallanes perdió a más del 80% mientras realizaba la travesía del océano Pacífico. 18. ¿Por qué los vikingos no se veían afectados por el escorbuto en sus largos viajes? Los vikingos comían una especie de frambuesa y una planta llamada Skjørbuksurt (es decir, cocleria o Cochleria officinalis), y ambas son fuentes ricas en vitamina C. 19. ¿Cuál es uno de los primeros estudios clínicos aleatorios del que se tiene constancia? En 1747, James Lind, médico escocés de la Royal Navy, seleccionó a 12 pacientes con escorbuto y los alimentó con regímenes distintos. Dos de ellos recibieron sidra, dos recibieron elixir de vitriolo, dos recibieron vinagre, dos recibieron agua marina, dos recibieron limones y naranjas, y dos recibieron purgantes. Uno de los pacientes que recibieron el cítrico estuvo listo para el trabajo a los 6 días y el otro se hallaba lo suficientemente bien como para cuidar a los restantes pacientes. Los únicos pacientes restantes que mostraron mejoría fueron los que bebieron sidra, pero la mejoría fue sólo ligera. A pesar de este éxito, tuvieron que pasar 50 años antes de que el Almirantazgo Británico dispusiera de cítricos en todos sus barcos. Lind J: A Treatise of the Scurvy in Three Parts. Containing an inquiry into the Nature, Causes and Cure of that Disease, together with a Critical and Chronological View of what has been published on the subject. London, A. Millar, 1753. Disponible en http://www.people.virginia.edu/~rjh9u/scurvy.html.
20. ¿Qué es el cólico de Devonshire? En la intoxicación por plomo. Desde 1762 hasta 1767, casi 300 casos de la enfermedad fueron ingresados en los hospitales de Exeter. George Baker, médico inglés, observó que los síntomas eran similares a los que presentaban los pintores con saturnismo. Descubrió que la sidra de Devonshire contenía plomo, y que los lagares de sidra del lugar, a diferencia de los lagares del resto del país, se hallaban recubiertos de láminas de plomo. 21. ¿Cuáles fueron las consecuencias médicas de la viruela en el siglo XVIII? Se calcula que hubo unas 400.000 muertes como consecuencia de la infección de la viruela en todo el mundo, y que un tercio de los que sobrevivieron quedaron ciegos debido a la infección de la córnea. Además, los supervivientes quedaron con cicatrices muy profundas o marcas de viruela. Se llegó a determinar que los pacientes quedaban inmunizados una vez que habían contraído la viruela y sobrevivían a ella.
17
18
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
PUNTOS CLAVE: GENTE IMPORTANTE 1. John Graunt: comenzó la recogida y análisis de los Weekly Bills of Mortality de Londres en el siglo XVII, y demostró la utilidad de un sistema de vigilancia de la enfermedad. 2. Edward Jenner: desarrolló y probó una inmunización frente a la viruela. 3. P.C.A. Louis: denominado «el padre de la epidemiología clínica moderna», fue responsable del estudio básico de la inefectividad de la sangría. 4. Ignác Semmelweis: redujo de modo espectacular la tasa de fiebre puerperal al instaurar el lavado de manos.
22. ¿Cómo se empleó el conocimiento de la inmunidad permanente a la viruela después de haber padecido la infección, con el fin de prevenir la enfermedad? Se empleó mediante un método denominado variolación. Se administraba a las personas sanas material procedente de las lesiones de pacientes con viruela. Lamentablemente, este método produjo muertes por viruela e infectó a otros pacientes. 23. ¿Qué relación guardan las lecheras con el desarrollo de una vacuna frente a la viruela? En 1768, Edward Jenner escuchó a una lechera decir: «No puedo contraer la viruela porque ya he pasado la vacuna». Observó que las lecheras que habían padecido una infección leve de vacuna eran, efectivamente, inmunes frente a los brotes de viruela. 24. ¿Qué hizo Jenner con esta información? Para probar su hipótesis, Jenner tomó el exudado de una pústula de vacuna de la mano de una lechera, Sarah Nelmes, y la inyectó en la piel de James Phipps, un niño de 8 años (Fig. 1-1). Seis semanas después, Jenner administró material de una pústula fresca de viruela al joven James, y el niño no contrajo la enfermedad. 25. En relación con la viruela, ¿quién podría decirse que fue la persona más desgraciada del planeta? El último caso de enfermedad de viruela de producción natural se dio en un hombre somalí en 1977. La Organización Mundial de la Salud declaró oficialmente erradicada la viruela en 1980. Es interesante señalar que los experimentos de Jenner fueron guiados enteramente por la observación. La teoría predominante de la enfermedad seguía siendo el concepto miasmático, que sostenía que la enfermedad se transmitía por un miasma, o nube, que se mantenía baja, pegada al suelo. Jenner no tenía conocimiento alguno de la existencia de virus ni de bacterias. Gordis L: Epidemiology, 2nd ed. Philadelphia, W.B. Saunders, 2000, pp 9–11.
26. ¿Qué tipo peculiar de cáncer asoció sir Percival Potts con la ocupación de deshollinador, hacia 1775? Sir Percival Potts fue un cirujano inglés que identificó una elevada tasa de cáncer de escroto en los deshollinadores. Potts describe el cáncer del siguiente modo: Es una enfermedad que siempre hace su primer ataque y su primera aparición en la parte inferior del escroto, en donde produce una herida superficial, dolorosa, irregular, de mal aspecto, con unos bordes duros y elevados: en el oficio se la conoce como verruga por hollín. Nunca lo he visto antes de la pubertad, lo que, supongo, es una razón por la que se
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
Figura 1-1. Dibujo de Robert A. Thom de la primera vacunación, efectuada por Edward Jenner el 14 de mayo de 1796, en su apartamento de Chantry House, Berkeley, Gloucestershire. (De Great Moments in Medicine. ParkeDavis & Company, 1966. Cortesía de Parke-Davis Company.)
toma generalmente, tanto por el paciente como por el cirujano, como una enfermedad venérea, y al tratarse con mercuriales resulta pronto muy exasperante. Potes especuló con la posibilidad de que el hollín recogido en los pliegues del escroto fuese el agente causal, y se convirtió por ello en un identificador precoz del riesgo de cáncer ocupacional. Percival PS: Chirurgical Observations Relative to the Polypus of the Nose, the Cancer of the Scrotum, the Different Kinds of Ruptures, and the Mortification of the Toes and Feet. London, Hawes, Clarke, & Collins, 1775.
27. ¿Por qué disminuyeron de modo significativo las tasas de cáncer escrotal en los deshollinadores daneses después de este hallazgo, mientras que las tasas en Inglaterra permanecieron sin cambios? El gobierno de Dinamarca comenzó a requerir a sus trabajadores que vistiesen una indumentaria protectora, y que se bañaran de modo regular. Los británicos continuaron bañándose sólo una vez a la semana durante muchos años después del informe de Pott. 28. ¿Cuál es la relación entre la elaboración del vino y la teoría de los gérmenes? Durante su estudio sobre la fermentación del vino, Louis Pasteur, químico y bacteriólogo francés, demostró que el proceso estaba causado por microorganismos del ambiente, que eran transmitidos al líquido por medio de partículas de polvo, y no por generación espontánea en el propio vino. Los experimentos de Pasteur llegaron a refutar finalmente la teoría de que la vida podía surgir espontáneamente en materiales orgánicos, teoría que había sido dogma científico durante más de 200 años. Louis Pasteur, Embassy of France in Canada. Disponible en http://www.ambafrance-ca.org.
19
20
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
29. ¿De qué modo hizo avanzar Robert Koch la teoría de los gérmenes? Estableció los postulados que llevan su nombre, que son los siguientes: ■ El agente causal ha de estar presente en cada caso de enfermedad, y no ha de estar presente en animales sanos. ■ El patógeno ha de ser aislado del animal huésped enfermo, y ha de crecer en un cultivo puro. ■ Debe producirse la misma enfermedad cuando se inoculan los microbios a partir del cultivo puro en animales sanos susceptibles. ■ El mismo patógeno ha de ser recuperado, una vez más, a partir de este animal artificialmente infectado, y ha de ser capaz de crecer en un cultivo puro. Wubah DA: The Germ Theory of Disease. Disponible en http://www.towson.edu/~wubah/medmicro/ Germ_theory.htm.
30. ¿Quién está considerado como el «padre de la epidemiología clínica moderna»? ¿Por qué? P.C.A. Louis (1787-1872), que diseñó y llevó a cabo un experimento para valorar si la sangría para afecciones inflamatorias confería algún beneficio médico. Louis vivía en tiempos en los que las autoridades médicas cimeras, como François Joseph Broussais, en París, consideraban la inflamación como la causa de todas las enfermedades. J.J. Jackson, otro médico prominente, escribió en 1836 que «si algo puede ser considerado como asentado en el tratamiento de las enfermedades es que la sangría es de utilidad en la clase de enfermedades denominadas inflamatorias; y especialmente en las inflamaciones de las vísceras torácicas». Francia importó 42 millones de sanguijuelas en 1833. Morabia A: P. C. A. Louis and the birth of clinical epidemiology. J Clin Epidemiol 49 (12):1327–1333, 1996.
PUNTOS CLAVE: LUGARES IMPORTANTES 1. Broad Street, Londres: lugar de la importante investigación de John Snow sobre el cólera. 2. Cuba (1898): Walter Reed llevó a cabo una importante investigación sobre la fiebre amarilla. 3. Tuskegee, Alabama: lugar donde se realizó el famoso «Tuskegee Study of Untreated Syphilis in the Negro Male». 4. Framingham, Massachusetts: lugar del Framingham Heart Study.
31. ¿Cómo llevó a cabo Louis el estudio? Efectuó un estudio de casos y controles. Seleccionó a 77 pacientes que habían ingresado en el hospital con neumonía, y realizó una revisión de sus historias clínicas. Después de controlar otros factores de confusión, como edad, sexo y gravedad de la enfermedad, comparó el efecto de una sangría temprana (días 1-4) con una sangría tardía (día 5 hasta la recuperación o el fallecimiento) sobre la duración y desenlace de la neumonía. Todos los pacientes se hallaban en perfecto estado de salud antes del comienzo de la enfermedad. 32. ¿Cuáles fueron los resultados? La enfermedad tuvo una duración de 17,7 días en el grupo de la sangría temprana, y de 20,3 días en el grupo de la sangría tardía. El riesgo de muerte fue del 44% en el grupo temprano y del 25% en el último grupo. Louis describió este fenómeno como «un resultado sorprendente y, aparentemente, absurdo». Globalmente llegó a la conclusión de que el efecto de la sangría fue «muy infe-
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
rior de lo que se había creído comúnmente». Durante los 15 años siguientes, la importación de sanguijuelas disminuyó a unos pocos miles por año. Hadjiliadis D: Early clinical statistics. Disponible en http://www.med.unc.edu/wrkunits/syllabus/yr4/gen/ medhist/publish/earlyclinstats.ppt. Morabia A: P. C. A. Louis and the birth of clinical epidemiology. J Clin Epidemiol 49 (12):1327–1333, 1996.
33. ¿Qué sociedad se formó con la misión de «recoger, preservar y difundir la información estadística en los diferentes departamentos del saber humano»? La American Statistical Society, que se creó en Boston, en 1839, por William Cogswell, Richard Fletcher, John Dix Fisher, Oliver Peabody y Lemuel Shattuck. En 1840, se cambió su nombre por el de American Statistical Association. Uno de sus primeros miembros fue Florence Nightingale. The American Statistical Association en http://www.amstat.org/about/index.cfm?fuseaction=history
34. ¿Cuál fue el origen de los National Institutes of Health? En 1887 se estableció una instalación de una sola habitación en el Marine Hospital de Staten Island, Nueva York, llamado Laboratory of Hygiene. El Dr. Joseph Kinyoun fue el director y único empleado de esta primera instalación de investigación del gobierno. Posteriormente, fue rebautizado con el nombre de Hygienic Laboratory, con nueva base en Washington DC. En 1930, tras la aprobación de la Ley Randsell, se adoptó el nombre de National Institutes of Health (NIH). Los NIH crecieron en alcance y tamaño, y fueron trasladados a Bethesda, Maryland, en 1938. 35. ¿Dónde se localiza Broad Street? Se localiza en la ciudad de Londres, donde esta calle alcanzó fama en 1885 por su bomba de agua contaminada por el cólera. 36. ¿Quién fue el anestesista que administró cloroformo a la reina Victoria durante el nacimiento de sus hijos? ¿Qué relación guarda este hecho con Broad Street? John Snow se hallaba muy interesado en la epidemiología del cólera. Las muertes por cólera en Londres en el siglo XIX eran elevadas, y Snow creía que la causa del cólera era una especie de veneno que las personas infectadas eliminaban por las heces y por el vómito, y que los pacientes sanos contraían la enfermedad al ingerir agua que había sido contaminada con el vómito o las heces de los pacientes con cólera. El Registrar General (jefe de registros) William Farr no estaba de acuerdo con la teoría de Snow. Farr se adhería a la teoría miasmática de la enfermedad, que sostenía que una nube de infección se mantenía pegada próxima al suelo y diseminaba la enfermedad. Teóricamente, una persona podría escapar a la infección al desplazarse a mayor altitud. Farr tabuló los datos estadísticos y mostró que los pacientes que vivían a mayor altitud tenían menos riesgo de contraer el cólera. Snow observó el agrupamiento de muertes en el área geográfica suministrada por la bomba de Broad Street, que era abastecida por la Southwark and Vauxhall Company, mientras que la Lambeth Company suministraba el agua a otras partes de la ciudad. Ambas compañías extraían el agua del río Támesis, pero la captación de la Southwark Company se realizaba en una parte muy contaminada del río, mientras que la Lambeth Company había cambiado recientemente su captación aguas arriba, a una parte del río menos contaminada. Snow investigó el abastecimiento de agua de las víctimas del cólera y pudo demostrar que la tasa de mortalidad por cólera era casi 10 veces superior en las casas que recibían el agua de la Southwark Company (Fig. 1-2). Gordis L: Epidemiology, 2nd ed. Philadelphia, W. B. Saunders, 2000, pp 10–11.
21
22
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
Muertes por cólera
0
metros
200
Figura 1-2. Mapa que señala los fallecimientos por cólera en Londres. (De http://www.nationalgeographic.com/resources/ngo/education/ideas912/912choleraho1.html, con autorización.)
37. ¿Qué es la fiebre puerperal? Es una forma agresiva y muy virulenta de infección que se produce después del parto. Costó la vida de Jane Seymour, la tercera mujer de Enrique VIII, así como de Mary Wollstonecraft, la madre de Mary Shelley. Se dice que en el siglo XVIII se cobró la vida de hasta el 20% de las madres primerizas. 38. ¿Qué relación guarda el lavado de las manos con la fiebre? Ignac Semmelweis (1813-1865) observó que un simple lavado de las manos antes de explorar a las parturientas podía eliminar prácticamente la enfermedad. Trabajaba en una clínica de maternidad, y observó que la tasa de mortalidad era superior en las mujeres que daban a luz en el hospital que en las que daban a luz en su hogar de camino al hospital. Observó también que las mujeres que daban a luz de forma prematura tenían una menor frecuencia de la enferme-
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
dad. Observó que, en ocasiones, las mujeres ingresadas en una fila completa de camas morían de fiebre puerperal. Las futuras madres imploraban que no fueran ingresadas en el primer departamento de la clínica de maternidad, donde realizaban sus prácticas los estudiantes y los doctores. Las pacientes deseaban ser ingresadas en el segundo departamento, donde sólo las parteras llevaban a cabo los partos. Semmelweis estudió el registro cuidadosamente y confirmó que las tasas de mortalidad en el primer departamento eran, con frecuencia, 12 veces superiores a las registradas en el segundo departamento. Se aseguró de que todos los partos en el primero y segundo departamentos se realizaban en la posición lateral con el fin de estandarizar su entorno. Esta estrategia no afectó a la tasa de mortalidad. 39. ¿Cómo desentrañó Semmelweis el acertijo de la fiebre puerperal? Un profesor se cortó con un cuchillo en una autopsia y, posteriormente, tuvo una infección generalizada que acabaría con su vida. Semmelweis observó que la enfermedad guardaba una estrecha relación con la enfermedad que había afligido a tantas pacientes de la clínica de maternidad. Las autopsias de las mujeres y de sus recién nacidos confirmaron que la enfermedad era, efectivamente, la misma que afectó al profesor. Se animaba a los estudiantes de medicina de esta escuela a que realizaran estudios anatómicos con cadáveres, y no se llevaba a cabo la práctica del lavado de las manos entre las disecciones y la exploración y el parto de las mujeres que iban a dar a luz. En mayo de 1847 se introdujo el lavado de las manos con cloro, lo que redujo el número de muertes maternas a un nivel por debajo del observado en el segundo departamento. Caplan, CE: The Childbed Fever Mystery and the Meaning of Medical Journalism. Disponible en http://www.med.mcgill.ca/mjm/issues/v01n01/fever.html.
40. ¿Qué es la fiebre amarilla? Una fiebre hemorrágica vírica causada por el virus de la fiebre amarilla, que se transmite a los seres humanos a partir de la picadura del mosquito Aedes aegypti infectado. El hígado, el corazón, los riñones y el tejido linfático se ven atacados, y la piel se vuelve ictérica, de aquí la denominación de «amarilla».
PUNTOS CLAVE: ENFERMEDADES IMPORTANTES 1. Peste: produjo la muerte de un tercio de la población de Europa en la Edad Media. 2. Escorbuto: el azote de los marineros, limitó la distancia que podían recorrer los barcos navegando sin escalas. 3. Viruela: causó, aproximadamente, 400.000 muertes en el siglo XVIII, y dejó ciegos al 33% de los supervivientes. 4. Sida: la peste moderna; el sida acabó con la revolución sexual.
41. ¿Qué guerra actuó como estímulo para resolver el enigma de la fiebre amarilla? Durante la guerra entre España y Estados Unidos de 1898, en Cuba se produjo una epidemia de fiebre amarilla al inicio de la contienda. El U.S. Surgeon General (cirujano general) envió un equipo de investigadores liderados por el científico médico Walter Reed. Se probaron muchas ideas en el terreno, incluida la teoría, que contaba con más de 50 años, propuesta por el Dr. Carlos Finlay, de que la fiebre amarilla podía diseminarse por insectos. Reed dividió a varios
23
24
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
voluntarios en dos grupos. Los del primer grupo dormían sobre las ropas contaminadas y ropas de cama de los pacientes afectados de fiebre amarilla, pero se les protegía con redes contra los mosquitos; los del segundo grupo dormían sobre ropa limpia, pero sin protección frente a los mosquitos. Los pacientes protegidos por las redes no contrajeron la fiebre amarilla, mientras que los otros sí la contrajeron. Este descubrimiento llevó al empleo generalizado de una protección frente a los mosquitos en forma de redes y, posteriormente, a una reducción drástica en la incidencia de fiebre amarilla. Marton, T: Yellow Fever and Dr. Walter Reed, 1999. Disponible en http://www.mcatmaster.com/ medicine&war/yellowfever.htm.
42. ¿Qué otra denominación recibe la fiebre entérica? Fiebre tifoidea, enfermedad que sólo se observa en humanos, y causa fiebre de hasta 40 ºC, malestar, molestias abdominales, erupción de manchas de color rosado, esplenomegalia y leucopenia. Las complicaciones más graves son la hemorragia y la perforación intestinales. Está causada por la bacteria Salmonella typhi, y se transmite a otras personas por medio de la ruta fecal-oral. 43. ¿Qué relación tiene la Clergy Orphans School de St. John Wood con la fiebre tifoidea? En 1856 se produjo en dicho lugar un brote de fiebre tifoidea que afectó a muchos de los estudiantes jóvenes. Una carta remitida a Lancet describía el brote. El primer alumno enfermó el 14 de septiembre; dicho alumno fue seguido por otros cuatro casos en las 3 semanas siguientes, y después por 19 casos en un período de 36 horas. El paciente padecía fiebre, astenia, diarrea y erupción papular. Debido al comienzo simultáneo en este grupo, el autor creyó que el brote no podía atribuirse a contagio: «El comienzo simultáneo del brote es suficiente para desechar la idea del contagio. Es evidente que alguna causa local desempeñaba algún papel». 44. ¿Qué respuesta generó esta carta? William Budd respondió mediante una carta bien razonada, demostrando claramente que los síntomas descritos eran compatibles con fiebre tifoidea. Budd expuso la teoría de que la diarrea de los pacientes infectados contenía un veneno concentrado que, al ser ingerido por una persona sana, le causaría la enfermedad. Postuló que la diarrea se había filtrado a través del suelo al pozo vecino, y, en último término, publicó en marzo de 1873 el artículo Fiebre tifoidea, su naturaleza, modo de diseminación y prevención. Budd W: Typhoid Fever, its Nature, Mode of Spreading and Prevention. 1873, Appendix. Disponible en http://www.deltaomega.org/typhoid.pdf.
45. ¿Quién fue Mary Mallon? Mary Mallon nació en Irlanda, en 1869, y emigró a América en 1884, a la edad de 15 años. Encontró un empleo como cocinera en la ciudad de Nueva York. En calidad de cocinera infectó a 47 personas con fiebre tifoidea, de las que tres fallecieron. Llegó a ser famosa con el sobrenombre de «Mary la tifosa». En el verano de 1906, el banquero Charles Henry Warren llevó a su familia de vacaciones a Long Island, y llevó a Mary como cocinera. De los 11 residentes de la casa, 6 enfermaron de fiebre tifoidea. El propietario de la casa requirió los servicios del ingeniero civil George Soper para que investigase el origen de la fiebre tifoidea, temiendo que pudiera tener el origen en su casa. Soper siguió la huella hasta la Mallon y encontró también que, en los siete empleos que había tenido desde 1900, se habían producido 22 casos de fiebre tifoidea y una muerte. Mallon fue la primera paciente que era portadora de la enfermedad sin sufrir ella misma la enfermedad.
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
46. ¿Cómo respondió Mary Mallon a las noticias sobre su estado de portadora? Cuando Soper se acercó a ella para solicitarle muestras de sangre, orina y heces, Mary cogió un cuchillo de cocina y fue tras él. Más tarde, Soper volvió con refuerzos, policía incluida. Mallon salió a su encuentro con un gran tenedor y arremetió contra ellos; en estado de confusión, corrió al interior de la casa. Después de una búsqueda de 5 horas, la encontraron finalmente oculta en un armario. 47. ¿Qué hizo con Mary el Departamento de Salud? Después de confirmar que era portadora, fue llevada a una pequeña casa aislada en la North Brother Island, cerca del Bronx. 48. ¿Cuándo se le permitió volver de nuevo a la ciudad de Nueva York? En 1910, cuando tomó posesión de su cargo un nuevo inspector de salud pública, Mary fue liberada a condición de que prometiera no intentar conseguir empleo que requiriese cocinar. También tenía que acudir de modo regular al departamento de salud para que se le hicieran nuevos análisis. 49. ¿Quién fue Mary Brown? Fue una cocinera empleada en el Sloane Maternity Hospital de Manhattan, donde, en enero de 1915, un brote de fiebre tifoidea afectó a 25 personas, de las que dos fallecieron. Su verdadero nombre era Mary Mallon. Vivió el resto de su vida en la North Brother Island en una casita aislada; en 1932 padeció un ictus, y falleció en 1938. Rosenberg J: Typhoid Mary. Disponible en http://history1900s.about.com/library/weekly/aa062900a.htm.
50. ¿Qué es lo que causa la pelagra? Una deficiencia en niacina. La pelagra es una enfermedad con síntomas cutáneos prominentes, que puede ser confundida con la lepra. Otros síntomas incluyen demencia y diarrea. El pensamiento prevalente a comienzo del siglo XX era que la pelagra era transmitida por bacterias.
PUNTOS CLAVE: CÓMO GANAR UNA APUESTA EN UN BAR FRECUENTADO POR EPIDEMIÓLOGOS 1. Nombre de María «la Tifoidea»: Mary Mallon. 2. Cólico de Devonshire: intoxicación por plomo contraída por beber sidra elaborada en Devonshire, donde los lagares estaban recubiertos por láminas de plomo. 3. Verruga por hollín: nombre del cáncer escrotal, habitual en los deshollinadores de Londres en el siglo XVIII. 4. Gaetan Dugas: nombre de un auxiliar de vuelo de una línea aérea canadiense. Se consideró falsamente que fue el caso inicial de sida en Estados Unidos.
51. ¿Por qué no se mostraba de acuerdo Joseph Goldberg con la teoría de los gérmenes en relación con la pelagra? Observó que sólo los internos contraían la enfermedad en los asilos y orfanatos del Sur. Una fuente infecciosa afectaría también al personal de plantilla, y nunca se produjo este patrón.
25
26
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
Propuso la teoría, que en último término consiguió demostrar, de que la causa era una alimentación deficiente. Dr. Joseph Goldberg and the War on Pellagra. Disponible en http://history.nih.gov/exhibits/goldberger/ docs/pellegra_5.htm.
52. ¿En qué consiste el estudio de Tuskegee? El Public Health Service, junto con el Tuskegee Institute, comenzó en 1932 un estudio en Macon County, Alabama, denominado «The Tuskegee Study of Untreated Syphilis in the Negro Male». Se informó a los varones que estaban siendo tratados frente a una enfermedad denominada «mala sangre». Se incluyeron 600 pacientes, 399 con sífilis y 201 sin la enfermedad. El estudio duró 40 años, a pesar de que originalmente se había diseñado para que tuviera una duración de 6 meses. En 1947, se sabía ya que la penicilina curaba la sífilis, pero no se ofreció dicho tratamiento a los hombres incluidos en el estudio, y no existen datos que confirmen que los participantes fueran informados de que podían abandonar el estudio en caso de desearlo. El New York Times desveló la historia en 1972. The Tuskegee Syphilis Study: A Hard Lesson Learned. Disponible en http://www.cdc.gov/nchstp/od/ tuskegee/time.htm.
53. ¿Cuándo se establecieron los Centers for Disease Control and Prevention (CDC)? La Office of Malaria Control in War Areas se hallaba ya en funcionamiento durante la Segunda Guerra Mundial, y tenía la misión de controlar la malaria en el sudeste de Estados Unidos. En 1946 se estableció el Center for Communicable Diseases (CDC) como sucesor de esta oficina. Después de que la malaria quedase eliminada en Estados Unidos, el CDC expandió en gran medida su papel en la salud pública, y se cambió el nombre a Centers for Disease Control en 1970. La frase «and Prevention» fue añadida al nombre en 1992. Malaria, CDC Origins. Disponible en http://www.cdc.gov.
54. ¿Por qué la población de Natick, Massachusetts, es casi famosa en la historia de la epidemiología? Es la ciudad más próxima a Framingham, donde se inició el estudio Framingham en 1948, con el fin de estudiar los factores de riesgo de cardiopatía. Éste fue un estudio observacional a largo plazo que, inicialmente, implicó a 5.127 personas, de edades comprendidas entre 30 y 62 años, que no mostraban signos de cardiopatía. Se evaluó a los participantes con cuestionarios y una exploración física cada 2 años durante 30 años. Muchos de los conceptos básicos de nuestro conocimiento actual de la arteriopatía coronaria proceden de este estudio. Framingham Heart Study. Disponible en http://www.clinicaltrials.gov/show/NCT00005121.
55. ¿Cuándo se observó por primera vez la relación entre el consumo de cigarrillos y el cáncer de pulmón? En 1950, dos investigadores presentaron datos que mostraban una conexión entre fumar cigarrillos y el cáncer de pulmón. El primero se llamaba Ernst Wynder, que se mostró interesado en la conexión después de haber sido testigo de la autopsia de un fumador y observar el tinte negro de los pulmones. Entrevistó a pacientes con cáncer de pulmón y a pacientes con otros tipos de cáncer, y observó una incidencia muy superior de cáncer de pulmón en los fumadores. El otro investigador (Richard Doll) era un científico británico que entrevistó a numerosos médicos sobre sus hábitos de fumar, y después observó en quiénes se desarrollaba el cáncer de pulmón. También él demostró la conexión.
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA Does smoking really cause lung cancer? Dr. George Johnson, On Science. Disponible en http://www.txtwriter.com/Onscience/Articles/smokingcancer.html.
56. ¿Qué fue el Informe Lalonde? Fue un informe realizado en 1974, titulado A New Perspective on the Health of Canadians. El informe era innovador porque quitaba prácticamente toda la importancia de las intervenciones biomédicas en el bienestar individual de las personas e identificaba, en su lugar, cuatro áreas que eran responsables principalmente de la salud del paciente: ambiente, biología humana, estilo de vida y organización de la atención sanitaria. Lalonde M: A New Perspective on the Health of Canadians, a working document. 1974. Disponible en http://www.hc-sc.gc.ca/hppb/phdd/pdf/perspective.pdf.
57. ¿De qué producto era el lema «absorbe incluso la preocupación»? Los tampones Rely. En 1980, se notificaron a los CDC 55 casos de una nueva enfermedad que recibió la denominación de síndrome del shock tóxico. Los síntomas consistían en fiebre elevada, erupción similar a quemaduras por el sol, descamación, hipotensión y lesión multiorgánica generalizada. Las mujeres supusieron 52 de los 55 casos totales, y los estudios de casos y controles indicaron una elevada asociación con el empleo de tampones. Estudios posteriores descubrieron un mayor riesgo en las que habían utilizado los tampones Rely, que era un tampón con una absorbencia particularmente elevada. Centers for Disease Control: Historical Perspectives Reduced Incidence of Menstrual Toxic-Shock Syndrome—United States 1980–1990. MMWR 39(25):421–423, 1990.
58. ¿Cuándo trascendió a la atención pública el síndrome de inmunodeficiencia adquirida (sida)? El Morbidity and Mortality Weekly Report (MMWR) publicó un artículo denominado Pneumocystis Pneumonia-Los Angeles el 5 de junio de 1981, en el que describía cinco casos de infecciones oportunistas, como neumonía por Pneumocystis y candidiasis. Aunque sigue siendo desconocido el papel de la infección por CMV en la patogenia de la neumonía por P. carinii, debe considerarse seriamente la posibilidad de infección por P. carinii en el diagnóstico diferencial en varones homosexuales previamente sanos, con disnea y neumonía. Centers for Disease Control: Pneumocystic pneumonia—Los Angeles. MMWR 37(12):81, 1981.
59. ¿Quién fue el primer paciente que introdujo el sida en Estados Unidos? Esta cuestión no tiene una respuesta conocida. Se creyó, por error, que el «paciente cero», Gaetan Dugas, era el paciente índice. Fue identificado por los CDC como «paciente cero» en un estudio epidemiológico inicial, en el que 40 de 228 pacientes diagnosticados de sida en abril de 1992 habían tenido relaciones sexuales con este auxiliar de vuelo de una línea aérea canadiense. Sin embargo, hubo numerosos casos de sida en Estados Unidos antes de Dugas. Gaetan Dugas. The Free Dictionary. Disponible en www.encyclopedia.thefreedictionary.com.
60. ¿Cuál es el virus del Cañón Muerto? Este virus es más conocido en la actualidad como virus sin nombre y el agente etiológico del síndrome pulmonar por hantavirus. La enfermedad despertó a la atención pública cuando un hombre joven y sano de la tribu de los indios navajo que vivía en el suroeste de Estados Unidos comenzó con disnea y falleció rápidamente. Su novia había muerto 2 días antes. Los investigadores documentaron otros numerosos casos, y los laboratorios de los CDC pudieron identificar con precisión un tipo de hantavirus hasta entonces desconocido.
27
28
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
Se sabía que los hantavirus eran transportados a los seres humanos desde los roedores, y los análisis demostraron que el principal huésped era el ratón ciervo. La diseminación se producía a partir de las heces secas aerosolizadas de los roedores, inhaladas por el huésped humano. Se cree que la razón del brote de 1993 fue una explosión demográfica de la población de roedores que llegó a alcanzar unos valores 10 veces superior a sus cifras habituales. El área había sufrido una intensa sequía durante muchos años, y luego, en 1993, unas lluvias adecuadas dieron nueva vida a las plantas del área, y las ratas dispusieron de un abundante aporte de alimentos. Tracking a Mystery Disease: The Detailed Story of Hantavirus Pulmonary Syndrome. Disponible en http://www.cdc.gov.
PÁGINAS WEB 1. http://www.classics.mit.edu/Hippocrates/airwatpl.htm 2. http://www.med.virginia.edu/hs-library/historical/antiqua/galen.htm 3. http://www.brown.edu/Departments/Italian-Studies/dweb//dweb.shtml 4. http://www.whqlibdoc.who.int/rare-books/a56989.pdf 5. http://www.ac.wwu.edu/~stephan/Graunt/b.Us.html 6. http://www.whonamedit.com 7. http://www.bbc.co.uk/history/discovery/exploration/captaincook_scurvy-01.shtml 8. http://www.people.virginia.edu/~rjh9u/scurvy.html 9. http://www.ambafrance-ca.org 10. http://www.towson.edu/~wubah/medmicro/Germ_theory.htm 11. http://www.med.unc.edu/wrkunits/syllabus/yr4/gen/medhist/publish/earlyclinstats.ppt 12. http://www.med.mcgill.ca/mjm/issues/v01n01/fever.html 13. http://www.mcatmaster.com/medicine&war/yellowfever.htm 14. http://www.deltaomega.org/typhoid.pdf 15. http://www.history1900s.about.com/library/weekly/aa062900a.htm 16. http://www.history.nih.gov./exhibits/goldberger/docs/pellagra_5.htm 17. http://www.cdc.gov/nchstp/od/tuskegee/time.htm 18. http://www.cdc.gov 19. http://www.clinicaltrials.gov/show/NCT00005121 20. http://www.txtwriter.com/Onscience/Articles/smokingcancer.html 21. http://www.hc-sc.gc.ca/hppb/phdd/pdf/perpective.pdf 22. http://www.encyclopedia.thefreedictionary.com 23. http://www.amstat.org/about/index.cfm?fuseaction=history
EPIDEMIOLOGÍA: UNA PERSPECTIVA HISTÓRICA
BIBLIOGRAFÍA 1. Centers for Disease Control: Historical perspectives reduced incidence of menstrual toxic-shock syndrome— United States 1980-1990. MMWR 39(25):421–433, 1990. 2. Centers for Disease Control: Pneumocystic pneumonia—Los Angeles. MMWR 37(12):81, 1981. 3. Defoe D: A Journal of the Plague Year [1722]. Oxford, Oxford University Press, 1990, pp 81–82. 4. Gordis L: Epidemiology, 2nd ed. Philadelphia, W.B. Saunders, 2000, pp 9-11.5. Morabia A: P. C. A. Louis and the birth of clinical epidemiology. J Clin Epidemiol 49(12):1327–1333, 1996. 5. Percival PS: Chirurgical Observations Relative to the Polypus of the Nose, the Cancer of the Scrotum, the Different Kinds of Ruptures, and the Mortification of the Toes and Feet. London, Hawes, Clarke, & Collins, 1775. 6. Perry RD, Fetherston JD: Yersinia pestis—Etiologic agent of plague. Clin Microbiol Rev 10(1):35–66, 1997.
29
Patrick R. Laraby, MD, MBA, MPH
CAPÍTULO 2
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS 1. ¿Qué es la epidemiología? La epidemiología es el estudio de la distribución y de los determinantes de la enfermedad en las poblaciones humanas. Es la ciencia básica y práctica fundamental de la salud pública. 2. ¿De dónde deriva la palabra epidemiología? La palabra epidemiología procede de epidemia, que, traducida del griego, significa «sobre el pueblo». 3. ¿Qué hacen los epidemiólogos? Los epidemiólogos estudian la frecuencia de las enfermedades en las poblaciones, con el fin de identificar los factores de riesgo de la enfermedad (y de la salud) para, en último término, mejorar la salud de la población. 4. ¿Qué es la salud? De acuerdo con la Organización Mundial de la Salud (OMS), la salud es un estado de bienestar físico, mental y social completo, y no meramente la ausencia de enfermedad. 5. ¿Qué es la medicina preventiva? La aplicación por los profesionales clínicos de las medidas preventivas para mantener la salud. 6. ¿Qué es la salud pública? La aplicación de los principios de la medicina preventiva a una población. 7. Describa los niveles de prevención. ■ Prevención primaria: la prevención de la enfermedad o lesión. ■ Prevención secundaria: la detección precoz y el tratamiento temprano de la enfermedad. ■ Prevención terciaria: la reducción de la discapacidad, y la promoción de la rehabilitación por la enfermedad. 8. ¿Cuáles son los niveles de Leavell? Hugh Leavell desarrolló un paradigma sencillo para la salud preventiva, que se correlaciona con el estadio de la enfermedad, el nivel de prevención y la respuesta apropiada por los profesionales sanitarios. Los niveles son los siguientes: 1. Preenfermedad a. Sin factores de riesgo conocidos: la prevención primaria debe ser la promoción de la salud (p. ej., alentar unos cambios saludables en el estilo de vida, la nutrición y el ambiente). b. Con susceptibilidad a la enfermedad: la prevención primaria debe incluir una protección específica (p. ej., recomendaciones en relación con suplementos nutricionales, inmunizaciones y seguridad en el trabajo y con los vehículos de motor).
31
32
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
2. Enfermedad latente: la prevención secundaria debe centrarse en el cribado en el caso de poblaciones, o en la detección de casos cuando se trata de individuos, en la atención médica y, si se detecta la enfermedad, ofrecer el tratamiento correspondiente. 3. Enfermedad sintomática a. Atención inicial: la prevención terciaria debe centrarse en la limitación de la discapacidad (es decir, en el tratamiento médico o quirúrgico para limitar el daño producido por la enfermedad con medidas de prevención primaria). b. Atención posterior: la prevención terciaria debe centrarse en la rehabilitación (es decir, en la enseñanza de métodos para reducir la discapacidad social). Leavell HR, Cark EG: Preventive Medicine for the Doctor in His Community, 3rd ed. New York, McGraw-Hill, 1965.
9. Explique los objetivos de los programas de cribado. Los programas de cribado son una estrategia de prevención secundaria para identificar enfermedades antes de que éstas desarrollen ya síntomas, así como instaurar un nuevo programa de tratamiento para reducir la morbilidad, la mortalidad o ambas. 10. ¿Cuáles son las suposiciones básicas o fundamentales de la epidemiología? ■ La enfermedad humana no se produce al azar. ■ La enfermedad humana tiene factores causales y factores preventivos que pueden identificarse mediante una investigación sistemática de las diferentes poblaciones o subgrupos poblacionales en diversos lugares y momentos. Hennekens CH: Epidemiology in Medicine. Boston, Little, Brown & Company, 1987.
11. ¿Quién fue John Snow? Los epidemiólogos modernos consideran que John Snow fue, posiblemente, el mayor innovador en su campo. Detalló los hechos sobre las fuentes del agua potable, que relacionó con las tasas de mortalidad por cólera en Londres entre 1853 y 1854. Su trabajo consiguió establecer la demostración clásica del modo de transmisión del cólera mucho antes de que se identificase el agente causal: Vibrio cholerae. 12. Explique la utilidad de la epidemiología. La utilidad más importante de la epidemiología es mejorar nuestro conocimiento de la salud y de la enfermedad. El epidemiólogo Jeremy Morris definió cinco usos de la epidemiología: 1.• Estudio histórico: determinar si la salud de la comunidad mejora o empeora. 2.• Valoración de la comunidad: definir los problemas de salud reales y potenciales. 3.• Trabajo con los servicios sanitarios: mejorar la eficacia, efectividad y eficiencia. 4.• Riesgo y azar individual: determinar el riesgo real y las valoraciones de los riesgos sobre la salud, en relación con los individuos y las poblaciones (p. ej., ¿cuál es el riesgo de que un individuo fallezca antes de su próximo cumpleaños?). 5.• Completar el cuadro clínico: ofrecer diferentes presentaciones de una enfermedad. Morris JN: Uses of Epidemiology, 3rd ed. Edinburgh, Churchill-Livingstone, 1975.
13. Ilustre la secuencia epidemiológica. Una secuencia ordenada de hechos caracteriza la epidemiología. El mejor modo de explicarla es con un ejemplo, como el de la asociación entre el cáncer de pulmón y el consumo de cigarrillos: 1.• Observación: la observación científica sobre el tabaquismo y el cáncer aparecía en un número reducido de publicaciones bien conocidas alrededor de los años 1920-1930. 2.• Contar los casos o sucesos: las tendencias en las estadísticas vitales mostraban un aumento en las muertes causadas por el cáncer de pulmón en Estados Unidos.
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
3. Relacionar los casos o sucesos con la población en riesgo: se notificaban mayores tasas de mortalidad por cáncer de pulmón en las estadísticas vitales nacionales en países en los que el tabaquismo estaba establecido como un estilo de vida característico. 4.• Hacer comparaciones: los estudios sobre los médicos británicos en los años 1950-1960 proporcionaron las comparaciones definitivas entre el hábito de fumar y el cáncer de pulmón. 5. Desarrollar una hipótesis: dado que el humo de cigarrillo contiene más de 2.500 componentes químicos, algunos de ellos carcinógenos en animales, sólo era preciso un pequeño paso lógico para avanzar de la inferencia a la hipótesis. 6. Comprobar la hipótesis: los estudios epidemiológicos mostraban una relación sólida entre la incidencia actual de cáncer de pulmón y una historia previa de tabaquismo, con relación entre la dosis y la respuesta. 7. Realizar inferencias científicas: las observaciones llevaron a inferencias científicas válidas sobre la asociación entre el consumo de tabaco y el cáncer de pulmón. Éstas comprenden: 1) observaciones clínicas; 2) tendencias nacionales en la mortalidad en países con una elevada prevalencia de consumo de cigarrillos; 3) comparaciones epidemiológicas en grandes grupos representativos de diferentes segmentos de la población nacional en más de un país, y 4) efectos biológicos del humo del tabaco. Todas estas observaciones llevaron a la inferencia de que fumar aumentaba el riesgo de fallecer por cáncer de pulmón. 8. Realizar estudios experimentales: los estudios de laboratorio con animales mostraron que la exposición al humo del tabaco produce lesiones precancerosas, seguidas de carcinoma epidermoide, tanto en los animales como en los seres humanos. 9. Intervención y evaluación: la acción realizada por algunos organismos responsables de la salud pública redujo las tasas de consumo de cigarrillos. A esta reducción le siguió un declinar en las tendencias de mortalidad por causas relacionadas con el tabaquismo. Doll R, Hill AB: The mortality of doctors in relation to their smoking habits: A preliminary report. Br Med J 1:1451-1455, 1954.
14. ¿Qué significa el término epidemiología descriptiva? La epidemiología descriptiva se ocupa de la descripción de las características generales de la distribución de la enfermedad, sobre todo de la relación con la persona, el lugar y el tiempo. Los datos descriptivos proporcionan una información valiosa, lo que permite al personal sanitario y a los administradores la asignación de recursos de modo eficiente y la planificación de programas efectivos de prevención y educación. 15. Liste los tipos de estudios epidemiológicos descriptivos. ■ Estudios ecológicos (es decir, estudios de correlación): se emplean datos de poblaciones completas para comparar frecuencias de enfermedades entre grupos diferentes durante un mismo período de tiempo, o en una misma población en diferentes momentos. Estos estudios son útiles para la formulación de una hipótesis, pero no pueden emplearse para probar una hipótesis, debido a la limitación de su diseño. También, y dado que los estudios de correlación se refieren a poblaciones completas y no a individuos, no es posible asociar las exposiciones con la presencia de enfermedad en una misma persona. Ésta es una limitación importante de los estudios ecológicos. ■ Casos clínicos y series de casos: son el tipo más básico de los estudios descriptivos en individuos. Constan de una identificación detallada y descripción de un único individuo (en los casos clínicos) o de un grupo de sujetos (en las series de casos). No se consideran verdaderas investigaciones epidemiológicas. ■ Estudios transversales: es la investigación en la que se valora el estado de un individuo con respecto a la presencia o ausencia tanto de exposición como de enfermedad en un momen-
33
34
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
to concreto y determinado. Dado que la exposición y la enfermedad se valoran en este mismo momento, los estudios transversales no siempre pueden indicar si la exposición precedió al desarrollo de la enfermedad o viceversa. 16. Un estudio poblacional muestra que, en algunas partes de Irlanda, los distritos católicos tienen una tasa de suicidio significativamente mayor que los distritos protestantes. ¿Qué tipo de estudio descriptivo es éste? ¿Qué puede determinarse desde un punto de vista epidemiológico? Éste es un ejemplo de estudio ecológico o, en otras palabras, un estudio de correlación poblacional. Es el más débil de todos los estudios epidemiológicos. Dado que los estudios ecológicos comparan grupos en vez de individuos, se requiere una gran precaución para extraer conclusiones e identificar asociaciones. El riesgo inherente a la interpretación de estudios de este tipo se denomina falacia ecológica. 17. Explique la falacia ecológica. Es un error en la inferencia que se produce cuando se supone que existe a nivel individual una asociación observada en la población. Por ejemplo, el elevado número de suicidios en los distritos católicos puede estar causado por los protestantes que viven en tales distritos y cometen suicidio. A pesar de ello, los estudios ecológicos pueden ser útiles de algún modo, porque son rápidos y fáciles, emplean datos ya existentes, y pueden ayudar a formular hipótesis sobre las que pueden realizarse investigaciones futuras. 18. ¿Qué es la epidemiología analítica? La epidemiología analítica es el proceso de probar una hipótesis sobre una exposición potencial y un desenlace de interés. Se lleva a cabo un estudio para examinar la relación entre la exposición a un factor de riesgo y el desenlace, clásicamente una enfermedad. 19. Liste los tipos de estudios analíticos. Observacional y experimental. 20. Liste los tipos de estudios observacionales. Los estudios de casos y controles y los estudios de cohortes. También puede estar incluido o anidado un estudio de casos y controles en un estudio de cohortes particular, y en este caso se denomina estudio de casos y controles anidados (nested). 21. ¿Qué son los estudios experimentales? Los estudios experimentales son estudios clínicos que se observan bajo condiciones predeterminadas. En un estudio experimental, los sujetos quedan distribuidos en grupos, que se someten a exposiciones diferentes (clásicamente, distintas pautas de tratamiento) controladas por un investigador. Para evitar la introducción de sesgos, los grupos deben ser lo más similares posible en todas sus características, a excepción de la exposición. La aleatorización, o asignación aleatoria, es la técnica empleada para reducir al mínimo el sesgo. 22. ¿Qué es un estudio de casos y controles? Es un estudio epidemiológico en el que se compara la exposición entre los casos (es decir, individuos con enfermedad) y los controles (es decir, individuos sin enfermedad). Un estudio de casos y controles implica un grupo de personas con enfermedad y un grupo de «emparejamiento», que son similares en todos los aspectos a excepción de la enfermedad. Se lleva a cabo una evaluación retrospectiva para determinar quién estuvo expuesto y quién no lo estuvo.
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
PUNTOS CLAVE: PRINCIPIOS DE LA EPIDEMIOLOGÍA 1. La epidemiología es el estudio de la distribución y de los determinantes de la salud y la enfermedad en la población humana. Es la ciencia básica y práctica fundamental de la salud pública. 2. Los tipos de estudios epidemiológicos incluyen los estudios ecológicos, los estudios de casos y series de casos, los estudios transversales, los estudios de cohortes y los estudios de casos y controles. 3. Es preciso considerar el efecto de la distribución etaria diferencial en dos poblaciones comparables. Ajustando de este modo las tasas, se intenta comparar las tasas de enfermedad en varios grupos poblacionales o valorar cambios en las tasas con el tiempo. Hay dos métodos centrales de ajuste de tasas: directo e indirecto. 4. La tasa de mortalidad estandarizada (TME o SMR) puede controlar la mortalidad tiempo específica mediante la estandarización indirecta. 5. Al calcular la TME o SMR, las tasas específicas por edades procedentes de una población estándar (es decir, de una comarca, región o país) se multiplican por las unidades persona-años en riesgo en la población en estudio (p. ej., empleados en una industria), para proporcionar el número de fallecimientos esperado. Los números de fallecimientos observados divididos por el número esperado, multiplicado por 100, constituye la TME o SMR.
23. ¿Qué es un estudio de cohortes? Es un estudio en el que se sigue en el tiempo a un grupo expuesto y a otro grupo no expuesto, para determinar en cuál de ellos se desarrolla la enfermedad de interés. Un estudio de cohortes proporciona la evaluación más directa de los patrones de salud y enfermedad en una población. 24. ¿Cuáles son las ventajas y las desventajas de los distintos tipos de estudios epidemiológicos principales? Véase la Tabla 2-1. 25. Liste y explique los aspectos epidemiológicos principales que se deben considerar en un estudio epidemiológico. ■ Precisión: reducción en el error aleatorio, indicado por la varianza de una determinación y el intervalo de confianza asociado. ■ Validez: reducción del error sistemático o sesgo sistemático, indicado al comparar qué estima el estudio y qué pretendía estimar. ■ Sesgo de selección: cualquier sesgo introducido debido al modo como fueron seleccionados los participantes. ■ Sesgo de información: sesgo relacionado con los instrumentos y las técnicas empleados para recoger la información sobre la exposición, desenlaces o resultados de salud, y otros factores. ■ Sesgo de confusión: causado por no tener en cuenta el riesgo de otros factores relacionados con la exposición y el desenlace o resultado de salud. Un factor de confusión debe ser un factor de riesgo de la enfermedad, debe asociarse con la exposición y no debe ser una etapa intermedia en la vía causal entre la exposición y el desenlace de la enfermedad. Bowler RM, Cone JE: Occupational Medicine Secrets. Philadelphia, Hanley & Belfus, 1999.
35
36
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
TABLA 2-1.•VENTAJAS Y DESVENTAJAS DE LOS TIPOS PRINCIPALES DE ESTUDIOS EPIDEMIOLÓGICOS Diseño del estudio
Ventajas
Desventajas
Estudio ecológico
Rápido y fácil; aceptable para la génesis de hipótesis para estudios posteriores Barato y fácil; buenos para los acontecimientos muy infrecuentes Fija las bases para estudios futuros más potentes Barato, relativamente rápido, y fácil Bueno si la población es de difícil acceso o definición
Falacia ecológica (véase la pregunta 10). No observa individuos
Estudio de casos/ series de casos
Estudio transversal
Estudio de cohortes
Mide el riesgo
Estudio de casos y controles
Menos costoso y requiere períodos de tiempo más cortos; bueno para enfermedades infrecuentes
No es un verdadero estudio epidemiológico
Sesgo de selección: puede concentrarse sólo en la población superviviente debido a que los individuos enfermos hayan desaparecido Mide solamente la prevalencia Caro Se necesita un período de seguimiento largo; los individuos pueden perderse para el seguimiento Se requieren mayor número de individuos Sesgo de recuerdo: las personas con enfermedad pueden tender a recordar la exposición mejor que los controles
Adaptada de Bowler RM, Cone JE. Occupational Medicine Secrets. Philadelphia: Hanley & Belfus, 1999.
26. ¿Qué es una tasa? Es el número de veces que se produce un suceso concreto durante un período de tiempo también especificado, dividido por la población en riesgo durante dicho período. Por comodidad, las tasas se proporcionan con frecuencia por 1.000, por 10.000 o por 100.000 personas en riesgo. 27. ¿Cómo se calculan las principales medidas de mortalidad? Las medidas básicas de enfermedad en una población son las tasas de mortalidad y de morbilidad. A continuación, se exponen ejemplos de las tasas más habituales y el modo de calcularlas. Tasa de mortalidad bruta =
N.º de muertes en un año (todas las causas) ⫻ 1.000 Población total
(por ejemplo, tasa de mortalidad bruta en EE.UU. en 1977 = 8,8/1.000 personas)
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
Tasa de mortalidad específica por causa =
N.º de muertes por una o varias causas específicas ⫻ 100.000 Población total
(por ejemplo, muertes por cáncer en EE.UU. en 1977 = 178,7/100.000 personas) N.º de muertes entre personas de un grupo etario específico en un año concreto Tasa de muerte específica por edades = ⫻ 100.000 Población total en el grupo etario especificado (por ejemplo, tasa de muertes por cáncer en el grupo etario de 1-14 años = 4,9/100.000) N.º de muertes entre niños menores de 1 año de edad en un año concreto Tasa de mortalidad en menores de 1 año = N.º de nacimientos en dicho año concreto
⫻ 1.000
De Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program Office, 1992.
28. Indique algunas de las otras tasas que describen la morbilidad y la mortalidad. Las Tablas 2-2 y 2-3 ilustran varias tasas empleadas para examinar las características de salud de una población. 29. ¿Qué es la incidencia? La incidencia es el número de casos nuevos de una enfermedad concreta en un momento especificado, dividido por la población en riesgo de dicha enfermedad en el mismo período de tiempo. 30. ¿Qué es la prevalencia? La prevalencia es el número de casos existentes de una enfermedad dada, en un momento especificado, dividido por la población en riesgo de dicha enfermedad en el mismo período de tiempo. 31. ¿Cómo se relacionan la incidencia y la prevalencia? Una fórmula útil para estimar la prevalencia de una afección o enfermedad específica es: Prevalencia = incidencia ⫻ promedio de la duración de la afección o enfermedad Esta fórmula es útil únicamente para realizar una estimación, y es más exacta a medida que aumenta la duración promedio de la afección o enfermedad, como sucede en las enfermedades crónicas. 32. ¿Qué son las estadísticas vitales? Las estadísticas vitales son estadísticas que enumeran los nacimientos, muertes, muertes fetales, matrimonios y divorcios. El registro de muchos de estos sucesos es obligatorio por ley en Estados Unidos. Los distintos estados son responsables de la recogida de información y de remitirla al National Center for Health Statistics.
37
38
Medida
Numerador (x)
Denominador (y)
Expresada por el N.º en riesgo (10n)
Tasa de incidencia
N.º de nuevos casos de una enfermedad especificada notificada durante un intervalo de tiempo dado N.º de nuevos casos de una enfermedad especificada notificados durante un período epidémico N.º de nuevos casos de una enfermedad especificada entre contactos de casos conocidos N.º de casos actuales, nuevos y antiguos, de una enfermedad especificada, en un momento determinado N.º de casos actuales, nuevos y antiguos, de una enfermedad especificada, identificados durante un intervalo de tiempo determinado
Población promedio durante el mismo intervalo de tiempo Población al comienzo del período epidémico
Varía: 10n en que n = 2, 3, 4, 5, 6 Varía: 10n en que n = 2, 3, 4, 5, 6
Tamaño de la población de contactos en riesgo
Varía: 10n en que n = 2, 3, 4, 5, 6
Población estimada en el mismo momento
Varía: 10n en que n = 2, 3, 4, 5, 6
Población estimada en la mitad del intervalo de tiempo
Varía: 10n en que n = 2, 3, 4, 5, 6
Tasa de ataque Tasa de ataque secundario Prevalencia puntual
Prevalencia en un período
De Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program Office, 1992.
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
TABLA 2-2. MEDIDAS DE MORBILIDAD EMPLEADAS CON FRECUENCIA
TABLA 2-3. OTRAS MEDIDAS DE MORTALIDAD Numerador (x)
Denominador (y)
Mortalidad proporcional
N.º de muertes atribuidas a una causa específica durante un intervalo de tiempo determinado N.º de muertes atribuidas a una causa específica durante un intervalo de tiempo determinado
N.º total de muertes por todas las causas durante el mismo intervalo de tiempo N.º de casos nuevos de dicha enfermedad notificados durante el mismo período de tiempo N.º de nacidos vivos durante el mismo intervalo de tiempo N.º de nacidos vivos durante el mismo intervalo de tiempo
Cociente muertes/casos
Tasa de mortalidad neonatal Tasa de mortalidad posneonatal Tasa de mortalidad materna
N.º de muertes registradas antes de los 28 días de vida durante un intervalo de tiempo determinado N.º de muertes a partir de los 28 días de vida hasta (pero sin incluir), 1 año de vida durante un intervalo de tiempo determinado N.º de muertes atribuidas a las causas relacionadas con el embarazo durante un intervalo de tiempo determinado
N.º de nacidos vivos durante el mismo intervalo de tiempo
Expresada por el N.º en riesgo (10n) 100 o 1.000 100
1.000 1.000
100.000
Adaptada de Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program Office, 1992.
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
Medida
39
40
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
33. ¿Cuáles son algunos de los problemas relacionados con la recogida de datos en los certificados de defunción? El único registro realmente completo en relación con todas las posibles causas de enfermedad es el relacionado con la defunción. Sin embargo, la causa de muerte consignada en los certificados de defunción es, con frecuencia, inexacta. Además, en relación con una enfermedad en la que el cociente número de casos/número de muertes es bajo (es decir, una enfermedad que cuando se produce improbablemente lleve a la muerte) la tasa de mortalidad es claramente una infravaloración inexacta de la incidencia de la afección en la comunidad. Un ejemplo de ello es el cáncer de piel distinto al melanoma. 34. ¿Cuál es el principal problema con la notificación de la morbilidad? Los informes de morbilidad, aun cuando son obligatorios por ley, como sucede en el caso de ciertas enfermedades infecciosas (p. ej., tuberculosis y algunas enfermedades de transmisión sexual), dan lugar con frecuencia a una infranotificación importante. 35. ¿Qué son las tasas brutas? Las tasas brutas son las que se aplican a una población en su totalidad, sin tener en consideración especial ninguna de las características de los individuos de dicha población (p. ej., la edad). Para realizar comparaciones significativas entre poblaciones, se han de ajustar estas tasas. 36. ¿Qué quiere decir ajuste de tasas? Es preciso considerar el efecto de la distribución etaria diferencial en dos poblaciones comparables. Ajustando así las tasas, se intenta comparar las tasas de enfermedad en los grupos poblacionales o valorar los cambios de las tasas en el tiempo. Hay dos métodos centrales de ajuste de tasas: el directo y el indirecto. 37. ¿Cuál es el método directo de ajuste de tasas? El método directo aplica las tasas específicas por edades observadas a una población estándar. Este método es apropiado cuando cada una de las poblaciones que se comparan es lo suficientemente grande para proporcionar unas tasas específicas por edades estables. Por ejemplo, se utiliza el método directo para la comparación de las tasas de cáncer en el tiempo. Las tasas de mortalidad brutas muestran un aumento espectacular del cáncer en las pasadas décadas, y parecería que proporciona datos sólidos sugestivos sobre una epidemia de cáncer. Sin embargo, hay que asegurar hasta qué punto el envejecimiento de la población del país ha contribuido a la epidemia aparente, y hasta qué punto otros factores, como un aumento de los agentes cancerígenos en el ambiente, podrían ser responsables. La Tabla 2-4 muestra un ejemplo del cálculo de una estandarización directa de unas tasas de mortalidad brutas ficticias. LaDou J: Occupational and Environmental Medicine. 2nd ed. Stamford, CT: Appleton & Lange, 1997.
38. ¿Cuál es el método indirecto de ajuste de tasas? El método indirecto aplica las tasas específicas por edades de una población estándar a la distribución etaria de una población observada. Para eliminar el efecto variable de la edad por el empleo del método de ajuste directo, se elige una población estándar. A continuación, se multiplica el número de personas de cada grupo de edad de la población estándar por la tasa específica por edades apropiada en cada una de las poblaciones del estudio. Este proceso genera el número de muertes esperado en cada grupo de edad; se divide la suma por el total de la población estándar; a continuación, se multiplica el resultado por 100.000. La Tabla 2-5 muestra un ejemplo del cálculo de una estandarización indirecta de unas tasas de mortalidad brutas ficticias.
TABLA 2-4.•ESTANDARIZACIÓN DIRECTA DE LAS TASAS DE MORTALIDAD BRUTAS DE DOS POBLACIONES, EMPLEANDO LOS PESOS RELATIVOS MEDIOS COMO POBLACIÓN ESTÁNDAR (DATOS FICTICIOS) Parte 1. Cálculo de las tasas de mortalidad brutas Población A
Grupo de edad Jóvenes Mediana edad Mayores Total Tasa de mortalidad bruta
Tamaño poblacional 1.000 5.000 4.000 10.000
Tasa de mortalidad específica por edad ⫻ ⫻ ⫻
0,001 0,010 0,100
= = =
Número esperado de muertes
Tamaño poblacional
1 50 400 451
4.000 5.000 1.000 10.000
Población B Tasa de mortalidad específica por edades ⫻ ⫻ ⫻
451/10.000 = 4,51%
0,002 0,020 0,200
Número esperado de muertes = = =
8 100 200 308
308/10.000 = 3,08%
Parte 2. Estandarización directa de las tasas de mortalidad brutas anteriores, empleando las dos poblaciones combinadas para formar los pesos estándares o de referencia
Grupo de edad
Tamaño poblacional
Jóvenes 5.000 Mediana edad 10.000 Mayores 5.000 Total 20.000 Tasa de mortalidad estandarizada
Tasa de mortalidad específica por edad ⫻ ⫻ ⫻
0,001 0,010 0,100
= = =
Número esperado de muertes
Tamaño poblacional
5 100 500 605
5.000 10.000 5.000 20.000
605/20.000 = 3,03%
De Jekel JF, Katz DL, Elmore JG. Epidemiology, Biostatistics and Preventive Medicine, 2nd ed. Philadelphia: W.B. Saunders, 2001, p 33.
Poblacional B Tasa de mortalidad específica por edades ⫻ ⫻ ⫻
0,002 0,020 0,200 1.210/20.000 = 6,05%
Número esperado de muertes = = =
10 200 1.000 1.210
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
Población A
41
42
Parte 1. Datos de inicio Varones en la población estándar
Grupo de edad
Proporción de la población estándar
Jóvenes 0,40 Mediana edad 0,30 Mayores 0,30 Total 1,00 Tasa de mortalidad observada
Tasa de mortalidad específica por edades ⫻ ⫻ ⫻
0,0001 0,0010 0,0100
= = =
Varones en la empresa Tasa de mortalidad observada
Número de trabajadores
0,00004 0,00030 0,00300 0,00334
2.000 3.000 5.000 10.000
Número de muertes observadas
Tasa de mortalidad específica por edades ⫻ ⫻ ⫻
0,00334 o 334/100.000
? ? ?
= = =
? ? ? 48
48/10.000 o 480/100.000
Parte 2. Cálculo de la tasa de mortalidad esperada, con empleo de la estandarización indirecta de las tasas arriba indicadas, y con aplicación de las tasas de mortalidad específicas por edades a partir de la población estándar al número de trabajadores de la empresa Varones en la población estándar Varones en la empresa
Grupo de edad
Proporción de la población estándar
Jóvenes 0,40 Mediana edad 0,30 Mayores 0,30 Total 1,00 Tasa de mortalidad esperada
Tasa de mortalidad específica por edades ⫻ ⫻ ⫻
0,0001 0,0010 0,0100
= = =
Tasa de mortalidad observada
Número de trabajadores
0,00004 0,00030 0,00300 0,00334
2.000 3.000 5.000 10.000
Número de muertes esperadas
Tasa de mortalidad estándar ⫻ ⫻ ⫻
0,0001 0,0010 0,0100
= = =
0,2 3,0 50,0 53,2
53,2/10.000 o 532/100.000 (Continúa)
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
TABLA 2-5.•ESTANDARIZACIÓN INDIRECTA DE LA TASA DE MORTALIDAD BRUTA EN VARONES EN UNA EMPRESA, MEDIANTE EL EMPLEO DE TASAS DE MORTALIDAD ESPECÍFICA POR EDAD, EN RELACIÓN CON LOS VARONES DE UNA POBLACIÓN ESTÁNDAR (DATOS FICTICIOS)
TABLA 2-5.• ESTANDARIZACIÓN INDIRECTA DE LA TASA DE MORTALIDAD BRUTA EN VARONES EN UNA EMPRESA, MEDIANTE EL EMPLEO DE TASAS DE MORTALIDAD ESPECÍFICA POR EDAD, EN RELACIÓN CON LOS VARONES DE UNA POBLACIÓN ESTÁNDAR (DATOS FICTICIOS) ( Cont. ) Parte 3 Cálculo de la tasa de mortalidad estandarizada (TME o SMR) Tasa de mortalidad observada en los varones de la empresa TME o SMR = Tasa de mortalidad esperada en los varones de la compañía 0,00480 0,00532
⫻ 100
= (0,90)(100) = 90 = Los varones de la empresa tuvieron realmente una tasa de mortalidad de sólo el 90% del valor esperado atendiendo a las tasas de mortalidad en la población estándar. De Jekel JF, Katz DL, Elmore JG. Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia: W.B. Saunders, 2001, p 34.
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
=
⫻ 100
43
44
INTRODUCCIÓN A LOS PRINCIPIOS EPIDEMIOLÓGICOS
39. ¿Cuándo es más útil emplear el método indirecto de estandarización? Cuando el grupo en estudio es relativamente pequeño y probablemente tenga unas tasas específicas por edad inestables, resulta más apropiado emplear el método indirecto en vez del método directo de estandarización. 40. ¿Qué método de estandarización tiene mayor probabilidad de utilizarse cuando se investigan los fallecimientos específicos por causas concretas? Se utiliza con mayor frecuencia el método indirecto en el análisis de la mortalidad específica por una causa concreta en una cohorte. El método indirecto se emplea con frecuencia para comparar la incidencia de enfermedad o los resultados obtenidos en el seguimiento de un grupo de estudio con la incidencia esperada, a tenor de la experiencia de una población mayor. Con el método indirecto, las tasas específicas por edades en relación con una población estándar se multiplican por las unidades persona-años en riesgo, en cada grupo en las series del estudio. A continuación, se compara el número de muertes observadas con el número esperado, mediante un simple cociente. 41. ¿Cuál es el cociente o tasa de mortalidad estandarizada (TME o SMR)? La TME o SMR es un ejemplo de estandarización indirecta. Al calcular la TME o SMR se multiplican las tasas específicas por edades a partir de una población estándar (p. ej., comarca, región o país) por el número de personas en riesgo en una población en estudio(p. ej., empleados de una industria) para obtener el número esperado de muertes. El número de muertes observadas dividido por el número de muertes esperadas, multiplicado por 100, es la TME o SMR. Una TME o SMR puede servir para controlar también la mortalidad específica por tiempo mediante la estandarización indirecta.
PÁGINAS WEB 1. http://www.acepidemiology.org 2. http://www.apha.org/public–health/epidemiology.htm
BIBLIOGRAFÍA 1.• Bowler RM, Cone JE: Occupational Medicine Secrets. Philadelphia, Hanley & Belfus, 1999. 2.• Doll R, Hill AB: The mortality of doctors in relation to their smoking habits: A preliminary report. Br Med J 1:1451–1455, 1954. 3.• Hennekens CH: Epidemiology in Medicine. Boston, Little Brown & Company, 1987. 4.• LaDou J: Occupational and Environmental Medicine, 2nd ed. Stamford, CT; Appleton & Lange, 1997. 5.• Morris JN: Uses of Epidemiology, 3rd ed. Edinburgh, Churchill-Livingstone, 1975. 6.• Wallace RB: Maxcy-Rosenau-Last’s Public Health and Preventive Medicine, 14th ed. Stamford, CT, Appleton & Lange, 1998.
Mark Glover, BA, BM, BCh
CAPÍTULO 3
DETERMINACIÓN DEL RIESGO NOTACIÓN UTILIZADA EN ESTE CAPÍTULO Se pueden clasificar las observaciones en un estudio de cohortes controlado del siguiente modo: Factor de riesgo presente: población en estudio Factor de riesgo ausente: población control Positivo en relación con el desenlace de interés: por ejemplo, enfermedad Negativo en relación con el desenlace de interés: por ejemplo, ausencia de enfermedad La tabla inferior se denomina como tabla de 2 2 o tabla de contingencia. Es un método habitual para resumir los hallazgos de la investigación, en la que las categorías numéricas, representadas por a, b, c y d, reflejan la distribución de las observaciones en cada categoría.
Enfermedad Ausencia de enfermedad
Estudio
Control
a c
b d
Se puede añadir una fila o columna con el total, como se indica a continuación, para simplificar los cálculos:
Enfermedad Ausencia de enfermedad Total
Estudio
Control
a c ac
b d bd
Con el empleo de esta anotación, se verá más adelante que se cumplen los enunciados siguientes: Riesgo absoluto en la población en estudio (Rs) = a/(a c) ■ Riesgo absoluto en la población control (R ) = b/(b d) c ■ Riesgo relativo (RR) = R /R s c ■
45
46
DETERMINACIÓN DEL RIESGO
1. ¿Qué es el riesgo? En el lenguaje corriente, la palabra riesgo tiene muchos significados estrechamente relacionados que, con frecuencia, se asocian con malos resultados. En términos de estadística y epidemiología, riesgo es sencillamente una expresión de probabilidad. Suele significar, pero no de modo invariable, la probabilidad de un suceso adverso, como una enfermedad, lesión o muerte. En ocasiones, la naturaleza del riesgo depende de la perspectiva del observador. Por ejemplo, hay riesgo de que usted pierda dinero (suceso adverso) si compra un número de lotería; pero, si usted no gana, los organizadores de la lotería se benefician (suceso beneficioso). 2. ¿Qué es el riesgo absoluto? El riesgo absoluto de un suceso es la probabilidad de que éste se produzca. La siguiente fracción muestra los dos datos requeridos para calcular el riesgo absoluto: número de observaciones en las que el suceso de interés está presente número total de observaciones Si a indica el número total de observaciones en las que se observa el suceso de interés, y c denota el número total de observaciones en las que no se observa el suceso de interés, el número total de observaciones es a + c, y el riesgo absoluto de que se produzca el suceso de interés se expresa de la siguiente manera: a a+c 3. ¿Qué valores puede adoptar el riesgo absoluto? Dado que es una expresión de probabilidad, un riesgo puede adoptar cualquier valor comprendiendo entre 0 y 1. En algunos casos, el riesgo puede expresarse como porcentaje, con valores entre 0 y 100%. Cuando el valor es muy pequeño, el riesgo se puede expresar como sucesos de interés entre un mayor número de observaciones (p. ej., 2,75 muertes por cada 100.000 personas). 4. ¿Qué sucede si no es posible recoger toda la observación relevante? Rara vez es posible incluir todas las observaciones relevantes en un estudio. Sin embargo, si se extrae de modo aleatorio una proporción de todas las observaciones posibles, y hay a observaciones en las que se observa el suceso de interés y c observaciones en las que no se observa dicho suceso de interés, se puede calcular el riesgo absoluto a partir de la fracción: a a+c De modo que, en la medida en que las observaciones registradas sean una representación proporcional de todas las observaciones relevantes posibles, puede calcularse correctamente el riesgo a partir de una muestra de la población total. 5.
¿Es útil la información extraída a partir de una muestra de una población determinada? Mucho, siempre que la muestra sea verdaderamente representativa de la población que se intenta caracterizar. Por ejemplo, suponiendo que en Estados Unidos haya 150.000 accidentes cerebrovasculares mortales y 450.000 accidentes cerebrovasculares no mortales anualmente, el riesgo de que el accidente cerebrovascular sea mortal en Estados Unidos cada año se expresa del modo siguiente: 150.000/(150.000 + 450.000) = 150.000/600.000 = 0,25
DETERMINACIÓN DEL RIESGO
Si una de cada 1.000 víctimas de accidente cerebrovascular en Estados Unidos fuera seleccionada de modo aleatorio para incluirla en un estudio de 1 año de duración, se recogerían 600 casos. Si dichos casos fuesen una representación proporcional de todos los individuos que padecen un accidente cerebrovascular en Estados Unidos, 150 fallecerían y 450 sobrevivirían. El riesgo de que un accidente cerebrovascular sea mortal, calculado a partir de las observaciones recogidas, es: 150/(150 + 450) = 150/600 = 0,25 Este riesgo es el mismo que el calculado a partir de la población total de pacientes de accidente cerebrovascular. 6. ¿Cuál es la diferencia entre un riesgo y una tasa o índice? Las convenciones de terminología no son totalmente consistentes en la literatura científica, pero, hablando en sentido estricto, el denominador de una tasa incluye unidades de tiempo. Por ejemplo, 25 muertes por 100.000 personas por año. El denominador de un riesgo no incluye el tiempo; por ejemplo, 2,6 muertes por cada 100 intervenciones quirúrgicas a corazón abierto. 7. ¿Qué diferencia hay entre el riesgo de incidencia y la tasa de incidencia? Ésta es otra convención epidemiológica que puede causar confusión. La incidencia es una medida de cuántos casos de interés se producen en una población en el tiempo, clásicamente, de un año. El riesgo de incidencia es un riesgo absoluto, calculado al dividir el número de nuevos casos que se producen en un año por el número de personas libres de enfermedad al comienzo del año. La tasa de incidencia es una expresión del número de nuevos casos que se producen en un año, dividido por el promedio de personas libres de enfermedad durante el año. 8. Cite ejemplos del modo de determinar el riesgo de incidencia y la tasa de incidencia. Tomemos un ejemplo especial de una población de 1.000 personas con una enfermedad grave que causa la muerte a 720 de ellas en un año. El riesgo de incidencia de mortalidad en dicha población será de 720/1.000 = 0,72/año. El método más sencillo para calcular la media de personas libres de enfermedad en el año es calcular la media de personas libres de enfermedad al inicio (1.000) y al final del año (1.000 – 720 = 280). En este caso, el promedio es (1.000 + 280)/2 = 1.280/2 = 640. La tasa de incidencia de mortalidad en dicha población es 720/640 = 1,125. En consecuencia, a diferencia de un riesgo, la tasa de incidencia puede exceder la unidad en algunas circunstancias. Un modo alternativo de describir el denominador para la tasa de incidencia es el tiempo medio que una persona tendrá que esperar antes de padecer la enfermedad. 9. ¿Qué efecto significativo tienen estas diferencias sobre los resultados del estudio? La diferencia entre los valores calculados en relación con el riesgo y la tasa de incidencia es mínima en la mayoría de los casos. Los factores responsables de este hecho son dos: ■ La mayoría de enfermedades afecta a proporciones muy pequeñas de una población, y unos pocos individuos abandonarán el grupo de riesgo. ■ El denominador de la tasa suele permanecer estable a medida que nuevas personas en riesgo sustituyen a las que abandonan el grupo. Por ejemplo, una población permanece moderadamente estable si los nacimientos equilibran aproximadamente las muertes. 10. ¿Qué se entiende por valores altos y bajos del riesgo absoluto? No existe un estándar. Un valor de riesgo absoluto aislado no dice si éste es alto o bajo. El único modo de poder decirlo, empleando el riesgo absoluto, es comparar los hallazgos en dos o más conjuntos de observaciones.
47
48
DETERMINACIÓN DEL RIESGO
11. Proporcione un ejemplo del modo de determinar valores altos y bajos del riesgo absoluto. ¿Cómo se comparó el riesgo de divorcio en el Reino Unido con el de Grecia en el año 2002? Las estadísticas gubernamentales muestran que el riesgo de divorcio en Grecia en el año 2002 fue de 1,1 por 1.000 personas, mientras que el riesgo de divorcio en el Reino Unido en el año 2002 fue de 2,7 por 1.000 personas. El riesgo de divorcio fue claramente superior en el Reino Unido con respecto a Grecia. La conclusión es directa en este caso porque tales cifras suelen derivarse a partir de registros nacionales mantenidos en un organismo centralizado que abarca a la totalidad de la población. Si se hubiese tomado una muestra de cada población nacional, habrían sido necesarias pruebas estadísticas para establecer que las diferencias de los riesgos observados eran significativas. 12. ¿En qué difiere un riesgo comparativo de un riesgo absoluto? El riesgo absoluto, cuando se cita de modo aislado, no proporciona información alguna de si es alto o bajo. Igualmente, tampoco es posible calcular el riesgo absoluto a partir de todos los posibles diseños de los estudios. Por el contrario, las medidas de riesgo comparativo permiten producir resultados que pueden comparar el riesgo en poblaciones diferentes y, por ello, proporcionan cierta idea de la magnitud relativa de los riesgos. Estas medidas pueden calcularse a partir de una gama más amplia de estudios. Los métodos que se suelen utilizar habitualmente para describir el riesgo comparativo son el riesgo relativo, la oportunidad relativa y el riesgo atribuible. 13. ¿Cuál es el mejor método para medir el riesgo comparativo? No existe un solo método que proporcione una descripción perfecta si se emplea de modo aislado. Aún peor, pueden utilizarse las cifras para dar una impresión muy distorsionada de la realidad. Como resultado, dos de los desafíos mayores a los que se enfrentan los profesionales sanitarios son la interpretación correcta de los resultados y la explicación de un riesgo específico a una persona normal de tal modo que sea relevante para dicho individuo y comunique adecuadamente su verdadera magnitud. Diferentes medidas se adaptan mejor a usos específicos. 14. ¿Con qué comparan el riesgo las medidas del riesgo comparativo? Pueden compararse los riesgos entre dos grupos. Muchos proyectos de investigación comparan observaciones de uno o más grupos que se están estudiando, con observaciones en un grupo control. Los grupos de estudio tienen unas características unificadoras inherentes o adquiridas, con frecuencia denominadas factores de riesgo. Se elige el grupo control a partir de un grupo en el que el factor de riesgo está ausente. Mediante la comparación puede valorarse el efecto del riesgo sobre el desenlace. 15. ¿Qué forma adoptan los factores de riesgo? Los factores de riesgo pueden adoptar muchas formas, incluidas formas hereditarias, ambientales y las relacionadas con el estilo de vida. Entre los ejemplos de factores de riesgo figuran los siguientes: ■ Defecto genético importante, tanto de morfología como de función fisiológica; por ejemplo, la presión arterial. ■ Exposiciones a agentes infecciosos o ambientales. ■ Exposición a sustancias tóxicas o fármacos. 16. ¿Qué es el riesgo relativo? El riesgo relativo (RR), o razón o cociente de riesgos, es una medida del riesgo absoluto en una población, como proporción del riesgo absoluto en otra población. Generalmente, pero no de
DETERMINACIÓN DEL RIESGO
modo invariable, el riesgo más elevado se coloca en el numerador. Dado que el grupo control tiene con frecuencia un riesgo más bajo, el riesgo relativo suele expresarse así: Rs/Rc Los investigadores que buscan la magnitud de una asociación entre un factor de riesgo y un desenlace de interés defienden la importancia de la medición del riesgo relativo. En algunos casos, sin embargo, el riesgo relativo puede inducir a errores. 17. ¿De qué modo puede producir errores la mediación de los riesgos relativos? Con el empleo de la fórmula arriba expresada, si existe una enfermedad infrecuente con un riesgo absoluto de 1 por cada 10 millones de personas por año, y se observa que un aditivo alimentario aumenta el riesgo absoluto hasta 5 por cada 10 millones de personas por año, el riesgo relativo de los que consumen el aditivo sería 5. Si existe una enfermedad más frecuente pero igualmente grave con un riesgo absoluto de 1 por cada 10.000 personas por año y se observa que un fármaco aumenta el riesgo absoluto a 1,2 por cada 10.000 personas por año, el riesgo relativo de los que toman el fármaco es de 1,2. El hecho de conocer que el aditivo aumenta el riesgo de una enfermedad en cinco veces y que el fármaco aumenta el riesgo de una enfermedad en 1,2 podría llevar a la conclusión de que se obtendrían mayores beneficios si se evitase el mencionado aditivo. 18. Parece que el ejemplo anterior no conduce a error. ¿Por qué? Primero, examinemos el beneficio obtenido al eliminar el aditivo alimentario ya que se ha demostrado que tiene un mayor riesgo relativo que el fármaco. Esta eliminación comportaría 4 casos menos de enfermedad en una población de 1 millón de habitantes. Sin embargo, a pesar de su riesgo relativo menor, evitar el fármaco comportaría 20 casos menos en una población de 1 millón de habitantes (1,2 casos por cada 10.000 – 1 casos por 10.000 = 0,2 casos en 10.000 = 20 casos en 1 millón). La diferencia en el riesgo basal entre las dos enfermedades puede tener un gran efecto. Con frecuencia, es preferible calcular el cambio real esperado según el número bruto de casos. 19. ¿Qué es la oportunidad o posibilidad (odds)? La probabilidad de que se produzca un suceso expresada como una proporción sobre la probabilidad de que éste no se produzca se conoce como la posibilidad de un suceso. La probabilidad de un suceso en un estudio se denota como Rs y, dado que la suma de todas las probabilidades ha de ser igual a la unidad, la probabilidad de que no se produzca el suceso es 1 – Rs. Para calcular la posibilidad, se divide la probabilidad de que se produzca el suceso por la probabilidad de que éste no se produzca. Por ello, la posibilidad de que se produzca el suceso en la población del estudio puede expresarse del modo siguiente: Rs/(1 – Rs). 20. Proporcione un ejemplo de cómo se utiliza la posibilidad. Cada vez que se echa un dado sin defectos, la probabilidad de que salga un 1 es 1 de cada 6, y la probabilidad de sacar un número distinto al 1 es 5 de cada 6. La posibilidad de que salga un 1 es 1/6 dividido por 5/6 = 1/5 = 0,2. 21. Defina la posibilidad relativa (odds ratio). La posibilidad relativa (odds ratio), o cociente de productos cruzados, es la oportunidad de que se produzca un suceso de interés en la población objeto de estudio, expresada como una proporción de la posibilidad de que se produzca el mismo suceso en una población control. Este cociente puede expresarse del siguiente modo:
49
50
DETERMINACIÓN DEL RIESGO
[Rs/(1 – Rs)]/[Rc/(1 – Rc)] = [Rs (1 – Rc)]/[Rc (1 – Rs)] 22. Parece confuso. ¿Existe un modo más fácil de calcular la posibilidad relativa? Sí. Afortunadamente, también pueden utilizarse las cifras absolutas. Remitiéndonos a la tabla genérica de 2 2, la posibilidad de un desenlace positivo en la población de estudio sería a/c, y la posibilidad de un desenlace positivo en la población control sería b/d. Así, la posibilidad relativa sería la siguiente: (a/c)/(b/d) = ad/bc 23. ¿Por qué es clásicamente imposible calcular el riesgo relativo a partir de un estudio de casos y controles? Un estudio de casos y controles implica la selección de un grupo con la enfermedad (u otro desenlace de interés) y un grupo sin la enfermedad. A continuación, se determina el número de individuos con el factor de riesgo en investigación en cada grupo. Recuerde que sólo se puede calcularse el riesgo a partir de una muestra si refleja las proporciones en la totalidad de la población. 24. ¿Es posible calcular el riesgo relativo a partir de un estudio de casos y controles? Es posible calcular los riesgos a partir de un estudio de casos y controles en sólo una de las siguientes circunstancias improbables: ■ Si el estudio incluye todos los miembros posibles de las poblaciones apropiadas. ■ Si las cifras de los individuos en los grupos de muestras con y sin los factores de riesgo se hallan presentes en las mismas proporciones que en la población de la que proceden. 25. ¿Por qué es infrecuente calcular la probabilidad de tener un factor de riesgo en presencia o ausencia de la enfermedad a partir de los resultados de un estudio de casos y controles? No hay más que una relación muy laxa entre el riesgo de enfermedad en presencia o ausencia de un factor de riesgo y la probabilidad de tener dicho factor de riesgo en presencia o ausencia de la misma enfermedad. Esta información sería de interés solamente académico y de nulo empleo predictivo. 26. Facilite un ejemplo del problema anterior. Se ha demostrado que los pulmones pequeños con baja capacidad vital forzada (FVC) se asocian con barotraumatismo pulmonar (PBT) durante los ascensos de entrenamiento de escape de submarinos presurizados. En la siguiente tabla se muestran algunos registros ficticios obtenidos en un centro de entrenamiento de escape submarino:
PBT Sin PBT Total
Baja FVC
FVC normal o mayor
Total
39 7.547 7.586
83 240.168 240.251
122 247.715 247.837
Dado que está registrada la totalidad de la población, se pueden calcular los riesgos. El riesgo de PBT con una FVC baja es 39/7.586 = 5,1 por cada 1.000 ascensos. La probabilidad de una
DETERMINACIÓN DEL RIESGO
FVC baja en presencia de PBT es mucho mayor a 39/122 = 0,47 y, claramente no resulta una buena medida del riesgo de cada ascensión emprendida. 27. ¿Qué medida puede emplearse para obtener una información predictiva clínicamente útil a partir de un estudio de casos y controles? Puede emplearse la posibilidad relativa para ilustrar la fuerza de la asociación entre un factor de riesgo y el desenlace, tanto en estudios de cohortes como de casos y controles. Una propiedad matemática inherente a la posibilidad relativa que la hace particularmente útil en los estudios de casos y controles es que la oportunidad relativa no requiere la presencia de factores de riesgo en las mismas proporciones que en la población de la que se extrajeron las muestras. Además, la oportunidad relativa posee simetría, de modo que: posibilidad de enfermedad con un factor de riesgo presente posibilidad de enfermedad cuando falta un factor de riesgo
es igual a: posibilidad de un factor de riesgo en los afectados por la enfermedad posibilidad de un factor de riesgo en los que no tienen la enfermedad Como consecuencia, la posibilidad relativa proporciona una medida sólida y significativa de la relación entre el factor de riesgo y la enfermedad, sea cual sea el modo de calcularla. Igualmente, si el desenlace de interés se produce de modo infrecuente, la posibilidad relativa está muy próxima al riesgo relativo. 28. Proporcione un ejemplo de la simetría de las posibilidades relativas. Para este ejemplo se utiliza la tabla genérica de 2 2 indicada al comienzo del capítulo. Se ha visto anteriormente que la posibilidad relativa de enfermedad en presencia de un factor de riesgo viene dada por (a/c)/(b/d) = ad/bc. Al retitular la tabla genérica de 2 2 para representar los hallazgos de un estudio de casos y controles, en la que las cifras fueran divididas entre el desenlace y el factor de riesgo en las mismas proporciones que antes, se obtiene lo siguiente:
Grupo de estudio (anteriormente, enfermedad) Grupo control (anteriormente, sin enfermedad)
Factor de riesgo presente
Factor de riesgo ausente
a
b
c
d
La posibilidad de un factor de riesgo en presencia de la enfermedad es igual a a/b. La posibilidad de un factor de riesgo en ausencia de la enfermedad es igual a c/d: la posibilidad relativa es (a/b)/(c/d) = ad/bc, igual que la posibilidad relativa calculada al emplear la posibilidad de la enfermedad. 29. Proporcione un ejemplo de las circunstancias necesarias para que la posibilidad relativa se aproxime mucho al riesgo relativo. El riesgo relativo en un estudio de cohortes viene dado por la expresión Rc/Rs. En términos de cifras absolutas a partir de la tabla genérica de 2 2, el riesgo relativo es igual a:
51
52
DETERMINACIÓN DEL RIESGO
[a/(a + c)]/[b/(b + d)]. A medida que el desenlace de interés se vuelve más infrecuente, tanto a como b tienden a cero, y el riesgo relativo tiende a: [a/(0 + c)]/[b/(0 + d)] = (a/c)/(b/d) = ad/bc que es igual que la posibilidad relativa. De modo que si una enfermedad es infrecuente, la posibilidad relativa proporciona un cálculo muy próximo al riesgo relativo. 30. Aplique la posibilidad relativa al ejemplo del tanque de entrenamiento de escape submarino. Repetimos los resultados obtenidos en el ejemplo del tanque de entrenamiento de escape submarino:
PBT Sin PBT Total
Baja FVC
FVC normal o elevada
Total
39 7.547 7.586
83 240.168 240.251
122 247.715 247.837
El riesgo de PBT con FVC baja (Rs) es a/(a + c) = 39/7.586 = 5,1 por cada 1.000 El riesgo de PBT con FVC normal o elevada (Rc) es b/(b + d) = 83/240.251 = 3,5 por cada 10.000 El riesgo relativo (RR) es Rs/Rc = 5,1 10-3/3,5 10-4 = 14,9 La posibilidad de PBT con FVC baja es a/c = 39/7.547 = 5,2 10-3 La posibilidad de PBT con FVC normal o elevada es b/d = 83/240.168 = 3,5 10-4 Esto da una posibilidad relativa de (5,2 10-3)/(3,5 10-4) = 15 La posibilidad de una FVC baja con PBT es a/b = 39/83 = 0,47 La posibilidad de una FVC baja sin PBT es c/d = 7.547/240.168 = 0,031 Esto proporciona una posibilidad relativa de 0,47/0,031 = 15 Obsérvese que la posibilidad relativa es idéntica, no importa cómo se calcule. Obsérvese, igualmente, que la posibilidad relativa y el riesgo relativo son muy similares, porque el PBT clínicamente manifiesto es un suceso infrecuente. 31. ¿En qué difieren el riesgo relativo y la posibilidad relativa? De las respuestas anteriores, se deduce que el riesgo relativo puede calcularse a partir de un estudio de cohortes, pero no a partir de un estudio de casos y controles, mientras que la posibilidad relativa puede calcularse a partir de cualquier tipo de estudio. La posibilidad relativa se aproxima notablemente al riesgo relativo cuando el desenlace de interés es infrecuente y los grupos son representativos de las poblaciones de las que proceden. Ni el riesgo relativo ni la posibilidad relativa proporcionan pista alguna de la magnitud del riesgo en la población basal o grupo control. 32. ¿Cuál es la importancia del denominador al valorar el riesgo? Hay que ser cuidadosos para definir y comprender totalmente el denominador, ya que podría tener un impacto significativo en la interpretación de los resultados. De modo similar, es importante asegurarse de que cualquier riesgo empleado para la comparación tenga el denominador apropiado para permitir dicha comparación. No tiene sentido, por ejemplo, realizar una
DETERMINACIÓN DEL RIESGO
comparación no corregida o no cualificada entre un riesgo medido durante 2 años con otro riesgo medido durante 3 años. La población de la que pueden obtenerse las observaciones abarca una amplia gama de posibilidades. 33. ¿Puede haber, realmente, muchas opciones para un denominador? Sí. Por ejemplo, considere la pregunta: «¿Cuál es el riesgo de muerte como resultado de un accidente de tráfico en Estados Unidos?». El denominador podría ser cualquiera de las siguientes cifras: ■ Habitantes de Estados Unidos. ■ Individuos implicados en accidentes de tráfico en Estados Unidos. ■ Número de viajes realizados. ■ Minutos pasados en un automóvil. ■ Kilómetros recorridos. Todos serían aceptables, pero las respuestas serían muy diferentes. Es particularmente importante tener en cuenta este hecho al comparar el riesgo con una actividad, como paracaidismo, en el que hay un menor número de muertes globalmente, pero el número total de individuos expuestos, la duración de la exposición y la distancia recorrida son mucho menores. 34. Proporcione un ejemplo de cómo los diferentes denominadores afectan al riesgo calculado. Las cifras siguientes son ficticias, y se relacionan con la mortalidad mientras se realiza buceo con escafandra y el nivel de preparación en una asociación de inmersión submarina (buceo): ■ Hay 60.000 miembros activos en la asociación de buceadores. ■ En un momento concreto, 12.000 de los buceadores de la asociación se hallan al comienzo de su período de formación (alumnos). ■ La duración promedio de una inmersión por cada alumno es de 20 minutos. ■ Es típico que a un alumno se le exijan 20 inmersiones completas en 1 año para conseguir la titulación o calificación. ■ Una vez lograda la titulación, los miembros se sumergen como promedio 10 veces por año. ■ La duración promedio de una inmersión por un miembro ya calificado es de 40 minutos. ■ Hay 24 accidentes mortales en la actividad de inmersión submarina cada año, el 25% (6) de los cuales afectan a alumnos. A la vista de estos datos, ¿se hallan los alumnos en mayor riesgo de sufrir un incidente mortal? Si se toman las cifras referidas a los individuos por año como denominador, 6/12.000 = 5 por cada 10.000 alumnos tienen un accidente fatal cada año, y 1/48.000 = 3,75 por cada 10.000 miembros calificados tienen un accidente fatal cada año. La conclusión sería que los alumnos se hallan en situación de mayor riesgo. Si analizamos el ejemplo según las cifras de inmersiones por año, 6/(12.000 20) = 2,5 por cada 100.000 inmersiones por alumnos producen un incidente fatal, y 18/(48.000 10) = 3,75 por cada 100.000 inmersiones por miembros calificados producen un incidente fatal. La conclusión, en este caso, sería que los miembros calificados se hallan en mayor riesgo. Si analizamos las cifras de minutos de inmersión por año, 6/(12.000 20 20) = 1,25 accidentes mortales en 1 millón de minutos de inmersión por alumno, y 18/(48.000 10 40) = 0,9375 muertes por cada 1.000.000 minutos de inmersión por miembros calificados. La conclusión aquí sería que los alumnos se hallan en mayor riesgo. Si se emplea el riesgo acumulativo de incidente mortal por inmersión, cada buceador habrá sido alumno al principio, y luego puede aumentar su riesgo adicional mientras continúa buceando como miembro calificado. La conclusión aquí sería que los miembros calificados se hallan en mayor riesgo durante un mayor período de tiempo.
53
54
DETERMINACIÓN DEL RIESGO
Es evidente que se requiere mucho sentido común, que debe aplicarse para decidir sobre el denominador apropiado. El ejemplo anterior muestra lo difícil que puede ser demostrar de modo preciso lo que se pretende discutir. 35. ¿Qué es el riesgo atribuible? El riesgo atribuible es el riesgo en el grupo de estudio, menos el riesgo en el grupo control. Puede calcularse a partir de la ecuación Rs – Rc Es la medida más apropiada de cambio en el riesgo cuando se toma una decisión para un individuo, como, por ejemplo si resulta tolerable o no el riesgo de los efectos secundarios producidos por tomar un fármaco. 36. Proporcione un ejemplo de riesgo atribuible. Si en un estudio se observa que el riesgo de fallecer a una edad media determinada es de 0,4 y de 0,22 para un fumador y un no fumador, respectivamente, el riesgo atribuible al hecho de fumar es de 0,4 – 0,22 = 0,18. 37. ¿Cuál es el porcentaje de riesgo atribuible? Es el riesgo atribuible expresado como porcentaje del riesgo absoluto en el grupo de estudio, que puede calcularse a partir de la fórmula: 100% (Rs – Rc) Rs La fórmula da la proporción de casos de enfermedad en investigación en la población expuesta de la que es responsable el factor de riesgo. 38. Proporcione un ejemplo de porcentaje de riesgo atribuible. En el estudio de fumadores de la pregunta 36, el porcentaje de riesgo atribuible es de (100% 0,18)/0,4 = 45%. 39. ¿En qué difieren el riesgo relativo y el riesgo atribuible? El riesgo relativo no proporciona información sobre el cambio real en la magnitud del riesgo, mientras que sí lo proporciona el riesgo atribuible. Por ello, el riesgo relativo tiene un empleo limitado en el momento de tomar decisiones sobre un individuo concreto. Las dos medidas se hallan relacionadas por la fórmula: Riesgo atribuible = Rc (riesgo relativo – 1) Como se ha dicho anteriormente, el riesgo relativo se emplea muchas veces para valorar la fuerza de la asociación entre el factor de riesgo y el desenlace. Puede calcularse el valor aproximado del riesgo relativo a partir de un estudio de casos y controles, mientras que no sucede lo mismo con el riesgo atribuible. Además, el riesgo relativo es, con frecuencia, mejor indicador de la interacción entre los diferentes factores de riesgo. Suele observarse la interacción como multiplicador relativamente constante, a aplicar al riesgo relativo para cada factor de riesgo individual. 40. Proporcione un ejemplo de cómo el riesgo relativo y el riesgo atribuible difieren en su sensibilidad en relación con la magnitud de riesgo absoluto. Si Rs es 0,075 y Rc es 0,05, el riesgo atribuible es 0,075 – 0,05 = 0,025, y el riesgo relativo es 0,075/0,05 = 1,5.
DETERMINACIÓN DEL RIESGO
Si Rs es 0,75 y Rc es 0,5, el riesgo atribuible es 0,75 – 0,5 = 0,25, pero, a pesar del aumento en diez veces en el riesgo global, el riesgo relativo permanece sin cambios en 0,75/0,5 = 1,5. 41. ¿Cuál es el riesgo atribuible en la población? El riesgo atribuible en la población predice la reducción en el riesgo alcanzable si se elimina un factor de riesgo en una población. Se calcula multiplicando el riesgo atribuible por la prevalencia de exposición al factor de riesgo, y puede expresarse por la fórmula: (Rs – Rc) proporción de población expuesta La proporción atribuible en la población es una medida de qué proporción de una enfermedad en una población es atribuible al factor de riesgo. Puede expresarse por medio de la fórmula: (Rs – Rc ) proporción de población expuesta (Rs proporción de población expuesta) + [Rc (1 – proporción de población expuesta)] Dado que el riesgo relativo es (RR) = Rs/Rc, la proporción atribuible a la población puede expresarse en términos de RR como sigue: proporción de población expuesta (RR – 1) 1 + [proporción de población expuesta (RR – 1)] Por ello, en las circunstancias adecuadas puede emplearse la posibilidad relativa para calcular la proporción atribuible a la población. Puede expresarse la proporción como porcentaje atribuible a la población, multiplicando la fórmula por 100%, como sigue: 100% (Rs – Rc) x proporción de población expuesta (Rs proporción de población expuesta) + [Rc (1 – proporción de población expuesta)] También puede calcularse en términos de riesgo relativo: 100% [proporción de población expuesta (RR – 1)] 1 + [proporción de población expuesta (RR – 1)] Todas estas medidas se emplean para comparar los efectos de posibles estrategias en salud pública. 42. Proporcione un ejemplo de la proporción atribuible en la población. Considere un estudio de cohorte ficticio del riesgo de enfermedad por descompresión (DCI), tomado en 1 año, con 500 buceadores con una variación en la anatomía cardíaca conocida como foramen oval permeable (PFO) controlado, frente a 500 buceadores sin PFO. Los resultados se resumen así: PFO DCI Sin DCI Total
Control
2
1
498 500
499 500
Es una creencia ampliamente extendida que el PFO, o cualquier otra derivación circulatoria de derecha a izquierda, aumenta el riesgo de DCI. Aproximadamente, el 30% de individuos de la población general tienen PFO, y algunos estudios han demostrado que una proporción similar de buceadores tienen PFO.
55
56
DETERMINACIÓN DEL RIESGO
En este estudio, el riesgo absoluto de DCI con PFO es 2/500 = 0,004 y el riesgo absoluto de DCI en un individuo sin PFO es 1/500 = 0,002. El riesgo relativo es 0,004/0,02 = 2 y la posibilidad relativa es 2/0,998 = 2. ■ El riesgo atribuible es 0,004 – 0,002 = 0,002. ■ El porcentaje de riesgo atribuible es 0,002/0,004 = 50%. ■ El riesgo atribuible a la población es 0,002 0,3 = 0,0006. ■ La proporción atribuible a la población es 0,0006/[(0,004 0,3) + (0,002 0,7)] = 0,0006/(0,0012 + 0,0014) = 0,0006/0,0026 = 0,23. El porcentaje atribuible a la población será del 23%. De modo que, de acuerdo con estos resultados, el cierre de rutina del PFO en los buceadores reduciría el riesgo global de DCI en un 23% en esta población.
PUNTOS CLAVE: DETERMINACIÓN DEL RIESGO 1. El riesgo absoluto es la probabilidad de un suceso, como una enfermedad, lesión o muerte. 2. El riesgo absoluto no proporciona una indicación de cómo esta magnitud se compara con otras. 3. La posibilidad relativa se aproxima notablemente al riesgo relativo, si la enfermedad es infrecuente. 4. Se emplean la posibilidad relativa y el riesgo relativo entre un factor de riesgo y el desenlace para valorar la fuerza de la asociación. 5. Para tomar decisiones basadas en el riesgo en relación con individuos se emplea el riesgo atribuible. 6. Para informar en las decisiones de salud pública, se emplean las medidas del riesgo atribuible a la población.
43. ¿Qué sucede si el grupo control difiere del grupo de estudio en algunas características (distintas del factor de riesgo en investigación) que podrían influir sobre el desenlace de interés? No es infrecuente que características tales como la edad y el sexo influyan sobre el desenlace, con independencia del factor de riesgo que se está estudiando. Por ejemplo, en estudios de mortalidad cardiovascular, se esperaría que fallecieran menos individuos en una población más joven con una mayor proporción de mujeres. En tales casos, podría ser necesaria una modificación de los valores de la posibilidad relativa para que explicasen las diferencias en las muestras. 44. ¿Qué técnicas pueden utilizarse para conseguir que la posibilidad relativa sea más representativa? Una técnica es el emparejamiento por estratos, en la que se extrae el mismo número de casos y controles por cada grupo de edad y sexo. Otra técnica es calcular la posibilidad relativa en cada grupo, y luego sumarlas. 45. ¿Cómo se calcula la posibilidad relativa en un estudio de casos y controles con controles pareados? En los estudios de casos y controles se seleccionan con frecuencia para cada caso controles pareados en edad y sexo. En ocasiones, se selecciona más de un control pareado para cada caso, con el fin de realzar la significación estadística. Puede tabularse la información resultante en el siguiente formato:
DETERMINACIÓN DEL RIESGO Controles Factor de riesgo Factor de riesgo presente ausente Casos Factor de riesgo presente Factor de riesgo ausente
a c
b d
En este caso, se calcula la posibilidad relativa a partir de b/c. Si desea realmente comprender por qué debería ser así, lea un gran libro de referencia, y luego hágamelo saber.
PÁGINAS WEB 1. http://www. amstat.org/sections/epi/SIE_Home.htm 2. http://www.biostat.ucsf.edu/epidem/epidem.html
BIBLIOGRAFÍA 1.• Bland M: An Introduction to Medical Statistics. New York, Oxford University Press, 1995. 2.• Daly LE, Bourke GJ: Interpretation and Uses of Medical Statistics, 5th ed. Oxford, Blackwell Science Ltd., 2000. 3.• Gigerenzer G: Calculated Risks: How to Know When Numbers Deceive You. New York, Simon & Schuster, 2002. 4.• Kirkwood BR: Essentials of Medical Statistics. Oxford, Blackwell Science Ltd., 1988.
57
Michael D. Lappi, DO, PhD
CAPÍTULO 4
FUENTES DE DATOS Y VIGILANCIA 1. ¿Qué es un estudio tipo encuesta? Es un método para monitorizar conductas asociadas con enfermedad, atributos que afectan al riesgo de enfermedad, conocimiento o actitudes que influyen sobre las conductas de salud, empleo de los servicios sanitarios e incidencia de enfermedades autonotificadas. En general, los estudios tipo encuesta son relativamente baratos, y proporcionan un método fiable y reproducible para recoger información a partir de un conjunto de individuos. 2. Enumere algunas de las debilidades de las encuestas. Primera, las encuestas no emplean el método científico en su diseño y ejecución. Además, las encuestas son clásicamente un instrumento transversal para recoger información, lo que significa que los datos sobre exposición y desenlace se recogen al mismo tiempo. En los estudios transversales es imposible asegurar cualquier información sobre la relación temporal entre un factor de riesgo potencial y un desenlace. El sesgo también puede ser un problema importante en la recogida e interpretación de los datos de la encuesta. 3. ¿Qué tipos de enfermedades tienden a identificar las encuestas? Las encuestas tienden a identificar enfermedades tanto crónicas como menos graves, por la sencilla razón de que las personas tienen una mayor probabilidad de estar presentes y lo suficientemente sanas como para responder a la pregunta, en comparación con las personas que sufren enfermedades graves rápidamente progresivas. 4. ¿Cuáles son algunos ejemplos de encuestas? Un ejemplo de una encuesta común es el estudio transversal, por el cual puede ser estudiada una población diversa en un momento concreto. Ejemplos bien conocidos de encuestas son un censo, que estudia una gran población, y una votación, que se centra en objetivos políticos. 5. Explique la vigilancia. La vigilancia es la recogida, análisis y diseminación de los datos de enfermedad, de modo sistemático, que atañen a grupos de personas, y se diseña para detectar signos precoces de enfermedad. La vigilancia se lleva a cabo a muchos niveles en relación con una gran variedad de poblaciones, y ésta es una piedra angular de la medicina preventiva. 6. ¿Cuál es la finalidad principal de la vigilancia médica? Prevenir la enfermedad y la lesión y, en último término, mejorar la calidad de vida. 7. ¿Cuáles son los distintos tipos de vigilancia? Un modo de describir los sistemas de vigilancia es clasificarlos como activos o pasivos.
59
60
FUENTES DE DATOS Y VIGILANCIA
8. Describa una vigilancia activa. La vigilancia activa requiere esfuerzos de personal dedicado y, típicamente, una gestión frecuente de las fuentes de recogida de datos para identificar los casos. Por los niveles de esfuerzo requeridos se efectúa la vigilancia activa sobre un tema seleccionado durante un período de tiempo limitado. La vigilancia activa es mucho más cara que la vigilancia pasiva. 9. Indique algunos ejemplos de vigilancia activa. Dos ejemplos son los estudios actualmente en progreso Framingham Heart Study y el Nurse’s Health Study. 10. Describa la vigilancia pasiva. En contraste con la vigilancia activa, la vigilancia pasiva se basa en la notificación oportuna y cuidadosa de la enfermedad a los organismos o agencias apropiadas. La vigilancia pasiva se emplea con mucha mayor frecuencia, y parte del supuesto de que la información requerida será suministrada siguiendo las órdenes del médico, personal clínico, centro médico, laboratorio u otra parte responsable.
PUNTOS CLAVE: ENCUESTAS Y VIGILANCIA 1. Las encuestas son un modo eficaz para recoger información, aunque no emplean el método científico. 2. Las encuestas tienen una mayor probabilidad de recoger información sobre procesos crónicos o menos graves. 3. El objetivo de la vigilancia es prevenir la enfermedad y la lesión. 4. La vigilancia es la piedra angular de la práctica de la salud pública. 5. Los datos de vigilancia posibilitan la estimación de las tasas basales.
11. ¿Cuál es el ejemplo más ampliamente utilizado de la vigilancia pasiva? El ejemplo más habitual de vigilancia pasiva es la recogida de enfermedades de declaración obligatoria por organismos locales, estatales y federales, y la tabulación de tales datos (en EE.UU.) por los Centers for Disease Control and Prevention (CDC), publicados en el Morbidity and Mortality Weekly Report. 12. Defina una tasa basal. Una tasa basal consta de datos presentados clásicamente como tasas de incidencia en el tiempo, que describen patrones previos de los procesos patológicos estudiados para establecer sucesos típicos bajo los parámetros necesarios. Los ejemplos de los temas estudiados por medio de las tasas basales pueden oscilar desde aspectos tan sencillos como el número de días de enfermedad registrados en un grupo determinado durante el curso de los últimos 5 años, hasta aspectos como el número de casos de cáncer en este mismo grupo durante un período de 5 años.
FUENTES DE DATOS Y VIGILANCIA
13. ¿Qué información se ha de considerar al examinar los datos basales y las tendencias? Los datos notificados pueden ser indicativos de un cambio en la incidencia de un desenlace particular. Sin embargo, siempre se debe considerar si ha habido un cambio en el modo en que se define, se detecta o se notifica el desenlace particular durante el período en cuestión. 14. ¿De qué modo son útiles las tasas basales? Fijan los estándares frente a los que se comparan todos los sucesos futuros de un tema concreto (p. ej., días de enfermedad o cáncer) para detectar así sucesos atípicos. Este hecho subraya la importancia de la vigilancia: sin datos basales o de partida, no habría estándar o patrón para la comparación. 15. ¿Qué son las tendencias seculares? Son sucesos de desenlaces de salud de interés en el tiempo, clásicamente en años. La Figura 4-1 ilustra una tendencia en el número de casos del síndrome de inmunodeficiencia adquirida (sida) entre 1984 y 1993, y también el efecto de cambiar la definición de caso. Si no se supiese que la definición de caso de sida se cambió en 1993, se podría suponer, de modo erróneo, un cambio notable en la basal (es decir, número esperado de casos).
40
Casos (miles)
30
20
10
0 1984 1985
1986
1987
1988
1989 Año
1990
1991
1992
1993
Figura 4-1. Casos de sida por trimestres anuales notificados en Estados Unidos, 1984-1993. *En octubre de 1987 se revisaron las definiciones de caso y los criterios diagnósticos. †En 1993 se revisó de nuevo la definición de caso. (De los CDC: Update: Trends in AIDS and reporting under de expanded surveillance definition for adolescents and adults – United States, 1993. MMWR 43[32]:826-828, 1994.)
16. ¿Qué son las estadísticas vitales? Son sucesos críticos en la vida de un individuo. En Estados Unidos, estos sucesos son el nacimiento, la muerte, el matrimonio, el divorcio y la muerte fetal. Estos datos se recogen inicialmente a nivel local, y se remiten al estado. A nivel estatal, se resume esta información y, después, se informa al National Center for Health Statistics (NCHS). 17. Explique la finalidad del National Center for Health Statistics (NCHS). ¿Qué datos recoge? El NCHS es la rama de los CDC designada como punto focal en la recogida de las estadísticas vitales en Estados Unidos. La información contenida en los certificados de nacimiento y de
61
62
FUENTES DE DATOS Y VIGILANCIA
defunción de los estados, el número y características de nacimientos y fallecimientos, y los matrimonios y divorcios son rastreados por el NCHS. Se considera que la recogida de estos datos es responsabilidad nacional; los datos son remitidos, en último término, a las Naciones Unidas. 18. ¿Qué es el censo de Estados Unidos? ¿Cuáles son sus características? El censo de Estados Unidos es un programa federal establecido en 1790 para caracterizar y cuantificar la población de los estados, principalmente con fines de impuestos y del cumplimiento del servicio militar. En el primer censo se hacían sólo seis preguntas: nombre del cabeza de familia; número de personas que vivían en el hogar; número de varones blancos libres, de 16 o más años, que vivían en el hogar; número de varones blancos libres menores de 16 años que vivían en el hogar, y sexo y color de todas las personas restantes que vivían en el hogar. 19. ¿Con qué frecuencia se lleva cabo el censo en Estados Unidos? Es un proceso obligado por la Constitución estadounidense que comienza cada 1 de abril de los años terminados en cero, y los resultados se informan clásicamente en 1 a 2 años. Aunque el censo ofrece una valoración razonable de las características demográficas de la población, la validez de los resultados se basa directamente en la calidad de los datos remitidos. 20. ¿Qué información se recoge durante el censo? ¿De quién? La información del censo se recoge de cada uno de los hogares de Estados Unidos, según una identificación por medio de una red extensa de referencias por ordenador, incorporando los datos del censo, listas de direcciones del gobierno, y sistemas de direcciones del Servicio Postal de Estados Unidos. Además, los trabajadores del censo identifican físicamente a la cuarta parte de los vivos no reconocidos por este proceso, por medio de una recogida de datos de puerta a puerta. Hay dos versiones del censo: un formulario corto y otro más largo, más detallado. En general, uno de cada seis hogares recibe la versión más larga. Si no se rellena el censo y se remite en la fecha requerida, un trabajador del censo realizará una visita a dicho hogar. El trabajador preguntará verbalmente las cuestiones al cabeza de familia del hogar, y rellenará las respuestas apropiadas en un formulario impreso. En la Tabla 4-1 se muestra el cuestionario del formulario más largo del censo de 2000. 21. Identifique los defectos potenciales del sistema del censo. Éstos son los aspectos en relación con la validez del foco del censo en la irregularidad geográfica y variabilidad de las preguntas. Dado que existe una fluctuación casi constante en las características de crecimiento en un área dada, el censo no puede utilizar límites geográficos estándares o resultados base de acuerdo con un código postal. De modo similar, los cuestionarios del censo se hacen a medida para considerar áreas relevantes a la administración del gobierno presente y, por consiguiente, no son directamente comparables de censo a censo. 22. ¿Cuál es la población actual de Estados Unidos a tenor del censo de 2000? Según el censo de 2000, la población de Estados Unidos es de 281.421.906 habitantes, lo que representa un aumento del 13,2% (es decir, un crecimiento de 32.712.033 personas) de la población con respecto a los resultados previos, descritos en 1990. 23. Describa la red de enfermedades notificables primarias administrada por los CDC. El National Notifiable Disease Surveillance System (NNDSS) es responsable de la recogida de estos datos a partir de médicos, hospitales, clínicas y laboratorios. El sistema está diseñado
FUENTES DE DATOS Y VIGILANCIA
TABLA 4-1. FORMULARIO LARGO DEL CENSO DE ESTADOS UNIDOS DEL AÑO 2000 Población
Hogar
Abuelos como cuidadores Ascendencia Discapacidad Estado conyugal Estado de veterano Estado laboral Estado laboral en 1999 Ingreso en 1999 Ingreso escolar y nivel educativo conseguido Lengua hablada en el hogar y capacidad para hablar inglés Lugar de nacimiento, ciudadanía y año de entrada Lugar de trabajo y viaje al trabajo Migración (residencia en 1995) Profesión, industria y clase de trabajador
Año de construcción de la estructura Año de mudanza a la residencia Combustible para calefacción Coste de los servicios, hipoteca, impuestos, seguros y combustible Instalación sanitaria y cocina Número de habitaciones y número de dormitorios Residencia en granja Servicio telefónico Unidades de la estructura Valor del hogar o renta pagada mensualmente Vehículos disponibles
para rastrear datos a partir del punto de notificación a los departamentos de salud locales y estatales y, por último, a los CDC en Atlanta, Georgia. 24. ¿Cuáles son las enfermedades de declaración obligatoria, definidas por los CDC, en Estados Unidos en 2005? Véase la Tabla 4-2. 25. ¿Cuál es la finalidad de la sección National Center for Injury Prevention and Control (NCIPC) de los CDC? Su función es reducir la morbilidad, la discapacidad, la mortalidad y los costes asociados con las lesiones. 26. Liste las cinco áreas de interés principales del NCIPC. ■ Maltrato a los niños. ■ Suicidio. ■ Violencia de la pareja. ■ Violencia en los jóvenes. ■ Violencia sexual o de género. 27. ¿De qué estudios es responsable el National Center for Health Statistics (NCHS)? ■ National Health and Nutrition Examination Survey (NHANES): recoge datos sobre la prevalencia de enfermedades y afecciones crónicas (incluidas las afecciones no diagnosticadas), factores de riesgo, estado de alimentación y nutrición, estado de inmunización, prevalencia de enfermedades infecciosas, seguros de enfermedad, y medidas de exposiciones medioambientales. ■ National Health Care Survey (NHCS): obtiene información sobre los centros encargados de prestar la atención sanitaria, los servicios prestados y las características de los pacientes atendidos.
63
64
FUENTES DE DATOS Y VIGILANCIA
TABLA 4-2. ENFERMEDADES DE DECLARACIÓN OBLIGATORIA (CDC, EE.UU.) AIDS (sida) Botulismo
Botulismo distinto (herida e inespecificado) ■ Botulismo en el lactante ■ Botulismo vehiculado por alimentos Brucelosis Carbunco Chancroide Ciclosporiasis Coccidioidomicosis Cólera Criptosporidiosis Difteria Ehrlichiosis ■ Ehrlichiosis humana granulocítica ■ Ehrlichiosis humana monocítica ■ Ehrlichiosis humana, otra, o agente no especificado Escherichia coli enterohemorrágico Escherichia coli enterohemorrágico, O157:H7 Escherichia coli enterohemorrágico, productor de la toxina shiga (no seroagrupado) Escherichia coli enterohemorrágico, productor de toxina shiga, serogrupo distinto al O157 Enfermedad de Hansen (lepra) Enfermedad de Lyme Enfermedad estreptocócica invasiva, grupo A Enfermedad meningocócica Enfermedad por coronavirus asociada con el síndrome respiratorio agudo grave (SARS-CoV) Enfermedades neuroinvasivas y no neuroinvasivas por arbovirus ■ Enfermedad por el virus de la encefalitis de St. Louis ■ Enfermedad por el virus de la encefalitis equina del Este ■
Enfermedad por el virus de la encefalitis equina del Oeste ■ Enfermedad por el virus del Nilo Occidental ■ Enfermedad por el virus Powassan ■ Enfermedades por virus del serogrupo California Fiebre manchada de las Montañas Rocosas Fiebre Q Fiebre tifoidea Giardiasis Gonorrea Haemophilus influenzae, enfermedad invasiva Hepatitis vírica aguda ■ Hepatitis A, aguda ■ Hepatitis B, aguda ■ Virus de la hepatitis B, infección perinatal Hepatitis vírica crónica ■ Hepatitis B crónica ■ Infección por el virus de la hepatitis C (pasada o presente) Infección por el virus de la inmunodeficiencia humana (VIH) ■ Infección por el VIH, adulto (• 13 años) ■ Infección por el VIH, pediátrica (< 13 años) Infecciones genitales por Chlamydia trachomatis Legionelosis Listeriosis Malaria Mortalidad pediátrica asociada con la gripe Paperas Peste Poliomielitis paralítica Psitacosis Rabia ■ Rabia animal ■ Rabia humana Rubéola Rubéola, síndrome congénito Salmonelosis Sarampión Shigelosis ■
FUENTES DE DATOS Y VIGILANCIA
TABLA 4-2. ENFERMEDADES DE DECLARACIÓN OBLIGATORIA (CDC, EE.UU.) ( Cont. ) Sífilis ■ Neurosífilis ■ Sífilis latente ■ Sífilis latente de duración desconocida ■ Sífilis primaria ■ Sífilis secundaria ■ Sífilis tardía latente ■ Sífilis tardía, no neurológica ■ Sífilis temprana latente Sífilis congénita ■ Mortinato sifilítico Síndrome del shock tóxico Síndrome del shock tóxico estreptocócico Síndrome hemolítico urémico, posdiarreico Síndrome pulmonar por Hantavirus
■
■
■
■
Staphylococcus aureus intermedio a la vancomicina (VISA) Staphylococcus aureus resistente a la vancomicina (VRSA) Streptococcus pneumoniae, invasiva, en niños menores de 5 años Streptococcus pneumoniae, resistente a los antibióticos, enfermedad invasiva Tétanos Tos ferina Triquinosis Tuberculosis Tularemia Varicela (morbilidad) Varicela (muertes solamente) Viruela
National Health Interview Study (NHIS): estudio anual de ámbito nacional de, aproximadamente, 36.000 hogares en Estados Unidos; es una fuente de información principal sobre la salud de la población civil no institucionalizada. National Immunization Survey (NIS): estudio por marcación telefónica aleatoria asistido por lista telefónica, que comenzó a recoger datos en abril de 1994 para monitorizar la inmunización en niños. National Survey of Family Growth (NSFG): la finalidad principal del estudio de 1973-1995 fue aportar datos nacionales fiables sobre matrimonios, divorcios, anticoncepción, infertilidad y salud en mujeres y lactantes en Estados Unidos. State and Local Area Integrated Telephone Survey (SLAITS): complementa las estrategias de recogida de datos actuales al aportar datos estatales y locales en profundidad, para satisfacer varias necesidades de programas y políticas en nuestro sistema de atención sanitaria, siempre cambiante.
28. ¿Cómo emplea el NCHS la información que obtienen en estos estudios? Tal como describe el NCHS, estas estadísticas le permiten hacer lo siguiente: ■ Documentar el estado de salud de la población y el de subgrupos importantes. ■ Identificar disparidades en el estado de salud y en el empleo de los sistemas sanitarios por raza y etnia, estado socioeconómico, región y otras características poblacionales. ■ Describir las experiencias en relación con el sistema de atención sanitaria. ■ Monitorizar las tendencias en el estado de salud y en la prestación de la atención sanitaria. ■ Identificar problemas de salud. ■ Apoyar la investigación de los servicios biomédicos y sanitarios. ■ Proporcionar información para realizar cambios en las políticas y programas públicos. ■ Evaluar el impacto de las políticas y programas de salud. 29. ¿Cuál es el estudio mundial más amplio llevado a cabo por teléfono? El Behavioral Risk Factor Surveillance System (BRFSS), que rastrea los riesgos de la salud en Estados Unidos. El cuestionario del BRFSS está diseñado por un grupo de coordinadores estatales y por personal de los CDC.
65
66
FUENTES DE DATOS Y VIGILANCIA
30. ¿Cuáles son las partes del estudio BRFSS? En la actualidad, el cuestionario tiene tres partes: 1) el componente central, que consta de un núcleo fijo, el núcleo rotador y el núcleo emergente; 2) módulos opcionales, y 3) cuestiones añadidas por los estados. Todos los departamentos de salud deben realizar las cuestiones del componente central sin modificación en el enunciado de las palabras; sin embargo, los módulos son opcionales. 31. Describa el componente central del BRFSS. El núcleo fijo es un grupo estándar de cuestiones preguntadas por todos los estados. Incluye preguntas sobre conductas actuales que afectan a la salud (p. ej., consumo de tabaco y alcohol, actividad física, búsqueda de atención médica preventiva) y cuestiones sobre características demográficas. El núcleo rotador está compuesto de dos grupos de preguntas distintos, cada una de ellas preguntadas en años alternos por todos los estados, y trata sobre temas diferentes. 32. ¿Pueden modificar los estados las porciones opcionales del estudio? No. Los módulos opcionales de los CDC son conjuntos de cuestiones sobre temas específicos (p. ej., tabaco sin humo) que los estados eligen utilizar en sus cuestionarios. Aunque los módulos son opcionales, los estándares de los CDC requieren que, en caso de incluirlos, deben ser utilizados sin modificación alguna. Los temas de los módulos han incluido aspectos del estudio sobre tabaco sin humo, salud oral, enfermedad cardiovascular y armas de fuego. 33. ¿Cuál es la finalidad de un registro de enfermedades? Un registro de enfermedades se diseña para focalizarse en una afección o enfermedad específica, con el fin de rastrear características notificables para su análisis e investigación posteriores. Las enfermedades clásicas rastreadas en los registros incluyen el cáncer y los defectos congénitos al nacimiento. El Occupational Lung Disease Registry y el Occupational Disease Registry catalogan y siguen enfermedades asociadas con el lugar de trabajo. 34. ¿Se utilizan los registros solamente para rastrear enfermedades? No. De hecho, se utilizan también, por ejemplo, los registros de gemelos, con el fin de delimitar entre las causas ambientales y las genéticas de diferentes enfermedades, así como la salud y bienestar generales. 35. ¿Cuál es la finalidad de la Agency for Toxic Substances and Disease Registry (ATSDR)? La ATSDR actúa como el principal organismo de salud pública para ejecutar las disposiciones relacionadas con la salud del Superfund (Superfondo) (Comprehensive Environmental Response, Compensation, and Liability Act de 1980). La ATSDR tiene la misión de valorar los riesgos sobre la salud en diferentes sitios de desechos peligrosos, ayudando a prevenir o reducir la exposición a enfermedades resultantes, y de aumentar el conocimiento y comprensión de los efectos de la salud que pueden producirse por la exposición a sustancias peligrosas. 36. ¿Quién controla los datos recogidos en los programas sanitarios federales como Medicare y Medicaid? Los Centers for Medicare & Medicaid Services (CMS) constituyen un organismo federal dentro del Department of Health and Human Services de Estados Unidos, dedicados a la operación de programas federales seleccionados. Entre los programas de los que es responsable el CMS figuran Medicare, Medicaid, el State Children’s Health Insurance Program (SCHIP), el Health Insurance Portability and Accountability Act of 1996 (HIPAA), y los Clinical Laboratory Improvement Amendments (CLIA).
FUENTES DE DATOS Y VIGILANCIA
PUNTOS CLAVE: FUENTES DE DATOS 1. El National Center of Health Statistics (NCHS) es la rama de los Centers for Disease Control and Prevention (CDC) responsable de la recogida de las estadísticas vitales. 2. El censo de Estados Unidos es un programa federal que se lleva a cabo cada década con dos versiones, una larga y otra corta. Aproximadamente, un sexto de los hogares reciben la versión larga. 3. El CDC tiene una lista definida de enfermedades de declaración obligatoria, que se recogen bajo el National Notifiable Disease Surveillance System (NNDSS). 4. La misión del National Center for Injury Prevention and Control (NCICP) es reducir la morbilidad, la mortalidad, la discapacidad y los costes asociados con la lesión. 5. El Bureau of Labor Statistics (BLS), bajo el Department of Labor, recoge datos relacionados con el trabajo sobre inflación, salarios, productividad, salud, características demográficas y desempleo.
El Medicare Current Beneficiary Survey (MCBS), un ejemplo de estudio dentro del CMS, es la única fuente extensa de características de salud en relación con el espectro total de los beneficiarios de Medicare. 37. ¿Quién controla los datos médicos obtenidos por la U.S. Military and the Veterans Administration? ¿Qué información recogen? El Defense Medical Surveillance System (DMSS) es el depositario central de los datos de vigilancia médica en relación con las Fuerzas Armadas. Los datos del DMSS documentan los estados y los cambios en las características demográficas y militares (p. ej., servicio, graduación y ocupación militar) de todos los miembros en servicio. Además, documentan experiencias militares significativas (p.ej., asignaciones y despliegues mayores) y médicas (p. ej., visitas a clínicas ambulatorias, hospitalizaciones, inmunizaciones y fallecimientos) de los miembros en servicio en el transcurso de sus carreras militares. El DMSS recibe datos de múltiples fuentes, y los integra en una base de datos de relación que se expande continuamente. Se establecen registros longitudinales y constantemente actualizados sobre todos los individuos que han servido en las Fuerzas Armadas desde 1990. Las categorías de especial interés son los despliegues mayores, las valoraciones del estado de salud antes y después del despliegue, las hospitalizaciones (en centros médicos militares fijos) y las visitas ambulatorias (a instalaciones médicas militares fijas). El DMSS mantiene también un depósito central de muestras serológicas. 38. ¿Qué es el Bureau of Labor Statistics? Bajo el U.S. Department of Labor, el Bureau of Labor Statistics es el principal organismo que recopila datos para el Gobierno Federal en el amplio campo de los aspectos económicos y estadísticos del trabajo. Proporciona una cantidad importante de información en todos los aspectos de la fuerza laboral de Estados Unidos, incluidos temas como la inflación, los salarios, la productividad, la salud, los datos demográficos y el desempleo. 39. ¿Qué rama del U.S. Department of Labor se centra en la seguridad del trabajador? La Occupational Safety and Health Administration (OSHA). Su misión es velar por la seguridad y la salud de los trabajadores estadounidenses, al fijar y hacer cumplir las normas, aportar pre-
67
68
FUENTES DE DATOS Y VIGILANCIA
paración, alcance e instrucción, establecer asociaciones y alentar a la mejora continua en la seguridad y salud en el puesto de trabajo. 40. Cite el organismo federal responsable de efectuar investigaciones y de realizar recomendaciones sobre la prevención de las lesiones y enfermedades relacionadas con el puesto de trabajo. El National Institute for Occupational Safety and Health (NIOSH). Es parte del CDC Department of Health and Human Services y no tiene poderes ejecutivos. 41. Desglose el número y tasa de muertes laborales en Estados Unidos por sexo, raza y grupo etario. Véase la Tabla 4-3.
TABLA 4-3. NÚMERO Y TASA* DE MUERTES POR TRAUMATISMO LABORAL. POR SEXO, RAZA Y GRUPO ETARIO. ESTADOS UNIDOS, 1980-1997 Característica Sexo Hombre Mujer Desconocido Raza Blanca Negra Otra Desconocida Grupo etario (años) 16-17 18-19 20-24 25-34 35-44 45-54 55-64 ≥ 65 Desconocida Total
N.º
(%)
Tasa
97.053 6.886 6
(93) (7) (< 1)
8,6 0,8 –
88.392 11.478 3.167 908
(85) (11) (3) (1)
5,0 5,6 4,8 –
969 2.714 10.791 26.390 22.881 18.213 14.108 7.779 100 103.945
(1) (3) (10) (25) (22) (18) (14) (7) (< 1) (100)
2,1 3,8 4,5 4,7 4,5 5,2 6,9 13,3 – 5,1
*Por 100.000 trabajadores. No se han calculado las tasas en relación con las categorías «desconocido» o «no clasificado».
42. Compare el número de lesiones laborales fatales en Estados Unidos durante los años 1992-2003. Véase la Figura 4-2.
6.800 6.632 6.600 6.331
6.400
6.275
6.217
6.202
6.200
6.238 6.055
6.054
6.000
5.920
5.915
5.800 5.600
5.534
5.559
2002
2003
5.400 5.200 5.000
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
Figura 4-2. Número de accidentes laborales con muerte en Estados Unidos, 1992-2003. El número de muertes laborales, 5.559, registradas en 2003 representan un pequeño aumento con relación al total revisado en 2002. Los casos de 2001 excluyen los casos mortales registrados el 11 de septiembre por los ataques terroristas. (Fuente: U.S. Department of Labor, Bureau of Labor Statistics, Census of Fatal Occupational Injuries, 2003.)
FUENTES DE DATOS Y VIGILANCIA
4.800
69
70
FUENTES DE DATOS Y VIGILANCIA
43. ¿Qué industrias tienen, históricamente, el mayor número de muertes laborales? ■ Construcción (19.179 muertes, o 19% de los fallecimientos notificados). ■ Transporte, comunicaciones y servicios públicos (17.489 o 17% de los fallecimientos notificados). ■ Manufacturación (15.490 o 15% de los fallecimientos notificados). 44. ¿Qué industrias tienen, históricamente, las tasas más elevadas de mortalidad laboral? ■ Minería (30 muertes por cada 100.000 trabajadores). ■ Agricultura, ingeniería forestal y pesca (19 muertes por cada 100.000 trabajadores). ■ Construcción (15 muertes por cada 100.000 trabajadores). 45. ¿Qué industrias tuvieron el mayor número de muertes laborales en 2003? ■ Construcción (1.126 muertes). ■ Transporte y almacenes (805 muertes). ■ Agricultura, ingeniería forestal pesca y caza (707 muertes). 46. ¿Qué industrias tuvieron las mayores tasas de mortalidad laboral en 2003? ■ Agricultura, ingeniería forestal, pesca y caza (31,2 muertes por cada 100.000 trabajadores). ■ Minería (26,9 muertes por cada 100.000 trabajadores). ■ Transporte y almacenes (17,5 muertes por cada 100.000 trabajadores). La Figura 4-3 resume el número y la tasa de las lesiones laborales fatales por sectores industriales en 2003. 47. ¿Qué estados tienen, históricamente, las cifras y tasas más elevadas de muerte laboral? El mayor número de lesiones laborales fatales se ha producido en California (10.712 muertes, o 10% del total de las lesiones laborales fatales en EE.UU.), Texas (10.294, o 10%), Florida (6.269, o 6%), Illinois (4.582, o 4%), y Pensilvania (4.402, o 4%). Las tasas más elevadas por lesiones laborales fatales se han dado en Alaska (22,7 por cada 100.000 trabajadores), Wyoming (15,8% por cada 100.000), Montana (11,8 por cada 100.000), Idaho (10,4 por cada 100.000) y Virginia Occidental (10,1 por cada 100.000). 48. ¿Qué estados tuvieron el mayor número de lesiones laborales fatales en 2002? En 2002, el mayor número de lesiones laborales fatales se produjo en California (478 muertes), Texas (417 muertes), Florida (354 muertes), Ohio (202 muertes), Georgia (197 muertes), Illinois (190 muertes) y Pensilvania (188 muertes). (Véase la Tabla 4-4.) 49. ¿Qué característica vital del trabajador dio cuenta de la mayoría de las muertes laborales en Estados Unidos desde 1992 a 2002? Aunque las razas, sexos, edades y estado de empleo de estos trabajadores, ciertamente, comprenden una lista panabarcativa, la mayoría de los sucesos fatales laborales en Estados Unidos desde 1992 a 2003 se produjeron en varones blancos asalariados de edades comprendidas entre 25 y 34 años (Véase la Tabla 4-5.) 50. ¿De qué información se dispone en relación con las iniciativas de salud a nivel mundial? La Organización Mundial de la Salud (OMS) proporciona una amplia gama de información útil en relación con numerosos programas de salud en todo el mundo. El mejor modo de acceder a
Construcción 1.126 Transporte y almacenes Agricultura, ingeniería forestal, pesca y caza Gobierno
11,7 17,5
805
31,2
707
Servicios profesionales y negocios
452
Industria manufacturera
416
Comercio al por menor Tiempo libre y hospitalidad Otros servicios (excepto administr. pública) Comercio al por mayor
2,5
532
3,3 2,5 2,1
343
2,4
274
2,8
194
4,2
191
Servicios educativos y sanitarios
143
Minería
141
Actividades financieras
130
1,4
64
Servicios 1.250
26,9
32 1.000 750 500 250 Número de accidentes mortales
1,8 3,7 0 10 20 30 40 Tasa de letalidad (por 100.000 trabajadores)
Figura 4-3. Número y tasa de lesiones laborales fatales por sectores industriales en 2003. Aunque el sector de la construcción registró el mayor número de lesiones laborales fatales, las mayores tasas de mortalidad por accidente se dieron en agricultura, ingeniería forestal, pesca y caza. (Fuente: http://www.bls.gov/iif/oshwc(cfoi/cfch0002.pdf.)
FUENTES DE DATOS Y VIGILANCIA
Información
0,8
71
72
Características
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
Total Estado del incidente Alabama Alaska Arizona Arkansas California Colorado Connecticut Delaware Distrito de Columbia Florida Georgia Hawai Idaho Illinois Indiana Iowa Kansas Kentucky Louisiana Maine
6.217
6.331
6.632
6.275
6.202
6.238
6.055
6.054
5.920
5.915
5.534
145 91 67 82 644 103 42 11 8 329 204 28 45 250 148 110 82 117 153 19
138 66 55 71 657 99 31 13 25 345 230 26 43 252 136 88 99 143 171 20
153 60 79 85 639 120 35 15 21 358 249 21 50 247 195 74 106 158 187 22
150 78 86 92 646 112 32 12 16 391 237 24 53 250 156 54 95 140 139 18
155 63 77 88 641 90 35 18 19 333 213 27 62 262 143 70 85 141 134 23
139 51 61 102 651 120 32 17 23 366 242 19 56 240 190 80 93 143 137 19
135 43 74 86 626 77 57 11 13 384 202 12 51 216 155 68 98 117 159 26
123 42 70 76 602 106 38 14 14 345 229 32 43 208 171 80 87 120 141 32
103 53 118 106 553 117 55 13 13 329 195 20 35 206 159 71 85 132 143 26
138 64 87 68 515 139 41 10 11 368 237 41 45 231 152 62 94 105 117 23
102 42 101 80 478 123 39 11 8 354 197 24 39 190 136 57 89 146 103 30
FUENTES DE DATOS Y VIGILANCIA
TABLA 4-4. INCIDENTES LABORALES FATALES, POR ESTADO DEL INCIDENTE
103 67 143 103 123 140 65 43 49 10 138 35 127 187 169 20 203 78 88 242 17 100 28 145 536
82 85 160 113 121 131 38 78 38 13 145 55 154 191 214 30 190 86 84 241 16 87 28 154 529
80 74 180 82 126 155 50 83 41 14 114 54 180 184 226 21 209 97 80 354 12 83 31 170 497
86 66 149 84 128 125 34 54 51 12 118 58 158 144 187 28 186 200 73 233 11 115 26 179 475
82 62 155 92 103 140 50 56 52 11 100 60 169 148 191 23 201 87 85 282 6 109 32 152 514
82 69 174 72 104 123 56 46 55 23 101 50 155 109 210 35 201 104 84 259 11 131 23 168 459
78 44 179 88 113 145 58 56 60 23 103 48 149 94 228 24 186 75 72 235 12 111 28 150 523
82 83 182 72 128 165 49 66 58 14 104 39 121 120 222 22 222 99 69 221 11 139 46 154 468
84 70 156 68 125 148 42 59 51 13 115 35 122 111 234 34 207 82 52 199 7 115 35 160 572
64 54 175 76 111 145 58 57 40 9 129 59 120 100 203 25 209 115 44 225 17 91 35 136 536
102 46 152 81 94 175 51 83 47 19 129 63 140 100 169 25 202 92 63 188 8 107 36 140 417 (Continúa)
FUENTES DE DATOS Y VIGILANCIA
Maryland Massachusetts Michigan Minnesota Mississippi Missouri Montana Nebraska Nevada New Hampshire New Jersey New Mexico New York (excepto N.Y.C.) Nueva York, Ciudad Carolina del Norte Dakota del Norte Ohio Oklahoma Oregón Pensilvania Rhode Island Carolina del Sur Dakota del Sur Tennessee Texas
73
74 FUENTES DE DATOS Y VIGILANCIA
TABLA 4-4. INCIDENTES LABORALES FATALES, POR ESTADO DEL INCIDENTE ( Cont. ) Características Utah Vermont Virginia Washington Virginia Occidental Wisconsin Wyoming Fuente: Bureau of Labor Statistics, 2003.
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
59 11 175 97 77 135 26
66 7 135 112 66 138 36
66 8 164 118 61 109 35
51 16 132 109 56 117 32
64 7 153 128 66 108 28
66 9 166 112 53 114 29
67 16 177 113 57 97 33
54 14 154 88 57 105 32
61 15 148 75 46 107 36
65 6 146 102 63 110 40
52 11 142 86 40 91 33
TABLA 4-5. CARACTERÍSTICAS VITALES DE LOS TRABAJADORES Características
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
4.975 1.242
5.025 1.303
5.370 1.262
5.074 1.201
4.977 1.225
4.970 1.268
4.804 1.251
4.904 1.150
4.736 1.184
4.781 1.134
4.481 1.053
5.774 443
5.842 489
6.104 528
5.736 539
5.688 514
5.761 477
5.569 486
5.612 442
5.471 449
5.442 473
5.092 442
27 41 107 544 1.556 1.538 1.167 767 467
29 39 102 508 1.521 1.584 1.204 811 522
25 42 114 545 1.567 1.619 1.310 866 525
26 42 130 486 1.409 1.571 1.256 827 515
27 43 125 444 1.362 1.586 1.242 855 504
21 41 113 503 1.325 1.524 1.302 875 520
33 32 137 421 1.238 1.525 1.279 836 541
26 46 122 451 1.175 1.510 1.333 816 565
29 44 127 446 1.163 1.473 1.313 831 488
20 33 122 441 1.142 1.478 1.368 775 530
16 25 92 436 1.023 1.403 1.253 784 495 (Continúa)
FUENTES DE DATOS Y VIGILANCIA
Estado del trabajador Trabajadores con salarios y sueldos Trabajadores autónomos Sexo Hombres Mujeres Edad Menos de 16 años 16-17 años 18-19 años 20-24 años 25-34 años 35-44 años 45-54 años 55-64 años ≥ 65 años
1992
75
76 FUENTES DE DATOS Y VIGILANCIA
TABLA 4-5. CARACTERÍSTICAS VITALES DE LOS TRABAJADORES ( Cont. ) Características Raza u origen étnico Blanca Negra o afroamericana Estadounidenses de origen hispánico Indios norteamericanos o nativos de Alaska Asiático, nativo de Hawai o de las Islas del Pacífico Múltiples razas Otras razas no notificadas Fuente: Bureau of Labor Statistics, 2003.
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
4.711 618 533 36 192
4.665 649 634 46 206
4.954 695 624 39 211
4.599 684 619 27 188
4.586 615 638 35 188
4.576 661 658 34 218
4.478 583 707 28 164
4.410 616 730 54 180
4.244 575 815 33 185
4.175 565 895 48 182
3.926 491 841 40 140
– 127
– 131
– 109
– 158
– 140
– 91
– 95
– 63
– 68
6 44
4 92
FUENTES DE DATOS Y VIGILANCIA
estos datos es por medio de la World Health Organization Library Service (WHOLIS) o del World Health Organization Statistical Information Service (WHOSIS). 51. Enumere el sistema de datos de biblioteca que contiene las publicaciones de la OMS. La WHOLIS es la base de datos de biblioteca de la OMS disponible en la red de Internet. La WHOLIS indexa todas las publicaciones de la OMS desde 1948 en adelante, y artículos de revistas y documentos técnicos producidos por la OMS desde 1985 hasta el presente. Un catálogo de tarjetas en el sitio proporciona acceso a los documentos técnicos previos a 1986. 52. Cite el sistema electrónico de base de datos que contiene información epidemiológica y estadística de la Organización Mundial de la Salud. El WHOSIS es una guía de información epidemiológica y estadística en la OMS. La mayoría de los programas técnicos de la OMS desarrollan información epidemiológica y estadística relacionada con la salud, accesible en el sitio de la red de la OMS. 53. ¿Qué tipo de información puede encontrarse en el WHOSIS? La información disponible incluye: ■ Carga de estadísticas por enfermedades. ■ Base de datos de mortalidad de la OMS. ■ Anexos estadísticos del World Health Report. ■ Estadísticas por enfermedad o afección. ■ Personal sanitario. ■ Fuentes externas de información estadística relacionada con la salud.
PÁGINAS WEB 1. http://www.bls.gov/iif/oshwc/cfoi/cfch0002.pdf 2. http://www.bls.gov/iif/oshwc/cfoi/cftb0186.pdf
BIBLIOGRAFÍA 1.• Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine. Philadelphia, W.B. Saunders, 2001, pp 20–39. 2.• Rom WM (ed): Environmental and Occupational Medicine, 3rd ed. Philadelphia, Lippincott-Raven, 1998, pp 19–25. 3.• Rothman KJ, Greenland S: Modern Epidemiology. Philadelphia, Lippincott Williams & Wilkins, 1998, pp 435–447. 4.• Wallace RB (ed): Maxcy-Rosenau-Last’s Public Health and Preventive Medicine, 14th ed. Stamford, CT, Appleton & Lange, 1998.
77
Thomas H. Winters, MD, y Ann M. Zaia, NP-C, MSN, MHA
CAPÍTULO 5
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS CONCEPTOS GENERALES 1. ¿Cuáles son los componentes del triángulo epidemiológico? El huésped, el agente y el ambiente. Un huésped es un organismo vivo capaz de infectarse, un agente es un factor que ha de estar presente (o potencialmente ausente) para que se produzca la enfermedad, y el ambiente es una fuerza o situación extrínseca que afecta a la oportunidad de que el huésped esté expuesto al agente. Puede estar presente un vector para transportar o conducir el agente al huésped (Fig. 5-1).
Agente
Huésped
Ambiente
Figura 5-1. Modelo de causalidad del triángulo epidemiológico. (De Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program Office, 1992.)
2. Explique la relación entre los lados del triángulo epidemiológico. Bien conocido como uno de los modelos ecológicos elementales en salud pública, se emplea con frecuencia el triángulo epidemiológico para explicar el concepto de causalidad de enfermedad. El huésped, el agente y el ambiente son los componentes necesarios del triángulo. Cuando se observa como triángulo equilátero, cualquier cambio en un lado altera de modo inevitable uno o los dos lados restantes, lo que causa un aumento o disminución en la frecuencia del estado de enfermedad.
79
80
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
3. Enumere algunas de las características que afectan a la frecuencia de la enfermedad en relación con los tres componentes del triángulo epidemiológico. Características del huésped ■ Edad. ■ Estado socioeconómico. ■ Genética. ■ Inmunidad. ■ Sexo. Características del agente ■ Estabilidad ambiental. ■ Infectividad. ■ Virulencia. ■ Patogenicidad. ■ Resistencia. Características del ambiente ■ Biológicas (p. ej., vectores y reservorios). ■ Físicas (p. ej., calor y densidad poblacional). ■ Sociales (p. ej., cultura). 4. ¿Cuál es el único reservorio conocido del virus del sarampión? Recibe la consideración de reservorio el lugar en que sobrevive una enfermedad infecciosa. Aunque los reservorios pueden incluir organismos animados o materia inanimada, los genes humanos son el único reservorio conocido del virus del sarampión. 5. Explique cómo se transmiten los agentes infecciosos, y describa la transmisión directa y la indirecta. La transmisión de la enfermedad se clasifica como directa o indirecta. La transmisión directa entraña la transferencia del agente infeccioso por contacto físico con lesiones, sangre, saliva u otra secreción. La transferencia infecciosa a partir de una aerosolización directa, como un estornudo en la cara de otra persona, también se considera clásicamente directa. La transmisión indirecta se produce cuando el agente infeccioso pasa un período intermedio variable en el interior de una sustancia o sobre su superficie, o en un organismo, antes de causar enfermedad en el huésped. 6. ¿Por qué mecanismos puede tener lugar la transmisión directa y la indirecta? La transmisión directa implica un contacto íntimo, que clásicamente se describe como una distancia inferior a 1 metro del individuo infectado en la fase de diseminación por gotitas (p. ej., al toser, estornudar o hablar). Las actividades que pueden causar una transferencia inmediata de un agente infeccioso a una puerta de entrada susceptible, como besarse, morderse o la relación sexual, son métodos de transmisión directa. La transmisión indirecta, por otra parte, es transmitida por un vehículo o por un vector. Un vehículo puede ser un objeto inanimado o material biológico (p. ej., sangre o tejido) que actúa como intermediario en la transferencia del agente infeccioso al huésped. 7. ¿La hepatitis A, se adquiere por transmisión directa o indirecta? La hepatitis A se adquiere por la ruta fecal-oral, que se considera transmisión indirecta. Los patógenos han de ser capaces de resistir el ambiente fuera de su huésped natural durante cierto período de tiempo para ser una fuente viable de transmisión indirecta. Un ejemplo de este tipo de transmisión puede ser cuando un empleado (es decir, un reservorio) con hepatitis A, que trabaja en un restaurante local de comida rápida no se lava las manos después de haber ido al servicio. A continuación, el empleado vuelve a su sitio de preparación de alimentos y le prepara una hamburguesa de gran tamaño. En el proceso, se transfiere al alimento materia fecal infectada por el virus de la hepatitis A. Hambriento como
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
de costumbre, usted se come toda la hamburguesa. Aproximadamente un mes después, observa que tiene unos síntomas de tipo gripal y las escleróticas de color amarillo. Su astuta capacidad de autodiagnóstico le revela que tiene hepatitis A. Dado que usted no se puso nunca en contacto directo con la persona que le preparó la hamburguesa, contrajo la hepatitis A por medio de una transmisión indirecta. Por el contrario, podría producirse una transmisión directa cuando su mejor amigo, que está incubando un resfriado, le muestra poca consideración y estornuda en plena cara. Por lo tanto, recuerde: para ayudar a prevenir tanto la transmisión directa como la indirecta, siempre debe cubrirse la boca cuando tosa y lavarse después bien las manos. 8. ¿Qué es la cadena de la infección? La cadena de la infección es el mecanismo por el cual se produce la transmisión de un agente desde su reservorio hasta su huésped. La Figura 5-2 es un esquema útil que ilustra la cadena de la infección.
CADENA DE INFECCIÓN RESERVORIO
MODO DE TRANSMISIÓN
GOTITA AGENTE
HUÉSPED SUSCEPTIBLE PUERTAS DE ENTRADA
CONTACTO DIRECTO
VECTOR VEHÍCULO
VEHICULADO POR AIRE
Figura 5-2. Cadena de la infección. (De Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program Office, 1992.)
9. ¿En qué se diferencian infecciosidad, patogenicidad y virulencia? Según los Centers for Disease Control and Prevention (CDC), la infecciosidad es la proporción de personas expuestas a un agente causal que llegan a padecer una enfermedad infecciosa. Puede medirse la infecciosidad por la tasa de ataques secundarios. La patogenicidad es la capacidad de un organismo para causar un estado de enfermedad (morbilidad), mientras que la virulencia es la capacidad para causar la muerte (mortalidad). Se puede alterar la virulencia de un patógeno. Por ejemplo, el descubrimiento de la penicilina a finales de la década de 1930 redujo de modo significativo la mortalidad de la bacteriemia neumocócica desde el 90 al 10%, aproximadamente.
81
82
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
10. ¿Qué porcentaje de infecciones bacterianas adquiridas en el hospital es resistente por lo menos a uno de los antibióticos prescritos con mayor frecuencia para su tratamiento? Se conoce como resistencia el grado en que un microorganismo causante de enfermedad no responde a los fármacos ideados para su erradicación. La prescripción excesiva de antibióticos ha llevado a la mutación de muchas bacterias como mecanismo de supervivencia frente a nuestros esfuerzos para erradicarlas. Esta compleja estrategia por parte de las bacterias ha llevado a la reducción o, en algunos casos, a la completa inefectividad de los regímenes terapéuticos actuales. En más del 70% de las infecciones bacterianas adquiridas en el hospital puede demostrarse cierto nivel de resistencia a, por lo menos, un fármaco empleado habitualmente para tratarlas. En el huésped, son múltiples los factores que determinan la resistencia, como el sexo, la edad, el estado socioeconómico, la salud basal y el estado nutricional. Además, el componente genético determina la resistencia individual a varias enfermedades (denominada resistencia innata). 11. ¿Quién recibió el Premio Nobel de Medicina en 1928 por establecer el concepto de infección aparente e inaparente? El ganador de dicho premio fue el Dr. Charles Jules Henry Nicolle. Mientras llevaba a cabo una investigación con cobayas, se infectó con el tifus. Nicolle hizo un descubrimiento muy sorprendente: algunas de las cobayas, a pesar de no mostrar síntomas aparentes de tifus, eran capaces de diseminar la enfermedad. En la actualidad, las infecciones aparentes o inaparentes suelen denominarse como infecciones sintomáticas o asintomáticas. 12. Cite los dos tipos de inmunidad. ■ Inmunidad pasiva: se transfieren a un individuo los anticuerpos formados en otra persona o animal. Este tipo de inmunidad tiene corta duración. ■ Inmunidad activa: se transfieren antígenos a un individuo a través de una puerta de entrada. Una vez ha penetrado el antígeno en el cuerpo, estimula su propio sistema inmunitario para producir anticuerpos. La exposición inicial de un antígeno y la posterior formación de anticuerpos por parte del huésped reciben la denominación de respuesta primaria. La inmunoglobulina M (IgM) es el principal anticuerpo producido durante la respuesta inmunitaria primaria, mientras que la inmunoglobulina G (IgG) domina en el momento de la reexposición, cuando contribuye la memoria celular. Esta formación de IgG explica la razón de que la inmunidad activa sea más persistente que la inmunidad pasiva.
PUNTOS CLAVE: TRANSMISIÓN DE LA ENFERMEDAD 1. El huésped, el agente y el ambiente componen el triángulo epidemiológico. 2. Los agentes infecciosos pueden ser transmitidos directa o indirectamente. 3. La patogenicidad es la capacidad para causar enfermedades, mientras que la virulencia es la capacidad para causar la muerte. 4. La tasa de ataques primarios es el número de personas que enferman, dividido por el número de las que se encuentran en riesgo. 5. Tanto la inmunidad pasiva como la activa puede adquirirse por medios naturales o artificiales. 6. Una epidemia es una situación en la que la frecuencia de una enfermedad es mayor de la esperada en relación con una población determinada en un período de tiempo.
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
13. ¿Qué tipos de inmunidad pueden adquirirse artificialmente? Tanto la inmunidad pasiva como la activa pueden adquirirse por medios naturales o artificiales. 14. La inmunidad adquirida puede ser conferida por dos modos posibles: artificial o natural. Indique el método empleado para proporcionar inmunidad adquirida artificialmente a un individuo. La administración de una vacuna profiláctica, como la vacuna frente al sarampión-parotiditisrubéola (MMR), la poliomielitis inactivada o la neumonía neumocócica, confiere inmunidad artificial al exponer el individuo a los antígenos de un patógeno vírico o bacteriano particular. 15. Un médico del servicio de urgencias de un hospital local llega a su consulta y afirma que se ha pinchado con una aguja de un paciente que se conoce es positivo a la hepatitis B. Está preocupado porque nunca ha recibido la vacuna frente a la hepatitis B (siempre ha estado «demasiado ocupado»). Como parte del protocolo estándar de patógenos transmisibles por la sangre en su consulta, ¿le administra usted inmediatamente inmunoglobulina frente a la hepatitis B, a tenor de su conocimiento del tipo de inmunidad que le conferirá? ¿Cuál es este tipo de inmunidad? Inmunidad pasiva adquirida artificialmente. La inmunoglobulina frente a la hepatitis B está indicada para exposiciones agudas al antígeno de superficie del virus de la hepatitis B (HBsAg) en un individuo que no haya recibido nunca la vacuna de la hepatitis B o que se sepa que no ha respondido a la vacuna. Esta forma provisional de inmunidad promueve el desarrollo de anticuerpos frente al antígeno de superficie del virus de la hepatitis B en, aproximadamente, 1-6 días, con una duración de protección de 2-6 meses. Para que sea efectiva, es conveniente administrarla en las primeras 24 horas, y no debe administrarse pasados los 7 días después de la exposición. En el caso de un médico previamente no vacunado o de un paciente cuyo título haya descendido por debajo del nivel de protección, debe administrarse una serie completa de la vacuna frente a la hepatitis B, al mismo tiempo que se administra la inmunoglobulina para la hepatitis (en sitios distintos) para conferir una inmunidad activa, adquirida artificialmente y de larga duración. 16. Se conoce como calostro el líquido inicial segregado por las glándulas mamarias después del nacimiento de un niño. Usted anima a las nuevas madres a que den el pecho a sus hijos porque sabe que el calostro proporciona un tipo de inmunidad. ¿Cuál? El calostro proporciona una inmunidad pasiva adquirida de forma natural. Este fenómeno se produce cuando el niño ingiere los anticuerpos contenidos en el calostro, que atraviesan la mucosa intestinal y son transportados a la sangre. 17. ¿Qué es la inmunidad de grupo? La inmunidad de grupo es la inmunidad de un grupo o comunidad (Fig. 5-3). En otras palabras, es la resistencia de un grupo a la invasión y diseminación de un agente infeccioso, basada en la resistencia que presenta una elevada proporción de los miembros de dicho grupo. Incluye un grupo vacunado. 18. ¿Por qué en Estados Unidos constituye una preocupación creciente en la salud pública la pérdida de inmunidad de grupo frente a la viruela en relación con la guerra biológica? Desde que la Organización Mundial de la Salud declarase oficialmente que la viruela había quedado erradicada en todo el mundo en 1980, y con el último caso natural registrado en 1977, los
83
84
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
A Caso inicial
AUSENCIA DE INMUNIDAD DE GRUPO
PRESENCIA DE B INMUNIDAD DE GRUPO EN EL 50%
Primera generación de la enfermedad Segunda generación de la enfermedad Tercera generación de la enfermedad Figura 5-3. Efecto de la inmunidad de grupo sobre la diseminación de la infección. El diagrama ilustra el modo de diseminación de una enfermedad infecciosa, como el sarampión, en una población susceptible si cada persona infectada estuviera expuesta a otras dos personas. En ausencia de inmunidad de grupo (A), el número de casos se duplicaría en cada generación de la enfermedad. En presencia de inmunidad de grupo del 50% (B), el número de casos permanecería constante. El signo más (+) representa una persona infectada, el signo menos (–) representa una persona no infectada, y el signo menos dentro de un círculo ( – ) representa una persona inmune que no transmite la infección a otras personas. (De Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia, W.B. Saunders, 2001.)
programas de inmunización frente a esta enfermedad se han interrumpido. Sin el beneficio de una enfermedad de producción natural o de la inmunidad activa artificial en forma de vacunación, no puede desarrollarse la inmunidad de grupo. Por tanto, en el caso de que se liberase viruela en forma de arma biológica, la ausencia de inmunidad de grupo puede convertirla en una amenaza mortal. 19. ¿Qué modificación molecular condiciona un cambio en la antigenicidad del virus de la inmunodeficiencia humana (VIH), que hace difícil el desarrollo de una vacuna efectiva frente a este virus? El responsable es un proceso conocido como deriva antigénica o variaciones antigénicas menores. Las variaciones antigénicas menores consisten en el desarrollo de mutaciones específicas en el tiempo. En ciertos virus, como el VIH, puede producirse muy fácilmente este fenómeno debido a una elevada tasa de replicación. Las variaciones antigénicas menores causan pequeños cambios en el virus, lo que hace disminuir la respuesta inmunitaria del huésped, al disminuir la eficacia de la memoria celular de las células T y B. 20. ¿Es la deriva antigénica el mismo fenómeno que las variaciones antigénicas mayores? No. Las variaciones antigénicas mayores son más importantes e inmediatas que las variaciones antigénicas menores (deriva antigénica) en las proteínas de superficie de un virus, lo que lleva a una gran alteración de la información genética. El virus de la gripe es notorio por su tendencia a desarrollar unas variaciones antigénicas menores y mayores, lo que ha dado lugar a muchas epidemias históricamente muy significativas.
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
21. Como médico recientemente nombrado de un Departamento de Salud Pública local, su primera misión es investigar un patrón de casos repetitivos de meningitis aséptica en la comunidad. Seguro que recuerda, por su sobresaliente conocimiento de la asignatura de epidemiología en la facultad, la terminología apropiada para este patrón de exceso de casos. ¿Cuál es? Periodicidad. La Figura 5-4 muestra el patrón de meningitis aséptica en Estados Unidos desde 1986 hasta 1994.
Casos notificados por 100.000 habitantes
1,2 1,1 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 1986
1987
1988
1989
1990 1991 Año (mes)
1992
1993
1994
Figura 5-4. Meningitis aséptica. Casos notificados por 100.000 personas por mes, Estados Unidos, 1986-1993. (De CDC: Summary of notifiable diseases, United States, 1993. MMWR 49:49, 1994.)
22. A medianoche le llaman y le notifican que uno de sus pacientes, una mujer de 65 años de edad con historia de insuficiencia cardíaca congestiva y enfermedad pulmonar obstructiva crónica, acaba de ser ingresada en el Servicio de Urgencias con infección por Streptococcus pneumoniae. El médico que le atiende en el Servicio de Urgencias le asegura que acaba de empezar a tratar a su paciente con penicilina, y que todo irá bien. Confortado por su tono tranquilizador, vuelve a la cama. La tarde siguiente, la enfermera de planta le llama, y le dice que su paciente ha desarrollado un cuadro séptico y que ha sido trasladada a la Unidad de Cuidados Intensivos. ¿Qué pudo ocurrir? Resistencia a los antibióticos. En 1967, se notificó en Nueva Guinea el primer caso de Streptococcus pneumoniae resistente a la penicilina y, posteriormente, en la década de 1980, apareció en Estados Unidos. La resistencia bacteriana es una consecuencia natural del proceso evolutivo, y se adquiere por medio del proceso de adaptación. Aunque el antibiótico no sea en sí mismo la verdadera causa de la resistencia, los esfuerzos del antibiótico para eliminar la infección desencadenan los instintos de supervivencia de la bacteria, que, en último término, comporta cambios genéticos. Esencialmente, la resistencia se produce porque la bacteria realiza un intento final para detener nuestros esfuerzos, ya sea por resistencia natural (es decir, evolución vertical por
85
86
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
medio de una mutación espontánea) o por resistencia adquirida (es decir, evolución horizontal por medio de la adquisición de genes de resistencia a partir de otro organismo, por medio de transducción, conjugación o transformación). En el caso de la resistencia a penicilina, las bacterias se reinventan a sí mismas con el fin de sobrevivir, y producen enzimas que destruyen el fármaco o alteran su estabilidad de unión y lesionan las paredes celulares. Aunque es crucial que realicemos todos los esfuerzos posibles para enlentecer este proceso, la realidad es que, debido al rápido crecimiento de la célula bacteriana y a la complejidad de los procesos genéticos, como la mutación y la selección, es improbable que seamos capaces de detenerlo. 23. ¿Cuál es el mejor término epidemiológico para describir el aumento de las infecciones neumocócicas durante los meses de invierno? La variación estacional es el patrón cíclico de las tasas de ataques relacionados con patógenos comunes. Hay ciertos patógenos que tienen una mayor probabilidad de infectar en determinados momentos del año. Streptococcus pneumoniae, Staphylococcus aureus y los virus influenza A y B tienen mayor probabilidad de aparecer en invierno; la legionelosis suele darse en verano, y las especies de Mycoplasma aparecen más en verano y otoño en el hemisferio norte. La Figura 5-4 muestra tanto la periodicidad de la meningitis aséptica como la variación estacional de la enfermedad. 24. Como jefe de enfermedades infecciosas de un pequeño hospital rural, el personal le pregunta con frecuencia sobre aspectos relacionados con temas de exposición. Recibe una llamada de la jefa de Enfermería del Servicio de Urgencias, y le notifica que un paciente acaba de ser ingresado con neumonía por varicela. La jefa de Enfermería se muestra preocupada porque el Departamento de Salud le comunica que una de las nuevas enfermeras, que había atendido a este paciente, tiene un título de varicela que se ha negativizado. A tenor de sus conocimientos sobre el período de incubación de la varicela, ¿qué consejo le daría a la jefa de Enfermería? Los trabajadores del Departamento de Salud Pública vigilan a los pacientes con varicela debido al largo período de incubación y a la necesidad de conceder un permiso por baja laboral a los trabajadores no inmunizados (es decir, aquellos que no tienen inmunidad natural y los trabajadores no inmunes que no recibieron la vacuna del virus de la varicela vivo atenuado) de 10 a 21 días después de la exposición. El período de incubación es el intervalo de tiempo entre el contacto inicial con el agente infeccioso y la manifestación inicial de síntomas asociados con la infección varicelosa. El virus de la varicela tiene un largo período de incubación, de 14 a 21 días. Según el Massachusetts Department of Public Health, los trabajadores en el área sanitaria susceptibles a la varicela deben ser separados del trabajo desde los días 10 a 21 tras la última exposición. Sin embargo, si la enfermera mencionada recibe inmunoglobulina frente al virus de la varicela-zóster (VZIG), su exclusión debe prolongarse hasta 28 días después de la exposición. Se subraya con frecuencia la necesidad de dar la baja a los trabajadores 4 días antes del comienzo del período de incubación, porque el virus de la varicela es contagioso desde 2 días antes del comienzo de la erupción. Si la enfermera contrajese la enfermedad, debe permanecer alejada del trabajo hasta que ya no sea contagiosa, clásicamente 6-8 días, o hasta que todas las vesículas hayan pasado a la fase de costras. 25. ¿Qué es una tasa de ataque? Una tasa de ataque es parecida a la tasa de incidencia. Clásicamente, se emplean las tasas de ataque en relación con un grupo de población específico durante cierto período de tiempo. Se emplea, con frecuencia, para cuantificar las epidemias.
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
Índice de ataque primario =
N.º de personas en riesgo en las que se desarrolla la enfermedad Número total de personas en riesgo
Un ejemplo de tasa de ataque primario es el proporcionado por un brote de infección por Salmonella que se produjo en octubre de 2004 en un restaurante de East Oshkosh. De las 200 personas que comieron allí, 100 enfermaron. La tasa de ataque sería de 100/200 = 0,5 = 50%. 26. Un centenar de niños en edad escolar estuvieron expuestos a la varicela, y 10 contrajeron la enfermedad. Se recomendó a los niños que permanecieran en sus domicilios con sus hermanos menores que no estuviesen en edad escolar y que nunca habían estado expuestos a la varicela. Lamentablemente para los padres, entre los 20 hermanos de menor edad ninguno había recibido la vacuna de la varicela. Con posterioridad, 5 de ellos contrajeron la varicela. A tenor de esta información, ¿cuál sería la tasa de ataques secundarios en este brote de varicela? La tasa de ataques secundarios es el cociente entre el número de nuevos casos entre los contactos que se producen durante el período de incubación especificado después de la exposición a un caso primario, y el número total de contactos expuestos (es decir, diseminación de la enfermedad de persona a persona a partir de los casos primarios a otras personas). La fórmula de la tasa de ataques secundarios es la siguiente: N.º de casos que padecen la enfermedad dentro del período de incubación N.º de individuos susceptibles que estuvieron expuestos a los casos primarios La tasa de ataques secundarios de la varicela entre los contactos íntimos no vacunados en este grupo de hermanos sería de 5/20 o 25%. 27. ¿Qué constituye un ejemplo de tasa de letalidad (TL o CFR)? La TL o CFR se expresa clásicamente como el porcentaje de individuos que son diagnosticados de una cierta enfermedad y, posteriormente, fallecen de dicha enfermedad en particular dentro de un período de tiempo especificado. Por ejemplo, 1.000 estudiantes universitarios de Boston padecieron meningitis meningocócica, y en el año 2003, 10 de los estudiantes fallecieron por complicaciones directamente relacionadas con la enfermedad. La tasa de letalidad sería 10 muertes/1.000 casos diagnosticados; es decir, una TL o CFR del 1% en 2003. 28. ¿Cómo se pueden recordar las diferencias entre epidemia, endemia y pandemia? Podría intentar recordar las clases de lengua del instituto y mirar el origen de estas palabras. ■ Epidemia: en latín, epi- significa «además» o «encima de». Al definir una epidemia, nos referimos al hecho de que cada persona infectada está infectando a otros múltiples individuos, de modo que el número de personas infectadas crece de modo exponencial. En otras palabras, cada persona infectada se «suma» rápidamente al problema. ■ Endemia: el significado en latín de esta raíz es «en». Recuerde que endemia hace referencia a una enfermedad que siempre está presente, en mayor o menor medida, en las personas que viven «en» una localización geográfica particular. ■ Pandemia: en griego pan significa «todo». Una pandemia es una epidemia que se disemina por una gran área geográfica o «toda». Recuerde que vista panorámica es la vista de un cuadro «grande» o de «toda» el área geográfica. Y, por supuesto, recuerde que «-demia» es la raíz de «población» o «pueblo» en griego.
87
88
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
29. ¿Qué significado tiene la palabra epidemia en español básico? Una epidemia es, sencillamente, una situación en la que se observa una mayor frecuencia de la enfermedad o lesión de la que se espera, para una población y período de tiempo determinados. 30. ¿Qué es un brote? Es otro término para designar una epidemia.
PUNTOS CLAVE: DETECCIÓN DE UNA ENFERMEDAD INFECCIOSA 1. Considere siempre una enfermedad multisistémica, y revise todos los factores de confusión, al diagnosticar una enfermedad infecciosa. 2. Ponga en primer término de la lista de los diagnósticos diferenciales las enfermedades infecciosas nuevas tratables. 3. En este ambiente y era de enfermedad potencialmente inducida por el bioterrorismo, es preciso considerar las enfermedades por agentes físicos, biológicos y laborales, así como por agentes químicos. 4. Son más comunes las formas de presentación inusuales de enfermedades infecciosas patológicas conocidas.
31. Si tenemos en cuenta que los histogramas son herramientas útiles, usted puede elegir representar gráficamente un brote reciente de gripe utilizando este método. ¿Cómo se denominaría, en términos epidemiológicos, tal diagrama? El empleo de un histograma para ilustrar el curso de una epidemia (representando el número de casos según el tiempo de comienzo) recibe la denominación de curva epidémica. Una epidemia causada por una exposición común única (es decir, una epidemia de origen único) está causada, con frecuencia, por un alimento o agua contaminados. La curva epidémica de un brote de origen único tiene una elevación y una caída bruscas, con un período de incubación común en los afectados (Fig. 5-5). Las epidemias propagadas, con frecuencia diseminadas por contacto de persona a persona, presentan una meseta, que representa la superposición de las exposiciones y de los períodos de incubación (Fig. 5-6). Las epidemias propagadas no controladas tienen unos picos progresivamente más altos. 32. ¿Qué es el período de incubación de una enfermedad? Es el tiempo transcurrido desde los cambios inaparentes entre la exposición del huésped al agente infeccioso hasta el comienzo de la enfermedad clínica en el huésped. Con frecuencia, el período de incubación es una herramienta poderosa para determinar el origen de una epidemia de origen único, al hacer un cálculo retrospectivo para determinar el período de exposición probable de los afectados y desarrollar una lista de causas probables. 33. A las 4 de la madrugada le llama la enfermera de una escuela local y le comenta que tiene 52 estudiantes en la sala de espera con náuseas, vómitos y diarrea
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
40
Personal de plantilla Residentes
Casos
30
20
10
0 10
12
14
16
18
20
22
24
26
28
30
Fecha de comienzo Figura 5-5. Curva epidémica de origen único de un brote de gripe en una residencia de ancianos. Louisiana, agosto de 1993. (De CDC: Influenza A outbreaks – Louisiana, August, 1993. MMWR 42[36]:689-692, 1993.)
de comienzo brusco. Teme que se trate de una intoxicación por Salmonella por un pollo ingerido en la cena celebrada la noche pasada. ¿Qué debe hacer? Debe dar comienzo a las 10 etapas de una investigación de un brote, relacionadas más adelante, tal como indica el Center for Disease Control and Prevention: 1) Prepararse para el trabajo de campo; 2) establecer la existencia de un brote; 3) comprobar el diagnóstico; 4) definir e identificar los casos; 5) describir y orientar los datos en términos de tiempo, lugar y persona; 6) desarrollar hipótesis; 7) evaluar hipótesis; 8) depurar las hipótesis y llevar a cabo estudios adicionales; 9) poner en práctica medidas de control y de prevención, y 10) comunicar los resultados. 34. Una enfermera de 62 años de edad de un centro hospitalario se pone en contacto con el Departamento de Salud Laboral, alegando que fue diagnosticada por su médico de atención primaria de neumonía por Staphylococcus aureus resistente a la meticilina (MRSA). La enfermera estaba segura de que había contraído la infección a partir de un paciente que acababa de ser diagnosticado portador de MRSA. ¿Cómo puede saberse si la enfermera contrajo el MRSA a partir de dicho paciente? Se pueden recuperar cepas de MRSA tanto a partir de la enfermera como del paciente. Entonces, puede llevarse a cabo un genotipado mediante el empleo de electroforesis en gel de campo pulsado (PFGE) en las cepas de ambos individuos. Si los patrones por PFGE son idénticos, la enfermera tiene razón. 35. A su consulta acude un trabajador sanitario después de una exposición a un patógeno transmitido por sangre de un paciente que se sabe es positivo al virus de la hepatitis C. Evalúa al trabajador, comienza el tratamiento y el
89
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
4 Casos confirmados 3
Casos
90
Casos sospechosos
2
1
0 Feb. 28-Mar. 1 Mar. 10-11 Ma.r 20-21 Mar. 30-31 Abr. 9-10 Abr. 19-20 Abr. 29-30 Fecha de comienzo (intervalo a días alternos) Figura 5-6. Epidemia propagada de infección por Escherichia coli (E. coli) 0104:H21 como consecuencia de una exposición continuada a leche contaminada. Helena, Montana, 1994. (De CDC: Outbreak of acute gastroenteritis attributable to Escherichia coli Serotype 0104:H21 – Helena, Montana, 1994. MMWR 44[27]:501-504.
seguimiento de acuerdo a las recomendaciones de los CDC. Se muestra usted interesado en seguir al paciente debido a la historia comentada del paciente origen. ¿Qué puede hacer, además de seguir las recomendaciones de los CDC, en términos de vigilancia? En este contexto, puede ser útil un programa de vigilancia médica reforzado por las siguientes razones: ■ Hasta el 20% de las seroconversiones de la hepatitis C revierten a ausencia de carga vírica. ■ Es crítico efectuar un diagnóstico precoz en caso de que se produzca la reversión; es crítico también realizar un consejo precoz en caso de producirse una conversión postexposición, porque el tratamiento entre 6 meses y un año mejora el desenlace y previene frente a una respuesta vírica mantenida en el 98% de los trabajadores sanitarios. ■ La prueba de anticuerpos frente al virus de la hepatitis C por análisis de inmunoabsorción ligada a enzimas (ELISA) tiene una baja especificidad, con una tasa de falsos positivos de hasta el 40%. A tenor de estos hechos, tal vez debería solicitar una prueba de anticuerpos frente al virus de la hepatitis C en el momento inicial, y luego solicitar una prueba de reacción en cadena de la polimerasa (PCR) con el virus ARN de la hepatitis C, y una prueba de anticuerpos frente al virus de la hepatitis C en los meses 1, 3 y 6.
ENFERMEDADES INFECCIOSAS EN LA GUERRA BIOLÓGICA Y BIOTERRORISMO 36. ¿Qué características de las enfermedades infecciosas las hacen atractivas para el empleo como armas biológicas y en el bioterrorismo? Cualquiera o todas las características que se exponen a continuación pueden hacer atractiva una enfermedad infecciosa particular:
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS ■ ■ ■ ■ ■
Capacidad de contagio. Período de incubación. Métodos de distribución viables (p. ej., aerosolización). Inmunidad de grupo inadecuada o ausencia total. Sociedad móvil, lo que permite una rápida diseminación de la enfermedad a zonas distantes del área de distribución.
37. ¿Qué enfermedad o enfermedades de la lista que sigue podrían ser utilizadas en un ataque bioterrorista? ■ Viruela. ■ Botulismo. ■ Carbunco. ■ Tularemia. ■ Peste bubónica. ■ Fiebre hemorrágica vírica. ■ Fiebre Q. ■ Brucelosis. Según los CDC, todos los agentes de la lista tienen el potencial de ser utilizados en la guerra biológica. 38. Según los CDC, ¿cuáles son los organismos que representan la máxima amenaza con respecto al bioterrorismo? Los CDC designan los organismos de este tipo como categoría A. Estos agentes incluyen los causantes de carbunco, peste, viruela, tularemia y fiebre hemorrágica vírica, así como la toxina del botulismo. 39. ¿Qué es la vigilancia sindrómica? De acuerdo con la Division of Public Health Surveillance and Informatics de los CDC, la vigilancia sindrómica es el proceso de recogida e interpretación de los datos de salud que preceden a un diagnóstico de certeza y puede indicar un caso o un brote que desencadenaría una nueva respuesta de salud pública. 40. ¿Por qué los escolares podrían ser un buen origen en relación con los datos epidemiológicos de un posible ataque bioterrorista? Con el empleo de la vigilancia sindrómica, una población específica, como los niños en edad escolar, pueden ser monitorizados en busca de síntomas relacionados con la exposición a agentes infecciosos. Una asistencia combinada durante cinco días por semana, notificación y registro de bajas y, en muchos casos, la disponibilidad de enfermeras en las escuelas para efectuar la recogida de datos, hacen que los niños en edad escolar constituyan una excelente población para la vigilancia epidemiológica. Además, los escolares pueden servir como vectores eficientes para la transmisión de los patógenos relacionados con el bioterrorismo, ya que un niño puede, potencialmente, infectar a una familia entera. La detección precoz de las tendencias de la enfermedad puede llevar a estrategias de intervención para prevenir un problema de mayor extensión. 41. ¿Cómo se puede conseguir información en tiempo real sobre la preparación y respuesta al empleo de agentes infecciosos en sucesos terroristas? El registro clínico de los CDC en relación con el terrorismo y respuesta de emergencia proporciona actualizaciones sobre el estado de preparación en bioterrorismo y oportunidades de formación gratis a los usuarios registrados en http://www.bt.cdc.gov/clinregistry/index.asp.
91
92
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
42. ¿Por qué las partículas de tamaño intermedio (menores de 5 μm) son importantes en la aerosolización de los agentes infecciosos? Las partículas de un tamaño inferior a 5 μm pero mayor que 1 μm tienen mayor probabilidad de transmitir la infección. Estas partículas de tamaño intermedio pueden ser inhaladas más fácilmente y depositarse en las regiones pulmonares profundas del intercambio gaseoso. Aunque las partículas mayores de 5 μm son capaces de transmitir la infección a través de la faringe o de la cavidad nasal, suelen quedar suspendidas y son eliminadas con la exhalación. Los métodos sugeridos para la aerosolización han incluido el empleo de fumigadores y de arrastre en el espacio aéreo ambiental a través de los sistemas de ventilación en oficinas y escuelas. 43. ¿Por qué los agentes infecciosos podrían ser más nocivos que los agentes químicos? Los agentes infecciosos tienen capacidad de replicarse, y algunos son contagiosos. Una vez han sido liberadas las armas químicas y se logra la descontaminación, no continúa exponiéndose ya a ellas una gran población. Sin embargo, como sucede en la viruela, puede continuar la transmisión del agente infeccioso hasta que se controla el último caso. El control puede ser difícil, debido a los diferentes períodos de incubación y a la inmunidad individual. 44. ¿Durante cuánto tiempo puede permanecer viable el virus de la viruela fuera del huésped humano? El virus de la viruela puede permanecer en estado viable durante meses sobre objetos inanimados, como ropas y almohadas. Durante las guerras contra los franceses y los indios, los británicos distribuyeron mantas infectadas con viruela, con lo que se aniquiló a casi el 50% de las tribus indias. 45. Dado que la vacuna de la viruela es una vacuna viva, ¿puede desarrollarse viruela en los pacientes a partir de ella? No. Aunque los virus de la variola-vacuna y de la viruela son ortopoxvirus, son organismos diferentes. Aunque el virus de la variola puede causar reacciones graves, como vaccinia generalizada, que puede ser muy similar a la viruela, no causa la auténtica enfermedad.
PÁGINAS WEB 1. http://www.aidworkers.net/technical/health/epidemiology.html 2. http://www.brown.edu/Courses/Bio_160/Projects1999/av/mainpage.html 3. http://www.bt.cdc.gov/Agent/agentlist.asp 4. http://www.fda.gov/fdac/features/795_antibio.html 5. http://www.syndromic.org/syndromicconference/2002/Supplementpdf/Pavlin.pdf 6. http://www.niaid.nih.gov/factssheets/antimicro.htm. 7. http://www.nobelprize.org/medicine/laureates/1928/press.html 8. http://www.microbeworld.org.htm/cissues/resist/resist_1.htm 9. Wikipedia:http://en.wikipedia.org/wiki/World_War_I
TRANSMISIÓN DE ENFERMEDADES E INVESTIGACIÓN DE EPIDEMIAS
BIBLIOGRAFÍA 1.• Daigle CC, Chalupa DC, Gibb FR, et al: Ultrafine particle deposition in humans during rest and exercise. Inhal Toxicol 15(6):539–552, 2003. 2.• Fenner F, Henderson DA, Arita I, et al. Smallpox and its Eradication. Geneva, Switzerland, World Health Organization, 1988. 3.• Gates RA. Infectious Disease Secrets, 2nd ed. Philadelphia, Hanley & Belfus, 2003. 4.• Jaeckel E. Treatment of hepatitis C with interferon alfa-2b. N Engl J Med 345:1252–1257, 2001. 5.• MacFarlane J. Community-acquired pneumonia. Br J Dis Chest 81, 116–127, 1987.
93
Christopher Jankosky, MD, MPH
CAPÍTULO 6
ASOCIACIÓN Y CAUSALIDAD 1. ¿Es lo mismo la asociación que la causalidad? No. Una asociación es una relación estadística entre dos o más sucesos, características u otras variables. Para apoyar la existencia de causalidad se requiere un nivel probatorio superior. La causalidad implica que un cambio en una variable es responsable, directa o indirectamente, de un cambio observado en otra variable. 2. ¿Demuestran causalidad los estudios epidemiológicos? No. Los estudios epidemiológicos no pueden demostrar que exista causalidad. Tales estudios, no obstante, pueden ser útiles para apoyar una asociación causal. 3. ¿A qué cuatro mecanismos puede deberse una asociación entre una exposición y un desenlace? ■ Carácter espurio (es decir, artefacto): la asociación es el resultado de un error o sesgo en el diseño, la ejecución o el análisis del estudio. ■ Factor de confusión: la relación entre una exposición y el desarrollo de una enfermedad se distorsiona por una variable adicional. Para ser una variable de confusión, dicha variable ha de asociarse tanto con la exposición como con la enfermedad. Si se identifican los factores de confusión, en ocasiones se pueden utilizar ajustes para reducir al mínimo su impacto. ■ Azar: siempre existe la posibilidad de que una asociación observada sea debida sólo al azar. Por ejemplo, un valor de p de 0,05 corresponde a la probabilidad de que el 5% de la asociación se deba sólo al azar. Aun cuando se obtengan valores pequeños de p, siempre existe la posibilidad de que una asociación no exista realmente y que la relación observada lo sea por pura casualidad. ■ Causalidad: una asociación debida a un mecanismo causal puede determinarse generalmente después de que se hayan considerado los tres mecanismos anteriores y se empleen criterios como los postulados de Hill. Una asociación causal hace referencia a un factor que, de modo directo o indirecto, causa el desenlace observado. 4. ¿Qué es un factor de riesgo? Una condición, elemento o actividad que puede afectar de modo adverso a la salud de un individuo. Se asocia de modo consistente con una mayor probabilidad de desarrollo de una enfermedad. Por otra parte, los factores protectores son aquellas condiciones que disminuyen las probabilidades para que se desarrolle una enfermedad en una persona concreta. 5. ¿Es lo mismo un factor de riesgo que una causa? No. Los factores de riesgo en un paciente determinado sólo se asocian con una mayor probabilidad de desarrollo de una enfermedad o afección. No implican necesariamente una relación de causa a efecto.
95
96
ASOCIACIÓN Y CAUSALIDAD
6. ¿De qué modo cuantifican los epidemiólogos el riesgo? Con frecuencia, los epidemiólogos consideran el riesgo bajo los conceptos siguientes: ■ Riesgo absoluto: la magnitud del riesgo de enfermedad en un grupo de personas con una exposición específica. ■ Riesgo relativo: la fuerza de la asociación entre una exposición y una enfermedad. ■ Riesgo atribuible: la proporción de riesgo de enfermedad que puede atribuirse a una exposición.
PUNTOS CLAVE: TIPOS DE ASOCIACIÓN 1. Causalidad. 2. Carácter espurio (es decir, artefacto). 3. Factor de confusión. 4. Azar.
7. ¿Cuáles son los diseños de estudio que se utilizan habitualmente para determinar si existe asociación entre una característica específica y una enfermedad? Los dos diseños más habituales son el estudio de casos y controles y el estudio de cohortes. Ambos evalúan las características individuales, y por ello son extraordinariamente útiles para determinar si existe una asociación. Para cada sujeto individual, se dispone de información sobre las características y el desenlace de la enfermedad. Como es posible el emparejamiento de datos individuales, puede utilizarse un análisis más potente y constante para evaluar el factor de confusión, la modificación del efecto y el sesgo. Por ello, los estudios de las características individuales son el método epidemiológico utilizado con mayor frecuencia para evaluar las asociaciones. 8. ¿Qué es un estudio ecológico? Un estudio ecológico evalúa las características de grupo en una población. Los datos utilizados en estos estudios no corresponden a un individuo concreto en cuanto a factor de riesgo y desenlace. Estos estudios incluyen sólo datos de grupos, o de una población en su totalidad, con frecuencia obtenidos a partir de grandes bases de datos centralizadas. Un ejemplo de estudio ecológico es la asociación entre las tasas crecientes de obesidad y las tasas crecientes de diabetes en Estados Unidos. Aunque un estudio así no demuestra que en los individuos obesos se esté desarrollando diabetes, genera una hipótesis que puede ser explorada mediante un estudio de casos y controles o un estudio de cohortes de las características individuales. 9. ¿Qué es la falacia ecológica? Los estudios ecológicos evalúan características de grupo en una población. Dado que no se sigue a los individuos, no es posible atribuir una relación causal a una asociación observada. Por ejemplo, los países con una elevada ingesta promedio de grasa en la alimentación tienden también a tener mayores tasas de cáncer de mama. Sin embargo, donde hay mayores tasas de ingesta de grasa y mayores tasas de cáncer de mama es en los países más industrializados. No pueden tomarse en consideración todas las diferencias entre los países industrializados y los
ASOCIACIÓN Y CAUSALIDAD
que se encuentran en vías de desarrollo. Por ello, quedan necesariamente excluidos otros muchos factores causales potenciales. Además, no puede considerarse la variabilidad entre los individuos. En el ejemplo precedente, no se sabe si las mujeres en las que se estaba desarrollando cáncer de mama eran las mismas que tenían una alimentación rica en grasa. Puede que las que padecieran cáncer de mama comieran predominantemente alimentos bajos en grasa. Los estudios ecológicos son valiosos para sugerir campos de futuras investigaciones, pero, por sí mismos, no pueden demostrar una relación causal. 10. ¿Por qué con frecuencia se hace referencia a Austin Bradford Hill en la literatura de la causalidad? Se han propuesto numerosas directrices para permitir una evaluación crítica y derivar inferencias causales a partir de estudios epidemiológicos. Mayoritariamente se atienen al empleo de toda la información disponible para establecer si una asociación es causal. Las directrices más ampliamente citadas corresponden a los denominados criterios de Hill. Hill propuso estos criterios en 1965 en forma de lista de estándares, adaptándolos a partir del informe de 1964 del U.S. General Surgeon sobre tabaquismo y salud. Sirven como guía general, y no necesariamente han de cumplirse todos ellos para establecer la causalidad. Aunque algunos de estos criterios han sido cuestionados en los últimos 40 años, siguen siendo un marco razonable por el que se pueden determinar asociaciones causales.
PUNTOS CLAVE: TIPOS DE CAUSALIDAD 1. Directa o indirecta. 2. Necesaria y/o suficiente. 3. Inmediata o remota.
11. ¿Cuáles son los criterios de Hill en relación con la causalidad? ■ Fuerza de la asociación: cuanto más fuerte sea la asociación (p. ej., riesgo relativo u oportunidad relativa), mayor probabilidad de que la relación sea causal. ■ Consistencia: la asociación se observa de modo repetido en estudios llevados a cabo por personas diferentes, en diferentes marcos, entre diferentes poblaciones y con empleo de métodos diferentes. ■ Especificidad: puede aislarse una exposición específica de otras, y asociarse con una enfermedad específica. Éste es quizá el criterio más difícil de cumplir, porque en la práctica muchas exposiciones (p. ej., cigarrillos o radiación) se asocian con múltiples efectos, y las enfermedades específicas tienen con frecuencia, más de una causa. ■ Temporalidad: el factor que se supone ha causado la enfermedad tiene que haberse producido o presentado antes del desarrollo de la enfermedad. ■ Gradiente biológico: existe una relación entre la dosis y la respuesta, de modo que a medida que aumenta la exposición, aumenta también el riesgo de desarrollo de la enfermedad o su gravedad. ■ Verosimilitud: la relación es explicable de acuerdo con los conocimientos actuales. Hill reconoció que éste era un criterio que no se puede exigir, ya que habrá asociaciones nuevas que descubran deficiencias en el pensamiento biológico actual.
97
98
ASOCIACIÓN Y CAUSALIDAD ■
■ ■
Coherencia: la asociación no entra seriamente en conflicto con la historia y la biología del proceso de la enfermedad. Prueba experimental: los experimentos apoyan la asociación. Analogía: previamente, se han descrito ejemplos de asociaciones similares en relación con otras entidades morbosas.
Hill AB: The environment and disease: Association or causation? Proc R Soc Med 58:295–330, 1965.
12. ¿Cuál es la jerarquía de las pruebas experimentales? No todas las pruebas experimentales tienen el mismo peso. La jerarquía de los diseños de investigación epidemiológica tiene cuatro niveles principales. Del más fuerte al más débil, éstos son: 1.• Ensayos clínicos aleatorizados. 2.• Estudios de cohortes. 3.• Estudios de casos y controles y estudios transversales. 4.• Casos clínicos y series de casos. 13. ¿Cuál es la diferencia entre causalidad directa e indirecta? La causalidad directa describe una vía causal en la que un factor causa directamente una enfermedad, sin etapas intermedias. La causalidad indirecta describe una relación en la que un factor causa una enfermedad pasando por una o más etapas intermedias. Debido a la compleja naturaleza de la biología y fisiología humanas, casi siempre hay etapas intermedias en las relaciones observadas epidemiológicamente. 14. ¿Cuáles son los cuatro tipos de relaciones causales? ■ Necesaria y suficiente: un factor es necesario (es decir, se produce la enfermedad sólo si se halla presente el factor), y suficiente (es decir la exposición siempre lleva a la enfermedad). Este tipo de relación se observa de modo muy infrecuente. ■ Necesaria pero no suficiente: se requiere más de un factor, por lo general, en una secuencia temporal. Los estadios de comienzo y progresión asociados con los modelos de carcinogénesis son un ejemplo de este tipo de relación causal. ■ Suficiente pero no necesaria: un factor específico puede causar una enfermedad, pero otros factores por sí mismos pueden causar la misma enfermedad. Por ejemplo, la deficiencia en vitamina B12 puede causar anemia, pero otros factores también pueden dar lugar a anemia. ■ Ni suficiente ni necesaria: un factor específico puede combinarse con otros factores y producir una enfermedad. Sin embargo, puede producirse la enfermedad incluso en ausencia del factor. Es éste un modelo causal observado con frecuencia en las enfermedades crónicas. Por ejemplo, múltiples factores de riesgo conocidos para el desarrollo de la cardiopatía aterosclerótica no son ni suficientes ni necesarios. 15. ¿Qué es un factor de confusión? Existe el denominado fenómeno de confusión cuando se produce la asociación exposicióndesenlace únicamente porque un tercer factor distinto se asocia tanto con la exposición como con el desenlace. La asociación observada es verdadera, pero no es causal (véase la Figura 6-1). Un ejemplo habitual de confusión es la relación entre el consumo de alcohol, el cáncer de pulmón y fumar cigarrillos. Los individuos que fuman más cigarrillos tienden a tomar más bebidas alcohólicas, y los individuos que fuman más cigarrillos tienen mayor riesgo de cáncer de pulmón. Los estudios epidemiológicos han puesto de manifiesto una asociación entre el consumo de bebidas alcohólicas y el cáncer de pulmón, aunque no hay un nexo causal entre ellos: fumar cigarrillos es pues un factor de confusión. Después de controlar el hecho de fumar cigarrillos, desaparece la asociación entre consumo de alcohol y cáncer de pulmón.
A. Causal
B. Debida a algún factor de confusión
Característica en estudio
Característica en estudio
Factor X
Enfermedad
Asociación observada
Asociación observada
ASOCIACIÓN Y CAUSALIDAD
Enfermedad
Figura 6-1. Relación causal frente a relación debida a uno o varios factores de confusión. (De Gordis L. Epidemiology. 3rd ed. St. Louis: ElsevierSaunders, 2004.)
16. Indique algunos métodos para minimizar los factores de confusión (confounding). ■ Se pueden emparejar (matching) los participantes del estudio en relación con la variable de confusión potencial (p. ej., edad o sexo). ■ Puede recogerse información sobre el factor de confusión potencial durante el estudio, y puede ajustarse su posible efecto durante el análisis. ■ Puede restringirse el estudio a un grupo poblacional que carezca del factor de confusión, rasgo o conducta. 17. Explique la modificación del efecto. Se conoce como modificador del efecto un factor que cambia la fuerza de una asociación entre dos variables. La interacción por el tercer factor (el modificador del efecto) lleva a una asociación mayor o menor de la que se esperaría en su ausencia. 18. ¿Qué es el sinergismo? El sinergismo es un tipo de modificación del efecto. Hace referencia a una situación en la que dos factores de riesgo, cuando se hallan presentes juntos, dan lugar a un efecto mayor que un simple efecto aditivo. Por ejemplo, tanto el fumar cigarrillos como la exposición al asbesto aumenta el riesgo de cáncer de pulmón. Sin embargo, cuando un individuo se halla expuesto a los dos factores, el riesgo de cáncer de pulmón es muy superior al que se esperaría al sumar simplemente los dos riesgos. Este concepto se basa, generalmente, en consideraciones estadísticas y, bajo circunstancias ideales, debe ser validado por el conocimiento biológico. 19. Defina qué es un sesgo. Un sesgo es un error sistemático en el diseño, desarrollo o análisis de un estudio, que da lugar a un resultado que difiere de la verdad. El sesgo no es, sencillamente, un error en el cálculo. Por ejemplo, supongamos un diseño de estudio con un sesgo inherente que fue realizado de modo impecable por cinco instituciones de investigación diferentes. El promedio de sus resultados podría producir un cálculo equivocado del efecto de una exposición sobre el riesgo de enfermedad. 20. Indique las dos categorías principales de sesgo. Sesgo de información y sesgo de selección.
99
100
ASOCIACIÓN Y CAUSALIDAD
21. ¿Qué es un sesgo de información? Un sesgo de información es el resultado de unos procedimientos imperfectos en la recogida de datos o en definiciones imperfectas de las variables del estudio. 22. ¿Qué es un sesgo de selección? Puede producirse un sesgo de selección cuando un investigador selecciona inadecuadamente su fuente de población o sus criterios de elegibilidad, o cuando hay condiciones que pueden influir sobre la elección de los individuos que participan. Aunque en algunos casos de sesgo de selección la validez interna del estudio puede no verse afectada, es probable que afecte a la generalización o validez externa del estudio. El sesgo de exclusión es un tipo de sesgo de selección en el que los investigadores aplican criterios de elegibilidad diferentes a los casos y a los controles. Por ejemplo, consideremos un estudio de casos de abuso de drogas en la sala de urgencias del centro de una ciudad. En relación con una población control, los investigadores deciden utilizar entrevistas telefónicas de los individuos cuyas direcciones se hallan en el mismo vecindario. Un estudio así excluiría a los que no tienen domicilio o a los que no disponen de teléfono. El denominado sesgo de Berkson es otro tipo de sesgo de selección. Surge a partir de un fenómeno matemático cuando los estudios utilizan las tasas de ingreso hospitalario. Las tasas de hospitalización en los individuos con la enfermedad objeto de estudio difieren de las tasas de los que tienen la enfermedad empleada como control. 23. ¿Cuáles son los cuatro tipos principales de sesgo de información? ■ Sesgo de clasificación errónea (misclassification bias). ■ Sesgo de recuerdo (recall bias). ■ Sesgo de notificación (reporting bias). ■ Sesgo de vigilancia (surveillance bias). 24. Describa el sesgo de clasificación errónea (misclassification bias). Los participantes en el estudio pueden ser asignados de modo erróneo a un grupo de estudio incorrecto. Por ejemplo, en un estudio de casos y controles algunos de los casos pueden clasificarse erróneamente como controles y algunos de los controles pueden ser clasificados de modo erróneo como casos.
PUNTOS CLAVE: TIPOS DE SESGO 1. Sesgo de información. 2. Sesgo de clasificación errónea. 3. Sesgo de recuerdo. 4. Sesgo de notificación. 5. Sesgo de vigilancia. 6. Sesgo de selección. 7. Sesgo de exclusión. 8. Sesgo de tiempo de inclusión. 9. Sesgo de Berkson.
ASOCIACIÓN Y CAUSALIDAD
Puede introducirse el sesgo de modo aleatorio (es decir, no diferencial), como cuando uno de los diferentes entrevistadores realiza más encuestas a pacientes que los otros entrevistadores. En la clasificación errónea no diferencial existe un error en el método de recogida de datos que afecta por igual a los casos y a los controles. Este hecho puede equilibrar ambos grupos, disminuyendo el sesgo global en la asociación resultante. O el sesgo puede ser sistémico (es decir, diferencial), como cuando todos los entrevistadores preguntan a los pacientes casos más preguntas de encuesta que las que preguntan a los pacientes controles. En la clasificación diferencial errónea, la tasa de clasificación errónea es mayor en los casos o en los controles, con lo que se introduce un posible error significativo. 25. Describa el sesgo de recuerdo. El sesgo de recuerdo es un recuerdo diferencial entre los casos y los controles. Una información importante puede ser recordada por el paciente caso, pero olvidada fácilmente por el control. Existe una tendencia natural a que un individuo afectado de una enfermedad intente identificar una exposición infrecuente que pueda haber contribuido a su enfermedad, lo que con frecuencia da lugar a un sesgo de clasificación errónea. 26. Describa el sesgo de notificación. Se produce el sesgo de notificación cuando un mayor porcentaje de sujetos casos o controles se muestran reacios a notificar una exposición debido a actitudes, percepciones u otras preocupaciones. Esta retirada de información también puede dar lugar a un sesgo de clasificación errónea. 27. Describa un sesgo de vigilancia. Es mejor descubrir una enfermedad en una población monitorizada que en la población general. La subpoblación de pilotos de aviones es sometida a evaluaciones médicas de rutina frecuentes e intensivas. Algunas afecciones pueden tener una mayor prevalencia en los pilotos que en la población global, en la que no se efectúa esta vigilancia de rutina. 28. ¿Qué es el sesgo del tiempo de inclusión (lead-time bias)? Es un hecho reconocido que el cribado médico adelanta la fecha de diagnóstico de una enfermedad. Considere que, como promedio, las mujeres sometidas a cribado en busca de cáncer de mama dispondrán de un estadio de su enfermedad más pronto que las que acuden fuera de un programa de cribado. Se define como tiempo de inclusión la diferencia en el tiempo entre la fecha del diagnóstico con cribado y la fecha del diagnóstico sin cribado. Considere, por ejemplo, un nuevo tratamiento anticanceroso que se está probando en un grupo de pacientes sometidos a cribado. A menos que se considere el tiempo de inclusión, su tiempo de supervivencia no debe ser comparado con un grupo de pacientes control no sometido a cribado. De otro modo, el aumento en el tiempo de supervivencia debido solamente a la fecha avanzada del diagnóstico dará lugar a un sesgo en el tiempo de inclusión. 29. ¿Qué es el efecto del trabajador sano? Las subpoblaciones de trabajadores suelen ser más sanas que la población general. No sólo los sanos tienen una mayor probabilidad de obtener empleo sino que, una vez lo han conseguido, tienen una mayor probabilidad de tener un seguro médico pagado por su empresa, lo que mejora el acceso al sistema sanitario en comparación con los que no tienen trabajo. Así, hay que ser cauteloso al interpretar estudios en los que se comparan poblaciones trabajadoras con poblaciones generales.
101
102
ASOCIACIÓN Y CAUSALIDAD
30. Cuando los tamaños de las muestras son pequeños, quizá debido a una exposición o enfermedad infrecuente, puede ser difícil tener suficiente poder estadístico para demostrar una asociación. Describa un método para estudiar este problema. Puede efectuarse una revisión sistemática cuantitativa, que recibe la denominación habitual de metaanálisis. En este análisis, se suman los resultados de estudios múltiples que se consideran combinables, para obtener un cálculo más preciso de la relación en estudio. Aunque el metaanálisis no puede superar las limitaciones y sesgos potenciales de los estudios individuales, puede ser un método muy útil para aclarar una asociación.
PÁGINAS WEB 1. http://www.acepidemiology.org 2. http://www.apic.org
BIBLIOGRAFÍA 1.• Gordis L: Epidemiology, 2nd ed. Philadelphia, W.B. Saunders, 2000. 2.• Greenberg RS, Daniels RD, Flanders WD, et al: Medical Epidemiology. New York, Lange Medical Books/McGraw-Hill, 2001. 3.• Hill AB: The environment and disease: Association or causation? Proc R Soc Med 58:295–300, 1965. 4.• Lilienfeld DE, Stolley PD: Foundations of Epidemiology, 3rd ed. New York, Oxford University Press, 1994. 5.• Rothman KJ: Epidemiology: An Introduction. Oxford, Oxford University Press, 2002.
Ashita Tolwani, MD, MSc
CAPÍTULO 7
DISEÑOS DE MODELOS DE INVESTIGACIÓN 1. ¿Qué es un diseño de investigación? Es el planteamiento específico que mejor se ajusta para responder a una cuestión de investigación concreta. 2. Indique las dos estrategias de diseño básico utilizadas en la investigación epidemiológica. ■ Diseño de estudio descriptivo. ■ Diseño de estudio analítico. 3. ¿Qué describen los estudios descriptivos? Las características generales de la distribución de una enfermedad o afectación en relación con una persona, lugar y tiempo. 4. ¿Qué son los estudios analíticos? Los estudios analíticos evalúan sistemáticamente las relaciones que se sospechan entre una exposición y un desenlace en salud. Con frecuencia, prueban hipótesis formuladas a partir de estudios descriptivos, con el fin de determinar si una exposición particular causa o previene una enfermedad. Como consecuencia, suelen aportar una prueba más sólida sobre las posibles relaciones. 5. ¿En qué medida son útiles los estudios descriptivos? ■ Pueden ayudar a las autoridades sanitarias y a los administradores a asignar los recursos de modo eficiente. ■ Son útiles para desarrollar programas de prevención y educación efectivos. ■ Ayudan a formular hipótesis que pueden ser probadas con el empleo de un diseño analítico. 6. ¿Por qué son más baratos y más rápidos los estudios descriptivos que los estudios analíticos? Utilizan información que se recoge de modo rutinario y de la que se dispone fácilmente, como los datos de la producción y ventas, historias clínicas de hospitales, datos del censo y registros de estadísticas vitales. 7. Enumere los tipos de estudios descriptivos. ■ Estudios de correlación (p. ej., estudios de poblaciones o estudios ecológicos). ■ Casos clínicos. ■ Series de casos. ■ Estudios transversales.
103
104
DISEÑOS DE MODELOS DE INVESTIGACIÓN
8. ¿Qué son los estudios de correlación? Los estudios de correlación utilizan datos a partir de poblaciones completas para comparar frecuencias de enfermedades, ya sea entre grupos diferentes durante el mismo período de tiempo o en la misma población en tiempos diferentes. 9. ¿Cuáles son las limitaciones de los estudios de correlación? Dado que los estudios de correlación utilizan datos a partir de poblaciones completas en lugar de individuos, no pueden asociar una exposición a la incidencia de una enfermedad en una misma persona. Otra limitación es la incapacidad para controlar los efectos de otros factores que pueden estar asociados con el desenlace. (Estos factores se conocen también con el nombre de variables de confusión). 10. Defina un caso clínico. Es una descripción detallada de la experiencia de un único paciente. 11. Defina una serie de casos. Una serie de casos describe las características de un número de pacientes con una enfermedad, característica o exposición determinadas. 12. ¿Cuáles son las limitaciones de los casos clínicos y de las series de casos? ■ Los casos clínicos se basan en la experiencia de una sola persona; es decir, la información es anecdótica. ■ Las series de casos carecen de un grupo de comparación apropiado. 13. ¿Qué es un estudio transversal? Un estudio transversal valora el estado de un individuo con respecto a la presencia o ausencia tanto de exposición como de enfermedad en el mismo momento. Proporciona una instantánea de la experiencia de una población en un tiempo especificado. 14. Indique la solidez de un estudio transversal. ■ Proporciona estimaciones de la prevalencia de una enfermedad o de otros desenlaces de salud. ■ Puede estudiar poblaciones completas o una muestra representativa de las mismas. ■ Proporciona una mayor capacidad para generalizar los resultados. 15. Indique las limitaciones de un estudio transversal. ■ Dado que se valoran, al mismo tiempo, la exposición y la enfermedad, no puede determinarse la relación temporal entre una exposición y una enfermedad. ■ Está sujeto a sesgo de selección y de observación (comentado más adelante). 16. Cite los dos tipos principales de estudios analíticos. ■ Estudios observacionales. ■ Estudios de intervención (es decir, estudios clínicos). 17. Describa el formato del estudio de observación. Los estudios de observación examinan la asociación entre los factores de riesgo y los desenlaces. Los investigadores no interfieren con ninguno de los factores del estudio ni los manipulan sino que, sencillamente, observan el curso natural de los acontecimientos y explican lo que observan con medidas de asociación.
DISEÑOS DE MODELOS DE INVESTIGACIÓN
18. Describa el formato de los estudios de intervención (es decir, estudios experimentales). Los estudios de intervención exploran la asociación entre intervenciones y desenlaces. Los investigadores intentan demostrar que A causa B al manipular factores específicos que podrían tener algo que ver con la causalidad de algún desenlace. 19. ¿Cuál es la diferencia entre los dos tipos de estudio (observacional y de intervención)? La influencia activa del estado de exposición por parte del investigador. 20. ¿Cuáles son los diferentes tipos de estudios observacionales? ■ Estudios con casos y controles. ■ Estudios de cohortes. 21. ¿Qué es un estudio de casos y controles? En un estudio con casos y controles se seleccionan sujetos en los que se desarrolla una afectación (es decir, una enfermedad) y sujetos en los que no se ha desarrollado la enfermedad, y se comparan los dos grupos con respecto a su exposición previa. Los sujetos con la afectación reciben la denominación de casos; los sujetos sin la afección reciben la denominación de controles. 22. Represente esquemáticamente el momento de inicio de la investigación en un estudio con casos y controles en relación con la exposición y con el desenlace. Véase la Figura 7-1.
Suceso/factor de riesgo
Suceso/factor de riesgo
Proporción de expuestos
Proporción de expuestos
Casos: todos tienen la enfermedad
Controles: ninguno tiene la enfermedad
Figura 7-1. Estudio de casos y controles clásico. (De Vetter N, Matthews I. Epidemiology and Public Health Medicine. New 23. Ponga un ejemplo de York: Churchill Livingstone, 1999.) diseño de estudio con casos y controles. Para probar la hipótesis de que el estrógeno es un factor potencial del cáncer uterino, se selecciona para su evaluación un grupo de mujeres con cáncer de útero (es decir, casos) y un grupo de mujeres sin cáncer de útero que, de modo exacto, reflejan la población de la que proceden los casos (es decir, controles). Se compara la utilización de estrógeno por las mujeres del grupo de casos, con el consumo de estrógenos por las mujeres del grupo control.
24. ¿Cuáles son los factores más importantes al elegir el grupo control en un estudio de casos y controles? Los factores de riesgo de las pacientes control deben ser representativos de los que hay en la población «en riesgo» de convertirse en casos. En otras palabras, las pacientes control habrían sido incluidas en el estudio como casos si tuviesen la enfermedad. Igualmente, sus exposiciones deben ser medibles con la misma exactitud que la de los casos. 25. Enumere las ventajas de los estudios de casos y controles. ■ Los estudios de casos y controles son más baratos y más rápidos, en comparación con los otros diseños analíticos. ■ Son útiles para estudiar enfermedades con largos períodos de latencia.
105
106
DISEÑOS DE MODELOS DE INVESTIGACIÓN ■
■
Son útiles para estudiar enfermedades infrecuentes, ya que los sujetos son seleccionados atendiendo al estado de su enfermedad. Permiten la investigación de múltiples exposiciones simultáneamente.
26. ¿Cuáles son las limitaciones de los estudios de casos y controles? ■ No son adecuados para evaluar una exposición infrecuente, a menos que el estudio sea muy amplio o la exposición sea habitual entre los que tienen la enfermedad. ■ No puede efectuarse un cálculo de la incidencia de enfermedad en los grupos expuesto y no expuesto, a menos que el estudio de casos y controles se base en la población. ■ No siempre puede establecerse la relación temporal entre exposición y enfermedad. ■ Están sujetos a sesgo (comentado más adelante). 27. ¿En qué difiere el análisis de los estudios de casos y controles con respecto a otros tipos de estudios? Dado que en los estudios de casos y controles se desconoce la tasa de enfermedad, no puede calcularse el riesgo relativo. Se emplea la posibilidad relativa (odds ratio) para calcular el riesgo relativo. 28. ¿Cuándo la posibilidad relativa es un estimador razonable del riesgo relativo? La posibilidad relativa y el riesgo relativo son comparables en magnitud cuando la enfermedad es infrecuente. 29. ¿Qué son los estudios de cohortes? En un estudio de cohortes los sujetos se definen por la presencia o ausencia de una exposición a un factor que se supone de riesgo de una enfermedad, y luego se les sigue en el tiempo. 30. ¿Qué otro nombre reciben los estudios de cohortes? Estudios longitudinales o estudios prospectivos. 31. Cite dos tipos de estudios de cohortes. ■ Prospectivo. ■ Retrospectivo. 32. ¿Cuáles son las diferencias entre los estudios de cohortes prospectivos y los estudios de cohortes retrospectivos? ■ En un estudio de cohortes prospectivo se identifica a un grupo de sujetos expuestos a un factor de riesgo (es decir, casos), junto con un grupo de sujetos no expuestos (es decir, controles). A continuación, se sigue prospectivamente a los dos grupos, y se determina la incidencia de la enfermedad en cada grupo. ■ En un estudio de cohortes retrospectivo se identifica a un grupo de sujetos en los que ya se han producido las exposiciones y los desenlaces de interés cuando se comienza el estudio; sin embargo, las exposiciones y los desenlaces no constituyen un factor para agrupar a los sujetos. 33. Muestre un esquema que ilustre la diferencia entre el diseño de los estudios de cohortes prospectivos y los retrospectivos. Véanse las Figuras 7-2 y 7-3. 34. Mencione un factor importante en el diseño de un estudio de cohortes retrospectivo. La elección de los sujetos del estudio ha de realizarse atendiendo únicamente al estado de exposición, sin ningún conocimiento del desenlace.
DISEÑOS DE MODELOS DE INVESTIGACIÓN
Prospectivo Población definida
2004
SIN ALEATORIZAR
2014
2024
Expuestos
Enfermedad
No expuestos
Sin enfermedad
Enfermedad
Sin enfermedad
Figura 7-2. Marco temporal para un estudio hipotético con controles de carácter prospectivo comenzado en 2004. (De Gordis L. Epidemiology. 3rd ed. Philadelphia: Elsevier-Saunders, 2004.)
Retrospectivo Población definida
1984
SIN ALEATORIZAR
Expuestos
Enfermedad
Sin enfermedad
No expuestos
Enfermedad
Sin enfermedad
1994
2004
Figura 7-3. Marco temporal para un estudio hipotético de cohortes de carácter retrospectivo comenzado en 2004. (De Gordis L. Epidemiology. 3rd ed. Philadelphia: Elsevier-Saunders, 2004.)
35. ¿Cómo deben relacionarse los grupos expuestos y no expuestos en un estudio de cohortes? Los dos grupos deben ser similares en todos los aspectos, a excepción del estado de exposición al factor o factores de riesgo potenciales. 36. Indique las ventajas de los estudios de cohortes. ■ Son útiles para estudiar exposiciones infrecuentes. ■ Pueden examinar múltiples efectos de una exposición. ■ Pueden demostrar una asociación temporal entre exposición y enfermedad. ■ Posibilitan la determinación de la incidencia de la enfermedad en los grupos expuestos y no expuestos.
107
108
DISEÑOS DE MODELOS DE INVESTIGACIÓN
37. Enumere las limitaciones de los estudios de cohortes. ■ Se requieren estudios grandes, de mucho tiempo de duración y costosos, si la enfermedad es infrecuente o de desarrollo lento. ■ Si son retrospectivos, se requiere disponer de registros adecuados. ■ Si durante el estudio se pierden casos, la pérdida puede dar lugar a un sesgo de selección (comentado más adelante). 38. Describa el estudio de casos y controles anidado (nested). Es un tipo de estudio de casos y controles que obtiene sus casos y controles a partir de una población cohorte que ha sido seguida durante un período de tiempo. 39. Aporte un esquema de un estudio de casos y controles anidado (nested). Véase la Figura 7-4.
Población
Años Desarrollo de la enfermedad
«Casos»
Datos iniciales y/o suero, orina u otras muestras obtenidas
Sin desarrollo de la enfermedad
Subgrupo seleccionado como «controles»
ESTUDIO DE CASOS Y CONTROLES Figura 7-4. Diagrama de un estudio de casos y controles anidado (nested). (De Gordis L. Epidemiology. 3rd ed. Philadelphia: Elsevier-Saunders, 2004.)
40. ¿Qué son los estudios de intervención? Se realiza una intervención terapéutica o preventiva a un grupo de sujetos y se comparan sus experiencias posteriores con las de los sujetos no sometidos a dicha intervención. 41. ¿Cuál es la estrategia básica de un estudio experimental? Para demostrar que el tratamiento es efectivo, la tasa de mejoría en el grupo tratado debe ser mayor que la tasa de mejoría en el grupo no tratado. Además, debe ser improbable que las diferencias en las tasas estén causadas sólo por el azar. 42. ¿Cómo debe relacionarse el grupo control con el grupo de tratamiento? El grupo control debe ser similar al grupo de tratamiento en todas las características asociadas con el desenlace esperado, a excepción de que no deben recibir el tratamiento estudiado. El grupo control puede estar recibiendo el tratamiento estándar para el factor de riesgo o, en su lugar, un placebo.
DISEÑOS DE MODELOS DE INVESTIGACIÓN
43. Cite los tipos de estudios de intervención. ■ Ensayo clínico aleatorio controlado (RCT). ■ Estudio cuasiexperimental (o semiexperimental). 44. ¿Qué es un ensayo clínico controlado (RCT)? Es un diseño de estudio utilizado para evaluar la efectividad de intervenciones (p. ej., tratamientos farmacológicos y pruebas diagnósticas). Un RCT incluye un grupo de tratamiento y un grupo control. El grupo de tratamiento recibe el tratamiento en investigación, mientras que el grupo control no recibe tratamiento alguno o un tratamiento estándar actual. Los pacientes se asignan a los grupos de modo aleatorio. 45. ¿Por qué se necesita un RCT para evaluar los tratamientos? Cuando los RCT son suficientemente grandes y tienen un diseño cuidadoso pueden proporcionar la mejor prueba de la existencia de una relación causa-efecto. 46. ¿Cuál es la finalidad de la aleatorización? La asignación aleatoria ayuda a asegurar que los grupos de los estudios clínicos sean comparables. Cada sujeto ha tenido la misma probabilidad de haber sido asignado a uno de los dos grupos del estudio, de modo que ambos grupos sean similares en todas las características (p. ej., sexo, edad, raza y gravedad de la enfermedad) que puedan afectar al desenlace. 47. ¿Garantiza la aleatorización que los grupos sean comparables? No. El azar puede desempeñar un papel, y hacer que los grupos no sean comparables. Puede reducirse el efecto de este error aleatorio utilizando muestras de tamaño suficientemente grande. 48. Represente esquemáticamente un diseño de estudio aleatorio. Véase la Figura 7-5.
Grupo Aleatorio de estudio
Intervención 1
Desenlace 1
Intervención 2
Desenlace 2
Figura 7-5. Esquema de un estudio aleatorio con controles. (De Vetter N, Matthews I. Epidemiology and Public Health Medicine. New York: Churchill Livingstone, 1999.)
49. ¿Cuáles son los cuatro desenlaces posibles del esquema anterior? 1.• Los tratamientos no difieren, y se concluye de modo correcto que no difieren. 2.• Los tratamientos no difieren, pero se concluye de modo incorrecto que sí difieren. 3.• Los tratamientos difieren, pero se concluye de modo incorrecto que no difieren. 4.• Los tratamientos difieren, y se concluye de modo correcto que sí difieren. 50. ¿Cuáles son las ventajas de los RCT? ■ Su diseño es prospectivo. ■ Eliminan sesgos al comparar dos grupos por lo demás idénticos.
109
110
DISEÑOS DE MODELOS DE INVESTIGACIÓN
51. ¿Cuáles son las desventajas de los RCT? Son relativamente caros y laboriosos. 52. ¿Qué es un sesgo? El sesgo (es decir, error sistemático) es un error en un estudio consecuencia de una valoración incorrecta de la asociación entre exposición y riesgo de enfermedad. 53. Indique los dos tipos principales de sesgo. ■ Sesgo de selección. ■ Sesgo de observación (es decir, información). 54. ¿Es el error aleatorio una forma de sesgo? No. El error aleatorio se produce por azar. 55. ¿Qué es un sesgo de selección? Se produce un sesgo de selección cuando se selecciona a los participantes en el estudio de modo que la asociación entre la exposición y la enfermedad difiere en relación con los participantes y los no participantes en el estudio. 56. Indique los modos diferentes en que puede producirse un sesgo de selección. ■ Selección de un grupo de comparación inapropiado por el investigador. ■ Autoselección por parte del sujeto (es decir, ofrecerse voluntario). ■ Falta de respuesta por el sujeto (es decir, rechazo). ■ Pérdida del seguimiento de los sujetos durante el estudio. ■ Los sujetos fallecen durante el estudio. 57. ¿Qué tipos de estudio son susceptibles de sesgo de selección? ■ Estudios de casos y controles. ■ Estudios transversales. ■ Estudios de cohortes (el sesgo de selección es menos habitual en los estudios de cohortes). 58. Proporcione un ejemplo de sesgo de selección. Suponga que la eficacia de una nueva prueba de cribado para detectar un cáncer fue evaluada en la comunidad comparando la tasa de incidencia de cáncer entre los que se ofrecieron voluntarios para la prueba con la tasa de incidencia entre los miembros de la comunidad que no fueron sometidos a la prueba. Tal comparación sufre un sesgo de selección, ya que los sujetos que se ofrecieron voluntarios para el cribado del cáncer pueden diferir con respecto a los que no se ofrecieron voluntarios. Por ejemplo, los que se ofrecieron voluntarios pueden tener una mayor conciencia en relación con la salud que los que no se ofrecieron voluntarios: los voluntarios pueden tener un régimen de alimentación y un régimen de ejercicio físico que reduce el riesgo de cáncer y, por consiguiente, se podría esperar que tuvieran una menor tasa de cáncer. 59. ¿Cómo se produce un sesgo de observación? El sesgo de observación es un error sistemático que se produce porque la información recogida sobre los sujetos del estudio es errónea. Unos datos inexactos o incompletos pueden llevar a aceptar unas asociaciones incorrectas. 60. Cite los tipos de sesgo de observación. ■ Sesgo de recuerdo. ■ Sesgo de entrevistador. ■ Sesgo misceláneo.
DISEÑOS DE MODELOS DE INVESTIGACIÓN
PUNTOS CLAVE: DISEÑOS DE LOS MODELOS DE INVESTIGACIÓN 1. Las dos estrategias básicas del diseño epidemiológico son el diseño del estudio descriptivo y el diseño del estudio analítico. 2. Los estudios descriptivos examinan la distribución de las enfermedades en las poblaciones; los estudios analíticos examinan los determinantes de las enfermedades en las poblaciones. 3. Los estudios descriptivos incluyen los estudios de correlación, los casos clínicos, las series de casos y los estudios transversales. 4. Los estudios analíticos incluyen estudios observacionales y estudios intervencionistas. 5. Los estudios observacionales examinan el modo en que la exposición a los factores de riesgo influye sobre la probabilidad de desarrollo de la enfermedad; en los estudios intervencionistas, el investigador controla qué tratamiento recibe cada uno de los sujetos. 6. Los estudios observacionales incluyen estudios de cohortes y estudios de casos y controles, y se hallan sujetos a sesgo de selección y a sesgo de observación. 7. Los estudios aleatorios controlados, un tipo de estudio intervencionista, proporcionan la prueba más fiable de la efectividad del tratamiento.
61. Defina cada tipo de sesgo de observación. ■ El sesgo de recuerdo se produce cuando los sujetos con una afectación o enfermedad particular recuerdan su experiencia de exposición previa de modo diferente a como lo hacen los que no tienen la enfermedad. ■ El sesgo del entrevistador se produce cuando el investigador obtiene o interpreta la información de modo diferente a partir de los que tienen la afectación y de los que no la tienen. ■ El sesgo de clasificación errónea se produce cuando se comenten errores en la clasificación de la exposición o del estado de la enfermedad. 62. Proporcione un ejemplo de sesgo de recuerdo. Suponga que se realiza un estudio para obtener información sobre la exposición en las malformaciones al nacimiento al entrevistar a las mujeres que han tenido hijos con malformaciones al nacimiento y a mujeres que no han tenido hijos con malformaciones al nacimiento. Las madres que han dado a luz a niños con malformaciones al nacimiento tienen una mayor probabilidad de recordar detalles sobre exposiciones, como medicamentos tomados, porque se hallan muy motivadas para descubrir por qué los niños nacieron con malformaciones. Las madres que han experimentado nacimientos normales de sus hijos no encuentran una razón convincente para recordar tales detalles y pueden olvidar estas exposiciones. 63. ¿Cuál es el mejor diseño de estudio para responder a la pregunta anterior? De casos y controles. 64. ¿Por qué el sesgo es más problemático en los estudios de casos y controles que en cualquier otro diseño analítico? Dado que tanto la exposición como el desenlace ya se han producido cuando se obtiene la información de los pacientes del estudio, el conocimiento del estado de exposición puede influir sobre la selección de los individuos para el estudio, lo que da lugar a sesgo de selección.
111
112
DISEÑOS DE MODELOS DE INVESTIGACIÓN
Igualmente, el conocimiento del estado de la enfermedad puede influir sobre el modo en que se describe la información sobre la exposición por parte de los sujetos o por parte del investigador, lo que causa un sesgo de recuerdo y un sesgo del entrevistador. 65. ¿Qué significa un estudio ciego o con enmascaramiento? Se produce enmascaramiento del estudio cuando se oculta la asignación del tratamiento al sujeto, pero no al observador. 66. ¿Qué significa un doble y un triple enmascaramiento? El doble enmascaramiento (doble ciego) significa que ni el observador ni el sujeto son conocedores de la asignación del tratamiento. El triple enmascaramiento (triple ciego) significa que el observador, el sujeto y el sujeto que administra el tratamiento no son conocedores de las asignaciones del tratamiento. 67. ¿Cuál es la finalidad del enmascaramiento? La finalidad del enmascaramiento es minimizar la posibilidad del sesgo de observación al determinar el desenlace. 68. ¿Qué es un factor de confusión? Un factor de confusión es un factor que se asocia con la exposición de interés y con el riesgo de desarrollo de la enfermedad. Por tanto, puede ser incorrecta la asociación observada entre la exposición de interés y el desenlace de la enfermedad. El factor de confusión causa también error en las comparaciones entre los grupos si éstos no son verdaderamente comparables debido a diferencias en la edad, el sexo, el estado de salud y otros factores de riesgo. 69. Indique un ejemplo de factor de confusión. Suponga que un investigador está estudiado la relación entre cierta medicación y muerte. El estudio demuestra una relación entre el empleo de la medicación y un mayor riesgo de muerte. Sin embargo, la edad es un factor adicional que puede afectar a la asociación observada. Las personas de mayor edad tienen un mayor riesgo de muerte que las personas más jóvenes. En este ejemplo, la edad confunde la relación entre el empleo de la medicación y el riesgo de fallecimiento. 70. ¿Qué métodos pueden emplearse en el diseño de estudios para controlar un factor de confusión? ■ Aleatorización. ■ Restricción. ■ Emparejamiento. 71. Describa cómo los tres métodos arriba indicados controlan el factor de confusión. ■ Ya se ha comentado la aleatorización, y es aplicable sólo a estudios de intervención. Con una muestra de tamaño suficiente, la aleatorización permite controlar todos los factores de confusión potenciales (incluidos los desconocidos al investigador) al ser distribuidos de modo homogéneo entre los grupos de tratamiento. ■ La restricción supone limitar la selección de los sujetos a los que tienen el mismo valor que el factor que puede ser factor de confusión. Por ejemplo, si el sexo es un factor de confusión potencial, la selección de los sujetos del estudio puede limitarse a un sexo específico. ■ El emparejamiento implica la selección de pacientes de modo que queden distribuidos idénticamente los factores de confusión potenciales entre los grupos de tratamiento.
DISEÑOS DE MODELOS DE INVESTIGACIÓN
Por ejemplo, si la edad y el sexo son factores de confusión, para cada paciente de una cierta edad y sexo en el grupo de enfermedad se selecciona un paciente de la misma edad y sexo en el grupo control. 72. ¿Cuáles son las desventajas del emparejamiento? ■ Puede ser difícil, laborioso y caro encontrar un sujeto de comparación con todas las características de emparejamiento apropiadas para cada sujeto del estudio. ■ No puede determinarse el efecto de la característica emparejada sobre el desenlace. ■ El emparejamiento no controla el efecto de los potenciales factores de confusión para los que no se efectuó emparejamiento. 73. ¿Qué es un metaanálisis? Es una revisión sistemática con empleo de métodos estadísticos para combinar y resumir los resultados de varios estudios. 74. ¿Cuál es la jerarquía de los diseños de estudios basados en pruebas? ■ Nivel I: se acepta, generalmente, que los ensayos clínicos controlados y aleatorios (RCT) son la prueba más fiable para determinar si el tratamiento es efectivo. ■ Nivel II: estudios de casos y controles y de cohortes 1.• Los mejores estudios son los de casos y controles o de cohortes con un buen diseño, que son de naturaleza prospectiva, comparan grupos similares y corrigen los factores de confusión en el análisis. 2. Menos preferibles son los estudios de casos y controles o de cohortes con un mal diseño: los que son de naturaleza retrospectiva, comparan grupos mal emparejados o no intentan corregir los factores de confusión. ■ Nivel III: series de casos u otros estudios sin grupos control.
BIBLIOGRAFÍA 1.• Altman DG: Practical Statistics for Medical Research. London: Chapman & Hall, CRC, 1990. 2.• Gordis L: Epidemiology, 3rd ed. Philadelphia, Elsevier-Saunders, 2004. 3.• Greenberg RS, Daniels SR, Flanders WD, et al: Medical Epidemiology, 3rd ed. New York, Lange Medical Books / McGraw Hill, 2001. 4.• Hennekens CH, Buring JE: Epidemiology in Medicine. Philadelphia, Lippincott Williams & Wilkins, 1987. 5.• Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia, W.B. Saunders, 2001. 6.• Rothman KJ: Epidemiology: An Introduction. Oxford, Oxford University Press, 2002. 7.• Vetter N, Matthews I: Epidemiology and Public Health Medicine. New York, Churchill Livingstone, 1999.
113
Lee Okurowski, MD, MPH, MBA
CAPÍTULO 8
MEDICINA BASADA EN EVIDENCIAS 1. ¿Qué es la medicina basada en evidencias (EBM)? La EBM es un enfoque de la medicina que integra las mejores evidencias disponibles actuales, la pericia clínica y los valores del paciente para optimizar los desenlaces clínicos y la calidad de vida. Con la EBM llega el reconocimiento explícito de que la intuición, la pericia clínica no sistemática y la base fisiopatológica teórica especulativa son bases insuficientes para la toma de decisiones clínicas. En su lugar, la EBM mantiene que existe una jerarquía de las mejores pruebas de investigación. Estas mejores pruebas de investigación, que se basan en investigaciones clínicamente relevantes, son las que sirven como fundamento para la toma de decisiones clínicas. 2. ¿Cuándo y cómo se desarrolló por primera vez la EBM? Las raíces de la EBM datan de finales de la década de 1970, cuando un grupo de epidemiólogos clínicos, liderados por David Sackett y sus colegas de la Universidad McMaster, comenzaron a preparar una serie de artículos en los que aconsejaban a los clínicos el modo de leer las revistas clínicas y aplicar los datos de la literatura científica a la atención médica directa del paciente. 3. ¿Quién utilizó por primera vez el término medicina basada en la evidencia? El término fue utilizado por primera vez por Gordon Guyatt en 1990, mientras realizaba funciones de director de residentes del programa de Medicina Interna en la Universidad McMaster. 4. ¿De qué modo la investigación, la pericia clínica y los valores del paciente se relacionan en la EBM? La EBM reconoce que las pruebas de investigación nunca son el único determinante para la toma de decisiones clínicas. Las pruebas de investigación deben ser combinadas con la pericia clínica para identificar el estado de salud de cada paciente individual, así como su diagnóstico. También es necesaria una comprensión de los valores del paciente, de modo que puedan integrarse las singulares preferencias, intereses y esperanzas que trae cada paciente a un encuentro clínico, con el fin de que pueda lograrse la decisión clínica óptima. 5. ¿Qué constituye la prueba en la EBM? En la EBM, cualquier observación empírica sobre la relación entre un suceso y el desenlace clínico constituye una prueba potencial. No obstante, no toda prueba debe ser vista como igual a la hora de tomar decisiones clínicas. 6. ¿Cuál es la jerarquía de las pruebas que se emplea en la EBM? La fuerza de las pruebas aportadas por las observaciones no sistemáticas de un clínico individual no debe ser considerada igual a las pruebas proporcionadas por los estudios clínicos sistemáticos y controlados. Se relaciona a continuación un ejemplo de jerarquía de la fuerza de las pruebas en relación con las decisiones terapéuticas, de las más preferibles a las menos:
115
116
MEDICINA BASADA EN EVIDENCIAS
1.• Estudios controlados aleatorios de N = 1. 2.• Revisión sistemática de estudios controlados aleatorios. 3.• Un único estudio aleatorio. 4.• Revisión sistemática de estudios de observación. 5.• Un único estudio observacional. 6.• Estudios fisiológicos. 7.• Una observación clínica no sistemática. Guyatt GH, Haynes B, Jaeschke R, et al: Introduction: The philosophy of evidence-based medicine. En Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 5–20.
7. ¿De qué modo clasifica la jerarquía las pruebas de los estudios controlados aleatorios frente a los estudios observacionales? ¿De qué modo clasifica múltiples estudios frente a estudios únicos? La jerarquía demuestra que, en general, la fuerza de las pruebas aumenta con los estudios controlados aleatorios, en comparación con los estudios observacionales. La jerarquía demuestra también que la fuerza de las pruebas aumenta con múltiples estudios, en comparación con estudios individuales. 8. ¿Qué deben recordar los clínicos al generalizar los resultados de estudios a los pacientes individuales? Al considerar las pruebas de investigación disponibles en la toma de decisiones sobre el tratamiento de sus pacientes, los clínicos generalizan con mucha frecuencia los resultados de estudios de otras personas, lo que puede debilitar las inferencias causales sobre la efectividad del tratamiento. Los clínicos deben recordar que hay aún cuestiones importantes que deben ser respondidas sobre la aplicabilidad de los hallazgos de investigación a partir del grupo de estudio al tratamiento de un paciente individual fuera del estudio. 9. ¿Cómo se lleva a cabo el estudio aleatorio controlado de n = 1? Un paciente individual es sometido a pares de períodos de tratamiento: el paciente recibe un tratamiento experimental en un período, y un placebo o tratamiento alternativo en el siguiente período. Si es factible, tanto el clínico como el paciente desconocen la asignación del tratamiento, y se aleatoriza el orden del tratamiento. Clásicamente, los clínicos y los pacientes hacen valoraciones cuantitativas de los desenlaces y, a continuación, se alternan los períodos de tratamiento hasta que el clínico y el paciente se hallan convencidos de que el paciente consigue o no consigue beneficio a partir del tratamiento experimental. 10. ¿Cuáles son los puntos fuertes y los puntos débiles de los estudios clínicos aleatorizados controlados de n = 1? Los puntos fuertes son que proporcionan una prueba definitiva de la efectividad en los pacientes individuales, que son factibles, y que pueden llevar a cambios a largo plazo en la administración de tratamiento y efectos. Los puntos débiles incluyen el hecho de que tales estudios requieren un elevado grado de interés, tiempo y cooperación entre el clínico y el paciente. Los estudios de n = 1 no suelen ser apropiados para los problemas a corto plazo, curas terapéuticas, determinación de desenlaces a largo plazo o trastornos infrecuentes. Guyatt GH, Keller JL, Jaeschke R, et al: The n-of-1 randomized control trial: Clinical usefulness. Our threeyear experience. Ann Intern Med 112:293–299, 1990. Mahon J, Laupacis A, Donner A, Wood T: Randomised study of n of 1 trials versus standard practice. BMJ 312:1069–1074, 1996.
MEDICINA BASADA EN EVIDENCIAS
11. ¿Cuál es la diferencia entre preguntas básicas o preparatorias, y preguntas clínicas o de acción, en la EBM? Uno de los aspectos más difíciles de la aplicación de la EBM a la práctica clínica es la formulación de cuestiones clínicas que puedan ser respondidas y de las que se dispone de las mejores pruebas actuales. La EBM considera las cuestiones clínicas en dos grandes categorías: cuestiones básicas y de acción. Las cuestiones básicas hacen referencia a un conocimiento general sobre un trastorno, y tratan de responder el quién, el qué, el cuándo, el dónde, el porqué y el cómo del trastorno o un aspecto del trastorno. Las preguntas de acción hacen referencia a una información específica sobre el tratamiento de los pacientes con un trastorno, y clásicamente preguntan sobre el paciente, el problema, las intervenciones y los desenlaces clínicos. Generalmente, a medida que aumenta la experiencia con un trastorno, el clínico pasa de hacerse preguntas de preponderancia o básicas a hacerse preguntas de acción o clínicas. 12. ¿Cuáles son las mejores fuentes para encontrar las mejores pruebas actuales? Las bases de datos de la evidencia o pruebas científicas, las revistas basadas en evidencias científicas y los servicios en línea electrónicos son las fuentes que proporcionan las mejores pruebas significativas actuales. Estas fuentes contrastan con los libros de texto médicos tradicionales, que con frecuencia no son el método más apropiado para encontrar la mejor prueba disponible. Aunque la mayoría de los libros de texto médicos proporcionan con frecuencia información útil sobre la fisiopatología, es característico que rápidamente queden anticuados en relación con la información sobre causalidad, diagnóstico, pronóstico, prevención y tratamiento de un trastorno dado. 13. Enumere algunos de los recursos en línea particularmente útiles para la medicina basada en la evidencia. Véase la Tabla 8-1. 14. ¿Cuáles son las etapas a seguir para desarrollar una estrategia de búsqueda general? 1.• Determinar el problema clínico. 2.• Definir una pregunta de investigación importante y que pueda ser respondida en relación con el problema clínico de interés. 3.• Determinar los recursos probatorios más probables. 4.• Diseñar una estrategia de investigación. 5.• Resumir las pruebas. 6.• Aplicar las pruebas. 15. ¿Cuáles son las tres preguntas que siempre hay que plantear cuando se utiliza un artículo de la literatura médica para responder a una cuestión clínica? 1.• ¿Son válidos los resultados del estudio? 2.• ¿Es importante la prueba aportada? 3.• ¿De qué modo pueden aplicarse a la atención médica del paciente los resultados válidos e importantes? 16. ¿Cuáles son las principales áreas de la atención médica al paciente a las que con mayor frecuencia se aplican las herramientas de la EBM? 1.• Diagnóstico y cribado. 2.• Pronóstico. 3.• Tratamiento. 4.• Lesiones o resultados adversos.
117
118
MEDICINA BASADA EN EVIDENCIAS
TABLA 8-1.•RECURSOS EN LÍNEA PARTICULARMENTE ÚTILES PARA LA MEDICINA BASADA EN EVIDENCIAS Recurso
URL
ACP Journal Club ACP Medicine Best Bets Centre for Evidence-Based Medicine Clinical Evidence Clinical practice guidelines Cochrane Library
http://www.acpjc.org http://www.acpmedicine.com http://www.bestbets.org http://www.cebm.net/index.asp http://www.clinicalevidence.org/ http://www.guidelines.gov http://www3.interscience.wiley.com/cgi-bin/ mrwhome/106568753/HOME http://www.emedicine.com http://www.ovid.com http://cebm.jr2.ox.ac.uk http://www.harrisonsonline.com http://www.londonlinks.ac.uk http://www.mdconsult.com http://www.medmatrix.org http://www.pubmed.gov http://www.medscape.com http://www.shef.ac.uk/-scharr/ir/netting http://www.unitedhealthfoundation.org http://www.uptodate.com http://www.webmed.com
emedicine Evidence-Based Medicine Reviews (OVID) Evidence-Based Harrisons Online London Links journal listings MD Consult Medical Matrix Medline/PubMed Medscape ScHarr Netting the Evidence United Health Foundation UpToDate WebMD
17. Se encuentra usted revisando los resultados de un artículo sobre una nueva prueba de cribado de cáncer de tiroides. El estudio fue llevado a cabo con un total de 2.500 pacientes, de los que 800 fueron diagnosticados por biopsia quirúrgica de cáncer de tiroides, y 1.700 que no tenían la enfermedad por biopsia quirúrgica. La nueva prueba de cribado fue positiva en 1.000 pacientes, pero sólo 750 con resultado positivo dieron, en último término, un resultado positivo en la biopsia quirúrgica. Construya una tabla de 2 ⫻ 2 y determine lo siguiente: sensibilidad, especificidad, cociente de verosimilitudes positivo (LR+), cociente de verosimilitudes negativo (LR–), valor predictivo positivo, valor predictivo negativo, prevalencia, posibilidad preprueba, posibilidad posprueba y probabilidad posprueba.
Prueba ⫹ Prueba – Totales
Enfermedad ⫹
Enfermedad –
Totales
750 [A] 50 [C] 800 [A ⫹ C]
250 [B] 1.450 [D] 1.700 [B ⫹ D]
1.000 [A ⫹ B] 1.500 [C ⫹ D] 2.500 [A ⫹ B ⫹ C ⫹ D]
MEDICINA BASADA EN EVIDENCIAS ■ ■ ■ ■ ■ ■ ■ ■ ■
■
Sensibilidad = A/(A ⫹ C) = 750/800 = 94%. Especificidad = D/(B ⫹ D) = 1.450/1.700 = 85%. LR⫹ = sensibilidad/(1 – especificidad) = 94%/15% = 6,27. LR– = (1 – sensibilidad)/especificidad = 6%/85% = 0,07. Valor predictivo positivo = A/(A ⫹ B) = 750/1.000 = 75%. Valor predictivo negativo = D/(C ⫹ D) = 1.450/1.500 = 97%. Prevalencia = (A ⫹ C)/(A ⫹ B ⫹ C ⫹ D) = 800/2.500 = 32%. Posibilidad preprueba = prevalencia/(1 – prevalencia) = 32%/68% = 47%. Posibilidad posprueba = posibilidad preprueba ⫻ cociente de verosimilitudes = 0,47 ⫻ 6,27 = 2,9. Probabilidad posprueba = posibilidad posprueba/(posibilidad posprueba ⫹ 1) = 2,9/3,9 = 74%.
18. Una paciente acude para evaluación de un trastorno tiroideo, y usted sospecha que tiene una probabilidad de 50:50 de tener un cáncer de tiroides antes de aplicar la prueba de cribado. Aplica la prueba de cribado y el resultado es positivo. ¿Cuál es la posibilidad preprueba de la paciente? Una probabilidad de 50:50 traduce una posibilidad preprueba de 1:1; por consiguiente, la posibilidad preprueba de la paciente es 1. 19. ¿Cuál es la posibilidad posprueba de la paciente? Para determinar la posibilidad posprueba de la paciente, se multiplica la posibilidad preprueba de 1 por el LR+ de 6,27; 1 ⫻ 6,27 = 6,27. 20. ¿Cuál es la probabilidad posprueba? La probabilidad posprueba = posibilidad posprueba/(posibilidad posprueba ⫹ 1). De modo que la probabilidad posprueba = 6,27/(6,27 ⫹ 1) = 6,27/7,27 = 86,2%. 21. ¿Qué es el cociente de verosimilitudes positivo (LR⫹)? LR⫹ es, sencillamente, el cociente resultante de colocar la sensibilidad en el numerador y la tasa de falsos positivos en el denominador. Observe que estos dos términos no se ven influidos por la prevalencia, y por ello, tampoco lo es el LR⫹. 22. ¿Por qué un LR⫹ alto hace que sea mejor predictiva una prueba? Se busca la calidad de una sensibilidad elevada en una prueba que se emplea para descartar la enfermedad en aquellos pacientes que tienen unos resultados negativos; la sensibilidad es el numerador en el cociente LR⫹. La tasa de falsos positivos (1 – especificidad), será el denominador. Claramente, no se desean resultados falsos positivos, porque de modo erróneo «introducen» a los pacientes sin la enfermedad de interés. Globalmente, maximizar las características deseadas y minimizar las indeseadas aumenta el cociente LR+ y, por tanto, la probabilidad posprueba. 23. ¿Qué es el cociente de verosimilitudes negativo (LR–)? Es el resultado de dividir la tasa de falsos negativos (numerador) por la especificidad (denominador). Empleando la misma lógica que arriba, se puede apreciar cualitativamente que se desea un LR– bajo, porque este cociente representa los «casos pasados por alto» (es decir, los falsos negativos) sobre los casos «introducidos» apropiadamente. 24. ¿Pueden dar los LR⫹ y LR– una indicación de la utilidad de una prueba? Sí. Se ha determinado que una prueba útil debe dar un LR⫹ alto y un LR– bajo. Por consiguiente, se puede tener una idea de la fuerza de una prueba observando el cociente LR⫹/LR–.
119
120
MEDICINA BASADA EN EVIDENCIAS
Cuanto mayor sea la cifra, mejor será la prueba. En el problema del ejemplo, LR⫹/LR– es 6,27/0,07, es decir, 89,6. No hay una regla fija, pero, clásicamente, se considera aceptable un cociente LR⫹/LR– mayor de 50. 25. ¿Por qué son útiles las pruebas con valores de sensibilidad y especificidad muy elevados? Las pruebas diagnósticas con unos valores de sensibilidad muy elevados son útiles para descartar una enfermedad o afectación dada cuando los resultados son negativos. Puede recordarse este hecho por el nemónico SnNout: una prueba Sensible con un resultado Negativo descarta (out) una enfermedad. Las pruebas diagnósticas con unos valores de especificidad muy elevados son útiles para incluir una enfermedad o afectación dada cuando los resultados son positivos. Puede recordarse con el nemónico SpPin: una prueba Específica con un resultado Positivo incluye una enfermedad. 26. Describa las limitaciones de exactitud al utilizar la sensibilidad y especificidad de las pruebas diagnósticas para determinar los pacientes con o sin un trastorno dado. ¿Qué medidas estadísticas pueden utilizarse para superar estas limitaciones? La sensibilidad y la especificidad de una prueba se hallan clásicamente restringidas a los resultados de la prueba que son dicotómicos (es decir, positivo o negativo). Como consecuencia, puede perderse la exactitud de muchas pruebas que tienen valores a lo largo de un continuo de valores. Las limitaciones de la sensibilidad y especificidad tradicionales pueden verse superadas al comparar cocientes de verosimilitud pasando por los diferentes niveles de los resultados de la prueba. 27. La Tabla 8-2 presenta los resultados de la gammagrafía de ventilación perfusión (V/Q) pulmonar para determinar la presencia de embolia pulmonar. Calcule los cocientes de verosimilitud pasando por cada uno de los diferentes niveles de los resultados de la prueba gammagráfica en pacientes con embolia pulmonar, comparados con un paciente sin embolia pulmonar. Interprete estos resultados. Véase la Tabla 8-3. 28. ¿De qué modo ayudan clínicamente los cocientes de verosimilitudes? Los cocientes de verosimilitudes proporcionan una medida de hasta qué punto una prueba diagnóstica eleva o disminuye la probabilidad preprueba en la determinación de la probabilidad posprueba en relación con una enfermedad o trastorno dado. Un cociente de verosimilitudes de 1 significa que la probabilidad preprueba y la probabilidad posprueba son iguales. Unos cocientes de verosimilitudes mayores de 1,0 aumentan la probabilidad preprueba de que la enfermedad esté presente. Cuanto mayor sea el cociente de verosimilitud, mayor será el aumento en la probabilidad a partir de la probabilidad preprueba con respecto a la probabilidad posprueba. Unos cocientes de verosimilitudes menores de 1,0 disminuyen la probabilidad preprueba de que la enfermedad esté presente. Cuanto menor sea el cociente de verosimilitud, menor será el aumento en la probabilidad a partir de la probabilidad preprueba con respecto a la probabilidad posprueba. 29. ¿Qué es un nomograma de verosimilitud? Un nomograma de verosimilitud, como se muestra en la Figura 8-1, es un método gráfico para convertir la probabilidad preprueba a la probabilidad posprueba utilizando los cocientes de verosimilitudes.
MEDICINA BASADA EN EVIDENCIAS
TABLA 8-2. RESULTADOS DE LA GAMMAGRAFÍA DE VENTILACIÓN/PERFUSIÓN (V/Q) Embolia pulmonar
Presente
Ausente
Cociente de verosimilitudes
Resultados de la gammagrafía Probabilidad alta Probabilidad intermedia Probabilidad baja Normal Total
# 100
# 15
?
105 40 5 250
215 270 125 625
? ? ?
TABLA 8-3. RESULTADOS DE LA GAMMAGRAFÍA DE VENTILACIÓN/PERFUSIÓN (V/Q) Embolia pulmonar Resultados de la gammagrafía Probabilidad alta Probabilidad intermedia Probabilidad baja Normal Total
Presente
Proporción
#
Ausente
Proporción
Cociente de verosimilitudes
#
100 105
100/250 = 0,40 105/250 = 0,42
15 215
15/625 = 0,02 215/625 = 0,34
20 1,2
40 5 250
40/250 = 0,16 5/250 = 0,02
270 125 625
270/625 = 0,43 125/625 = 0,20
0,37 0,10
30. ¿Cómo se utiliza un nomograma de verosimilitud? La columna de números de la izquierda (véase la Figura 8-1) muestra la gama de las probabilidades preprueba, la columna central muestra los cocientes de verosimilitudes, y la columna derecha muestra las probabilidades posprueba. Para utilizar el nomograma de verosimilitud, se comienza con la probabilidad preprueba y se traza una línea recta a través de la columna del cociente de verosimilitudes correspondiente, para obtener la probabilidad posprueba. 31. Si un paciente tiene una probabilidad preprueba del 50% de embolia pulmonar, y también tiene una gammagrafía de ventilación/perfusión de alta probabilidad, ¿cuál es la probabilidad posprueba del paciente, utilizando el nomograma de verosimilitud? Al trazar una línea recta a partir de la probabilidad preprueba del 50% a través de un cociente de verosimilitudes de 20,0 se demuestra una probabilidad posprueba de, aproximadamente, el 95%. 32. ¿Qué significa el término «número que es necesario tratar» (NNT)? El NNT es una expresión numérica del número necesario de pacientes que han de recibir un tratamiento activo para demostrar un beneficio con respecto a la ausencia de tratamiento y pre-
121
122
MEDICINA BASADA EN EVIDENCIAS 0,1
99
0,2
98
0,5 1 2 5 10 20 30 40 50 60 70 80 90
95 2.000 1.000 500 200 100 50 20 10 5 2 1
90 80 70 60 50 40 30 20
0,5 0,2 0,1 0,05 0,02 0,01 0,005 0,002 0,001 0,0005
10 5 2 1
95
0,5
98
0,2
99 Probabilidad preprueba (%)
Cociente de verosimilitudes
0,1 Probabilidad posprueba (%)
Figura 8-1. Nomograma de verosimilitud. (Del Centre for Evidence-Based Medicine: http://www.cebm.net/likelihood_ratios.asp# example.)
venir un mal desenlace. Es una medida útil empleada en las decisiones médicas sobre un paciente individual cuando se resumen los resultados de los estudios clínicos. 33. ¿Cómo se calcula el NNT? El NNT es el inverso de la reducción del riesgo absoluto (ARR) y lo proporciona la expresión: NNT = 1/ARR ARR = ARC – ART donde ARC = riesgo atribuible en el grupo control, y ART = riesgo atribuible en el grupo de tratamiento. Expresado en estos términos, el NNT se convierte en NNT = 1/(ARC – ART) Chatellier G, Zapletal E, Lemaitre D, et al: The number needed to treat: A clinically useful nomogram in its proper context. BMJ 321:426–429, 1996.
34. ¿Cuáles son las preguntas clave que deben considerarse al evaluar los estudios sobre diagnóstico y cribado? 1. ¿Son válidos los resultados del estudio?
MEDICINA BASADA EN EVIDENCIAS
PUNTOS CLAVE: MEDICINA BASADA EN EVIDENCIAS (EBM) 1. La EBM integra las mejores pruebas actuales, la pericia clínica y los valores del paciente, para optimizar los desenlaces clínicos y la calidad de vida. 2. La EBM reconoce que la fuerza de las evidencias proporcionadas por observaciones no sistemáticas de un clínico individual no debe ser considerada como igual a la de las pruebas proporcionadas por los estudios clínicos sistemáticos y controlados. En general, la fuerza de las pruebas aumenta con los estudios aleatorios controlados, en comparación con la de los estudios observacionales. 3. Las bases de datos electrónicas de evidencias, las revistas basadas en evidencias y los servicios en línea son fuentes que, con mucha frecuencia, proporcionan las mejores pruebas disponibles. 4. Cuando se utiliza un artículo de la literatura médica para responder cuestiones clínicas, siempre deben formularse tres cuestiones útiles: 1) ¿son válidos los resultados del estudio?; 2) ¿son importantes las pruebas?, y 3) ¿cómo pueden aplicarse los resultados válidos e importantes a la atención médica del paciente? 5. Las herramientas de la EBM se aplican con mucha frecuencia al examinar aspectos clínicos relacionados con el diagnóstico y cribado, pronóstico y lesiones.
¿Hubo incertidumbre diagnóstica en todo el espectro de los estados de la enfermedad? ¿Se realizó la comparación con enmascaramiento y se dispuso de un patrón de referencia para el diagnóstico aplicado en los dos grupos, el de tratamiento y el de control? ■ ¿Se aplicó el patrón de referencia con independencia de los resultados de la prueba diagnóstica en evaluación? 2. ¿Son importantes las pruebas válidas? ■ ¿Se obtuvieron las pruebas válidas por medio de la prueba diagnóstica o de cribado capaz de distinguir de modo exacto a los pacientes con y sin enfermedad? 3. ¿Cómo se pueden aplicar a la atención médica al paciente los resultados válidos e importantes? ■ ¿Está disponible la prueba diagnóstica o de cribado, tiene un precio razonable, es aceptable, exacta y precisa? ■ ¿Es posible efectuar cálculos sensatos de las probabilidades preprueba en pacientes individuales? ■ ¿Afectarán las probabilidades posprueba posteriores al manejo o tratamiento del paciente? ■ ■
Jaeschke R, Guyatt GH, Lijmer J: Diagnostic tests. In Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 187–217. Sackett DL, Straus S, Richardson S, et al: Evidence-based Medicine: How to Practice and Teach EBM, 2nd ed. London, Churchill Livingstone, 2000, pp 67–94.
35. ¿Cuáles son las preguntas clave que deben considerarse al evaluar los estudios sobre el pronóstico? 1. ¿Son válidos los resultados del estudio? ■ ¿Se trataba de una muestra representativa de pacientes? ■ ¿Son homogéneos los pacientes con respecto al riesgo y pronóstico? ■ ¿Fue el seguimiento suficientemente largo y completo? ■ ¿Se aplicaron criterios del desenlace de modo objetivo, sin sesgos y con ocultación?
123
124
MEDICINA BASADA EN EVIDENCIAS
2. ¿Son importantes las pruebas válidas? ■ ¿Son probables los desenlaces observados en el tiempo? ■ ¿Qué precisión tienen los cálculos sobre el pronóstico? 3. ¿Cómo pueden aplicarse a la atención médica del paciente los resultados válidos e importantes? ■ ¿Son similares los pacientes individuales a los que se hallan en estudio? ■ ¿Lograrán las pruebas un impacto clínicamente relevante sobre la atención médica al paciente? Randolph A, Bucher H, Richardson WS, et al: Prognosis. In Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 219–240. Sackett DL, Straus S, Richardson S, et al: Evidence-based Medicine: How to Practice and Teach EBM, 2nd ed. London, Churchill Livingstone, 2000, pp 95–104.
36. ¿Cuáles son las preguntas clave que deben considerarse al evaluar los estudios del tratamiento? 1. ¿Son válidos los resultados del estudio? ■ ¿Quedaron asignados de modo aleatorio los pacientes? ■ ¿Existió enmascaramiento para los pacientes y los clínicos? ■ ¿Fue el seguimiento suficientemente largo y completo? ■ ¿Fueron analizados los pacientes a lo largo del estudio en sus respectivos grupos de aleatorización inicial? ■ ¿Fueron tratados los grupos de igual modo, a excepción del tratamiento en estudio? 2. ¿Son importantes las pruebas válidas? ■ ¿Cuál es la magnitud del efecto del tratamiento? ■ ¿Qué precisión tienen los cálculos del efecto del tratamiento? 3. ¿Cómo pueden aplicarse a la atención médica al paciente los resultados válidos e importantes? ■ ¿Son los pacientes individuales similares a los sometidos a estudio? ■ ¿Conseguirá el tratamiento un impacto clínicamente relevante sobre la atención al paciente? ■ ¿Cuáles son los beneficios, daños y costes potenciales del tratamiento? Guyatt GH, Cook D, Devereaux PJ, et al: Therapy. In Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 81–120. Sackett DL, Straus S, Richardson S, et al: Evidence-based Medicine: How to Practice and Teach EBM, 2nd ed. London, Churchill Livingstone, 2000, pp 105–154.
37. ¿Cuáles son las preguntas clave que deben considerarse al evaluar los estudios sobre los daños o efectos adversos? 1. ¿Son válidos los resultados del estudio? ■ ¿Estuvieron claramente definidos los grupos de pacientes en todos los aspectos importantes del desenlace? ■ ¿Se ajustó para el análisis cualquier diferencia entre los grupos? ■ ¿Fue el seguimiento suficientemente largo y completo para que se produjera el desenlace? ■ ¿Se determinaron de modo similar los desenlaces y las exposiciones entre los grupos de comparación? ■ ¿Reunió el estudio los criterios necesarios para el establecimiento de la causalidad? 2. ¿Son importantes las pruebas válidas? ■ ¿Cuál es la magnitud de la asociación entre exposición y desenlace?
MEDICINA BASADA EN EVIDENCIAS ■ ¿Cuál es la precisión de la asociación de exposición y desenlace? 3. ¿Cómo pueden aplicarse a la atención médica a los pacientes los resultados válidos e importantes? ■ ¿Son similares los pacientes individuales a los sometidos a estudio? ■ ¿Cuáles son los beneficios del tratamiento? ■ ¿Hay alternativas al tratamiento? ■ ¿Cuáles son los riesgos del paciente en relación con un suceso adverso? ■ ¿Se han considerado de modo adecuado las preferencias, intereses y expectativas de los pacientes?
PÁGINA WEB (Véase también la Tabla 8-1) 1. http://www.aso.org
BIBLIOGRAFÍA 1.• Dalla Vecchia LK, Grosfeld JL, West KW, et al: Intestinal atresia and stenosis: A 25-year experience with 277 cases. Arch Surg 133:490–496, 1998. 2.• Guyatt GH, Haynes B, Jaeschke R, et al: Introduction: The philosophy of evidence-based medicine. In Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 5–20. 3.• Guyatt GH, Keller JL, Jaeschke R, et al: The n-of-1 randomized control trial: Clinical usefulness. Our threeyear experience. Ann Intern Med 112:293–299, 1990. 4.• Guyatt G, Rennie D: Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002. 5.• Larson EB, Ellsworth AJ, Oas J: Randomized clinical trials in single patients during a 2-year period. JAMA 270:2708–2712, 1993. 6.• Levine M, Haslam D, Walter S, et al: Harm. In Guyatt GH, Rennie D (eds): Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Chicago, American Medical Association, 2002, pp 121–153. 7.• Mahon J, Laupacis A, Donner A, Wood T: Randomised study of n of 1 trials versus standard practice. BMJ 312:1069–1074, 1996. 8.• Millar AJ, Cywes S: Caustic strictures of the esophagus. In O’Neill JA, Rowe MI, Grosfeld JL, Coran AG (eds): Pediatric Surgery, 5th ed. St. Louis, Mosby, 1998, pp 969–979. 9.• Sackett DL, Straus S, Richardson S, et al: Evidence-based Medicine: How to Practice and Teach EBM, 2nd ed. London, Churchill Livingstone, 2000.
125
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS Richard I. Wittman, MD, MPH, y Sue Kim, MD, MS
CAPÍTULO 9
II. BIOESTADÍSTICA
1. ¿Qué es la bioestadística? La bioestadística proporciona un marco para el análisis de datos. Por medio de la aplicación de los principios estadísticos a las ciencias biológicas, los bioestadísticos (y otros profesionales familiarizados con la recogida, organización, análisis e interpretación de datos) son capaces de distinguir de manera sistemática las verdaderas diferencias entre observaciones y las variaciones aleatorias cuya única causa es el azar. 2. ¿Para qué es útil la bioestadística? Desde un punto de vista práctico, el conocimiento de la bioestadística y de la epidemiología permite realizar conclusiones válidas a partir de conjuntos de datos. Con esta información se determinan las asociaciones entre los factores de riesgo y la enfermedad y, en último término, se utilizan para reducir la enfermedad y la lesión. Mediante el empleo de estos métodos, los científicos y los bioestadísticos fueron capaces de demostrar la relación entre la exposición al benceno y un mayor riesgo de sufrir leucemia, y también entre la exposición al asbesto y un mayor riesgo de mesotelioma. 3. ¿Qué diferencia hay entre las variables nominales y las ordinales? ■ Las variables nominales (es decir, categóricas) representan datos clasificados únicamente por el nombre, sin considerar el orden o la magnitud de la variable. Estos datos no suelen ser numéricos. Entre los ejemplos figuran los siguientes: grupo sanguíneo (A, B, AB, O), sexo (hombre o mujer), color de los ojos y sucesos dicotómicos (sí/no). ■ Las variables ordinales pueden considerarse como variables nominales clasificadas en categorías ordenadas o jerarquizadas, pero no necesariamente de acuerdo con la magnitud. Los intervalos (es decir, diferencias) entre las categorías pueden no ser iguales. Entre los ejemplos figuran los siguientes: nivel de estudios (p. ej., ESO, bachillerato y estudios universitarios), y clasificación por cuestionarios (p. ej., malo, aceptable, bueno o excelente). 4. Describa en qué difieren las variables de intervalos, las variables de cocientes, las variables discretas y las variables continuas. ■ Las variables de intervalos son similares a las variables ordinales, pero las variables de intervalo están separadas por intervalos o distancias iguales; el punto cero no se considera significativo. Un ejemplo puede ser la puntuación en el cociente de inteligencia (IQ). ■ Las variables de cocientes se clasifican también en grupos ordenados, con intervalos equivalentes entre las variables, pero su punto cero es significativo. El peso corporal es un ejemplo. ■ Las variables numéricas discretas representan datos con un orden o magnitud asignado, pero se restringen a números enteros; entre los ejemplos figuran el dinero y el número de habitaciones de un hotel. ■ Las variables numéricas continuas representan datos capaces de tomar cualquier valor en una escala determinada, como la presión arterial, la temperatura y el peso.
127
128
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
5. ¿De qué maneras se pueden representar estos tipos de datos en forma de gráfico? El mejor modo de describir y representar los datos nominales y ordinales es por medio de histogramas (gráficos de barras agrupadas) y gráficos de sectores. El mejor modo de representar los datos discretos y los continuos es por medio de histogramas, polígonos de frecuencias, diagramas de dispersión, diagramas de cajas y gráficos de líneas. 6. ¿Qué es una medida de tendencia central? Las medidas de tendencia central, como son la media, la mediana y la moda, ofrecen unos aspectos concretos, rápidos y concisos de la distribución de datos, y es un método sencillo que permite comunicar los datos pertinentes. En pocas palabras, estas medidas proporcionan información de los datos mayoritarios de una distribución.
PUNTOS CLAVE: TRES MEDIDAS DE TENDENCIA CENTRAL 1.• Media. 2.• Mediana. 3.• Moda.
7. ¿De qué modo se determina el valor de la mediana? La mediana se utiliza para los datos ordinales, de intervalo, de cocientes, discretos o continuos. Se define como el percentil 50 de un conjunto de mediciones, y por debajo de dicho nivel se encuentra la mitad de las observaciones. Por ejemplo, la mediana de los siguientes cinco números (1, 1, 4, 9, 25) es el 4. Si hay un número par de variables que están siendo determinadas, la mediana será el promedio de los dos valores centrales. La mediana está menos afectada por los valores extremos (es decir, por los valores excepcionalmente altos o bajos) que la media. En otras palabras, es una mejor medida de la tendencia central para los datos sesgados. Como tal, se considera la medida más potente de la tendencia central. 8. ¿En qué difieren la media, la mediana y la moda en su expresión de la tendencia central? ■ La media se utiliza para los datos de intervalo y de cocientes, y se computa como la media aritmética (es decir, promedio) de los datos. Por ejemplo, la media de las cinco siguientes variables (1, 1, 4, 9, 25) es 40/5 = 8. La media está más afectada que la mediana por los valores sesgados. ■ La moda se utiliza para todos los tipos de datos, y representa la observación que aparece con mayor frecuencia. Por ejemplo, la moda de las cinco siguientes variables (1, 1, 4, 9, 25) es 1. ■ La mediana se explica en detalle en el punto 7. 9. ¿Qué es una medida de dispersión? Las medidas de dispersión describen la distribución o reparto de los datos. Utilizadas junto con las medidas de tendencia central, facilitan una descripción más completa de los datos. Cuatro medidas de dispersión que suelen utilizarse son el recorrido, el recorrido intercuartiles, la varianza y la desviación estándar.
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
10. ¿Qué diferencia hay entre el recorrido y el recorrido intercuartiles? ■ El recorrido es la diferencia entre el valor mayor y el menor en una distribución de datos. ■ El recorrido intercuartiles describe el 50% de las observaciones centrales (es decir, los datos situados entre los percentiles 25 y 75). 11. ¿Qué diferencia hay entre la varianza y la desviación estándar? ■ La varianza (s2) describe la cantidad de variabilidad global alrededor de la media (en todas las direcciones) y se mide como el promedio de las distancias al cuadrado entre cada variable y la media. Se calcula del siguiente modo:
s2 =
n 1 • (x – x–)2 (n – 1) i=1 i
Se tratará con mayor detalle en capítulos posteriores. La desviación estándar (s) se calcula como la raíz cuadrada positiva de la varianza: (s = • s2). Dado que la desviación estándar describe la variabilidad de los datos sólo en una dirección, tiene las mismas unidades que medida de la media; por ello, se utiliza con más frecuencia que la varianza para describir la amplitud de los datos.
■
12. ¿Qué es la distribución gaussiana? ¿Cómo se relaciona con la regla empírica? Una distribución gaussiana es una distribución de datos normal o «en campana», que es simétrica alrededor de la media; en este tipo de distribución, la media, la mediana y la moda tienen el mismo valor (Fig. 9-1). En una distribución de este tipo, la regla empírica indica que, aproximadamente, el 68% de los datos se encuentran comprendidos entre una desviación estándar a cada lado de la media (entre las dos líneas interiores, dibujadas en la figura), aproximadamente el 95% de la distribución está comprendida entre dos desviaciones estándares a ambos lados de la media (entre las dos líneas exteriores), y aproximadamente el 99,7% de los datos se hallan comprendidos entre tres desviaciones estándares a ambos lados de la media. Recuerde que en una distribución normal o gaussiana, las medidas de tendencia central son iguales y se localizan en el pico de la curva de distribución. (Véase también la Figura 10-2.)
Figura 9-1. Distribución gaussiana.
13. ¿Quién fue Gauss? Karl Friedrich Gauss (1777-1855) fue uno de los matemáticos más destacados de su tiempo, y avanzó descubrimientos en la teoría de números, álgebra, geometría, cálculo de probabilidades y otras áreas. 14. ¿Qué es la desigualdad de Chebyshev? Cuando la distribución de los datos no es simétrica y no se puede describir mediante una distribución gaussiana, aún es posible generalizar en relación con la distribución o dispersión de
129
130
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
los datos. En esta situación, puede emplearse la desigualdad de Chebyshev como una estimación conservadora de la regla empírica arriba comentada. Se demuestra que [1 – (1/k)2] de los datos se hallan comprendidos entre k desviaciones estándares a ambos lados de la media. Puede ser de gran utilidad para su aplicación a conjuntos de datos sesgados. 15. ¿Cómo se puede determiSesgo negativo nar en qué dirección se hallan sesgados los datos? Se dice que una curva de distribución está sesgada si los datos están distribuidos de forma asimétrica. Se califica la curva de datos como sesgada a la izquierda (o sesgada negativamente) si la parte más larga de la Moda curva se prolonga hacia la Mediana izquierda, y como sesgada positiMedia vamente si se extiende hacia la Figura 9-2. Distribución sesgada. derecha. En una curva así, la moda se encuentra en el punto más alto de la curva, la media se localiza hacia la parte más larga, y la mediana se sitúa entre la moda y la media, como se representa en la Figura 9-2.
PUNTOS CLAVE: CUATRO MEDIDAS DE LA DISPERSIÓN* 1.• Recorrido o intervalo. 2.• Recorrido intercuartiles. 3.• Varianza. 4.• Desviación estándar. * Se aplica una lógica similar al analizar una curva sesgada (positivamente) a la derecha.
16. ¿Cuándo se puede decir que una distribución de datos presenta curtosis? El término curtosis hace referencia al aspecto del pico de una curva, así como a su cola, en relación con una distribución normal. Las distribuciones de datos con curtosis alta muestran unos picos altos y «puntiagudos» cerca de la media, con colas anchas. En cambio, los datos con curtosis baja tienen unos picos más anchos y planos que la distribución normal. Una curva de distribución gaussiana tiene un sesgo cero y una curtosis cero. En una distribución curtósica, la varianza de los datos se mantiene inalterable. 17. ¿Qué es una determinación de probabilidades? ■ La probabilidad (P) hace referencia al hecho de que ocurra o no un suceso, a tenor de otros factores. ■ La determinación de probabilidades es el cálculo matemático real del hecho de que ocurra un suceso.
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
18. ¿Qué es una probabilidad condicional? Una probabilidad condicional refleja el hecho de que ocurra un suceso B una vez ha ocurrido un suceso A; en otras palabras, el desenlace del suceso B depende de la producción y del desenlace del suceso A. Se representa por P(A|B), o «probabilidad de que ocurra el suceso B una vez se ha producido el suceso A»: un ejemplo podría ser la probabilidad de que mientras se conduce se pasen de forma secuencial dos semáforos en verde. La probabilidad de pasar el segundo semáforo en verde requiere que se haya podido pasar el primer semáforo en verde. 19. ¿Qué son los sucesos mutuamente excluyentes? Se considera que unos sucesos son mutuamente excluyentes si la ocurrencia de un suceso o desenlace impide que se produzca el otro suceso. En otras palabras, los sucesos mutuamente excluyentes no pueden producirse de modo simultáneo. Un ejemplo común es el resultado de obtener «cara» o «cruz» después de lanzar una moneda al aire. En los sucesos mutuamente excluyentes, la suma de probabilidades de los sucesos es siempre menor o igual a 1. En cambio, se considera que los sucesos son independientes si la ocurrencia de un suceso no afecta al resultado del otro. 20. ¿Qué son los términos unión, intersección y complemento al determinar la probabilidad? ■ La unión (∪) de dos sucesos, A y B, se representa por P(A∪B). En el diagrama de Venn (Fig. 9.3), la unión de A y B se representa por la totalidad del área en el interior de ambos círculos, o A + B – C. La unión representa la probabilidad de la producción del suceso A solo, del suceso B solo o de ambos sucesos A y B simultáneamente. ■ La intersección (∩) de dos sucesos se define como el suceso que es, a la vez, de A y de B. La intersección de A y B se denota como P(A∩B); gráficamente, puede representarse por el área C del diagrama de Venn (véase Fig. 9-3). ■ El complemento de un suceso A es el suceso que «no es A». Gráficamente, puede representarse como la totalidad del área fuera del círculo A. El complemento de A se denota – como Ac o A.
A
C
B
Figura 9-3. Diagrama de Venn.
21. ¿Qué es la ley aditiva de probabilidades? La ley aditiva se aplica cuando los sucesos A y B no pueden producirse simultáneamente, o sea, cuando son sucesos mutuamente excluyentes. La ley aditiva indica que la probabilidad
131
132
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
de que se produzca un suceso A o un suceso B es la probabilidad del suceso A más la probabilidad del suceso B. De modo intuitivo tiene sentido, ya que si lanzamos una moneda al aire, la probabilidad de sacar «cara» (0,5) o «cruz» (0,5) sería igual a 1. La ley aditiva, en este caso, se expresa del modo siguiente: P(A o B) = P(A) + P(B). 22. ¿Puede aplicarse la ley aditiva cuando los dos sucesos no son mutuamente excluyentes? No. En este caso la ley aditiva no se cumple. En cambio, la probabilidad de que ocurra un suceso A o un suceso B es la probabilidad del suceso A más la probabilidad de B, menos la probabilidad de que ambos sucesos se den simultáneamente, ya que si ambos se producen al mismo tiempo, ni el suceso A ni el suceso B se pueden producir solos. Se representa por P((A o B) = P(A∪B) = P(A)+P(B) – P(A∩B), y describe la operación de unión comentada anteriormente. La ley aditiva de sucesos mutuamente excluyentes se parece mucho a esta ecuación. Cuando los sucesos son mutuamente excluyentes, la probabilidad (P) de que A y B se produzcan al mismo tiempo es igual a 0, o lo que es lo mismo P (A∩B) = 0, si sustituimos esta operación en la ecuación anterior obtenemos la ley aditiva, P(A) + P(B).
PUNTOS CLAVE: DISTRIBUCIÓN DE DATOS EN UNA DISTRIBUCIÓN GAUSSIANA NORMAL 1.• Aproximadamente, el 68% de los datos se sitúan entre 1 desviación estándar a ambos lados de la media. 2.• Aproximadamente, el 95% de los datos quedan situados entre 2 desviaciones estándares a ambos lados de la media. 3.• Aproximadamente, el 99,7% de los datos se sitúan entre 3 desviaciones estándares a ambos lados de la media.
23. ¿Cómo es la ley multiplicativa de probabilidad? La ley multiplicativa, se aplica cuando el suceso A y el suceso B son condicionalmente dependientes (y, por tanto, sucesos no mutuamente excluyentes). Según esta ley, la probabilidad (P) que ambos sucesos se produzcan juntos, A y B, es la probabilidad de A multiplicado por la probabilidad de B, en el supuesto de que el suceso A acabe de producirse. Se presenta del modo siguiente: P(A y B) = P(A∩B) = P(A) ⫻ P(B|A). Una transformación de esta ecuación da lugar a la siguiente:
P(B|A) = p
(A∩B) P(A)
Esta ley se trata con más detalle en un capítulo posterior. 24. ¿Se aplica la ley multiplicativa cuando los dos sucesos son independientes? No del todo. Si A y B son sucesos independientes (y, por ello, sucesos ni mutuamente excluyentes ni condicionales), la probabilidad de que ambos sucesos ocurran es igual a la probabilidad de que se produzca el suceso A multiplicado por la probabilidad del suceso B. Se representa como P(A y B) = P(A) ⫻ P(B). Con el ejemplo de cara (0,5) y cruz (0,5), la probabilidad de obtener exactamente un «cara» y a continuación exactamente una «cruz» en dos lanzamientos sucesivos de la moneda sería de 0,5 ⫻ 0,5, es decir: 0,25.
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
La ley multiplicativa es una forma especial de esta ecuación, porque cuando estos sucesos A y B son independientes, la probabilidad de que se produzca el suceso B, dado que A haya ocurrido, o P(B|A), es igual a P(B); al sustituir P(B|A en lugar de P(B) en la ecuación anterior se obtiene la ley multiplicativa (como se describe en el punto 23).
P(A y B) = P (A) ⫻ P (B|A). 25. ¿Qué es la inferencia estadística? La inferencia estadística es el proceso de extraer conclusiones en relación con una población, basándose en el estudio de sólo una parte de los miembros de dicha población. Este proceso de inferencia (es decir, de generalización), basada en relativamente pocos, es más exacto cuando la subpoblación que se estudia es homogénea (es decir, dé carácter uniforme), cuando la subpoblación es verdaderamente representativa (es decir, refleja correctamente el grupo mayor), y cuando la subpoblación se elige de forma aleatoria para eliminar el error de muestreo o sesgo. 26. ¿Cómo se efectúa la prueba de contraste de hipótesis? Probar una hipótesis es un modo de efectuar una inferencia estadística. Permite sacar conclusiones y hacer afirmaciones basadas en la información obtenida a partir de la muestra que se analiza. Es muy frecuente que en la prueba de hipótesis se dé por supuesto que la media (es decir, el promedio) de la muestra que se está estudiando es la misma media que la de la totalidad de la población de la que se extrajo la muestra. A continuación, se intenta aceptar o rechazar la afirmación obtenida; por ejemplo, se puede intentar demostrar que una nueva medicación es superior al tratamiento estándar para una afección. 27. ¿Qué significa la hipótesis nula? Al probar una hipótesis, la hipótesis nula afirma que no hay diferencia en los parámetros poblacionales entre los grupos que se comparan y que cualquier diferencia que se observa es, sencillamente, el resultado de una variación al azar dé los datos y no el resultado de una disparidad real en los propios datos. Por convención, se supone que la hipótesis nula es verdadera (es decir, los investigadores aceptan la hipótesis nula) al comienzo del estudio; a continuación, los investigadores intentan refutar o rechazar esta hipótesis por medio del análisis estadístico de los datos. 28. ¿Qué significa la hipótesis alternativa? La hipótesis alternativa sirve como opción opuesta a la hipótesis nula. Contradice la hipótesis nula, al afirmar que realmente hay una verdadera diferencia (más allá de la probable por el azar solo) en los parámetros poblacionales entre los grupos que se comparan. 29. ¿Qué significa que algo es estadísticamente significativo? Se considera que la diferencia entre grupos o datos que se comparan es estadísticamente significativa cuando excede el nivel límite arbitrario que el investigador ha establecido. Este nivel límite se denomina alfa (α) y, por convención, se fija en 0,05 o 5%; α representa la buena disposición del investigador de aceptar un 5% de posibilidades de no encontrar una diferencia entre las muestras cuando, en realidad, existe una verdadera diferencia entre los grupos. Una significación estadística no indica que el estudio por sí mismo sea clínicamente significativo; los grupos pueden presentar diferencias considerables en las determinaciones que ha realizado el análisis estadístico pero estas diferencias estadísticas pueden no reflejar las diferencias entre los grupos en la vida real.
133
134
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
30. ¿Qué es el valor p? El valor p es una representación numérica del grado con el que el azar sólo podría explicar las diferencias observadas entre los grupos o datos que se comparan. Un estudio que encuentra un valor p de 0,05 establece que hay una probabilidad del 5% de obtener un resultado extremo o más extremo que el observado realmente o valor medido sólo por el azar. Cuanto menor sea el valor p, más fuerte es la prueba para disputar la hipótesis nula. En otras palabras, cualquier diferencia observada en un estudio tiene mayor probabilidad de ser real, y no deberse sólo al azar. 31. ¿Qué relación hay entre el valor p y α? Cuando el valor p es inferior al límite α, se dice que el resultado es estadísticamente significativo. En el caso de tener un valor α fijado en 0,05, un valor de p < 0,001 se considera una prueba muy fuerte en contra de la hipótesis nula. Sin embargo, un valor de p > 0,10, es mayor que α, y representa una prueba débil para disputar la hipótesis nula, lo cual significa que es más probable que cualquier diferencia observada o medida se deba al azar y no a una diferencia real entre los grupos.
PUNTOS CLAVE: PRUEBA DE HIPÓTESIS 1.• Alfa (α): probabilidad de cometer un error de tipo I. 2.• Error de tipo I: error de rechazo de la hipótesis nula (es decir, no se debería haber rechazado la hipótesis nula). 3.• Beta (β): probabilidad de cometer un error de tipo II. 4.• Error de tipo II: error de aceptación de la hipótesis nula (es decir, se debía haber rechazado la hipótesis nula aceptada). 5.• Potencia = 1 – β.
32. ¿Qué es un error de tipo I en la prueba de hipótesis? Se produce un error de tipo I (es decir, error de rechazo o error α), cuando se rechaza la hipótesis nula (es decir, que hay una diferencia real entre los grupos o datos) cuando, en realidad, no hay una verdadera diferencia entre los grupos o datos. Así, se puede considerar que un error de tipo I es un resultado falso positivo. 33. ¿Qué es un error de tipo II? Se produce un error de tipo II (es decir, aceptación del error o error β) cuando no se rechaza la hipótesis nula (es decir, los investigadores afirman que no hay diferencias entre los grupos o datos) cuando, en realidad, sí hay una diferencia real. Así, puede considerarse que un error de tipo II es un resultado falso negativo. Hay una especie de equilibrio que se produce al asignar límites a un error de tipo I y a un error de tipo II (véase la Tabla 9-1) 34. ¿Cuál es la relación entre la potencia y beta (β)? La potencia (o poder) se define como la probabilidad, ya sea de rechazar correctamente la hipótesis nula cuando sí existe una diferencia verdadera entre los grupos ya sea de aceptar correctamente (es decir, no rechazar) la hipótesis nula cuando no hay una diferencia real entre los grupos; así, la potencia es la probabilidad de evitar un error de tipo II (es decir, no rechazar la hipótesis nula cuando es falsa) y es igual a 1 – β. Por convención, se considera aceptable una potencia mayor o igual al 80%.
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
TABLA 9-1. MODO DE DETERMINAR EL TIPO DE ERROR EN LA PRUEBA DE HIPÓTESIS
Desenlace de la prueba estadística
Resultados verdaderos de los datos de la población La media de la población total La media de la población total y la media de la subpoblación y la media de la subpoblación de muestra son iguales de muestra son diferentes
No rechaza la hipótesis nula
Conclusión correcta
Error de tipo II (es decir, falso negativo, aceptación del error, o error β)
Rechaza la hipótesis nula
Error de tipo I (es decir, falsa positiva, error de rechazo, o error α)
Conclusión correcta
35. Cite dos modos de aumentar la potencia del estudio. Aunque la potencia o poder de un estudio no se halla bajo el control del investigador, es posible aumentarla en un estudio aumentando el valor de α, lo que lleva a una disminución de β y, por tanto, a una mayor potencia. También se puede aumentar el poder aumentando el tamaño de la muestra (es decir, el número de individuos o de artículos implicados en el estudio). 36. ¿Cómo puede aplicarse la bioestadística a los procedimientos de cribado para determinar la probabilidad de que un individuo tenga una enfermedad? Las pruebas de cribado se emplean para detectar enfermedades en estadios más precoces de lo que es posible con el seguimiento de rutina. Por consiguiente, la detección debe producirse en un momento en el que la intervención pueda alterar el curso natural de la enfermedad y, en último término, llevar a una mejora de la calidad o cantidad de vida de los individuos afectados. Es importante considerar que cualquier intervención para prevenir o tratar una enfermedad, cuando se aplica de modo inapropiado, puede provocar consecuencias adversas; así, las pruebas de cribado deben distinguir de modo correcto a los pacientes que realmente tienen la enfermedad en cuestión de los que no la tienen. Desde un punto de vista bioestadístico, se consideran efectivas las pruebas de cribado con sensibilidad y especificidad elevadas. 37. ¿Qué significa sensibilidad y especificidad? ■ La sensibilidad es una medida de la capacidad de una prueba para identificar con precisión una enfermedad cuando está presente. Una prueba con una alta sensibilidad da un elevado porcentaje de resultados positivos cuando está presente la enfermedad (es decir, verdaderos positivos) y produce pocos o ningún resultado falso negativo. Por tanto, la sensibilidad es la probabilidad de que una prueba dé un resultado positivo cuando la enfermedad está presente. Puede representarse por P(T+ | D+). ■ La especificidad es la probabilidad de obtener una prueba negativa cuando la enfermedad está ausente. Una prueba con una especificidad elevada tiende a dar un resultado negativo en la prueba cuando la enfermedad está ausente (es decir, verdaderos negativos) y produce pocos o ningún resultado positivo. La especificidad pregunta: «Dado que una enfermedad está ausente, ¿cuál es la probabilidad de que una prueba sea negativa?». Se representa como P(T– | D–). 38. ¿Qué significa el valor predictivo de una prueba? ■ El valor predictivo positivo (PPV) es similar a la sensibilidad, pero en lugar de examinar la probabilidad de un resultado positivo en la prueba cuando la enfermedad está presente, exa-
135
136
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
■
mina la probabilidad de la enfermedad cuando la prueba es positiva. Pregunta: «Dada una prueba positiva, ¿cuál es la probabilidad de que la enfermedad esté realmente presente?». Puede representarse el PPV como P(D+ | T+). El valor predictivo negativo (NPV) de una prueba representa la probabilidad de que la enfermedad esté ausente cuando hay una prueba negativa. Pregunta: «Dada una prueba negativa, ¿cuál es la probabilidad de que la enfermedad esté realmente ausente?». Puede representarse el NPV como P(D– | T–).
39. ¿En qué difieren la sensibilidad y la especificidad con respecto al valor predictivo? Tal como se ha precisado anteriormente, la sensibilidad y la especificidad hacen referencia a la probabilidad de obtención de un resultado de la prueba positivo o negativo cuando la enfermedad está presente o ausente, respectivamente. El valor predictivo de una prueba hace referencia a la verosimilitud de la enfermedad a tenor del resultado de la prueba. La sensibilidad y la especificidad son propiedades inherentes a la prueba, y no cambian con la prevalencia de la enfermedad. Los valores predictivos varían directamente con la prevalencia de la enfermedad en la población analizada. 40. ¿Qué significa una prueba falsa positiva y una prueba falsa negativa? ■ Una prueba falsa positiva se produce cuando la prueba informa de modo incorrecto de la presencia de enfermedad cuando, de hecho, la enfermedad está ausente. ■ Una prueba falsa negativa se produce cuando la prueba informa de modo incorrecto de la ausencia de enfermedad cuando, de hecho, la enfermedad está presente (véase la Tabla 9-2).
TABLA 9-2.•REPRESENTACIÓN GRÁFICA DE MÉTODOS PARA EL ANÁLISIS DEL DESENLACE DESPUÉS DE REALIZAR UN CRIBADO EN BUSCA DE ENFERMEDAD Valor predictivo positivo = • • TP• • TP ⫹ FP Sensibilidad = • • TP• • TP ⫹ FN
Prueba positiva (T+) Prueba negativa (T−)
Enfermedad Enfermedad presente (D+) ausente (D−) Verdadero positivo Falso positivo TP FP Falso negativo Verdadero negativo FN TN Valor predictivo negativo
Especificidad = • • TN• • TN ⫹ FP
= • • TN• • TN ⫹ FN
41. ¿Qué es una curva de eficacia diagnóstica (ROC)? La curva ROC es una gráfica que representa la relación entre la sensibilidad y la especificidad. La «tasa de verdaderos positivos» (es decir, sensibilidad) aparece en el eje de las y, y la «tasa de falsos positivos» (1 – especificidad) en el eje de las x. Este tipo de gráfico puede ayudar a los investigadores a valorar la utilidad de una prueba diagnóstica, ya que ayuda a determinar el punto límite apropiado para una prueba de cribado. En general, el punto de la curva situado
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS
más próximo al ángulo superior izquierdo de la gráfica se toma como el punto en el que tanto la sensibilidad como la especificidad de la prueba son máximas. 42. ¿Qué es un intervalo de confianza? La media de la muestra es sólo una estimación puntual de la media de la totalidad de la población en estudio. Aunque la media de esta muestra pueda reflejar realmente la media poblacional, hay incertidumbre en este valor. Los intervalos de confianza son construcciones que se utilizan para describir la gama de valores posibles en relación con esta estimación puntual. El intervalo de confianza del 95% utilizado habitualmente representa una confianza del 95% de que los límites inferior y superior de este intervalo incluyan la media verdadera de la muestra. Por ejemplo, si se seleccionan aleatoriamente 100 muestras de la población y se determinan 100 intervalos de confianza diferentes para las medias de estas muestras, 95 de ellos incluirán la media poblacional verdadera y 5 podrían no incluirla.
PUNTOS CLAVE: CRIBADO 1.• Sensibilidad = 2.• Especificidad =
TP TP ⫹ FN TN
= tasa de verdaderos positivos = 1 – tasa de falsos negativos. = tasa de verdaderos negativos = 1 – tasa de falsos positivos.
TP ⫹ FN
TF TN ⫹ FN TP 4.• Valor predictivo positivo = TP ⫹ FP 3.• Valor predictivo negativo =
5.• Tasa de falsos negativos =
FN = 1 – sensibilidad = 100 – % sensibilidad. FN ⫹ TP
6. Tasa de falsos positivos =
FP = 1 – especificidad = 100 – % especificidad. FP ⫹ TN
43. ¿Qué significa que dos variables se hallan correlacionadas? La correlación entre variables refleja el grado de relación entre los cambios de una variable y los cambios de otra variable. Las variables pueden correlacionarse de forma positiva (es decir, un aumento en una variable comporta un aumento en la otra) o negativa (es decir, un aumento en una variable comporta una disminución en la otra). Las variables se describen como correlacionadas al 100% cuando un cambio en una variable comporta siempre implica un cambio proporcional en la otra. Un coeficiente de correlación de Pearson igual a + 1 describe variables que se correlacionan al 100%; mientras que un coeficiente de correlación de Pearson de cero denota variables sin correlación alguna. 44. ¿Qué es la regresión? ¿En qué difieren la regresión lineal y la regresión logística? ■ La regresión lineal es un tipo de análisis que se emplea para describir la probabilidad de que se produzca un desenlace, una variable dependiente, a tenor de la relación entre dos o más variables continuas aleatorias independientes. Se emplea para predecir cómo pueden afectar los cambios en una (en el caso de la regresión lineal simple) o en muchas (en el caso de la regresión lineal múltiple) variables al valor del desenlace de interés dependiente, representado como x.
137
138
INTRODUCCIÓN A LOS CONCEPTOS BIOESTADÍSTICOS ■
La regresión logística es una variación de la regresión lineal utilizada para describir la relación entre dos o más variables cuando la variable de desenlace dependiente es dicotómica y las variables independientes son de cualquier tipo.
45. ¿Qué es un análisis de supervivencia? El objetivo de un análisis de la supervivencia es determinar las probabilidades de «supervivencia» de los individuos a partir de un punto de partida designado hasta un momento posterior; este intervalo se denomina tiempo de supervivencia. Nos referimos como fracaso al criterio de valoración en estudio. El fracaso no siempre significa muerte sino que define también desenlaces como el desarrollo de una enfermedad concreta o la recidiva de una enfermedad. 46. ¿Por qué es distinto el análisis de supervivencia de otras formas de regresión? El análisis de supervivencia requiere un enfoque distinto al de la regresión logística y lineal, por dos razones: 1) los datos carecen de una distribución normal (es decir, la distribución de los datos de supervivencia tiende a estar sesgada hacia la derecha), y 2) censura de datos (es decir, hay unos tiempos de observación incompletos debido a pérdidas en el seguimiento o a la retirada del paciente de un estudio). Las herramientas potenciales para el análisis son las tablas de vida, el método de Kaplan-Meier (es decir, el método del producto-límite), la prueba del orden logarítmico, y la regresión de Cox.
PÁGINA WEB http://www.aps.nccd.cdc.gov/brfssdatasystems/estimates.asp
BIBLIOGRAFÍA 1.• Morton RF, Hebel JR, McCarter RJ: A Study Guide to Epidemiology and Biostatistics, 4th ed. Gaithersburg, Maryland, Aspen Publications, 1996. 2.• Norman GR, Streiner DL: Biostatistics: The Bare Essentials, 2nd ed. Hamilton, Ontario, B.C. Decker, 2000. 3.• Pagano M, Gauvreau K: Principles of Biostatistics, 2nd ed. Pacific Grove, CA, Duxbury Press, 2000.
Adam M. Brown, DO, y Robert J. Nordness, MD, MPH
CAPÍTULO 10
DESCRIPCIÓN Y RESUMEN DE LOS DATOS 1. Defina «variable». Una variable es cualquier cosa que pueda medirse y se pueda observar que varía. Cualquier medida que se mantenga siempre en un único valor no puede ser considerada una variable, y se denomina más apropiadamente como una constante. 2. ¿Cómo se caracterizan clásicamente los datos? Los datos se caracterizan clásicamente como datos cuantitativos o cualitativos. 3. ¿Qué son los datos cuantitativos? Se considera que los datos son cuantitativos cuando se miden en una escala numérica o cuantitativa. Puede medirse la información como valores discretos enteros o sobre una escala continua. Las escalas ordinal, de intervalos y de cocientes son cuantitativas. La población de un país, la talla del zapato de una persona y la velocidad de un coche son ejemplos de información cuantitativa. 4. Explique qué son las variables continuas. Las variables que pueden tomar sólo un valor en un cierto recorrido de un continuo se denominan variables continuas. El tiempo y la distancia son continuos, mientras que el sexo, las puntuaciones de algunas pruebas y el «tiempo redondeado al segundo más próximo» no lo son. Las variables cuantitativas que no son continuas se conocen como variables discretas. No hay una variable que sea verdaderamente continua; sin embargo, con fines prácticos, las variables discretas medidas con precisión suficiente pueden considerarse con frecuencia como continuas a fines prácticos. 5. Explique qué son las variables discretas. Las variables que sólo pueden tomar un número finito de valores se denominan variables discretas. Todas las variables cualitativas son discretas. Algunas variables cuantitativas son discretas, como el rendimiento clasificado como «1, 2, 3, 4 o 5» y la «temperatura redondeada al grado más próximo». Las variables discretas toman como valores números enteros; otro ejemplo es el número de fracturas presentes en un paciente traumatizado. En ocasiones, una variable que toma valores discretos suficientes puede considerarse como continua a fines prácticos. Un ejemplo es el tiempo redondeado al milisegundo más próximo. Las variables que pueden tomar un número infinito de valores posibles se denominan variables continuas. 6. ¿Qué son los datos cualitativos? También denominados datos categóricos, los datos cualitativos son variables sin un sentido de ordenación natural. Por ejemplo, el color del pelo (p. ej., negro, castaño, gris, rojo o amarillo) es una información cualitativa, como lo es el nombre (p. ej., Juan, Luis, Cristina, María). Se
139
140
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
pueden codificar los factores cualitativos para que aparezcan como numéricos, pero sus números no tienen significado desde un punto de vista cuantitativo, como la codificación del sexo: hombre = 1, mujer = 2. 7. ¿Son cuantitativas o cualitativas las variables? Las variables pueden ser cuantitativas o cualitativas. El tipo de variable descrita es un factor significativo en el análisis estadístico posterior. 8. ¿Qué es lo que determina que una variable sea independiente? Una variable independiente puede ser conceptualizada como una causa o influencia hipotética sobre una variable dependiente; clásicamente, el desenlace de interés. Una variable independiente puede ser un factor que se puede controlar, como un tratamiento, o una exposición que no se controla, o quizás un factor demográfico como la edad o el sexo. 9. ¿Qué son las variables dependientes? La variable dependiente es el desenlace investigado. Un estudio intenta determinar si existe una asociación entre los factores de riesgo potenciales (es decir, variables independientes) y la variable dependiente de interés. 10. Describa la relación entre las variables independientes y las variables dependientes. El concepto de variables independientes y dependientes es análogo al que se utiliza en el álgebra elemental. Una o más variables independientes son sometidas a cierto tipo de operación aritmética, con frecuencia con la introducción de constantes, para determinar el valor de la variable dependiente. En la ecuación F = 1,8 ⫻ C + 32, C es la variable independiente y F la variable dependiente porque los cambios en F dependen de los cambios en C. Si se escribiese la ecuación en la forma de C = (F – 32/1,8), C sería la variable dependiente y F la variable independiente. Este ejemplo también ilustra que se puede considerar una propiedad o característica como factor de riesgo en algunos contextos y como desenlace en otros. 11. Mencione algunas de las escalas de medida utilizadas habitualmente. Las escalas de medida se pueden dividirse en cuatro categorías: ■ Escala nominal. ■ Escala ordinal. ■ Escala de intervalos. ■ Escala de cocientes. 12. Describa la escala nominal. Se emplean las escalas nominales para agrupar datos cualitativos en categorías arbitrarias sin orden inherente. Un buen ejemplo es la raza/etnia, con los siguientes valores: 1 = blanca; 2 = de ascendencia hispanoamericana; 3 = indios de Norteamérica; 4 = negra; 5 = otra. Obsérvese que los valores numéricos asignados y el orden de las categorías es arbitrario. Ciertos conceptos estadísticos carecen de significación en relación con los datos nominales. Por ejemplo, resultaría absurdo calcular la media y la desviación estándar de la categoría raza/etnia. 13. Describa la escala ordinal. Las escalas ordinales clasifican los datos categóricos de modo que hay cierto ordenamiento lógico de las categorías. Un buen ejemplo es la escala de Likert, que se observa en muchas investigaciones: 1 = claro desacuerdo; 2 = desacuerdo; 3 = neutral; 4 = acuerdo; 5 = franco
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
acuerdo. Las escalas ordinales muestran una clasificación relativa, pero no se pueden hacer suposiciones sobre el grado de diferencia entre dos valores. 14. Describa la escala de intervalos. La escala de intervalos es similar a la escala ordinal en el sentido de que hay una clasificación secuencial de los valores asignados. Una escala de intervalos también tiene la propiedad de poseer una diferencia con sentido (es decir, una igual) entre los valores sucesivos de la escala. Las escalas de temperatura de Fahrenheit y Celsius son ejemplos clásicos de escalas de intervalos. La diferencia entre 70 ºF y 80 ºF es la misma que la diferencia entre 30 ºF y 40 ºF. 15. ¿En qué se diferencia la escala de cocientes de la escala de intervalos? La escala de cocientes es similar a la escala de intervalos en el sentido de que hay una clasificación con sentido de los valores de la escala, y también porque la diferencia entre cualquiera de dos valores tiene sentido e igual magnitud. Lo que hace que la escala de cocientes sea singular es que el valor cero tiene sentido. Por ejemplo, un peso de cero significa ausencia de materia, mientras que una temperatura de 0 ºF es totalmente arbitraria. 16. ¿Cuál es la significación de un valor cero con sentido en la escala de cocientes? La implicación de un valor cero con sentido es que el cociente de dos valores tiene también sentido. Por ejemplo, consideremos de nuevo el peso, medido en una escala de cocientes. Un objeto que pesa 10 kg es dos veces más pesado que un objeto que pesa 5 kg. Sin embargo, no podemos decir que un objeto con una temperatura de 10 ºF sea dos veces más caliente que un objeto a 5 ºF, ya que el valor cero en la escala Fahrenheit es arbitrario.
PUNTOS CLAVE: VARIABLES Y ESCALAS DE MEDIDA 1.• Las variables toman diversos valores. 2.• Las variables independientes se utilizan para calcular valores de variables dependientes. 3.• Se utilizan las escalas nominales para agrupar de modo arbitrario los datos cualitativos. 4.• Las escalas ordinales muestran el rango, pero no dan información sobre la distancia entre valores. 5.• Las escalas de intervalos tienen rango y espaciación con sentido entre los valores. 6.• Las escalas de cocientes tienen un cero con sentido, lo que da significado al cociente entre dos valores.
17. ¿Qué medidas generales se utilizan para describir las distribuciones de frecuencias en relación con los datos cuantitativos? Las medidas de tendencia central y las medidas de dispersión. Las medidas de tendencia central describen un valor clásico de la distribución, mientras que las medidas de dispersión dan una idea de la dispersión de los datos alrededor de la medida central. 18. ¿Cuáles son las medidas de tendencia central utilizadas con mayor frecuencia? La media, la mediana y la moda. 19. ¿Cuál es la media de una distribución de frecuencias? La media es, simplemente, el promedio aritmético de todos los elementos de una muestra. Para calcular la media de una muestra se suman todos los valores de la muestra y se divide por el
141
142
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
tamaño de la muestra. Por ejemplo, los valores de cotinina de siete fumadores son: 73, 58, 67, 93, 33, 18 y 147. La suma de estos valores es 489. Se divide dicha suma por 7 y se obtiene una media de 69,9. •n x x = i = 1 i = (73 + 58 + 67 + 93 + 33 + 18 + 147)/7 = 69,9 n 20. ¿Qué es la mediana? La mediana es el valor central de una distribución de frecuencias ordenada, de modo que, aproximadamente, la mitad de los datos son más pequeños y, aproximadamente, la mitad son mayores. 21. ¿Cómo se calcula la mediana de una distribución de frecuencias? Hay dos fórmulas para el cálculo de la mediana, dependiendo de que el tamaño de la muestra sea par o impar. En ambos casos, se ordenan los datos del más pequeño al mayor. ■ Si n (es decir, el número de observaciones en la muestra) es impar, se selecciona la observación (n + 1)/2. Por ejemplo, considere estas cinco lecturas de colesterol, medidas en mg/dl: 128, 168, 188, 202 y 244. Hay cinco valores en la muestra, de modo que el valor (n + 1)/2 es el tercer valor (188) y la mediana. ■ Si n es par, se selecciona el punto medio entre la observación n/2 y (n/2) + 1. En otro ejemplo de adultos, los valores de colesterol, en mg/dl, son: 164, 186, 222, 230, 272 y 288. En relación con estos datos hay un número par de observaciones (n = 6). De modo que seleccionamos el valor medio entre la tercera observación (222) y la cuarta observación (230). Así, la mediana es (222 + 230)/2 = 226. Obsérvese que el valor de la mediana en este conjunto de datos no corresponde a un valor real de sujeto alguno de la muestra. 22. ¿Cuál es el indicador más estable de la tendencia central, la mediana o la media? La mediana es un indicador más estable de la tendencia central. Por ejemplo, 10 estudiantes consiguieron los siguientes resultados en un examen de estadística: 41, 42, 42, 43, 44, 46, 48, 48, 50 y 98. La mediana aquí es 45, y representa un valor típico (aunque no un valor real) en esta muestra. La media, por otra parte, es 50,2, una puntuación superior al 90% de la muestra. 23. ¿Qué es la moda? La moda es, simplemente, el valor real más frecuente en una distribución de frecuencias. El valor máximo en una frecuencia representa la moda. Una distribución puede tener cualquier número de modas. Las distribuciones con una moda se denominan unimodales, las que tienen dos, se denominan bimodales, y así sucesivamente.
PUNTOS CLAVE: TENDENCIA CENTRAL 1.• La media, la mediana y la moda son medidas de la tendencia central. 2.• La media es, sencillamente, el promedio aritmético de los valores observados. 3.• La mediana divide la distribución en dos grupos iguales. 4.• La moda es el valor observado con mayor frecuencia en la distribución. 5.• Puede haber más de una moda en un conjunto de datos dado. 6.• La media resulta más afectada por los valores extremos que la mediana.
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
Frecuencia
24. ¿Qué es una distribución sesgada? A B C Se considera que una distribución es sesgada cuando está desequilibrada por puntuaciones extremas en un extremo o en sus proximidades. En forma gráfica, las distribuciones sesgadas se etiquetan según la dirección de Variable x la cola. Cuando la Figura 10-1. Efecto del sesgo sobre la media, la mediana y la moda. (De cola va hacia la Centers for Disease Control and Prevention: Principles of Epidemiology, izquierda, la curva se 2.ª ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiohalla sesgada negatilogy Program Office, Public Health Practice Program, 1992.) vamente; cuando la cola se dirige hacia la derecha, está sesgada positivamente. Las distribuciones con sesgo positivo son más comunes que las distribuciones con sesgo negativo. La Figura 10-1 muestra tres tipos de sesgo distintos: la curva A está sesgada positivamente o sesgada hacia la derecha, la curva B es simétrica y no tiene sesgo, mientras que la curva C se halla sesgada negativamente o sesgada hacia la izquierda. Como regla general, la media es mayor que la mediana en las distribuciones con sesgo positivo e inferiores a la mediana en las distribuciones sesgadas negativamente, como se ha explicado previamente. 25. Describa un ejemplo de distribución sesgada en el mundo real. Un ejemplo de sesgo es la distribución de ingresos. La mayoría de la gente gana por debajo de 40.000 dólares anuales, pero algunos obtienen unos ingresos bastante superiores, y son muy pocas las personas que obtienen muchos millones de dólares por año. Por consiguiente, la cola positiva se extiende hacia afuera una gran distancia, mientras que la cola negativa se detiene en cero. 26. ¿Cuál es la relación entre media, mediana y moda en una distribución de frecuencias simétrica? En una distribución de frecuencias simétrica, la media y la mediana son idénticas. Además, si la distribución es simétrica y unimodal, la moda es igual a la media y a la mediana. La curva de la izquierda de la Figura 10-2 muestra una distribución de frecuencias simétrica en la que la media, la mediana y la moda son iguales. 27. ¿Cuál es la relación entre la media y la mediana en las distribuciones sesgadas? En las distribuciones sesgadas, los valores extremos afectan a la media en mayor grado que a la mediana. La media «va detrás de la cola» de las distribuciones sesgadas, mientras que la mediana tiende a permanecer en su sitio. La curva sesgada negativamente a la derecha de la Figura 10-2 ilustra la relación de la media, la mediana y la moda cuando la distribución es sesgada.
143
144
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
28. ¿Cuáles son las medidas de dispersión utilizadas habitualmente en bioestadística? Las medidas de dispersión más habituales son el recorrido o amplitud, la desviación estándar y la varianza.
Distribución simétrica
Media Mediana Moda
Distribución sesgada
Moda Mediana Media
Figura 10-2. Áreas bajo la curva normal que quedan situadas entre las desviaciones estándares 1, 2 y 3 a cada lado de la media. (De Centers for Disease Control and Prevention: Principles of Epidemiology, 2.ª ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program, 1992.)
29. ¿Qué es el recorrido de una distribución de frecuencias? El recorrido (R) es la medida de la amplitud de la distribución total. Se obtiene simplemente calculando la diferencia entre los valores mayor y menor. Por ejemplo, si el valor mayor en una distribución del cociente de inteligencia (IQ) es 160 y el menor es 80, por tanto, el recorrido, la diferencia entre los valores máximo y mínimo, es R = 80. A tenor de estos dos valores solamente, el recorrido no da información sobre la distribución de los valores entre los dos valores extremos. 30. ¿De qué modo son de utilidad los cuantiles para describir las distribuciones de frecuencias? Los cuantiles dividen las distribuciones de frecuencias en subgrupos ordenados iguales, y dan más información sobre la distribución de los datos que el recorrido, que se basa solamente en los valores extremos, el máximo y el mínimo. El cuantil utilizado con mayor frecuencia es el cuartil, que divide los datos en cuatro grupos de tamaños idénticos. Los deciles dividen los datos en diez grupos iguales. Todos estamos acostumbrados al percentil, sistema utilizado con frecuencia para describir el rango en una prueba estandarizada; por ejemplo, una puntuación en el percentil 95 indica un rendimiento superior al 95% de todos los que tomaron parte en el examen. 31. ¿Cuál es el recorrido intercuartiles? Tal como se acaba de explicar, los cuartiles dividen una distribución en cuartos. El recorrido intercuartiles es la diferencia entre el primer y el tercer cuartil o, en otras palabras, es el recorrido del 50% de los datos, los centrales. Por definición el 25% de los valores se halla por debajo de los encontrados en el recorrido intercuartil, y 25% de los valores, por encima. 32. ¿Qué es la desviación estándar? La desviación estándar es la medida de la dispersión de los datos alrededor de la media utilizada más ampliamente. Cuanto mayor sea la desviación estándar, más dispersos se hallan los datos con respecto a la media. 33. ¿Cómo se calcula la desviación estándar de una muestra? La fórmula de la desviación estándar es la que figura al pie, en la que SD = desviación estándar, • = suma de; x = puntuación individual; x (denominada «x-barra») = media de todas las puntuaciones, y n = tamaño de la muestra (es decir, número de puntuaciones)
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
SD =
• (x – –x )2 n–1
34. Ponga un ejemplo de un problema en el que se calcule la desviación estándar de una muestra. Considere las siguientes notas en una prueba de un curso en una facultad de Ciencias Físicas en la que siete estudiantes se hallaban presentes en el día de la prueba: 76, 80, 84, 85, 88, 90 y 92. Un rápido vistazo a los datos nos da una idea de que la media se halla en la mitad de los 80. El cálculo de la media es de 85,0, que está muy de acuerdo con nuestro cálculo aproximado. Para calcular la desviación estándar, debemos restar la media de cada valor individual y elevar esta diferencia al cuadrado; a continuación, sumar todos los términos; esta suma se conoce como suma total de los cuadrados (TSS):
TSS = • (X – media)2 En la que la media = •
X n
(n = número total de sujetos en el experimento) (76 – 85)2 + (80 – 85)2 + (84 – 85)2 + (85 – 85)2 + (88 – 85)2 + (90 – 85)2 + (92 – 85)2 = TSS = 190 Se divide ahora la TSS por n–1 (que es 6) para proporcionar un término conocido como varianza:
Varianza =
TSS = 31,67 (n – 1)
La raíz cuadrada de este valor es igual a la desviación estándar, SD =
31,67 = 5,63.
35. ¿Qué es la varianza? La varianza es la medida de la variación entre todos los sujetos en un experimento. Tal como se ilustra en el cálculo de la desviación estándar en el problema anterior, la varianza es, sencillamente, el cuadrado de la desviación estándar. Al igual que la desviación estándar, la varianza es una medida de la dispersión del conjunto de datos a partir del valor medio. La varianza es igual a la suma de las diferencias cuadráticas entre cada valor y la media, dividida por el número de valores en el conjunto de datos, menos uno:
Varianza =
TSS (n – 1)
Varianza = (SD)2 36. ¿De qué modo ayuda la desviación estándar a calcular los valores esperados en una distribución normal? La Figura 10-3 ilustra la distribución de frecuencias en una distribución normal en relación con la desviación estándar. Globalmente, el 68% aproximadamente de los valores quedan situados entre dos desviaciones estándares con respecto a la media (es decir, una SD por encima y una SD por debajo de la media). Más del 95% de los valores quedan situados entre dos desviaciones estándares en las dos direcciones a partir de la media, y aproximadamente el 99% de los valores quedan comprendidos entre tres desviaciones estándares a partir de la media. Estos valores sirven como estimaciones aproximadas útiles en el caso de que una distribución de frecuencias pueda considerarse razonablemente como una distribución normal.
145
146
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
68,3% de los datos
95,5% de los datos 99,7% de los datos –38D
–28D
–18D
Media
+18D
+28D
+38D
Figura 10-3. Tres curvas con sesgo diferente. (De Centers for Disease Control and Prevention: Principles of Epidemiology, 2.ª ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program, 1992.)
37. Describa el coeficiente de variación. El coeficiente de variación es una medida de la variabilidad de los valores en una muestra, en relación con el valor de la media. Matemáticamente, es simplemente el cociente entre la desviación estándar y la media. Debe tenerse en cuenta que el coeficiente de variación es verdaderamente significativo sólo en relación con los valores medidos en una escala de cocientes.
PUNTOS CLAVE: DISPERSIÓN 1.• El recorrido, la desviación estándar y la varianza son medidas de dispersión habituales. 2.• El recorrido es, sencillamente, la diferencia entre el valor mayor y el menor, lo que proporciona la amplitud de la distribución, pero nada más. 3.• La desviación estándar es la medida de dispersión utilizada con mayor frecuencia. 4.• En una distribución normal, el 68% de los valores se hallan situados entre una desviación estándar por arriba y una desviación estándar por debajo del valor de la media. 5.• La varianza es, simplemente, la desviación estándar elevada al cuadrado.
38. Defina el error estándar de la media (SEM). El error estándar de la media es, simplemente, una estimación de la exactitud de la media de una muestra al describir la media de la población de la que se extrajo. Si se tomaran muchas muestras de una población dada, se esperaría que las medias fuesen ligeramente diferentes, tanto entre sí como a partir de la población verdadera. El error estándar de la media es, simplemente, una estimación de la desviación estándar de un grupo de medias muestrales alrededor de la media poblacional.
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
39. ¿Cómo se calcula el SEM? El SEM se calcula, muy sencillamente, dividiendo la desviación estándar de una única muestra por la raíz cuadrada del número de observaciones en dicha muestra.
SEM =
SD n
40. ¿Para qué se emplea el SEM? El SEM se emplea para construir intervalos de confianza alrededor de la media de una muestra. Cuanto más pequeño sea el SEM, más confiados nos sentiremos en que la media de la muestra sea verdaderamente representativa de la media poblacional. 41. Defina un error de medida. Un error de medida es la variación en la medida de observaciones que es atribuible al propio proceso de medida. La variación de medida es un término utilizado con frecuencia como sinónimo de error de medida. 42. Cite los dos tipos de error de medida que pueden cometerse. El error de medida consta del error sistemático y del error por azar (error aleatorio). 43. ¿Cuál es el error de medida por azar o error aleatorio? Los errores aleatorios aumentan la dispersión, y tienen una probabilidad igual de situarse a cualquier lado del valor verdadero. Se considera que los errores aleatorios se producen por azar y no son predecibles. Todos los datos del muestreo se hallan sujetos a error por azar. Al aumentar el número de mediciones en una muestra, la discrepancia causada por el error aleatorio disminuye, y la suma de errores por azar tiende a cero. 44. ¿Qué es el error de medición sistemático? El error de medición sistemático, también conocido como sesgo, está causado por un defecto constante en algún aspecto del proceso de medición que da origen a que los valores se centren alrededor de un valor que no es el valor verdadero. El aumento del número de observaciones no tiene efecto alguno sobre el error sistemático. 45. ¿Qué es la precisión? La precisión es la ausencia de error aleatorio, lo que da origen a un estrecho agrupamiento en mediciones repetidas. 46. ¿Qué es la validez? La validez es la ausencia de error sistemático (es decir, sesgo), lo que lleva a que los valores medidos se aproximen al valor verdadero. 47. ¿Qué es una tasa? En términos estadísticos, una tasa es la medida de la frecuencia de un suceso durante un intervalo de tiempo. En epidemiología, en demografía y en las estadísticas vitales, una tasa es una expresión de la frecuencia con la que se produce un suceso en una población definida, en un período de tiempo especificado. Las tasas son cocientes, y se calculan al dividir un numerador (p. ej., el número de muertes o de casos de una enfermedad de aparición reciente en un período dado) por un denominador (p. ej., la población promedio durante dicho período). 48. ¿Qué es una proporción? Una proporción es un tipo de cociente en el que el numerador está incluido en el denominador, que representa la totalidad de la muestra. Por definición, una proporción tiene un valor com-
147
148
DESCRIPCIÓN Y RESUMEN DE LOS DATOS
prendido entre 0 y 1. Dado que el numerador y el denominador tienen la misma dimensión, una proporción es una cantidad adimensional.
PUNTOS CLAVE: ERRORES 1.• Se emplea el error estándar de la media (SEM) para calcular la diferencia de la media de una muestra con respecto a la media de la población madre. 2.• Los errores de medición se clasifican como errores por azar (aleatorios) o errores sistemáticos. 3.• Los errores aleatorios por azar crean dispersión. 4.• El efecto del error aleatorio disminuye a medida que aumenta el número de observaciones. 5.• El error sistemático se conoce también como sesgo. 6.• El error sistemático es un error de medición constante que centra las observaciones en un valor distinto al valor verdadero.
49. Ponga un ejemplo de proporción. Veinte estudiantes se examinaron de bioestadística y 15 de ellos aprobaron. La proporción de los que suspendieron = 5 estudiantes que suspendieron del total de 20 estudiantes que tomaron parte en el examen = 5/20 = 0,25. Las proporciones se convierten con frecuencia en porcentajes por comodidad; se dirá que el 25% de los estudiantes que se examinaron fueron suspendidos.
PÁGINAS WEB 1.• http://www.zebu.uoregon.edu/1999/es202/I16.html 2.• http://www-phm.umds.ac.uk/teaching/ClinEpid/default.htm 3.• http://www.consort-statement.org 4.• http://www.psych.rice.edu/online_stat/glossary/skew.html 5.• http://www.davidmlane.com/hyperstat/A92403.html 6.• http://www.davidmlane.com/hyperstat/A11284.html 7.• http://www.cs.umd.edu/~mstark/exp101/expvars.html 8.• http://www.tufts.edu/~gdallal/LHSP.htm
BIBLIOGRAFÍA 1.• Bland JM, Altman DG: Statistics notes: Measurement error and correlation coefficients. BMJ 313:41–42, 1996. 2.• Centers for Disease Control and Prevention: Principles of Epidemiology, 2nd ed. Atlanta, U.S. Department of Health and Human Services, Public Health Service, Centers for Disease Control and Prevention, Epidemiology Program Office, Public Health Practice Program,1992. 3.• Devereaux PJ, Manns BJ, Ghali WA, et al: Physician interpretations and textbook definitions of blinding terminology in randomized controlled trials. JAMA 285:2000–2003, 2001. 4.• Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia, W.B. Saunders, 2001. 5.• Last JM (ed): A Dictionary of Epidemiology, 4th ed. Oxford, Oxford University Press, 2001. 6.• Rothman KJ: Epidemiology: An Introduction. Oxford, Oxford University Press, 2002.
Robert W. Perkins, MD, MPH
CAPÍTULO 11
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES DISTRIBUCIONES DE FRECUENCIAS 1. ¿Qué es una distribución de frecuencias? Una distribución de frecuencias ilustra con qué frecuencia aparecen las diferentes categorías de datos dentro de una muestra de datos. Esta información se presenta en una variedad de formatos diferentes, desde tablas simples a gráficos y diagramas tridimensionales. Los datos tabulados son útiles cuando hay que mostrar una gran cantidad de variables. También son útiles si se desea presentar un conjunto de datos que tienen una escala significativamente diferente. Por ejemplo, la frecuencia acumulativa en el eje de las x siempre aumenta desde cero al 100%, con independencia de la frecuencia de categorías en el eje de las y. Tal variación puede hacer que una gráfica sea ilegible cuando estos datos se representan juntos. La presentación de los mismos datos en una tabla evita este problema de escala. 2. ¿Cuál es la diferencia entre datos discretos y datos continuos? Los datos discretos tienen un conjunto circunscrito de posibles valores. Los datos continuos son abiertos, con un conjunto infinito de posibles valores. La presencia de una distancia entre los valores que tenga sentido también es útil para separar los tipos de datos. Consideremos, por ejemplo, la diferencia entre letras y números. Hay una distancia con sentido entre 2 y 3, y esta distancia es la misma entre cualquier pareja de números adyacentes. Sin embargo, no hay una distancia cuantificable entre la K y la L. El concepto de «distancia» entre letras carece de sentido. Por las dos razones expuestas, los alfabetos son conjuntos de datos discretos, y los números lo son de datos continuos. 3. Describa los dos tipos de datos discretos y ponga ejemplos de ambos. ■ Los datos nominales constan de categorías con nombre, sin una relación definida con cualquier otra categoría y sin orden inherente. Los nombres de los colores, por ejemplo, no definen de modo inherente la distancia o valor de un color a otro, y no definen orden alguno entre ellos. El rojo no es mayor que el azul y ni está más alejado del azul que el púrpura lo está del naranja. Los lectores con una mentalidad física pueden protestar de que los colores sí tienen orden y una distancia con sentido, dada su posición relativa en el espectro de la luz visible. Sin embargo, ésta es la aplicación arbitraria de las etiquetas discretas (es decir, los nombres de los colores) a una propiedad continua de la luz, la longitud de onda electromagnética. ■ Los datos ordinales constan de categorías con nombre que, aunque carecen de una distancia con significado entre ellas, tienen un orden establecido entre las mismas. Las calificaciones o grados por letras asignados en la escuela ilustran cómo los datos ordinales nos dicen qué categoría viene en primer lugar, pero no nos dicen nada sobre la distancia relativa entre ellas. (Por ejemplo, los que obtienen una A son mejores que los D, pero la diferencia entre una A y una B puede no ser la misma que entre una D y una F.)
149
150
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
4. Responda de nuevo a la pregunta 3, esta vez en relación con los datos continuos. ■ Datos con intervalo. La temperatura en grados centígrados es un ejemplo de datos con intervalo. Un grado de diferencia en la escala centígrada de temperaturas es un cambio cuantificable que se preserva en todos los posibles valores del recorrido de temperaturas. Por ejemplo, 5 ºC es la misma «distancia» con respecto a 4 ºC que la que hay entre 120 ºC y 121 ºC. Sin embargo, 100 ºC no es «el doble de caliente» que 50 ºC en términos de energía. Ello se debe a que el punto cero en la temperatura centígrada se fija de modo arbitrario en el punto de congelación del agua. Los datos con intervalo tienen una distancia entre unidades con sentido, pero el cociente entre dos valores no es una cantidad con sentido. ■ Datos de cocientes. Los grados Kelvin son un ejemplo de datos de cocientes. Los grados Kelvin tienen orden, distancia con sentido y un cero con sentido: el cero absoluto, para ser precisos. Si convertimos la relación entre 100 ºC y 50 ºC a grados Kelvin, vemos que 373 K/ 323 K = 1,15. De modo que con respecto al cero absoluto, 100 ºC es sólo un 15%, aproximadamente, más caliente (o tiene sólo 15% más de energía) que 50 ºC. El cociente entre mediciones en grados Kelvin es una cantidad con sentido que describe una relación más verdadera entre estados que los grados centígrados. Como se puede observar, precisar la diferencia exacta entre los datos de cocientes y los intervalos no siempre es sencillo. Con frecuencia, muchos tipos de datos no son exactamente ni uno ni otro. Este aspecto no es generalmente tan crítico para el análisis como la distinción entre «supercategorías» de datos discretos y continuos. 5. ¿De qué modo afectan los tipos de datos al modo en que se presentan las distribuciones? En relación con los datos discretos (es decir, datos nominales y ordinales), se representa cada categoría o clase frente a la frecuencia con la que se observa dicha categoría en la muestra. En cuanto a los datos continuos (es decir, datos con intervalos y de cocientes), cada dato aislado está técnicamente dentro de su propia categoría. La representación gráfica de la frecuencia de cada dato individual (en todos, menos en los conjuntos de datos muy pequeños) da lugar a gráficas de agrupamiento que no transmiten información útil. 6. ¿De qué modo se pueden presentar más claramente los datos continuos? En primer lugar, este tipo de datos debe agruparse en gamas y, a continuación, representarlas de acuerdo con la frecuencia con la que aparecen en la muestra los datos de cada gama. Véase la Figura 11-1 para un ejemplo de una distribución de datos continuos. 7. Describa tres aplicaciones habituales de las distribuciones de frecuencias. ■ Las distribuciones de frecuencias se utilizan a menudo para presentar los resultados de los datos analizados. Con un formato apropiado, transmiten gran cantidad de información en una figura simple y compacta. ■ Son particularmente útiles en la fase inicial del análisis de los datos recogidos. La representación gráfica de la distribución de los datos sin elaborar identifica, con frecuencia, los valores atípicos (es decir, anormalmente altos o bajos), los datos ausentes y los problemas con la colección de datos sesgados. ■ También es importante la distribución de frecuencias para la formulación de una estrategia de análisis estadístico, porque algunas pruebas estadísticas requieren que los datos estén normalmente distribuidos. 8. Enumere tres valores utilizados habitualmente para caracterizar la tendencia central de un conjunto de datos. ■ Media: la suma de los valores de cada uno de los datos, dividido por el número de valores. ■ Mediana: el valor central, una vez que se han ordenado los valores de mayor a menor. ■ Moda: el valor que aparece con mayor frecuencia.
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
50
Porcentaje (%)
40 30 20 10 0 0-10
11-20
21-30
31-40
> 40
Horas Figura 11-1. Distribución de frecuencias.
9. ¿Cuál es el término que mejor describe la tendencia central de los datos de intervalos y de cocientes? El mejor descriptor de la tendencia central depende del tipo de datos de la distribución. La media se utiliza muy habitualmente para describir la tendencia central de los datos en intervalos y datos de cocientes. Este cálculo depende de la existencia de una distancia con significado entre los valores y, por tanto, no puede ser utilizado en los datos ordinales y nominales. Los grados por letras son un buen ejemplo. No se pueden tomar dos A, cuatro B, una C y una D, sumarlas, y dividir por ocho para obtener un grado promedio. Sin embargo, si se asigna a cada grado un valor al intervalo o cociente (p. ej., sistemas de grados de cuatro puntos, en que A = 4, B = 3, etc.), es posible el cálculo de la media de grados. Si esto le resulta equívoco, ¡felicitaciones! Está claro que ha estado prestando atención. Dado que empezó con datos discretos, hay un elemento de artificialidad introducido al convertir a una escala de graduación continua y a computar una media de ella. El cálculo de la media supone una distancia unitaria que tiene sentido, con la que nunca se debía empezar. 10. ¿Cómo se mide la tendencia central en relación con los datos ordinales y nominales? Los datos ordinales, aunque no tienen una distancia con sentido entre valores, siguen teniendo un orden con sentido. En consecuencia, la categoría con el valor central o mediana entre las categorías ordenadas describe el valor central a cuyo alrededor se distribuyen los datos. La descripción de la tendencia central de los datos nominales se limita a la moda. Dado que no hay una distancia con sentido entre categorías, y no hay orden con el cual se pueda determinar el valor central, la categoría que se da con mayor frecuencia (es decir, la moda) es el único sistema para expresar la tendencia central. Desde luego, no hay nada «central» en absoluto en relación con este número, porque las categorías de los datos nominales pueden ordenarse del modo que uno desee. 11. ¿Qué son las medidas de dispersión, y cuál es la mejor medida para cada tipo de dato? Las medidas de dispersión indican, a partir de una tendencia central, lo próximos que se localizan el resto de los datos alrededor del valor central. En consecuencia, no hay una medida de dispersión para la moda cuando se utiliza para describir los datos nominales (de nuevo, no hay
151
152
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
nada «central» en cuanto a este valor). En relación con todos los tipos de datos restantes, el recorrido intercuartil (es decir, el 50% central de los datos) es el que mejor describe la dispersión alrededor de la moda. Cuando se utiliza la mediana para describir la tendencia central, la dispersión se caracteriza muy habitualmente por el recorrido. Se calcula éste restando el valor mínimo del valor máximo, y se indica como un número único. Por ejemplo, dado el siguiente conjunto de datos (2, 3, 6, 9, 22, 23), el recorrido se indicaría como 21 (no como 23-2). La desviación estándar es la medida de dispersión utilizada con mayor frecuencia en relación con los datos de intervalos y de cocientes. 12. ¿Cómo se calcula la desviación estándar? Primero, se calcula la media de los datos. A continuación, para cada valor, se calcula la diferencia entre el valor y la media. Esto proporciona una columna de datos, unos positivos y otros negativos, que representan la distancia de cada valor con respecto a la media. Si se suman estos datos con fin de calcular la «desviación promedio» se obtiene el valor cero, lo cual no da una buena información sobre la distancia promedio de los datos con respecto a la media. 13. Por consiguiente, ¿de qué modo se puede preservar la información de cada desviación con respecto a la media? Se eleva cada resultado al cuadrado, antes de sumarlos, lo que elimina los números negativos. Al dividir la suma de estos valores por el número total de datos se obtiene la distancia promedio con respecto a la media, en unidades cuadráticas, lo cual se conoce como varianza. Dado que las unidades cuadráticas no tienen mucho sentido, se calcula la raíz cuadrada de la varianza para restablecer las unidades originales. Ésta es la desviación estándar, que se expresa como: SD =
• (x – x–)2 N
en la que x es el valor de cada dato, x– es la media, y N es el número de datos. La fórmula de la varianza (s2) incluye todo lo que figura bajo el signo de la raíz cuadrada. Se emplea la fórmula anterior para el cálculo de la desviación estándar de una población. Con mucha frecuencia, en bioestadística se analizan datos de una muestra poblacional, y en tal caso la fórmula correcta de la desviación estándar de una muestra viene dada por SD =
• (x – x–)2 n–1
Se define la desviación estándar como la raíz cuadrada de la varianza; por consiguiente, varianza = (desviación estándar)2. 14. Indique tres términos que se emplean para describir la forma de las distribuciones de frecuencias. Modalidad, sesgo y curtosis. La «modalidad», tal como se emplea aquí, es un término convencional más que una verdadera propiedad de una distribución. Tal como se ha descrito anteriormante, la moda hace referencia a la categoría que aparece con mayor frecuencia. En una gráfica, es la categoría máxima, y todas las demás figuran por debajo. Los conjuntos de datos con una sola categoría «más frecuente» dan lugar a una distribución unimodal; es decir, categoría con un solo máximo. Si los datos tienen dos o más categorías con frecuencias notablemente más elevadas, la distribución es bimodal, trimodal, etc. Con frecuencia, se utiliza esta terminología con datos de intervalos y de cocientes para describir distribuciones con múltiples máximos, aunque rara vez se utiliza la moda para describir estos tipos de datos. La Figura 11-2 muestra un ejemplo de una distribución bimodal.
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
Porcentaje (%)
30 20 10
23-1
21-23
19-21
17-19
15-17
13-15
11-13
9-11
7-9
5-7
3-5
1-3
0
Tiempo Figura 11-2. Distribución bimodal.
15. ¿Qué es un sesgo? ¿De qué modo afecta a la forma de la distribución? El término sesgo hace referencia a la simetría de la distribución de los datos. Una distribución sin sesgo es simétrica con respecto al valor central, y tiene una distribución aproximadamente igual de valores decrecientes a cada lado. Se dice que la distribución está sesgada a la derecha cuando el centro de los datos está desviado a la izquierda, dejando una cola en dirección al lado derecho de unos valores de gran magnitud y de frecuencia comparativamente baja. Por convención, el sesgo hace referencia a la derecha o a la izquierda a tenor de la dirección de la cola (Fig. 11-3).
30
20
10
0 Moda Mediana Media
Figura 11-3. Ejemplo de una distribución sesgada a la derecha.
16. Responda a la misma pregunta anterior en relación con la curtosis. El término curtosis hace referencia a la rapidez con la que cambian las frecuencias de las categorías al alejarse del valor central. Si la frecuencia de cada categoría disminuye rápidamente a medida que nos alejamos, la distribución tiene un aspecto más alto, más estrecho y con una menor distribución en las colas (es decir, la distribución es leptocúrtica). Si las frecuencias no disminuyen rápidamente a medida que nos alejamos del valor central, la distribución es más aplanada, más ancha, y tiene más valores en las colas (es decir, la distribución es platicúrtica). 17. ¿De qué modo se relacionan las medidas de la tendencia central y de dispersión con la curtosis? La curtosis se relaciona también con la frecuencia (es decir, el eje de las y) del valor central. En consecuencia, los diversos grados de curtosis puede reflejar diferencias en la frecuencia del
153
154
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
valor central, pero no necesariamente cambian la magnitud (es decir, el eje de las x) del valor central. Dado que la curtosis describe la anchura de una distribución alrededor del valor central, se verá afectada por los diversos grados de dispersión. 18. ¿De qué modo afecta el sesgo a estas mismas medidas? El sesgo es el resultado de categorías de baja frecuencia con unos valores anormalmente altos o bajos. Por definición, las categorías de baja frecuencia no deben cambiar la moda. De modo similar, la mediana es relativamente resistente al cambio de unas pocas categorías de valores extremos. Cambia más que la moda, porque el valor central se desvía algo cuando se añaden nuevas categorías a los extremos de la distribución. El cálculo de la media pondera por igual los valores atípicos y los datos centrales, de modo que puede cambiar significativamente al añadir incluso pocos valores extremos. La Figura 11-3 muestra un ejemplo de los cambios en la media, mediana y moda en una distribución sesgada. 19. ¿De qué modo los valores extremos afectan a la distribución alrededor de los valores centrales? Los valores extremos pueden influir también sobre las medidas de dispersión. El recorrido se define por los valores extremos, y puede verse cambiado significativamente con los datos sesgados. La desviación estándar pondera por igual la desviación de cada categoría a partir de la media, de modo que las categorías de baja frecuencia en los extremos sí la afectan, pero no de modo excesivo. Dado que el recorrido intercuartil representa el 50% de los datos, los centrales resultan menos afectados por el sesgo. 20. ¿Qué es una distribución normal? La distribución normal (es decir, gaussiana) es una forma definida matemáticamente, que es simétrica con respecto a una media de valor cero, tiene un sesgo y una curtosis cero, y una mediana y moda que son iguales a la media. Es una distribución teórica, de modo que los valores altos y bajos en las colas se aproximan al cero pero, nunca lo alcanzan. 21. ¿Para qué sirve? Muchos procesos de interés para los investigadores se presentan con distribuciones aproximadamente normales. Una distribución matemáticamente normal puede simplificar los cálculos cuando se utiliza para inferir propiedades estadísticas a partir de los datos reales casi normales. Las medias procedentes de muestreos repetidos de una población dada tienden a quedar distribuidas normalmente (fenómeno descrito como teorema del límite central), y muchas pruebas estadísticas empleadas para analizar datos muestrales se basan en el supuesto de una distribución aproximadamente normal. 22. La distribución normal puede utilizarse para inferir las propiedades de otras dos grandes categorías de datos. ¿De cuáles? Puede utilizarse la distribución normal para inferir propiedades de datos tanto muestrales como poblacionales. Los datos muestrales hacen referencia a un subgrupo de datos recogidos a partir de una población dada. Sería la distribución de las respuestas que se obtendrían si se preguntara a una muestra de 100 propietarios de motocicletas cuánto dinero se han gastado en las mismas ese año. La distribución poblacional es el resultado de recoger los mismos datos a partir de cada uno de los propietarios de motocicletas durante el mismo período de tiempo. 23. ¿Por qué se utilizan datos muestrales en lugar de datos poblacionales? Los datos de una muestra, por definición, son relativamente obtenibles. Los datos de una población generalmente no lo son. Los datos poblacionales evolucionan con frecuencia y cam-
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
bian antes de que se pueda recoger la totalidad del conjunto de datos. Se introduce con ello un error si se registra el dato 100.000 en un estado diferente o en un momento en el tiempo diferente. Los datos muestrales se diseñan para que tengan un tamaño suficiente y proporcionen una información significativa sobre la población de la que proceden y, sin embargo, sean recogidos antes de que se hayan producido muchos cambios. Por último, en relación con todas las poblaciones, a excepción de las de pequeño tamaño, los costes para recoger datos poblacionales en el mundo real son, generalmente, prohibitivos. 24. Describa la relación entre el área bajo la curva de una distribución y el porcentaje de datos en dicho recorrido. En cualquier distribución, el área bajo la curva delimitada por dos límites es proporcional al porcentaje de los datos de la muestra situados entre dichos límites. Si se desea conocer qué proporción de la muestra está comprendida entre dos valores particulares, ésta es una propiedad muy útil. La Figura 11-4 ilustra el área bajo la curva entre dos valores arbitrarios. Esta área es proporcional al porcentaje de todos los datos muestreados situados entre 12 y 16.
Porcentaje 18 16 14 12 10 8 6 4 2 0
12
16
Figura 11-4. Área bajo la curva entre dos límites.
25. ¿Cómo se calcula la proporción exacta a partir de la distribución? Lamentablemente, antes de que se dispusiera de los programas informáticos de los ordenadores, el cálculo del área de cada posible combinación de los límites era complicado e impracticable, y se tenía que realizar el cálculo con cada nuevo conjunto de datos. Se procedió a calcular el área bajo la curva entre la media y varios valores cada vez más distantes a partir de la media, se compilaron los resultados en grandes tablas y así los usuarios podían extrapolar posteriormente los valores de interés entre los valores tabulados. 26. ¿De qué modo ayuda la distribución normal a resolver este problema? Los estadísticos se dieron cuenta de que si los datos de las muestras tenían una distribución aproximadamente normal se podía utilizar una tabla confeccionada para la distribución normal y calcular así el área bajo la curva de la distribución de la muestra. La Figura 11-5 muestra una distribución de una muestra en la que la media es 10 y la desviación estándar de la muestra es 2. Para representar el área bajo la curva entre los valores 8 y 10 sólo se necesita encontrar qué valor de la distribución normal tiene la misma distancia relativa con respecto al cero, tal como lo hace el valor de interés (es decir, 8) de la media en la distribución de nuestra muestra particular (es decir, 10).
155
156
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
Distribución de la muestra Media = 10, SD = 2
8
10 Distribución normal Media = 0, SD = 1
–1 SD
0
Figura 11-5. Relación entre la distribución de una muestra y la distribución normal.
27. ¿De qué modo se pueden comparar los valores de unos datos reales con una distribución teórica sin «unidades»? Calculando la distancia del valor de la muestra de interés con respecto a la media de la muestra en unidades de desviación estándar. Este cálculo, conocido como puntuación zeta (o índice zeta), viene dado por la fórmula: z=
X – –x s
en la que X es el valor de un dato de la muestra, x es la media de la muestra, y s es la desviación estándar de la muestra. En la Figura 11-5 la puntuación z es (8 – 10)/2, o –1. Si la muestra tiene una distribución normal, el porcentaje de datos situados entre 8 y 10 en la muestra es proporcional al área bajo la curva entre 0 y –1 en una distribución normal (recuerde que la SD en una distribución normal es 1). 28. ¿De qué modo se utiliza la puntuación zeta para obtener información a partir de la distribución normal? Se introduce la puntuación z en una tabla de valores para la distribución normal, y nos indica el área correspondiente bajo la curva delimitada por cero y la puntuación zeta. Esta área es idéntica (o casi idéntica) al área comprendida entre la media de la muestra y el valor de interés en una distribución muestral, y es proporcional al porcentaje de la muestra que se halla comprendida entre dichos valores. Se puede emplear pues un conjunto de tablas de la distribución normal para cualquier muestra de datos. 29. ¿Qué otra información puede obtenerse con las puntuaciones zeta? Se puede realizar el cálculo en sentido inverso. Por ejemplo, si se desea saber el recorrido a ambos lados de la media que contiene el 95% de los datos, se realiza primero el cálculo para una distribución normal utilizando unidades de desviación estándar. El resultado es que el 95% de los valores de una distribución normal están situados en un recorrido comprendido entre ±2 desviaciones estándares a partir de cero (aproximadamente, 47,5% por encima y 47,5% por debajo). En consecuencia, el 95% de los datos de la muestra estará comprendido entre ±2 desviaciones estándares a partir de la media de la muestra, con tal de que los datos de la muestra
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
se distribuyan normalmente. Este aspecto tendrá su importancia más adelante cuando se introduzcan las pruebas estadísticas. 30. ¿De qué modo la distribución normal puede relacionar entre sí las distribuciones muestrales y las poblacionales? La relación entre las distribuciones muestrales, distribuciones poblacionales y la distribución normal constituye el teorema del límite central. Este teorema trata la cuestión de qué sucede cuando se extrae una muestra de datos a partir de una población, y hasta qué punto la muestra refleja la distribución de los datos en toda la población (lo cual, generalmente, no se puede medir y que, a su vez, es la razón por la que se toman muestras). También tiene en consideración qué sucede cuando se extraen múltiples muestras de la misma población, hasta qué punto difieren entre sí y hasta qué punto difieren de la distribución de la población verdadera. 31. ¿Por qué es importante la diferencia entre muestras repetidas? En el ejemplo de la motocicleta, una distribución muestral única puede ser similar a la distribución de la población verdadera. Sin embargo, también existe la posibilidad de que, por azar, se haya muestreado por casualidad una muestra de propietarios que han gastado más que la cantidad promedio en dicho año. Para asegurarse, se decide repetir la muestra 19 veces más, para alcanzar un total de 20 muestras. Ahora, no sólo diferirá cada una de las distribuciones entre sí ligeramente con respecto a la verdadera distribución poblacional sino que también diferirán entre sí en cierto grado. 32. Todo esto es muy interesante, pero aún no ha respondido a la pregunta. Cierto, pero casi estamos en ello. Ahora se podría informar de la media y de la desviación estándar de dólares gastados en motocicletas dicho año por cada grupo. Tomemos las medias de los 20 valores, los representamos como una distribución y calculamos el valor de la media de estas medias. El valor con el que se agrupan estas medias debe ser muy próximo al verdadero valor poblacional, especialmente a medida que aumenta el número de muestras. El teorema del límite central indica que la distribución de estas medias (es decir, la representación que acabamos de hacer) dado un número de muestras suficiente estará distribuida normalmente. De un modo menos intuitivo, indica que estas medias estarán distribuidas normalmente aún cuando la distribución poblacional verdadera no fuera normal. 33. Bonito truco, pero ¿qué se puede hacer? Esta distribución normal de las medias muestrales se agrupa alrededor de la media de las medias, y tiene una desviación estándar de, aproximadamente, dicho valor. En este caso, sin embargo, el valor central a cuyo alrededor tienden a agruparse es la verdadera media poblacional, propiedad muy útil si lo que sucede es que no se puede medir la población en su totalidad. Esta medida de dispersión de estas medias muestrales alrededor de la verdadera media de la población (análogo a la desviación estándar alrededor de la media de la muestra) viene estimada por el error estándar de la media, y viene dada por la fórmula SEM =
s n
en la que s es la desviación estándar de la media de la muestra, y n el tamaño de la muestra. Dado que estas medias se hallan distribuidas normalmente, se pueden utilizar ahora las puntuaciones z y la tabla de la distribución normal para inferir propiedades de la distribución de la población, del mismo modo que inferíamos las propiedades de la distribución de nuestra muestra.
157
158
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
PUNTOS CLAVE: DISTRIBUCIONES DE FRECUENCIAS 1.• Las distribuciones de frecuencias dividen los datos en categorías, y muestran la frecuencia con que se ha presentado cada una de ellas. 2.• Se caracterizan por medidas de tendencia central, dispersión, sesgo y curtosis. 3.• Pueden relacionarse con proporciones específicas de los datos de la muestra y con la distribución normal, por el área bajo la curva que se define entre los valores límite. 4.• Tienden a estar normalmente distribuidas cuando se describen las medias de muestras repetidas, aun cuando la distribución normal no lo fuera (es decir, el teorema del límite central). 5.• Pueden relacionarse con propiedades de la distribución normal por medio del cálculo de las puntuaciones zeta, que se hallan en unidades de desviación estándar.
34. ¿Qué sucede a la SEM a medida que aumenta n? A medida que aumenta n y se aproxima al tamaño de la población en su totalidad, la SEM se aproxima a cero. Esto tiene sentido, porque cuanto más próximo se está de contar la totalidad de los sujetos u objetos de una muestra, menos error habrá en el cálculo. 35. ¿Cuál es la diferencia entre un parámetro poblacional y un estadístico poblacional? El parámetro poblacional es la característica poblacional verdadera (p. ej., media o SD) que se está intentado calcular por medio del proceso descrito en la pregunta 33. El estadístico poblacional es el valor estimado que calculamos. 36. ¿Cómo se interpreta el estadístico inferencial? El estadístico inferencial se comentará con mayor detalle en capítulos posteriores. Esencialmente, llega a preguntar cuál es la diferencia entre el estadístico poblacional y el parámetro poblacional. Cuantifica también qué parte de la diferencia se debe al azar, qué parte puede atribuirse a un efecto de interés, y si «otra» variable no medida (pero influyente) afecta a los resultados. 37. ¿Puede utilizarse esta técnica con todos los tipos de datos? Puede utilizarse, siempre que los datos estén distribuidos normalmente. Como se ha sugerido anteriormente, el proceso de muestreo sólo tiende a proporcionar unas medias distribuidas normalmente, que pueden analizarse como se ha descrito. Las pruebas paramétricas hacen referencia a las pruebas inferenciales que se basan en los datos distribuidos normalmente. En capítulos posteriores se introducirán técnicas en las que los datos no normales pueden ser transformados matemáticamente de la forma que mejor se aproxime a una distribución normal y, de este modo, poder ser analizados con pruebas paramétricas. Sin embargo, hay tipos de datos que inherentemente no son normales. Las variables dicotómicas tales como las categorías de «vivo/muerto» dan lugar a una distribución de frecuencias de dos categorías que no es normal. Hay técnicas no paramétricas para analizar tales datos, que también se comentarán con detalle más adelante.
DISTRIBUCIONES DE PROBABILIDADES 38. ¿Qué es una distribución de probabilidades y en qué se diferencia de una distribución de frecuencias? Recuerde que, en relación con las distribuciones de frecuencias, las categorías del eje x pueden denominarse ocurrencias (en el caso de datos nominales y ordinales) o una gama de
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
valores (en el caso de datos por intervalos y de cocientes). Dentro de cada categoría, el número real de veces (es decir, la frecuencia) que apareció la categoría viene descrito en el eje de las y. En relación con cada una de estas categorías, la gama de valores posibles sobre la frecuencia es ilimitado: puede ser cualquier valor entre el cero y el infinito. No obstante, en una distribución de probabilidades, cada una de las categorías describe una condición específica que, o bien se da o no se da. Son los denominados sucesos dicotómicos. Si se muestrea a 100 personas, el rasgo de ser propietario de una motocicleta es una proposición del todo o nada. O bien son propietarios o no lo son. Por tanto, los valores en el eje de las y han de ser tratados de modo algo diferente. 39. ¿Cuáles son los ejes en una distribución de probabilidades? En las distribuciones de probabilidades, el eje de las x lista una serie de sucesos de interés, y el eje de las y es la probabilidad de que el suceso dicotómico descrito ocurra realmente. Si 30 personas de la muestra de 100 respondieron «sí» a la cuestión de si eran propietarios de una motocicleta, ello no significa que la verdadera población deba constar de un 30% de propietarios de motocicletas. La probabilidad de obtener esta respuesta específica depende de lo próxima que esté esta respuesta a la incidencia verdadera de poseer una motocicleta en la población. Si la población tiene realmente una tasa de 30% de propietarios de motocicletas, la probabilidad de que 30 personas de 100 muestreadas sean propietarias de motocicletas es probable que sea relativamente elevada. Debido al error de muestreo, son posibles otros resultados, pero no tan probables. En una distribución de probabilidades, un desenlace en la categoría del eje de las x sería «exactamente 30/100 propietarios de motocicletas», y el valor en el eje de las y sería la probabilidad de obtener este resultado exacto después de preguntar específicamente a 100 personas. 40. Esto sólo proporciona un caso. ¿De qué modo se puede realizar una distribución a partir de él? No se puede. Las distribuciones de probabilidades predicen el desenlace verosímil considerando múltiples muestras, más que sólo el caso más probable. Hay que considerar la posibilidad de que otra muestra tuviera un resultado diferente a 30%, dada una incidencia poblacional verdadera de 0,3. Hay que preguntarse si se esperaría que otras 100 personas estudiadas contestaran sí a la cuestión de ser propietario exactamente 30 veces. La respuesta sería «probablemente no, pero estaría muy próxima», y sería una respuesta correcta. 41. ¿De qué modo la diferencia con respecto al valor poblacional verdadero afecta a la probabilidad de que se produzca el suceso? No es sorprendente que cuanto más alejada se halla una muestra del valor poblacional verdadero, menos probable es que se obtenga la respuesta (es decir, 34 de 100 en el siguiente intento no nos sorprendería, pero sí lo haría 80 de 100). El punto clave es que no es imposible encontrar, por azar, 80 propietarios de motocicletas entre 100 personas muestreadas aleatoriamente en una población en la que la probabilidad básica es de 0,3. Sin embargo, es improbable. La cuestión se convierte en si se puede predecir la improbabilidad de sucesos que cada vez se alejan más de la incidencia base. 42. ¿De qué modo se puede calcular la probabilidad de uno de estos casos improbables? Depende del tipo de datos que se emplee. La distribución binomial es una fórmula matemática que nos permite calcular las probabilidades de sucesos discretos, mutuamente excluyentes y dicotómicos, como es el caso de los propietarios de motocicletas arriba descrito. Si el desenlace de interés es raro, se puede utilizar la distribución de Poisson (también un cálculo matemático). Es una buena aproximación de la distribución binomial y su cálculo es más sencillo. Si se
159
160
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
tiene interés en determinar la probabilidad de desenlaces continuos, se puede utilizar la distribución normal. 43. Ponga un ejemplo de distribución de probabilidades continuas. La presión sanguínea es una variable continua que, en teoría, puede adoptar cualquier valor desde cero al infinito. Dado que forma parte de un sistema biológico que se halla dinámicamente regulado, son improbables los valores extremadamente altos y bajos, y existen intervalos normales dentro de los cuales la presión sanguínea tiene mayor probabilidad de encontrarse. También se determina en una escala continua con infinitas divisiones entre los números enteros, de modo que la probabilidad de un valor exacto en la presión sanguínea es cero. La distribución de probabilidades en cuanto a los intervalos de la presión sanguínea (y en relación con otros muchos parámetros biológicos) puede aproximarse por la distribución gaussiana. La media de la presión sanguínea se encontrará en el centro de la distribución, y la probabilidad de que se encuentren presiones entre dos valores cualesquiera será proporcional al área bajo la curva limitada por dichos valores. 44. ¿Qué variables se necesitan para calcular una distribución binomial? La distribución binomial permite calcular las probabilidades descritas en la pregunta 41 utilizando las siguientes variables relevantes: 1) número (n) de intentos (es decir, el número de veces que se analiza la presencia o ausencia de un suceso dicotómico; 2) el número de dichos intentos (r) que dan lugar al desenlace cuya probabilidad deseamos computar, y 3) la probabilidad base (p) del suceso de interés. En nuestro ejemplo, queremos «intentar» con 100 personas, y estamos interesados en el caso en que 80 de los intentos den lugar a un «sí» en la respuesta, en relación con la pregunta de si son propietarios de motocicletas. 45. ¿De dónde procede la probabilidad base? Representar con cifras la probabilidad base es un poco más difícil. Si el suceso fuese lanzar una moneda al aire y el suceso de interés fuera «cara», la probabilidad base sería de 0,5, sin importar qué sucede cuando se lanza la moneda al aire. En nuestro ejemplo, la probabilidad base es el verdadero porcentaje de propietarios de motocicletas en la totalidad de la población; para mantenernos en nuestro ejemplo previo, diremos que el 0,3 de la población, y supondremos que se hallan distribuidos de modo aleatorio entre los que no tienen motocicleta.
PUNTOS CLAVE: DISTRIBUCIONES DE PROBABILIDADES 1.• Las distribuciones de probabilidades describen la verosimilitud de sucesos o rasgos dicotómicos. 2.• Demuestran cómo la ocurrencia de un fenómeno dicotómico se hace más improbable (pero no imposible) cada vez que se aleja de la verdadera incidencia de dicho fenómeno o rasgo en la población. 3.• Tienen una probabilidad media de ocurrencia y una desviación estándar alrededor de dicha media. 4.• Son diferentes para cada combinación de tamaño de muestra y de incidencia poblacional.
46. ¿Cómo se realiza el cálculo de la distribución binomial? En una muestra aleatoria de 100 personas, existe la posibilidad de que, por puro azar, llegásemos a incluir a 80 propietarios de motocicletas. Esta probabilidad se da por la distribución binomial, y se calcula como
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
n! prqn – r r!(n – r)! En nuestro ejemplo actual, n sería 100, r sería 80, y p es 0,3 (q es, precisamente, 1 – p). (Obsérvese que n! se lee como «factorial de n» y es el producto de todos los números enteros desde 1 hasta n. Por ejemplo, 4! se calcula como 1 ⫻ 2 ⫻ 3 ⫻ 4 = 24. Podríamos repetir este cálculo varias veces para otros valores de r, y representar dichos casos en el eje de las x, con sus correspondientes probabilidades en el eje de las y. Esto nos daría una distribución binomial de n = 100 y p = 0,3. La Figura 11-6 muestra parte de estos resultados en relación con esta distribución. La probabilidad global de cualquier resultado exacto es baja. Sin embargo, obsérvese que el caso de que 30/100 personas sean propietarios de motocicletas sigue siendo aún la mayor probabilidad relativa. Dominan las respuestas próximas a 30, y la probabilidad rápidamente cae hasta casi cero a medida que nos vamos separando de 30.
0,100 0,090 0,080 0,070 0,060 0,050 p
0,040 0,030 0,020 0,010 40/100
39/100
38/100
37/100
36/100
35/100
34/100
33/100
32/100
31/100
30/100
29/100
28/100
27/100
26/100
25/100
24/100
23/100
22/100
21/100
0,000
Proporción de los propietarios estipulados Figura 11-6. Distribución bimodal en relación con la cuestión de ser propietario de una motocicleta (n = 100, p = 0,3).
47. ¿Qué información puede obtenerse a partir de la distribución de probabilidades así creada? La distribución binomial muestra lo improbable que es un fenómeno dicotómico a medida que difiere del desenlace más probable. El propio desenlace más probable es análogo a la media de una distribución de frecuencias. La dispersión de probabilidades alrededor de esta media es similarmente análoga a la desviación estándar, y puede calcularse de modo parecido. La fórmula para la media en una distribución de probabilidades es np, y la desviación estándar es npq. Calculada la desviación estándar, puede inferirse información a partir de distribuciones binomiales empleando la distribución normal calculando las puntuaciones zeta, del mismo modo que se hizo con las distribuciones de frecuencias.
161
162
DISTRIBUCIONES DE FRECUENCIAS Y DE PROBABILIDADES
PÁGINAS WEB 1.• http://www.sjsu.edu/faculty/gerstman/StatPrimer 2.• http://www.mste.uiuc.edu/hill/dstat.html 3.• http://www.davidmlane.com/hyperstat/index.html 4.• http://www.emedicine.com/emerg/topic758.htm
BIBLIOGRAFÍA 1.• Daly LE, Bourke GJ: Interpretation and Uses of Medical Statistics, 5th ed. Oxford, Blackwell Science Ltd., 2000. 2.• Kirkwood BR: Essentials of Medical Statistics. Oxford, Blackwell Science Ltd., 1988. 3.• Norman GR, Streiner DL: Biostatistics: The Bare Essentials. Toronto, B.C. Decker, 2000.
CAPÍTULO 12
PRESENTACIÓN DE LOS DATOS Mark Nordness, MD 1. ¿Cuál es la primera etapa en la presentación de la información? Primero hay que organizar la información para obtener una comprensión de los tipos y gamas de datos o resultados que se desea presentar. Clásicamente, se construye una distribución de frecuencias para ayudar a determinar el mejor modo de presentar la información de interés. La Tabla 12-1 representa una distribución de frecuencias de las causas de muerte según los diferentes grupos etarios en Estados Unidos en 1989. Obsérvese que, aunque se presenta una cantidad de información significativa, con frecuencia es difícil visualizar la forma de las distribuciones a partir de un marco de referencia particular. Sin embargo, hay modos de presentar la información a partir de tablas, de modo que el lector pueda apreciar fácilmente la distribución.
TABLA 12-1.•MUERTES POR EDAD Y CAUSAS SELECCIONADAS DE MUERTE. ESTADOS UNIDOS. 1989 Grupo de edad (años) 0.
Figura 14-2. Diagrama de Venn de dos sucesos (A y B) no mutuamente excluyentes.
24. ¿Cuál es la regla multiplicativa (es decir, de producto)? Se aplica la regla multiplicativa cuando se calcula la probabilidad de que, por lo menos, se den simultáneamente dos sucesos independientes. La regla multiplicativa afirma lo siguiente: P(A y B) = P(A) ⫻ P(B) donde P(A y B) representa la probabilidad de que tanto A como B se den simultáneamente, y P(A) y P(B) representan las probabilidades independientes de A y B, respectivamente. Si A y B son sucesos independientes, se aplica entonces la siguiente ecuación: P(A y B) o P(A ⫻ B) = P(A) ⫻ P(B) 25. ¿Cuál es la probabilidad de sacar dos cincos sucesivos en una tirada con un único dado sin irregularidades? Aquí hay la oportunidad de utilizar la regla del producto. Se ha establecido que dos tiradas sucesivas de un dado son sucesos independientes, y se sabe que podemos esperar un 5 de cada seis veces, de promedio. Dado que A (la primera tirada) y B (la segunda tirada) son sucesos independientes, P(A y B) o P(A ∩ B) = P(A) ⫻ P(B). P(tirada de dos cincos) = P (tirada de 5) ⫻ (tirada de 5) = 1/6 ⫻ 1/6
187
188
PROBABILIDAD Y MUESTREO
= 1/36 = 0,028 26. ¿Puede utilizarse la regla multiplicativa para determinar la probabilidad de que se produzcan más de dos sucesos? Sí. Con tal de que los sucesos sean verdaderamente independientes, no hay límite en el número de sucesos que pueden considerarse. 27. De acuerdo con un estudio nacional, el 63% de los estadounidenses que votan prefieren al candidato A. Si se eligen al azar a tres votantes en Estados Unidos, ¿cuál es la probabilidad de que los tres prefieran al candidato A? En relación con sucesos múltiples (A1, A2, A3, ...Ax), si A1, A2, A3, ...Ax son mutuamente independientes, entonces (PA1 y A2 y A3 y, ...Ax) = P(A1) ⫻ P(A2) ⫻ P(A3) ... ⫻ P(Ax). Por tanto, la probabilidad de que los tres prefieran al candidato A es: = P(A) ⫻ P(A) ⫻ P(A) = 0,63 ⫻ 0,63 ⫻ 0,63 = 0,25 28. Suponga que le dan sólo las probabilidades de ser varón (0,35) y tener una edad avanzada (0,60) a partir de los resultados de la pregunta 3. Utilizando estas cifras, ¿cuál es la probabilidad de que el paciente diagnosticado de enfermedad Y sea varón y tenga una edad avanzada [P (varón, edad avanzada)], suponiendo que ser varón y tener una edad avanzada sean mutuamente independientes? P(varón y edad avanzada) = P(varón) ⫻ P(edad avanzada) = 350/1.000 ⫻ 600/1.000 = 0,21 29. En la pregunta anterior, ¿es correcto suponer que ser varón y tener una edad avanzada son sucesos independientes? Probablemente no, pero si le dan sólo las probabilidades marginales de cada uno de los dos sucesos, no hay modo de estar seguros. Atención: algunos falsos reclamos estadísticos tratan con frecuencia los sucesos de modo independiente cuando, en realidad, no lo son. 30. ¿De qué modo, pues, se calcula la probabilidad de que ambos sucesos se den simultáneamente cuando los dos sucesos no son independientes? Cuando los sucesos no son independientes, se puede utilizar una forma especial de regla multiplicativa que toma en consideración la ausencia de independencia: P(A y B) = P(A ⎟ B)P(B) La probabilidad condicionada de A dada B se multiplica por la probabilidad marginal de B. Es importante y útil saber que esta regla se escribe también así: P(A y B) = P(B ⎟ A)P(A) 31. Ahora, suponiendo que ser varón y tener una edad avanzada no son sucesos independientes y que disponemos de los datos, ¿cómo podemos calcular la
PROBABILIDAD Y MUESTREO
probabilidad de que un paciente diagnosticado de la enfermedad Y sea varón y tenga una edad avanzada [P(varón, edad avanzada)]? Primero, hay que consultar la Tabla 14-1 en busca de los datos apropiados relacionados con los pacientes de edad avanzada y varones, y poner las cifras apropiadas: P(A y B) = P(A ⎟ B)P(B) P(varón, edad avanzada) = P(varón ⎟ edad avanzada)P(edad avanzada) = (200/600) ⫻ (0,6) = 0,33 ⫻ 0,6 = 0,20 32. Demuestre que P(A y B) = P(A ⎟ B)P(B) = P(B ⎟ A)P(A) Utilizando los mismos datos, observamos que P(varón, edad avanzada) = P(edad avanzada ⎟ varón)P(varón) = (200/350) ⫻ (350/100) = 0,571 ⫻ 0,35 = 0,20 33. Atendiendo al ejemplo anterior, ¿son independientes los sucesos de ser varón y tener una edad avanzada? No. Cuando se hizo la suposición de independencia, la probabilidad de ser varón y tener una edad avanzada era 0,21, pero al emplear los datos reales, la probabilidad fue realmente 0,20. Aunque desiguales, estos resultados muestran que la suposición de independencia era realmente razonable para un cálculo aproximado en relación con este conjunto de datos particular. La probabilidad condicionada de tener una edad avanzada dado el hecho de ser varón era 0,57, no muy lejos de la probabilidad marginal de tener una edad avanzada en la población como totalidad (0,6). Sin embargo, no se debe extrapolar este ejemplo como generalidad. Con frecuencia, realizar de modo incorrecto la suposición de independencia da resultados en extremo erróneos. 34. ¿Qué es la regla aditiva? La regla aditiva se emplea para calcular la probabilidad de que suceda por lo menos uno de dos sucesos. La regla aditiva afirma que P(A o B) = P(A) + P(B) – P(A y B). Se ilustra esta regla en el diagrama de Venn de la Figura 14-3. En relación con sucesos mutuamente excluyentes (véase la Figura 14-1), esta ecuación se reduce a P(A o B) = P(A) + P(B), porque, por definición, P(A y B) = 0 para que se produzca la exclusividad mutua.
Figura 14-3. Diagrama de Venn de la regla aditiva de dos sucesos (A y B) no mutuamente excluyentes.
PUNTOS CLAVE: PROBABILIDAD 1.• La probabilidad cuantifica la verosimilitud de que se produzca el suceso A en tentativas ilimitadas. 2.• La ecuación estándar para la probabilidad es P(suceso) = A/N. 3.• La regla aditiva afirma que P(A o B) = P(A) ⫹ P(B) – P(A y B). 4.• La regla multiplicativa para sucesos independientes afirma que P(A y B) = P(A) ⫻ P(B). 5.• Si dos sucesos no son independientes, puede emplearse una forma especial de regla multiplicativa, como sigue: P(A y B) = P(A ⎟ B)P(B) = P(B ⎟ A)P(A).
189
190
PROBABILIDAD Y MUESTREO
35. Utilizando la hoja de cálculo de la Tabla 14-1, ¿cuál es la probabilidad de que un paciente diagnosticado de enfermedad Y sea mujer o tenga una edad avanzada? Agrupar el sexo y la edad avanzada no son mutuamente excluyentes; por consiguiente, empleando la regla aditiva, la ecuación P(A o B) = P(A) + P(B) – P(A y B) se aplica como sigue: P(mujer o edad avanzada) = P(mujer) + P(edad avanzada) – P(mujer y edad avanzada) = 650/1.000 + 600/1.000 – 400/1.000 = 0,85 36. Todo esto es muy confuso. ¿Hay algún método algorítmico para plantearse la probabilidad de más de un suceso? Véase la Figura 14-4. ¿Son mutuamente excluyentes A y B?
Afirmativo
Negativo
P(A y B) = 0
P(A y B) > 0
P(A o B) = P(A) + P(B)
P(A o B) = P(A) + P(B) – P(A y B)
¿Son independientes A y B?
Afirmativo
Negativo
P(A ⎟ B) = P(A)
P(A ⎟ B) = P(A y B)/P(B)
P(A y B) = P(A) P(B)
P(A y B) = P(A ⎟ B) P(B)
Figura 14-4. Método algorítmico sobre la probabilidad de más de un suceso.
MUESTREO 37. ¿Qué es un muestreo? El muestreo es la técnica utilizada por los investigadores para recoger determinaciones a partir de una población de muestra, con el objetivo de establecer inferencias sobre la población diana global. 38. ¿Por qué se lleva a cabo un muestreo? Debido a las limitaciones económicas y logísticas, con frecuencia es difícil e incluso destructivo (dependiendo del tipo de cuestión en investigación) recoger determinaciones de una población diana entera, lo que fuerza a los investigadores a recoger datos de un pequeño segmento de una población para extrapolarlos a la población diana. Sin embargo, cuando efectuamos
PROBABILIDAD Y MUESTREO
generalizaciones a la población diana a tenor de los resultados de una muestra, debemos comprender las limitaciones inherentes del muestreo. 39. ¿Cuál es la población diana? La población diana es el grupo de sujetos, objetos, determinaciones o sucesos que queremos ver representados en la muestra. 40. ¿Cuál es la característica más importante de una buena muestra? La muestra debe representar a la población de la que se extrae para poder hacer generalizaciones sobre la población diana a partir del análisis de los datos de la muestra. 41. Explique qué es el error de muestreo. El muestreo lleva de modo inherente un error de muestreo verosímil (es decir, la diferencia entre una característica medida en la muestra y en la población diana). En realidad, rara vez puede determinarse este error porque, por lo general, no se conoce la medida verdadera en la población diana. 42. ¿Cuáles son las causas principales del error de muestreo? Se sabe que en el error de muestreo hay dos causas principales: el sesgo de selección y la variación por azar. El error por sesgo de muestreo está causado por utilizar una población muestral con características de medida que no son representativas de la población diana. El error por variación por azar es un error de medida atribuible, simplemente, al azar. 43. ¿Qué tipo de error puede reducirse al mínimo por un diseño de estudio apropiado y una técnica de muestreo apropiada? Puede reducirse al mínimo el error de muestreo utilizando un proceso de selección aleatorio. El error por variación por azar es «aleatorio», atribuido al azar y, por tanto, no es controlable. 44. ¿Cómo se efectúa el muestreo? Se dispone de numerosos mecanismos para realizar el muestreo, entre ellos: ■ Muestreo aleatorio simple. ■ Muestreo aleatorio estratificado (es decir, muestreo aleatorio de cada grupo después de su división en grupos heterogéneos). ■ Muestreo aleatorio agrupado (es decir, muestreo aleatorio de grupos después de su división en grupos homogéneos). ■ Muestreo aleatorio sistemático (p. ej., muestreo cada 10, cada 20, etc.). 45. ¿Por qué se desea el proceso de asignación aleatoria en la selección de la muestra? La aleatorización ayuda a asegurar que la muestra sea representativa de la población diana global. El investigador debe tener presente que el proceso de muestreo (no la propia muestra) determina la aleatorización. Idealmente, el muestreo aleatorio elimina el sesgo, dejando la variación por azar como única fuente de error y con la magnitud de dicho error determinado por el tamaño de la muestra y la heterogeneidad de la población. 46. ¿Por qué es importante la determinación de un tamaño de la muestra adecuado en la planificación del estudio? La determinación del tamaño de la muestra es una etapa crítica en la planificación de la investigación, porque con frecuencia el tamaño de la muestra es un factor clave para determinar el tiempo
191
192
PROBABILIDAD Y MUESTREO
PUNTOS CLAVE: MUESTREO 1.• El muestreo permite al investigador realizar inferencias sobre la población diana utilizando sólo una porción de la población, conocida como muestra. 2.• Una buena muestra debe ser representativa de las características de la población diana. 3.• El error de muestreo está causado por el sesgo de selección y por la variación por azar. 4.• La aleatorización es una herramienta para reducir al mínimo el sesgo de selección. 5.• Se efectúa la estimación del tamaño de la muestra antes de llevar a cabo el estudio para valorar la factibilidad y las limitaciones de realizar el estudio.
y los fondos financieros necesarios para completar un estudio. Además, un tamaño de la muestra inadecuado puede llevar a la ausencia de significación estadística en los datos resultantes. 47. ¿Qué factores afectan al tamaño de la muestra? Consideremos la fórmula posible más simple para la determinación del tamaño de la muestra, la prueba de la t pareada: N = zα2 ⫻ (s)2/(d)2 donde d representa la diferencia media observada, (s)2 representa la varianza de la diferencia media, y zα representa el nivel de significación requerido. Rosner describe cuatro factores importantes que afectan al tamaño de la muestra cuando se utiliza esta fórmula: ■ El tamaño de la muestra aumenta cuando la varianza aumenta. ■ El tamaño de la muestra aumenta cuando el nivel de significación se hace menor (es decir, α disminuye). ■ El tamaño de la muestra aumenta a medida que aumenta la potencia requerida (es decir, cuando 1 – β aumenta). ■ El tamaño de la muestra disminuye a medida que aumenta el valor absoluto de la distancia entre las medias nula y alternativa.
PÁGINA WEB http://www.amstat.org/sections/epi/SIE_Home.htm
BIBLIOGRAFÍA 1.• Morton RF, Hebel JR, McCarter RJ: A Study Guide to Epidemiology and Biostatistics, 5th ed. Gaithersburg, MD, Aspen Publications, 2001, pp 51–69. 2.• Rosner B: Fundamentals of Biostatistics, 5th ed. Pacific Grove, Duxbury, 2000, pp 45–77. 3.• Schwartz BS, Mitchell CS, Weaver VM: Occupational Medicine Board Review Course Notes, ACOEM 1:210–214, 2000.
Ward L. Reed, MD, MPH
CAPÍTULO 15
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS 1. ¿Qué es una prueba? Puede parecer una pregunta básica y algo ridícula, pero es preciso tener la mente abierta sobre lo que es una prueba. Muchos lectores tienen una idea fija de lo que es una «prueba». Consideran que una prueba es algo que se solicita en una hoja de papel o en la pantalla del ordenador. A continuación, se extrae sangre o se lleva a cabo un procedimiento radiológico y, en algún momento en el futuro, nos devuelven los resultados de la prueba, ya sea por ordenador o en otra hoja de papel. Aunque gran parte de la información de este capítulo se aplica directamente a este modelo, es preciso ampliar la opinión que se tiene de lo que es una «prueba». Una prueba es cualquier procedimiento que determina un estado o una cantidad en un sujeto. 2. Cite algunos ejemplos de pruebas que, clásicamente, no consideramos «pruebas». El acto de entrevistar a un nuevo paciente es una prueba. Determinar los signos vitales es una serie de pruebas. La exploración física también es una serie de pruebas. Mirar un semáforo para ver qué color tiene en ese momento puede considerarse como una prueba. Puede analizarse el rendimiento de todas estas pruebas. Por ejemplo, podemos sentirnos cómodos comentando la sensibilidad de una prueba sanguínea en relación con cierta enfermedad, pero son también tan importantes la sensibilidad y especificidad de la presencia de estertores en la neumonía. 3. ¿Cómo se clasifican los diferentes tipos de pruebas? Por lo general, se describen las pruebas de acuerdo con los resultados informados. Se considera que los resultados son cuantitativos, semicuantitativos o cualitativos. 4. Describa las pruebas cuantitativas. Las pruebas cuantitativas proporcionan resultados numéricos. Por lo general, los resultados de las pruebas cuantitativas se consideran variables continuas para las consideraciones estadísticas. En los ejemplos arriba expresados, la presión sanguínea, la temperatura y el colesterol sérico son ejemplos de pruebas cuantitativas. Los resultados de una prueba cuantitativa han de ser expresados siempre en unidades específicas y no meramente como un número o resultado. 5. Describa las pruebas cualitativas. Las pruebas cualitativas proporcionan resultados binarios (es decir, dicotómicos). Se consideran las pruebas cualitativas como variables categóricas para las consideraciones estadísticas. Los datos categóricos son características con valores o tipos discretos. Entre los ejemplos clásicos de resultados cualitativos figura el estado de vivo o muerto, ser hombre o mujer, la presencia o ausencia de una erupción, y similares.
193
194
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
6. Describa qué son las pruebas semicuantitativas. Las pruebas semicuantitativas pueden ser vistas como pruebas cualitativas de múltiples niveles. Se las considera casi siempre como variables categóricas en las consideraciones estadísticas. Entre los resultados semicualitativos figuran las categorías de los huracanes (1-5), la graduación de los reflejos (0-4+), y la evaluación clínica de la fuerza (0-5). Aunque estos resultados están ordenados por valores, hay que tener cuidado de no suponer que las diferencias son lineales. Por ejemplo, la velocidad del viento en un huracán de nivel 5 no es cinco veces superior a la velocidad del viento en un huracán de nivel 1.
PUNTOS CLAVE: TIPOS DE PRUEBAS 1.• Prueba cuantitativa: da un resultado que es un número, tratado como una variable continua. 2.• Prueba cualitativa: da un resultado sí o no, tratado como una variable categórica. 3.• Prueba semicualitativa: da resultados (generalmente) en forma de números, pero es una clasificación que no puede considerarse lineal. Aunque parecen como variables continuas, no pueden ser tratadas como tales en la bioestadística.
7. ¿Pueden convertirse los resultados de una prueba cuantitativa en desenlaces categóricos? Pueden y, con frecuencia, lo son. Aunque los resultados de las pruebas cuantitativas se expresan como respuestas numéricas (p. ej., colesterol LDL de 145 ± 8 mg/dl), suelen presentarse como resultado cualitativo (p.ej., normal o anormal; o positivo o negativo). El rendimiento de una prueba cuantitativa, cuando se convierte en desenlaces categóricos, depende del rendimiento inherente de la prueba (determinado por su desviación estándar, que, a su vez, está determinada por factores técnicos de la prueba) y en qué punto se considera que la prueba es «anormal» o «positiva». La misma prueba tendrá un rendimiento diferente según dónde se coloque la línea de separación entre lo normal y lo anormal. Con frecuencia se da un recorrido «indeterminado» para un desenlace, indicando con ello que no puede tomarse una decisión clínica atendiendo sólo al resultado de la prueba. 8. ¿Cuál es la diferencia entre exactitud y precisión? Exactitud y precisión son términos que suelen aplicarse a las pruebas cuantitativas. Los dos términos se utilizan con frecuencia de modo intercambiable por el público, pero tienen significados específicos en el campo de la estadística. Exactitud es la capacidad para producir un resultado muy próximo al estándar aceptado. Este resultado puede ser una media de resultados ampliamente dispares. El término precisión hace referencia a la capacidad para reproducir el mismo resultado de modo constante (Fig. 15-1). Este resultado puede no ser tan próximo a la respuesta aceptada, pero los resultados son reproducibles. 9. Ponga ejemplos de exactitud y precisión. Imagine dos balanzas en las que se va a pesar. Como científico conoce el modo de realizar múltiples intentos de una determinación y luego promediar los resultados. Los resultados son: ■ Balanza 1: 68 kg, 70 kg, 75 kg, 72 kg, 65 kg ■ Balanza 2: 73,5 kg, 73 kg, 72,5 kg, 73 kg, 73 kg. Posteriormente, determina, con el empleo del patrón de referencia, que su peso correcto es de 70 kg. La balanza 1 es exacta (la media es 70 kg), pero la balanza 2 es precisa (la media es 73 kg; desviación estándar [SD]= 0,35). Este ejemplo ilustra también que una prueba dada
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
Exactitud y precisión
Exactitud solamente
Precisión solamente
Ni exactitud ni precisión
Figura 15-1. Posibles combinaciones de exactitud y precisión en la descripción de una variable continua, utilizando una diana y los agujeros de las balas para demostrar los conceptos. (De Jekel JF, Katz DL; Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2.ª ed. Philadelphia, W.B. Saunders, 2001.)
puede ser de utilidad, aún cuando sea inexacta. Si comienza un programa de ejercicios físicos para adelgazar, probablemente escogería la balanza 2; aunque su respuesta difiere en 3 kg con respecto al estándar aceptado, le proporciona unos resultados más constantes, lo que facilitaría la apreciación de los cambios de intervalo. Puede utilizar la Figura 15-2 para ilustrar cualitativamente la distribución de muchos intentos utilizando las dos balanzas. 10. ¿Qué es lo que determina que una prueba «positiva» sea «positiva»? Hay dos modos de determinar el recorrido normal de una prueba; el enfoque poblacional y el enfoque de la afección o enfermedad. 11. Explique qué es el enfoque poblacional para determinar el recorrido normal. Un enfoque poblacional suele suponer que cualquier persona con un valor superior a 2 SD con respecto a la media, suponiendo una distribución normal, es anormal. Se recoge una gran cantidad de datos de personas normales (es decir, las que aparentemente no tienen enfermedades), y se determina el recorrido o intervalo normal a partir de dichos datos. Obsérvese que, por su propia naturaleza, este método da lugar a una prueba «anormal» en el 5% de la población normal. 12. ¿Cuándo puede utilizarse el enfoque poblacional? Este método sólo funciona cuando la característica en la población se halla distribuida normalmente. Con frecuencia la característica no se halla distribuida normalmente. En este caso, debe utilizarse una tabla de distribución de frecuencias para determinar dónde se hallan el 2,5% superior y el 2,5% inferior.
195
196
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
Exactitud y precisión
Exactitud sólamente
Valor verdadero
Valor verdadero
Precisión solamente
Valor verdadero
Ni exactitud ni precisión
Valor verdadero
Figura 15-2. Posibles combinaciones de exactitud y precisión en la descripción de una variable continua. El eje de las x es una gama de valores, y la flecha indica el valor verdadero. Las curvas son las distribuciones de probabilidades de los valores observados. (De Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2.ª ed. Philadelphia, W.B. Saunders, 2001.)
13. Los resultados anormales de una prueba ¿son siempre indicativos de enfermedad? Una prueba anormal no necesariamente significa enfermedad. Muchas pruebas de un panel de cribado estándar tienen recorridos normales, determinados con el empleo del enfoque poblacional. Como resultado, muchas veces «anormal» no significa «enfermo»; puede significar sencillamente «diferente». En efecto, si se supone que estas pruebas son independientes, una batería de 20 pruebas tiene una mayor probabilidad de que uno de los resultados sea anormal que no que todas las pruebas sean normales. La probabilidad de una prueba anormal es del 5% (0,05); así, la probabilidad de una prueba normal es de 0,95. La probabilidad de 20 pruebas normales en una fila es 0,9520 o 0,36. Así, la probabilidad de que un individuo completamente normal (no enfermo) tenga una prueba anormal en un panel de 20 es 0,64, es decir, más probable que la probabilidad de no tener ninguna anormal. 14. ¿De qué modo se determina lo «anormal» utilizando el método del enfoque por afecciones? El método basado en afecciones o enfermedades intenta determinar (generalmente, por medio de grandes estudios epidemiológicos) qué valor se asocia con una afección dada. Por ejemplo, de acuerdo con el documento más reciente de la Joint Nation Commission on Heart Disease (JNC 7), el recorrido normal de la presión sanguínea sistólica (definido como ausencia de exce-
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
so de riesgo de enfermedad cardiovascular) es de 115 mmHg o menos. A este nivel, un porcentaje significativamente mayor del 5% de la población tiene un valor anormal, lo que apunta a que lo «normal» con frecuencia cambia. Hace 30 años, los médicos aceptaban unas presiones sanguíneas elevadas en las personas de edad avanzada como «envejecimiento normal», aunque en la actualidad son tratados de modo rutinario los mismos pacientes. Chobanian AV, Bakris GL, Black HR, et al: Seventh Report of the Joint National Committee on Prevention, Detection, Evaluation, and Treatment of High Blood Pressure. Hypertension 42(6):1206–1252, 2004.
15. ¿Qué significado tiene el término «patrón oro» o patrón de referencia? ¿Qué implicaciones tiene? El rendimiento de todas las pruebas debe tener una referencia con la que comparar los resultados de una nueva prueba. Se suele hacer referencia a la marca como el patrón de referencia. El patrón de referencia suele ser la prueba definitiva en relación con cualquier enfermedad o afección. Por ejemplo, aunque hay muchos tipos de pruebas rápidas para detectar la faringitis estreptocócica, el patrón de referencia sigue siendo la identificación del estreptococo beta hemolítico en el cultivo faríngeo. Con frecuencia, no se emplea de modo rutinario la prueba de referencia porque puede ser cara (p. ej., la exploración con resonancia magnética [RM]), invasiva (p. ej., una biopsia), peligrosa o, en ocasiones, todas las anteriores (p. ej., cateterización cardíaca). 16. ¿Hasta qué punto son dorados los patrones oro? La mayoría de los patrones oro son aleaciones, y se ha demostrado que algunos de ellos son pirita de hierro (o cobre). Debido a las dificultades para confirmar fácilmente diagnósticos negativos en algunos casos, unos grupos de control inapropiados o inadecuados (afecciones consideradas como indicativas de enfermedad que, con posterioridad, se demuestra que son variantes normales) y la ausencia de estándares clínicos establecidos en relación con una enfermedad contribuyen a unos patrones de referencia inexactos. Como resultado, no parecerá que una nueva prueba rinda más que el patrón de referencia, aunque, en realidad, pueda ser superior. 17. ¿Por qué son importantes las tablas de contingencia de dos por dos (2 ⫻ 2)? ¿Qué hay en ellas? Las tablas de dos por dos son, en algunos aspectos, la propia esencia de la epidemiología y de la bioestadística, así como de otras disciplinas (se ha dicho que «no es usted nadie en psicología a menos que tenga su nombre en una tabla de 2 ⫻ 2»). En la Tabla 15-1 se muestra la construcción clásica de una tabla de 2 ⫻ 2 . El estado de enfermedad se introduce en un eje, y el estado analizado se introduce en el otro. Los valores fuera de una casilla se denominan marginales. (Véase m1-m4 en la Tabla.) Es importante considerar que no hay un modo estándar para construir una tabla de 2 ⫻ 2. La información de la Tabla 15-1 podría igualmente haberse presentado del modo en que está en la Tabla 15-2.
TABLA 15-1. CONSTRUCCIÓN DE UNA TABLA DE DOS POR DOS
Prueba positiva Prueba negativa
Enfermedad positiva
Enfermedad negativa
a c m1
b d m2
m3 m4
197
198
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
TABLA 15-2. CONSTRUCCIÓN ALTERNATIVA DE UNA TABLA DE DOS POR DOS
Enfermedad positiva Enfermedad negativa
Prueba positiva
Prueba negativa
a b
c d
18. Defina qué es un resultado verdadero positivo y un resultado verdadero negativo. Un resultado verdadero positivo es el ejemplo en el que una prueba diagnóstica determina de modo correcto un estado positivo del individuo sometido a la prueba diagnóstica. Un resultado verdadero negativo es el ejemplo en el que una prueba identifica de modo correcto como negativo a un individuo no enfermo (o negativo). En la Tabla 15-3 se indican las casillas verdaderas. 19. Defina un resultado falso negativo y un resultado falso positivo. Los falsos negativos son los casos en los que una prueba clasifica de modo incorrecto a un individuo positivo como negativo. Los falsos positivos se producen cuando un individuo es identificado de modo incorrecto como positivo. Las casillas falsas se indican también en la Tabla 15-3.
TABLA 15-3. BLOQUES VERDADEROS Y FALSOS EN UNA TABLA DE DOS POR DOS
Prueba positiva Prueba negativa
Enfermedad positiva
Enfermedad negativa
Verdadero positivo Falso negativo
Falso positivo Verdadero negativo
20. ¿Cómo se define la sensibilidad? La sensibilidad se define como la fracción de personas con la enfermedad o afección que son identificadas de modo correcto como positivas. Observando de nuevo la tabla clásica de 2 ⫻ 2, se calcula la sensibilidad como: N.º con la afección y resultado positivo en la prueba Número total de personas con la afección El cálculo real de la Tabla 15-4 sería a/(a+c) o a/m1. Animamos a los lectores a que aprendan la ecuación general, no la versión abreviada a/(a+c). Como se ha indicado previamente, y dado que puede cambiar la presentación de los datos, la fórmula simplificada no siempre funciona. 21. Ponga un ejemplo de cálculo de la sensibilidad. Se analiza un conjunto de criterios diagnósticos frente a la práctica clínica aceptada, y se muestran los resultados en la Tabla 15-5. La sensibilidad en este caso sería 29/(29 + 26) = 0,527 o 52,7%. Se considera que este resultado es definitivamente insuficiente. 22. ¿Cómo se define la especificidad? Así como la sensibilidad trata sobre los casos que dan resultado positivo en la prueba, la especificidad trata de los casos que dan resultado negativo en la prueba. Se define la especificidad como la fracción de las personas analizadas identificadas como negativas. La fórmula general es:
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
TABLA 15-4.•TABLA DE DOS POR DOS PARA EL CÁLCULO DE LA SENSIBILIDAD Y DE LA ESPECIFICIDAD
Prueba positiva Prueba negativa
Enfermedad positiva
Enfermedad negativa
a c m1
b d m2
m3 m4
PUNTOS CLAVE: TABLAS DE 2 ⫻ 2 1.• Las tablas de 2 ⫻ 2 son el modo estándar de presentar los datos sobre el rendimiento de una prueba. 2.• Los verdaderos positivos son las personas con la afección que dan resultado positivo en la prueba. 3.• Los verdaderos negativos son las personas sin la afección que dan resultado negativo en la prueba. 4.• Los falsos positivos son las personas sin la afección que dan resultado positivo en la prueba. 5.• Los falsos negativos son las personas con la afección que dan resultado negativo en la prueba.
TABLA 15-5. CRITERIOS DE LA PRUEBA FRENTE A LA PRÁCTICA CLÍNICA
Prueba positiva Prueba negativa
Clínicamente positiva
Clínicamente negativa
29 26
3 28
N.º sin la afección con resultado negativo en la prueba Número total de personas sin la afección El cálculo general a partir de la Tabla 15-4 sería d/(b+d), o d/m2. 23. Ponga un ejemplo de cálculo de la especificidad. Utilizando los datos a partir de los criterios diagnósticos de la prueba de la Tabla 15-5, la sensibilidad calculada sería 28/(28+3) = 0,903 o 90,3%. 24. ¿Cuál es la relación entre la especificidad y la tasa de falsos positivos? Dado que la especificidad indica lo bien que una prueba diagnóstica identifica los verdaderos negativos, intuitivamente se espera que haya una relación entre los identificados correctamente como negativos y los verdaderamente negativos que son identificados falsamente como positivos. En realidad, puede calcularse la tasa de falsos positivos directamente a partir de la especificidad dada. Generalmente, los verdaderos positivos (TP) + los falsos positivos (FP) = todas las pruebas positivas. Puede calcularse también la tasa de falsos positivos (FPR) a partir de la especificidad, ya que los verdaderos negativos (TN) + los falsos positivos (FP) = todos los que
199
200
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
no tienen enfermedad (enfermedad negativos = DN). Dividiendo por DN y disponiendo de nuevo los datos, se obtiene: 1 – TN/DN = FP/DN. Esta ecuación se simplifica en: 1 – especificidad = FPR 25. ¿Cómo se relaciona la sensibilidad con la tasa de falsos negativos? En la medida en que la sensibilidad y la tasa de falsos positivos se hallan relacionados, también lo están la especificidad y los falsos negativos. La fórmula general de la tasa de falsos negativos (FNR) es: FNR =
N.º con la afección con resultado negativo Número total con la afección
De la tabla general de 2 ⫻ 2, el cálculo sería b/(b + d). De modo similar a la especificidad y a tasa de falsos positivos, la tasa de falsos negativos se calcula más fácilmente como: 1 – sensibilidad = FNR 26. ¿Qué es el valor predictivo positivo? El valor predictivo positivo (PPV) es la proporción de una población analizada con una prueba positiva que, realmente, tenía la enfermedad o afección en cuestión. El denominador incluye los verdaderos positivos y los falsos positivos. El PPV depende del rendimiento de la prueba en la población analizada y de la prevalencia de la afección en la población analizada. 27. ¿Cuál es la fórmula para el valor predictivo positivo? La ecuación general para el PPV es: Verdaderos positivos Todos los positivos
o Verdaderos positivos Verdaderos positivos + falsos positivos 28. ¿Cuál es el PPV en el caso de los datos presentados en la Tabla 15-5? PPV = 29/(29 + 3) = 90,1% 29. ¿Qué es el valor predictivo negativo? El valor predictivo negativo (NPV) es la proporción de la población analizada que realmente no tenía la enfermedad o afección en cuestión. El denominador incluye los verdaderos negativos y los falsos negativos. El NPV también depende del rendimiento de la prueba y de la prevalencia de la afección de interés. 30. ¿Cuál es la ecuación general para el valor predictivo negativo? La ecuación general para el NPV es: Verdaderos negativos Todos los negativos
o Verdaderos negativos Verdaderos negativos + falsos negativos
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
PUNTOS CLAVE: SENSIBILIDAD, ESPECIFICIDAD Y VALOR PREDICTIVO 1.• Sensibilidad = TP/(TP⫹FN) 2.• Especificidad = TN/(TN⫹FP) 3.• Valor predictivo positivo = TP/(TP⫹FP) 4.• Valor predictivo negativo = TN/(TN⫹FN) 5.• El valor predictivo depende del rendimiento de la prueba, combinado con la prevalencia de la afección en la población analizada.
31. ¿Cuál es el valor predictivo negativo en el caso de los datos presentados en la Tabla 15-5? Tal como se ha mencionado, el PPV es 29/(29+3) o 90,1%; aparentemente, un resultado útil. El NPV es 28/(28+26) o 51,8%, que es sólo ligeramente mejor que lanzar una moneda al aire. Recuerde que los valores predictivos de una prueba dada están en función del rendimiento de la prueba, así como de la prevalencia de la afección estudiada en la población que se está estudiando. 32. ¿Puede cambiar el valor predictivo de una prueba si el rendimiento de la prueba no lo hace? Sí. Los términos «PPV» y «NPV» suelen hacer referencia a los datos tomados del rendimiento de la prueba. El rendimiento de la prueba y el valor predictivo de la prueba varían con la prevalencia de la enfermedad en la población sometida a estudio. 33. Ponga un ejemplo de prevalencia cambiante de la enfermedad. Una investigadora ha descubierto un marcador en la sangre que, según cree, será de utilidad para hacer un cribado en busca de la enfermedad inflamatoria intestinal (IBD). Se realizan las pruebas iniciales en pacientes consecutivos en la sala de espera de una clínica de gastroenterología (GI) en un gran centro de cuidados terciarios. Los resultados hipotéticos se muestran en la Tabla 15-6. Estos datos proporcionan una sensibilidad del 95%, una especificidad del 98%, un PPV del 92% y un NPV del 98%.
TABLA 15-6. RESULTADOS DE UNA PRUEBA DE CRIBADO DE IBD EN UNA CLÍNICA GI
Prueba positiva Prueba negativa
Clínicamente positiva
Clínicamente negativa
57 3
5 135
Imagínese ahora que se repite el experimento, a excepción de que la población del estudio se toma de una sala de espera de un centro de donantes de sangre. Los resultados pueden tener el aspecto de la Tabla 15-7. Estos datos proporcionan una sensibilidad del 100%, una especificidad del 96%, un PPV del 33% y un NPV del 100%. Obsérvese que el cambio en la población analizada altera completamente la utilidad de la prueba. Al alterar la prevalencia de la
201
202
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
TABLA 15-7.•RESULTADOS DE UNA PRUEBA DE CRIBADO DE IBD EN UN CENTRO DE DONANTES DE SANGRE
Prueba positiva Prueba negativa
Clínicamente positiva
Clínicamente negativa
10 0
20 470
enfermedad en la población analizada desde el 30% en la GI al 2% en la población general, se introduce una gran diferencia en los valores predictivos de las pruebas. La diferencia en la sensibilidad y especificidad se debe a errores de redondeo; en estos ejemplos no es posible tener una fracción de una persona. Sin embargo, sí es posible observar diferencias en el rendimiento de la prueba en poblaciones diferentes. Diferencias en los estadios de la enfermedad y características de la población pueden cambiar (y con frecuencia lo hacen) el rendimiento de la propia prueba. Esto muestra la influencia de la prevalencia sobre el valor predictivo. También subraya la importancia de conocer la procedencia de los datos en el rendimiento de una prueba. 34. ¿Qué es la probabilidad preprueba? La probabilidad preprueba es la verosimilitud de partida de que exista una afección dada en la población en cuestión. Con mucha frecuencia es la prevalencia de una afección en la población estudiada, aunque puede ser alterada, dados otros factores. 35. ¿Por qué es importante la probabilidad preprueba en la evaluación de las pruebas diagnósticas? La sensibilidad y la especificidad son factores importantes para evaluar el rendimiento de las pruebas diagnósticas, pero no son los únicos factores. Tan importante, y en ocasiones más, es la frecuencia de la afección en la población analizada. Se determina la probabilidad preprueba de varios modos. Lo más fácil es considerar la frecuencia de la afección en la población general, es decir, la incidencia o prevalencia de la afección. Lo ideal sería conocer la prevalencia en la población específica (p. ej., la prevalencia de arteriopatía coronaria en fontaneros zurdos, diabéticos, de 55 años de edad que experimentasen accesos de dolor costal atípico), pero con frecuencia no se dispone de un nivel ideal. En tales casos, se sustituye con frecuencia por la percepción clínica preprueba. 36. ¿Qué dice el teorema de Bayes? El teorema de Bayes recibe su nombre en honor de Thomas Bayes (1702-1761), un clérigo inconformista y aficionado a las matemáticas que vivió en Inglaterra. Elegido Fellow de la Royal Society en 1742 (principalmente, por una defensa del cálculo de Newton), su contribución más importante fue su teoría de la probabilidad publicada (en 1764) después de su muerte. El teorema de Bayes predice la probabilidad de un suceso A dado un suceso B. La forma general del teorema de Bayes es: P(A ⎟ B) =
P(B ⎟ A)P(A) P(B ⎟ A)P(A) + P(B ⎟ ~A)P(~A)
La notación P(A) se lee como «probabilidad de A». La notación P(A ⎟ B) se lee como «probabilidad de A dado B». La notación P(B ⎟ ~A) se lee como «probabilidad de B dado ‘no A’». Con el fin de averiguar la probabilidad de A dado B, necesitamos conocer la probabilidad de B
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
dado A, la probabilidad de A, la probabilidad de B dado «no A», y la probabilidad de «no A». Puede utilizarse el teorema de Bayes para aplicaciones tan diversas como determinar la probabilidad de pasar por el tercer semáforo en verde después de haber pasado por los dos primeros en verde o para determinar qué número de spams (correo electrónico no solicitado) hay en nuestro buzón de entrada. 37. ¿Qué tiene que ver el teorema de Bayes con las pruebas diagnósticas? Con frecuencia se utiliza el teorema de Bayes como la base para determinar el PPV y el NPV. Puede calcularse el valor predictivo positivo y el valor predictivo negativo cuando se presentan los datos sin elaborar a partir de un estudio de prueba, pero, por lo general, dichos datos no suelen presentarse. Utilizando el teorema de Bayes, el PPV es: P(enfermedad ⎟ prueba+) =
P(prueba+ ⎟ enfermedad)P(enfermedad) P(prueba+ ⎟ enfermedad)P(enfermedad) + P(prueba+ ⎟ ~enfermedad)P(~enfermedad)
38. Todo esto es bastante complicado. ¿Hay una forma más sencilla del teorema de Bayes? La ecuación se simplifica si consideramos que la mayoría de los términos pueden obtenerse fácilmente. La definición de sensibilidad es P(prueba+ ⎟ enfermedad). La P(enfermedad) es la prevalencia de la afección o la probabilidad clínica preprueba. La P(prueba+ ⎟ ~ enfermedad) es igual a 1 – ⎟ especificidad. La probabilidad de ausencia de enfermedad es 1 – ⎟ prevalencia o 1 – probabilidad preprueba. Simplificando la ecuación, tenemos: P(enfermedad ⎟ prueba+) =
Sensibilidad ⫻ prevalencia Sensibilidad ⫻ prevalencia + (1 – especificidad)(1 – prevalencia)
Con mucha frecuencia se cita esta ecuación como el cálculo del valor predictivo de una prueba positiva. 39. ¿Hay también una ecuación simplificada para el valor predictivo negativo? Igualmente, el valor predictivo de una prueba negativa puede simplificarse a: Especificidad ⫻ (1 – prevalencia) P(enfermedad ⎟ prueba–) = Especificidad ⫻ (1 – ⎟ prevalencia) + (1 – sensibilidad)(prevalencia) 40. Muestre cómo puede utilizarse el teorema de Bayes en un contexto clínico. Un estudiante de medicina de segundo curso lee un artículo sobre la tripanosomiasis africana. Se da cuenta de que con frecuencia él está somnoliento, tiene cefaleas y tiene dolor en algunas articulaciones. Piensa, además, que tiene algunas adenopatías. Llega a la conclusión de que, de
PUNTOS CLAVE: TEOREMA DE BAYES 1.• El teorema de Bayes calcula las probabilidades de los sucesos después de un suceso observado. 2.• La forma más útil del teorema de Bayes en las pruebas diagnósticas es en relación con el valor predictivo positivo, como sigue: P(enfermedad ⎟ prueba⫹) =
Sensibilidad ⫻ prevalencia Sensibilidad x prevalencia ⫹ (1 – especificidad)(1 – prevalencia)
203
204
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
algún modo, ha contraído la tripanosomiasis africana. Comenta con un técnico de laboratorio una prueba de ELISA en sangre para la tripanosomiasis que se ha realizado y cuyo resultado es elevado. ¿Debería llamar a continuación a los Centers for Disease Control and Prevention (CDC) para recibir tratamiento? Supongamos que tanto la sensibilidad como la especificidad de la prueba son del 90% y que la prevalencia entre los estudiantes de medicina de segundo curso en Estados Unidos es de 1 por 5.000.000. Probabilidad posprueba = (0,90)(2 ⫻ 10–7)/[(0,90)(2 ⫻ 107) + (0,10)(1 – 2 ⫻ 10–7)] = 1,8 ⫻ 10-6 41. ¿Qué es un cociente de verosimilitudes? Un cociente de verosimilitudes (likelihood ratio) es una herramienta clínica utilizada para combinar la sensibilidad y la especificidad de modo más fácil que empleando el teorema de Bayes. Es una medida de la posibilidad de resultados en un grupo con y sin la enfermedad. Multiplicando la posibilidad preprueba por el cociente de verosimilitudes puede obtenerse la posibilidad posprueba (es decir, posterior). Obsérvese que el cociente de verosimilitudes utiliza posibilidades en vez de probabilidades, como hace el teorema de Bayes. Los cocientes de verosimilitudes son una expresión del grado en que una prueba positiva o negativa influye sobre la posibilidad de la enfermedad después de la prueba. Cuanto más próximo esté a 1 el cociente de verosimilitudes, menos útil es la prueba. 42. ¿Cómo se calcula el cociente de verosimilitudes? Hay fórmulas para el cálculo del cociente de verosimilitudes (LR) en relación con una prueba positiva y con una prueba negativa, como sigue: LR(positiva) =
Sensibilidad 1 – especificidad
LR(negativa) =
1 – sensibilidad Especificidad
43. Un nuevo tipo de exploración con RM en relación con los desgarros del músculo del hombro muestra una sensibilidad de 0,85 y una especificidad de 0,90. ¿Cuáles son las LR (positiva) y LR (negativa)? ■ LR+ = 0,85/1 – 0,90) = 8,5. ■ LR– = (1 – 0,85)/0,90 = 0,167. Se considera que cuanto más alejado de 1 esté el cociente de verosimilitudes, más útil es la prueba. 44. ¿Cómo se utiliza el cociente de verosimilitudes? Se convierte la probabilidad previa (es decir, prevalencia o probabilidad preprueba a priori) a posibilidad, según sea necesario. Se multiplica la posibilidad previa por la forma apropiada del cociente de verosimilitudes y, a continuación, se hace el camino inverso a probabilidad. Uno de los aspectos útiles del cociente de verosimilitudes es que pueden evaluarse múltiples pruebas con un conjunto de cálculos al coordinar los cocientes de verosimilitudes. 45. El médico de un equipo menor de la liga de béisbol está evaluando a un lanzador por dolor en el hombro. A tenor de la historia del lanzador y de la exploración física, el médico cree que el jugador tiene un desgarro del músculo del hombro que requiere corrección quirúrgica. Remite al paciente a una exploración rápida con RM referenciada en la pregunta 43. ¿Cuál es la probabilidad de
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
que el lanzador tenga una lesión de hombro operable después de una prueba positiva? ■ Primera medida. Convertir en posibilidad: posibilidad = probabilidad/(1 – probabilidad) = 0,60/(1 – 0,60) = 1,5. ■ Segunda medida. Multiplicar por el LR+: posibilidad posterior = LR ⫻ posibilidad previa = 8,5 ⫻ 1,5 = 12,75. ■ Tercera medida. Hacer el camino inverso a probabilidad: probabilidad = posibilidad/(1 + posibilidad) = 12,75/13,75 = 0,92. 46. Después de saber los resultados de las pruebas, el lanzador (que se muestra remiso a la cirugía) quiere más pruebas. Reacio, el médico dispone otro estudio que tiene una sensibilidad de 0,8 y una especificidad de 0,95 y proporciona un resultado negativo. ¿Cuál es la probabilidad posprueba después de la segunda prueba? Suponga que las pruebas son independientes. Podemos comenzar con la posibilidad posterior del problema previo, 12,75. ■ Primera medida. Se calcula LR– como sigue: LR– = (1 – sensibilidad)/especificidad = (1 – 0,8)/0,95 = 0,21 ■ Segunda medida. Se multiplica la posibilidad por LR–: 12,75 ⫻ 0,21 = 2,68 ■ Tercera medida: Se convierte en probabilidad: probabilidad = posibilidad/(1 + posibilidad) = 2,68/3,68 = 0,72 Obsérvese que la segunda prueba confirmatoria realizada para descartar un diagnóstico sólo disminuyó la probabilidad de dicho diagnóstico de 0,92 a 0,72. El diagnóstico de desgarro sigue siendo aún más probable que la ausencia de dicho diagnóstico. 47. ¿Qué es una curva ROC? La curva ROC (receiver operator characteristic) significa curva de eficacia diagnóstica. Se emplea para representar gráficamente la respuesta de una prueba a la variación del nivel de positividad. Cuando se informa una prueba con un resultado cuantitativo, se puede variar el valor que determina un resultado positivo. Casi siempre hay cierto equilibrio entre la sensibilidad y la especificidad. Puede elegirse un nivel que dé lugar a la identificación de casi todos los individuos con la enfermedad, pero por lo general este nivel dará lugar a una gran proporción de falsos positivos y, por tanto, a una baja especificidad. Un nivel en el que casi todos los individuos sin la enfermedad sean identificados correctamente dará lugar a una sensibilidad muy baja (es decir tasa de verdaderos positivos). La curva ROC muestra gráficamente de qué modo los cambios en los niveles cambian la sensibilidad y la especificidad.
PUNTOS CLAVE: COCIENTES DE VEROSIMILITUDES (LR) 1.• Los cocientes de verosimilitudes (LR) calculan datos similares utilizando oportunidades relativas, y pueden utilizarse de modo seriado. 2.• LR(positivo) = sensibilidad/1 – especificidad 3.• Posibilidad posterior = posibilidad inicial ⫻ LR1 ⫻ LR2 ... LRx 4.• LR(negativo) = 1 – sensibilidad/especificidad 5.• El cálculo del LR supone que las pruebas son independientes (es decir, que los resultados de una prueba no tienen efecto sobre los resultados de las otras).
205
206
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
48. ¿Cómo se traza una curva ROC? La curva ROC es una representación gráfica de la tasa de falsos positivos (es decir, 1 – especificidad) frente a la sensibilidad. Se determinan los datos a partir de los diferentes niveles, y luego se traza la curva. En la Tabla 15-8 se muestran los datos de un estudio de la concentración plasmática de glucosa en ayunas para el diagnóstico de la diabetes mellitus gestacional. Siempre hay dos puntos fijos en una curva ROC: 0,0 y 1,1. Estos puntos representan los extremos en los que son identificados todos los casos sin enfermedad (100% de especificidad y 0% de sensibilidad) o todos los casos con enfermedad (0% de sensibilidad y 100% de especificidad). En la Figura 15-3 se observa la representación gráfica. Es una curva ROC típica. Cuanto más se acerque la curva a la parte superior izquierda del trazado, mejor es el rendimiento de la prueba diagnóstica. Perucchi D, Fischer U, Spinas G, et al: Using fasting plasma glucose concentrations to screen for gestational diabetes mellitus: Prospective population-based study. BMJ 319:812–815, 1999.
TABLA 15-8. GLUCOSA EN PLASMA PARA EL DIAGNÓSTICO DE LA DIABETES GESTACIONAL Concentración de glucosa (mmol/l)
5,2
5,0
4,8
4,6
4,4
Sensibilidad Especificidad
0,55 0,96
0,62 0,88
0,81 0,76
0,92 0,60
1,0 0,39
49. ¿Qué es una «buena» curva ROC? Las curvas ROC son evaluadas por el área bajo la curva. Una curva ROC «perfecta» tendría un área de 1. Una prueba totalmente inútil daría una línea recta con una pendiente de 1 y, por tanto, un área de 0,5. En las curvas simples con pocos datos, las áreas se calculan por un método geométrico. En las curvas más complejas con muchos datos se emplea un método estadístico, no paramétrico, bastante complejo. Un método práctico para evaluar las curvas ROC es como sigue: ■ 0,90-1,00 = excelente. ■ 0,80-090 = buena. ■ 0,70-0,80 = aceptable. ■ 0,60-0,70 = mala. ■ < 0,60 = sin utilidad. Las curvas ROC también pueden utilizarse para elegir el punto en el que se considera que una prueba es positiva. La Figura 15-4 ilustra gráficamente la utilidad de varias curvas ROC. Los puntos en la parte superior izquierda de la curva tienen el mejor equilibrio entre sensibilidad y especificidad. 50. ¿Cuál es la diferencia entre pruebas en serie y en paralelo? En medicina clínica hay dos estrategias para las pruebas múltiples. En las pruebas seriadas, se consideran los resultados de la prueba 1 antes que los resultados de la prueba 2, los resultados de la prueba 2 antes que los resultados de la prueba 3, y así sucesivamente. Para que una prueba sea considerada positiva, todas las pruebas de la serie han de ser positivas. En las pruebas en paralelo, todas las pruebas son consideradas de modo independiente, y cualquier resultado positivo es considerado positivo. 51. ¿Cómo se decide qué estrategia es la apropiada? Las pruebas seriadas son útiles cuando son indeseables los falsos positivos, como en el caso de un tratamiento muy invasivo o muy tóxico. Las pruebas en paralelo son útiles cuando es necesario un diagnóstico rápido y es indeseable un diagnóstico pasado por alto.
Sensibilidad
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
1
4,8 mmol/l
0,8
4,4 mmol/l
7,0 mmol/l 0,6
7,8 mmol/l
0,4
0,2
Concentración de glucosa en plasma en ayunas Prueba de estimulación con 50 g de glucosa
0
0
0,2
0,4
0,6
0,8
1
1 – especificidad Figura 15-3. Curva de eficacia diagnóstica (ROC) en relación con la concentración de glucosa en ayunas como prueba para el diagnóstico de la diabetes mellitus gestacional. (De Perruchini D, Fischer U, Spinas GA, et al: Using fasting plasma glucose concentration to screen for gestational diabetes mellitus: Prospective population-based study. BMJ 319[7213]:812-815, 1999, con permiso.)
PUNTOS CLAVE: CURVAS DE EFICACIA DIAGNÓSTICA (ROC) 1.• El rendimiento de una prueba cambia según el lugar en que se sitúe el nivel de positividad. 2.• Se traza la curva ROC representando la tasa de falsos positivos (es decir, 1 – especificidad) en el eje de las x y la sensibilidad en el eje de las y. 3.• Una curva ROC inútil es una línea recta con una pendiente 1. Cuanto más se combe la curva hacia la parte superior izquierda del trazado, mejor rendimiento tiene la prueba. 4.• El rendimiento de una prueba se determina por el área bajo la curva: 1 es perfecta y 0,5 es inútil.
52. ¿Cuándo se utilizan las estrategias en serie o en paralelo? Las pruebas seriadas producen una estrategia global muy específica pero poco sensible, mientras que las pruebas en paralelo producen una estrategia sensible pero poco específica. Por ejemplo, en la sala de urgencias se solicitan múltiples pruebas de modo paralelo cuando acude
207
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
100
80
Sensibilidad
208
60
40
Curva excelente Curva buena Curva regular
20
Línea sin beneficio 0 0
20
40
60
80
100
Tasa de error de falsos positivos Figura 15-4. Ejemplos de curvas de eficacia diagnóstica (ROC) en relación con cuatro pruebas. La curva superior es la mejor de las cuatro. (De Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2.ª ed. Philadelphia, W.B. Saunders, 2001.)
un paciente cuyo síntoma principal es dolor costal. Si una de las pruebas muestra un resultado positivo, como una elevación del segmento ST en un electrocardiograma (ECG), una concentración sérica elevada de troponina o signos de insuficiencia cardíaca izquierda en la radiografía de tórax, se considera que el paciente tiene un infarto de miocardio y es tratado en consecuencia. A la inversa, un cirujano oncológico no extirpará el colon atendiendo a una prueba positiva de sangre en heces (una prueba de cribado habitual para el cáncer de colon con fácil administración y un bajo coste); la cirugía requiere pruebas de confirmación, que se realizan de modo seriado. 53. ¿Por qué es importante la independencia en las pruebas? La independencia en las pruebas afecta al modo de interpretarlas. Al considerar múltiples pruebas seriadas, suele suponerse que los desenlaces de cada prueba no dependen de las otras pruebas. Así, la posibilidad final de enfermedad en una serie de pruebas será Posibilidad (final) = posibilidad inicial ⫻ LR1 ⫻ LR2 ⫻ LR3... LRx En la realidad, sin embargo, con frecuencia las pruebas no son independientes; un resultado falso positivo en una prueba puede predisponer a un resultado falso positivo (o falso negativo) en otra. Muchas pruebas pueden, en función, dirigirse a lo mismo o pueden ser realizadas del mismo modo. Así, la debilidad de una, bien puede ser la debilidad de otra. Idealmente, queremos datos del rendimiento de una prueba relacionada con las series de pruebas. Lamentablemente, no se suele disponer de tales datos. 54. ¿Cómo se mide el acuerdo entre diferentes clasificadores? Las determinaciones de datos categóricos, como la interpretación de estudios radiológicos, dependen del juicio del clasificador (p. ej., juzgando la presencia de infartos en la RM o la pre-
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
PUNTOS CLAVE: PRUEBAS EN PARALELO Y EN SERIE 1.• Las pruebas en paralelo implican una serie de pruebas realizadas simultáneamente. Con una prueba positiva, se considera positiva la serie en su totalidad. 2.• Las pruebas en serie implican una serie de pruebas realizadas secuencialmente. Todas ellas han de ser positivas para que sean consideradas positivas. 3.• Las pruebas en paralelo dan lugar a una estrategia sensible, pero inespecífica. Las pruebas en serie son específicas, pero no sensibles.
sencia de células malignas en una biopsia). Para la validez de los resultados, el mismo estudio suele ser examinado por múltiples evaluadores. Se emplea la kappa de Cohen (es decir, la prueba de la kappa) para cuantificar el grado de acuerdo entre los distintos clasificadores, teniendo en consideración el acuerdo causado por el azar. Se informa la prueba en una escala de –1 a +1. 55. ¿Qué es una buena puntuación kappa? Una kappa inferior a 0,6 suele considerarse inaceptable, mientras que una kappa mayor de 0,80 es excelente. Puede utilizarse una kappa ponderada cuando se considere que algunos desacuerdos son peores que otros (p. ej., biopsia normal o con una elevada malignidad). 56. ¿Cómo se calcula el estadístico kappa? Se calcula la versión más común del estadístico kappa (la kappa de Cohen), comparando el acuerdo esperado con el acuerdo observado. Utilizando un formato de 2 ⫻ 2 en la Tabla 15-9, los cálculos son como sigue: ■ P(acuerdo observado) = (a + d)/N ■ P(esperado) = [(f1 ⫻ g1) + (f2 ⫻ g2)]/N2 ■ Kappa = [P(observado) – P(esperado)]/[1 – P(esperado)]
TABLA 15-9. DATOS NECESARIOS PARA EL CÁLCULO DE LA KAPPA Observador 1
Observador 2
Sí No
Sí
No
a c f1
b d f2
g1 g2 N
57. Ponga un ejemplo de cálculo de la kappa. Se pregunta en un parque a dos niños de 6 años de edad que decidan qué animales son ardillas. En la Tabla 15-10 se muestra la tabulación de sus resultados. ■ P(observada) = (31 + 41)/84 = 0,77. ■ P(esperada) = (43 ⫻ 38 + 41 ⫻ 46)/(84)2 = 0,50. ■ Kappa = (0,77 – 0,50)/(1 – 0,5) = 0,54. En este caso, la kappa es 0,54; el acuerdo entre los dos niños de 6 años no es muy bueno. Posiblemente, puede haber un error en la percepción (es decir, uno de los niños necesita gafas)
209
210
CARACTERÍSTICAS DE LAS PRUEBAS DIAGNÓSTICAS
TABLA 15-10. EJEMPLOS DE DATOS PARA EL CÁLCULO DE LA KAPPA Observador 1 Ardilla No ardilla Observador 2
Ardilla No ardilla
31 12 43
7 34 41
38 46 84
o en su formación (es decir, identificación errónea de gatos, ratones de campo y otros pequeños mamíferos), pero en cualquier caso, las conclusiones basadas en los datos de estos observadores serían muy sospechosas. 58. ¿Puede calcularse la kappa en el caso de más de dos observadores? El cálculo arriba indicado de la kappa de Cohen es el más simple posible, con dos observadores y dos desenlaces. Cuando sean posibles múltiples observadores y múltiples desenlaces, el cálculo se hace mucho más complejo y casi siempre se realiza con ordenador. Merece la pena observar que el estadístico kappa no es reconocido universalmente como la evaluación patrón de referencia. La interpretación exacta del estadístico está sujeta a desacuerdo, y los valores de ponderación (cuando se utilizan) son arbitrarios y, por ende, están sujetos a sesgo.
PÁGINA WEB http://www.apha.org/public_health/epidemiology.htm
BIBLIOGRAFÍA 1.• Chobanian AV, Bakris GL, Black HR, et al: Seventh Report of the Joint National Committee on Prevention, Detection, Evaluation, and Treatment of High Blood Pressure. Hypertension 42(6):1206–1252, 2004. 2.• Jekel JF, Katz DL, Elmoe JG: Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia, W.B. Saunders, 2001. 3.• Perucchi D, Fischer U, Spinas G, et al: Using fasting plasma glucose concentrations to screen for gestational diabetes mellitus: Prospective population-based study. BMJ 319:812–815, 1999.
Philip D. Parks, MD, MPH
CAPÍTULO 16
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT 1. ¿Cómo se utilizan la distribución de la t y la prueba de la t? ¿Qué tipos de datos pueden ser interpretados? La distribución de la t de Student y la prueba de la t de Student se emplean para realizar inferencias sobre la media poblacional utilizando muestras de pequeño tamaño (< 30) cuando los datos proceden de una muestra aleatoria simple. En los ejemplos de este capítulo se supone que cuando se utilizan la distribución de la t de Student y la prueba de la t de Student, se toma la muestra aleatoria simple de una población aproximadamente normal y se desconoce la desviación estándar (σ) de la población. 2. ¿A qué estudiante hace honor la prueba nombrada como la t de Student? Las leyes sobre la propiedad intelectual establecidas por su patrón (Guinness Brewery) (Fábrica de Cervezas Guinness) impidieron que William Gossett (1876-1937) diera su verdadero nombre a una de las pruebas más utilizadas en estadística. En lugar de nombrar esta herramienta útil como prueba de Gossett, utilizó el seudónimo de «Student» cuando escribió su descripción en 1908 de la distribución de la t, y que él denominó prueba de la t de Student. Como ingeniero de control de calidad de la Guinnes Brewery, Gossett utilizó sus nuevos procedimientos de la t para comparar lotes de cerveza de malta, y afianzó su puesto de trabajo ayudando a la fábrica a que produjera la cerveza más barata y mejor posible. 3. ¿Por qué no utilizar la distribución de la z (es decir, la distribución normal)? Los procedimientos inferenciales para las medias asociadas con la curva normal (procedimientos z) son apropiados sólo cuando se conoce la desviación estándar (σ) de la población. Clásicamente, esperaríamos que σ fuese desconocida; por ello, en la investigación médica se utilizan generalmente los procedimientos de la t. Sin embargo, en relación con tamaños muestrales mayores de 30, la distribución de la z y la distribución de la t son casi idénticas. 4. ¿En qué otros diseños de muestreo son apropiados los procedimientos de la t? Se utilizan también los procedimientos de la t para comparar las respuestas a dos tratamientos en dos grupos independientes o en un grupo de sujetos en dos momentos diferentes. Se efectúa la comparación aplicando los procedimientos de la t a las diferencias observadas. Si se quieren comparar las respuestas a dos tratamientos o comparar las medias de dos poblaciones, se necesitan muestras aleatorias simples independientes de (idealmente) poblaciones aproximadamente normales en las que las medias y las desviaciones estándares son desconocidas. Estos procedimientos son robustos siempre que las distribuciones poblacionales tengan formas similares y en los datos no figuren valores muy atípicos. 5. ¿Cómo se lleva a cabo una prueba de la t sobre la μ? En este capítulo se tratan diversas variaciones de la prueba de la t, pero el planteamiento general es el siguiente:
211
212
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
1.• Se establece el estado por defecto para μ dando el valor hipotético (en H0) y lo que se pretende afirmar sobre la μ para la que estamos acumulando datos (Ha). 2. a)• Se determina el cociente crítico (la diferencia entre la media de la muestra y la media poblacional hipotética dividida por el error estándar [SE] de la media de la muestra). b)• Se compara el cociente crítico con el valor de la t apropiado en la tabla. 3.• Se rechaza o no se rechaza la hipótesis nula (H0). 4.• Se escribe la conclusión. 6. ¿Qué es la prueba de la t pareada? En la literatura médica, los estudios comparan con frecuencia los efectos de medicaciones en pacientes. Por ejemplo, si se quiere investigar el efecto de las medicaciones hipocolesterolemiantes, se pueden comparar los datos de un paciente sometido a medicación con los datos del mismo paciente cuando no recibe medicación. Utilizando este par emparejado (también conocido como método del antes y del después), un paciente hace las veces de su propio control. La prueba de la t considera la variación a partir de un solo grupo muestral, mientras que en la prueba de la t de dos muestras considera la variación a partir de dos grupos independientes. Por consiguiente, utilizar la prueba de la t pareada es un buen modo de centrarnos en la variación que está determinada por el efecto de la intervención o cambios en el tiempo en el mismo sujeto. 7. ¿Qué nueva variable se utiliza en la prueba de la t pareada? Para llevar a cabo la prueba de la t pareada, se emplea una nueva variable (d). Esta variable representa la diferencia entre los datos antes y después de haber introducido la intervención en los sujetos estudiados. Se lleva a cabo esta prueba de la t en los datos de las diferencias. La – variable d representa la diferencia media observada entre los valores iniciales (es decir, basales o de partida) y los finales (después de aplicar la intervención) o, generalmente, para datos pareados, la media de los datos de las diferencias. 8. ¿Qué indican los resultados de las pruebas de la t? Se emplea el modelo de Gossett, la distribución de la t de Student, para la inferencia (prueba de hipótesis y cálculo de intervalos de confianza) sobre medias poblacionales; en otras palabras, para determinar (en el caso de una muestra) si la diferencia entre la media muestral y la media poblacional supera la diferencia que podría esperarse por el azar solo, a partir de un muestreo aleatorio. Se emplea la prueba para valorar si la diferencia es estadísticamente significativa. 9. ¿Cuáles son algunas variaciones de las aplicaciones de la prueba de la t? Hay variaciones de la prueba de la t de Student: la prueba de una cola y la prueba de dos colas (también conocidas como prueba unilateral y prueba bilateral). Por ejemplo, se emplea la prueba de una cola cuando se investiga si μ es mayor o menor que la media hipotética, μ0, pero el investigador está probando sólo si es «mayor que» o «menor que», no la posibilidad de que μ pudiera ser cualquiera de ellas. Se emplea la prueba de dos colas para probar que μ no es igual a μ0; en otras palabras, podría ser mayor que o menor que. 10. ¿Qué es el error estándar de la media muestral? El error estándar de la media muestral (SE) es el cociente entre la desviación estándar de la muestra y la raíz cuadrada del tamaño muestral, y se emplea en el cálculo del cociente crítico (t) en una prueba de la t. Así como la desviación estándar describe la variabilidad de las observaciones, el error estándar mide la variabilidad de las medias. Podemos imaginar, de modo aproximado, que el error estándar es la desviación estándar de las medias muestrales, y «error» es el término estadístico tradicional para indicar la variación por azar.
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
11. ¿Cómo se calcula el error estándar en el caso de una única muestra? En el caso de una muestra, puede calcularse el error estándar utilizando la desviación estándar de la muestra si se conoce el tamaño de la muestra. El error estándar: =
s = n
s2 n
A partir de este cálculo, se observa que a medida que aumenta el tamaño de la muestra (n), disminuye el error estándar. 12. ¿Qué son los grados de libertad? Los grados de libertad dependen del tamaño de la muestra, y se calculan a partir de dicho tamaño en el caso de una muestra. En una distribución, los grados de libertad son el número de parámetros que pueden variarse de forma independiente, y se utilizan para realizar ajustes en el tamaño de la muestra. 13. ¿Cómo se calculan los grados de libertad en el caso de una única muestra o de pares pareados? En el diseño de una muestra o de pares pareados, los grados de libertad (df) se definen como el número de observaciones menos uno (df = n – 1); en otras palabras, sólo n – 1 observaciones pueden variar libremente. Así, si el tamaño de la muestra es 15, los grados de libertad (df) son 14. 14. ¿Cómo se calculan los grados de libertad en el caso de dos muestras independientes? Con tal de que las varianzas sean iguales, los grados de libertad de dos muestras independientes son la suma de los grados de libertad de cada muestra. En ocasiones se expresa del siguiente modo: df = (n1 – 1) + (n2 – 1) = n1 + n2 – 2. Por ejemplo, si el tamaño de una muestra es 14 y el tamaño de la otra muestra es 17, los df (en el modelo de dos muestras) = (14 – 1) + (17 – 1) = 29. 15. ¿Por qué son importantes los grados de libertad? Se emplean los grados de libertad, junto con el cociente crítico y el modelo de Gossett, la distribución de la t de Student, para aproximar la verosimilitud (es decir, probabilidad) de que un valor tan extremo como el cociente crítico ocurra por azar solo. A medida que aumentan los grados de libertad, la curva t adopta un aspecto similar a la curva z normal. (Véase la Figura 16-1.) Moore DS: The Basic Practice of Statistics, 2nd ed. New York, W.H. Freeman & Company, 2000.
16. ¿En qué difieren los resultados de los procedimientos que utilizan la distribución de la t con respecto a los que utilizan la distribución de la z? Cuando se utiliza el modelo de distribución de la t frente al modelo normal (es decir, distribución z), los intervalos de confianza son ligeramente más amplios, y los valores de p, ligeramente mayores. La distribución de la t es diferente con respecto a la distribución normal porque la desviación estándar depende del tamaño de la muestra. Cuando el tamaño de las muestras es de 30 o más, la distribución de la t y la distribución de la z son esencialmente idénticas. A medida que aumenta el tamaño de la muestra, la curva t se aproxima a la curva normal con una similitud creciente. Este fenómeno se produce porque la desviación estándar de la muestra (s) estima de modo más preciso la desviación estándar de la población (σ). Por consiguiente, con muestras grandes, la sustitución de σ por s causa una variación menor.
213
214
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
0,4
0,3
0,2
0,1
0 Figura 16-1. Grados de libertad. La línea ininterrumpida, distribución normal estandarizada; línea de rayas interrumpidas, distribución de la t con 9 grados de libertad, y línea de puntos, distribución de la t con 4 grados de libertad.
17. ¿Qué son los cocientes críticos? Las diferentes variaciones de las pruebas de la t apoyan conclusiones sobre medias poblacionales calculando un cociente denominado cociente crítico. Se compara este cociente crítico con valores en una tabla estadística (p. ej., una tabla de valores de la t) en relación con los grados de libertad observados. En los Apéndices A y B de este libro se incluyen las tablas estadísticas. Se define el cociente crítico para las medias como la diferencia entre las medias muestrales y poblacionales, dividida por el error estándar de la media de la muestra. Cociente crítico =
Diferencia entre la media muestral y la media poblacional Error estándar de la media muestral
o bien, utilizando los símbolos estadísticos: x– – μo t= s/ n [x– = media de la muestra; μo = media hipotética de la población; s = desviación estándar de la muestra; n = tamaño de la muestra] 18. ¿Cómo se calculan los cocientes críticos en la prueba de una muestra sobre la media? Supongamos que reunimos la siguiente información en relación con la prueba de una muestra: la media de la muestra es 10, la media poblacional es 9,6, y la desviación estándar es 1, en una muestra de tamaño 16. Entonces: x– – μo 10 – 9,6 0,4 Cociente crítico = t = = = = 1,6 s/ n 1/ 16 0,25
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
19. ¿Cómo se calculan los cocientes críticos en relación con los datos pareados? Supongamos que reunimos datos para un diseño de datos pareados. Tenemos dos conjuntos de datos que son pares apareados. Por ejemplo, el conjunto de datos 1 está recogido a partir de nueve sujetos antes de una intervención y el conjunto de datos 2 está recogido de los mismos nueve sujetos después de la intervención. La primera medida es calcular la diferencia de los datos (d) y a continuación aplicar a este conjunto de datos los procedimientos para una muestra. Tenemos en mente que f para los datos de las diferencias será siempre 0 si no hay diferencias en los datos de pares pareados. Supongamos que la media de la muestra (de los datos de las diferencias) es –1,2 y que la desviación estándar de la muestra (de los datos de las diferencias) es 1, en una muestra de tamaño 9. Entonces: – –1,2 – 0 –1,2 d – μo Cociente críticod = td= = = = –3,6 Sd/ n 1/ 9 1/3 Los subíndices d son una señal de que estos cálculos son sobre los datos de diferencias en relación con los datos pareados. En la prueba de la t pareada, la media sólo se calcula una vez. Por consiguiente, sólo se pierde un grado de libertad. 20. ¿Cómo se calculan los cocientes críticos en una prueba con datos de dos muestras? En el caso de una prueba de dos muestras, éstas han de ser independientes, y cada muestra debe proceder de una población normal subyacente de las que se desconocen las desviaciones estándar poblacionales.
t = (x–1 – x– 2) – (μ1 – μ2) Obsérvese que ponemos con los correspondientes subíndices las cantidades asociadas con las muestras 1 y 2. En ocasiones, μ1-μ2 = 0, y el cálculo se convierte en
t=
x–1 – x–2 SED (x–1 – x–2)
21. ¿Cómo se calcula el error estándar de la diferencia (SED) y los grados de libertad cuando se comparan dos muestras independientes? Los cálculos para la situación de dos muestras son muy engorrosos y, generalmente, se utiliza el apoyo de la tecnología. Tenemos dos elecciones para los cálculos de la SED (x–1 – x–2) y de los df: 1) no agrupados (cuando se sabe que las poblaciones subyacentes no tienen igual varianza), y 2) agrupados (cuando deseamos suponer que las poblaciones subyacentes tienen igual varianza). Para no agrupados, SED (x–1 – x2) = 2
1
df =
2 2 2
2
( sn + sn ) 1 ( s ) + n 1– 1 ( sn ) n –1 n 1
2 2
2
1
1
1
2
s12 s22 + n1 n2
2
2
2
(se redondea este valor hacia abajo hasta el número • entero más próximo)
215
216
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
En cuanto a las agrupadas, calculamos en primer lugar la varianza común:
sp2 =
(n1 – 1)s12 + (n2 – 1)s22 n1 + n2 – 2
sp2 sp2 + y df = (n1 – 1) + (n2 – 1) = n1 + n2 – 2 n1 n2
SED agrupadas(x–1 – x–2 =
22. ¿Qué indica el tamaño del cociente crítico? En cada caso, buscamos el cociente crítico en la tabla estadística apropiada, para determinar el valor de p (es decir, la probabilidad de que la media observada se deba al azar sólo). Cuanto mayor sea el cociente crítico (y menor la p), más probable es que la diferencia entre la media de la muestra y la poblacional hipotética (o medias) no se deba a la variación por azar, y que la diferencia sea estadísticamente significativa. En general, en la literatura médica, se considera que la diferencia es significativa si el valor de p es ≤ 0,05. Se emplea en la tabla los grados de libertad para ajustar los cocientes críticos por el tamaño de la muestra. Cuando se utilizan las tablas, hay que considerar el valor absoluto del cociente crítico (p. ej., si t = –2,50, hay que calcular las probabilidades utilizando la t = 2,50). 23. ¿Qué son las pruebas de una cola y de dos colas? Cuando llevamos a cabo pruebas de significación, comenzamos con una hipótesis nula (H0), afirmación por defecto sobre nuestro parámetro poblacional hipotético. La prueba valora la fuerza de los datos contra la H0. La hipótesis alternativa (Ha) indica el efecto para el que esperamos encontrar datos que nos apoyen. La Ha puede ser de un lado (por ejemplo, Ha = µ > 0 o Ha = µ < 0) o de dos lados (por ejemplo, Ha: µ ≠ 0). La hipótesis alternativa de un lado establece el interés en los efectos extremos en una dirección o en la otra, mientras que las pruebas de dos lados tratan de ver si el parámetro de interés difiere en algún valor. 24. ¿Cómo completamos una prueba de la t de una muestra? Nuestra situación es como sigue: tenemos 10 pacientes femeninas sanas de edades comprendidas entre 30 y 35 años, que nunca realizan ejercicio físico. La Tabla 16-1 nos proporciona la lectura de la densidad ósea de cadera más reciente de cada paciente (mg/cm2). ¿Proporcionan estos datos una prueba concluyente al nivel de significación del 5% de que las pacientes femeninas sanas de edades entre 30 y 35 años que nunca realizan ejercicio físico tienen unos resultados de densidad ósea inferiores al promedio de 945 mg/cm2? 1. Para una H0 µ = 945 y para una Ha µ < 945 [prueba de la cola izquierda, a un lado] 2. t =
x– – µ
=t~
s/ n
940,6 – 945
~ –1,1933, y df = 10 – 1 = 9
11,66/ 10
De la Tabla 16-2, para una superficie en la cola izquierda de la distribución de la t que sea menor del 5% con 9 grados de libertad, nuestro cociente crítico es ≤ -1,833. El valor de t es –1,1933, que es > –1,8333 (es decir, lejos de 0).
TABLA 16-1. LECTURA MÁS RECIENTE DE DENSIDAD ÓSEA EN LA CADERA (mg/cm 2 ) EN 10 PACIENTES Paciente
1
2
3
4
5
6
7
8
9
10
Densidad ósea
948
940
950
920
936
952
958
934
940
928
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
TABLA 16-2. NIVEL DE SIGNIFICACIÓN PARA LA PRUEBA DE LA t DE STUDENT UNIDIRECCIORAL* df
0,10
0,05
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 χ
3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311 1,310 1,303 1,296 1,289 1,282
6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833a 1,812 1,796 1,782b 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,671 1,658 1,645
0,025
0,01
12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080c 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,000 1,980 1,960
31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,390 2,358 2,326
0,005
0,000
63,657 9,925 5,841 4,604 4.032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 2,576
636,619 31,598 12,941 8,610 6,859 5,959 5,405 5,041 4,781 4,587 4,437 4,318 4,221 4,140 4,073 4,015 3,965 3,922 3,883 3,850 3,819 3,792 3,767 3,745 3,725 3,707 3,690 3,674 3,659 3,646 3,551 3,460 3,373 3,291
*Para una t calculada, si ⎟ t⎟ (valor absoluto de t) es mayor que el valor mostrado, se rechaza la hipótesis nula.
aVéase punto 24.
bVéase punto 25. cVéase punto 27.
217
218
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
3.• No podemos rechazar la H0. 4.• A tenor de estos datos, no tenemos pruebas significativas al nivel del 5% para concluir que las pacientes femeninas sanas de edades comprendidas entre 30 y 35 años que nunca realizan ejercicio físico tengan resultados de densidad ósea menores que el promedio de 945 mg/cm2. 25. ¿Cómo completamos una prueba de la t de pares pareados? Consideremos el siguiente ejemplo: tenemos 13 pacientes a los que hemos estado tratando con hipocolesterolemiantes. La Tabla 16-3 indica la concentración de colesterol total antes del tratamiento y después de 60 días de medicación. ¿Proporcionan estos datos pruebas suficientes a nivel de significación del 5% para concluir que la medicación produjo una reducción en la concentración de colesterol?
TABLA 16-3. COLESTEROL TOTAL ANTES Y DESPUÉS DEL TRATAMIENTO Paciente
1
2
3
4
5
6
7
8
9
10
11
12
13
Antes del tratamiento Después del tratamiento
220
240
190
210
250
230
240
250
230 225 180 200 230
198
199
182
200
228
215
200
190
200 208 160 175 220
Para completar una prueba de datos pareados, hay que calcular primero los datos de las diferencias (Tabla 16-4). Una «reducción en la concentración del colesterol total» significa que la diferencia que calculamos (antes y después) es mayor que cero.
TABLA 16-4. CÁLCULO DE LAS DIFERENCIAS Paciente
1
Datos de las 22 diferencias: antes-después
2
3
4
5
6
7
8
9
10
11
12
13
41
8
10
22
15
40
60
30
17
20
25
10
1.• Para una H0 μd = 0 y para Ha μd > 0 [prueba de la cola derecha, a un lado] 2. td =
– d –μ sd / n
~
24,19 – 0 ~ 5,9457 y df 13 – 1 = 12 14,93/ 13
De la Tabla 16-2, para que la superficie en la cola izquierda de la distribución t sea menor que del 5% para 12 grados de libertad, nuestro cociente crítico debe ser • 1,782. El valor de t es 5,9457, que es • 1,782 3. Rechazamos firmemente H0. 4. A tenor de estos datos, tenemos fuertes pruebas al nivel de significación del 5% para concluir que la medicación produjo una reducción en la concentración del colesterol total. 26. ¿Cómo completamos una prueba de la t de dos muestras? Consideremos el siguiente ejemplo: queremos probar la efectividad de una nueva medicación frente a la cefalea. Aleatorizamos a 12 pacientes con cefaleas al grupo experimental que toma la medicación durante 1 mes, y a 12 pacientes con cefaleas a un grupo control que toma placebo durante 1 mes. Los pacientes vuelven y completan el Headache Assessment Survey.
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
219
Los resultados se expresan en la Tabla 16-5. ¿Proporcionan estos datos prueba al nivel de significación del 5% para concluir que los resultados en el Headache Assessment Survey son diferentes en los grupos experimental y frente al control? No suponemos que las poblaciones de base (es decir, Headache Assessment Survey Results para todos los pacientes que toman la medicación y Headache Assessment Survey Results para todos los pacientes que toman el placebo) tienen varianzas iguales. Así, completamos los cálculos no agrupados. 1.• Para H0, μE = μC y para Ha, μE • μC [prueba de dos colas con dos lados]
(x–E – x–C) y SED(x–E – x–c) = SED (x–E – x–C)
2.• t =
Por consiguiente: t =
s12
df =
18,562 16,642 + ~ 7,196 12 12
(x–E – x–C) 58,67 – 48,5 ~ = 1,413 y SED((x–E – x–C) 7,196
2
s22
sE2 sc2 + =~ nE nC
(18,562
16,642
2
( n + n ) ( 12 + 12 ) ~ 1 ( sn ) + n 1– 1 ( sn ) + 121– 1 ( 18,56 ) + 121– 1 (16,64 ) n –1 12 12 1
2
2
2
2
1
1
1
2
2
2
2 2
2
2
~
2.681,196 123,314
~ 21,74
2
Por consiguiente, redondeando hacia abajo, se emplea df = 21. De la Tabla 16-6, para que el área en ambas colas de la distribución de la t sea menor del 5%, nuestro cociente crítico ha de ser • 2,080. El valor de t es 1,413, que es • 2,080. 3.• No podemos rechazar la H0. 4.• A tenor de estos datos, no tenemos pruebas al nivel de significación del 5%, para concluir que los resultados del Headache Assessment Survey son diferentes en el grupo experimental con respecto al grupo control.
TABLA 16-5. PUNTUACIONES EN EL HEADACHE SURVEY Grupo experimental Grupo control
64 33
56 50
36 45
55 80
20 22
70 40
80 64
77 50
68 72
60 44
78 34
40 48
27. ¿Puede utilizarse la tabla de una cola para calcular un valor de p para una prueba de dos colas, como en la pregunta anterior? Sí. Sin embargo, en ocasiones sólo se dispone de tablas de una sola cola. Dado que la distribución de la t es simétrica con respecto a cero, pueden efectuarse fácilmente los cálculos utilizando las tablas de una cola. El ardid consiste en dividir la probabilidad deseada por 2, para dar cuenta de ambas colas. Por ejemplo, en la pregunta 26, utilizando una tabla de dos colas observamos que nuestro cociente crítico ha de ser mayor que 2,080 para una probabilidad de por lo menos el 95% para rechazar correctamente la hipótesis nula. Utilizando una tabla de una cola, elegiríamos 0,025 como la «probabilidad de la cola» porque se consideraron ambas colas. Esta «probabilidad de la cola» sería 0,025 ⫻ 2 = 0,05, el valor utilizado directamente en una tabla de dos colas. Utilizando ahora df = 21 y un valor de probabilidad de 0,025 en una tabla de una cola, encontramos que el cociente crítico ha de ser mayor que 2,080, que precisamente es el resultado obtenido a partir de la tabla de dos colas. (Véase la Tabla 16-2.)
220
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
TABLA 16-6. NIVEL DE SIGNIFICACIÓN PARA UNA PRUEBA DE LA t DE STUDENT BIDIRECCIONAL* df
0,20
0,10
0,05
0,02
0,01
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 χ
3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311 1,310 1,303 1,296 1,289 1,282
6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,671 1,658 1,645
12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080a
31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,390 2,358 2,326
63,657 9,925 5,841 4,604 4.032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 2,576
2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,000 1,980 1,960
0,001 636,619 31,598 12,941 8,610 6,859 5,959 5,405 5,041 4,781 4,587 4,437 4,318 4,221 4,140 4,073 4,015 3,965 3,922 3,883 3,850 3,819 3,792 3,767 3,745 3,725 3,707 3,690 3,674 3,659 3,646 3,551 3,460 3,373 3,291
*Para una t calculada, si t (valor absoluto de t) es mayor que el valor mostrado, se rechaza la hipótesis nula.
aVéase punto 24.
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
28. ¿Qué son los intervalos de confianza? El intervalo de confianza (CI) es un intervalo para englobar un parámetro poblacional (p. ej., la media o μ) con unos valores extremos calculados a partir de los datos como sigue: x– ± (coeficiente de confianza/(SE). Se elige el coeficiente de confianza para dar una estimación que dará lugar a un nivel de confianza dado de que el parámetro se encontrará dentro de los límites del intervalo. Por ejemplo, para un CI del 95%, el coeficiente de confianza es el valor de t, tomado a partir de la tabla apropiada, que separa el 95% central de la distribución del área de la cola. 29. ¿Cómo se calcula un intervalo de confianza del 95%? – Supongamos que tenemos un conjunto de datos apropiado para el que n = 18, X = 42, y s = 6,3. Creamos un IC del 95% para μ, la verdadera media de la población de la que procede el conjunto de datos. Nota: Dado que df = 18 – 1 = 17, el cociente crítico (tc) = 2,110 para una prueba de dos colas (Véase la Tabla 16-2.) x ± (coeficiente de confianza del 95%)(SE) = 42 ± 2,110 (6,3/ 18) 42 – 2,110(6,3/ 18) ~ 38,87 y 42 + 2,110(6,3/ 18) ~ 45,13 Por consiguiente, el IC del 95% es (38,87, 45,13), y podemos decir que, si recogemos datos similares muchas veces y calculamos intervalos de confianza del 95% a partir de los datos, el 95% de los intervalos de confianza contendrían la verdadera media poblacional. 30. ¿Cómo sabemos si se debe emplear la t o la z? Utilizando los principios de inferencia estadística, podemos extraer conclusiones generalizadas sobre una población utilizando datos a partir de una muestra aleatoria. Los procedimientos para construir intervalos de confianza sobre μ (es decir, la media poblacional) con σ (es decir, desviación estándar de la población) desconocida, son similares a cuando σ es conocida. Sin embargo, se utiliza s en lugar de σ, y t (para la distribución de la t) se utiliza en lugar de z (para la distribución normal). Por consiguiente, cuando se conoce σ, se construyen intervalos z, y cuando no se conoce σ, se construyen intervalos t.
PUNTOS CLAVE: LA DISTRIBUCIÓN DE LA t Y LA PRUEBA DE LA t DE STUDENT 1.• Cuando se emplean procedimientos de la t, los supuestos son que: 1) la muestra es una muestra aleatoria simple procedente de una población con una distribución aproximadamente normal; 2) la desviación estándar de la población es desconocida, y 3) el tamaño muestral es inferior a 30 en una o en las dos muestras. 2.• Se emplea la prueba de la t para comparar la media de una muestra y la media poblacional, dos muestras independientes o la misma muestra en dos momentos diferentes (con frecuencia, antes y después de un tratamiento). 3.• La distribución de la t es similar a la distribución normal en tres aspectos: 1) es simétrica en torno al 0; 2) tiene forma de campana, y 3) tiene un único pico. 4.• La distribución de la t difiere de la distribución normal en que: 1) la distribución de la t tiene unas colas mayores que las de la distribución normal (es decir, la distribución de la t tiene más probabilidad en las colas); 2) un mayor número de grados de libertad (df) significa colas más pequeñas (por tanto, cuanto mayores sean los grados de libertad, más próxima a la distribución normal), y 3) unos df más pequeños significan unas colas más grandes. 5.• En muestras mayores de 30, la distribución de la t es casi idéntica a la distribución normal (es decir, a la distribución de la z).
221
222
LA DISTRIBUCIÓN DE LA t DE STUDENT Y LA PRUEBA DE LA t DE STUDENT
31. ¿Cómo varía la amplitud de un intervalo de confianza y cómo afecta a su utilidad? La utilidad del intervalo viene determinada por su amplitud (es decir, la diferencia entre los valores extremos superior e inferior). Unos intervalos amplios no aportan información precisa sobre la localización de la verdadera media poblacional. Además, unos intervalos amplios pueden indicar que la recogida de más datos puede ayudar a describir algo firme sobre un parámetro dado. Unos intervalos reducidos proporcionan una mejor información sobre la localización de la media poblacional. 32. ¿De qué modo difiere la amplitud del intervalo de confianza con los cambios en el nivel de confianza? Si el tamaño de la muestra n permanece igual, la disminución del nivel de confianza de un intervalo disminuye la anchura del intervalo de confianza, y el aumento del nivel de confianza de un intervalo aumenta su precisión. Generalmente, se eligen niveles de confianza del 95%, pero se pueden considerar los intervalos de confianza del 90, 99 y 99,9%. 33. ¿Qué es la suma de cuadrados? La suma de cuadrados (SS) o la suma de cuadrados total (TSS) se define como la suma de los cuadrados de las desviaciones estándares. La SS y la TSS suelen asociarse con el análisis de la varianza (ANOVA), un método específico para analizar la variación entre múltiples grupos. 34. ¿Qué es el ANOVA? ¿Cuándo se utiliza? Es una prueba estadística de significación, diseñada para determinar si existe una diferencia significativa entre múltiples medias muestrales. El estadístico F relaciona el cociente de la varianza que se da entre las medias, con la varianza que se produce dentro de los propios grupos. Cuanto mayor sea el estadístico F, más significativo es el resultado. Se calcula la SS para calcular el estadístico F del ANOVA. 35. ¿Qué es la ji al cuadrado? ¿Cuándo se utiliza? La prueba de la ji al cuadrado es una prueba de significación estadística que no analiza de modo específico un parámetro poblacional (como la media). Se emplea la prueba de la ji al cuadrado en dos situaciones: ■ Bondad del ajuste: esta prueba de hipótesis trata del aspecto de si la distribución de un conjunto de datos dado en categorías «se ajusta» a una distribución de datos uniforme. ■ Independencia: esta prueba de hipótesis trata el aspecto de si se relacionan las categorías en una tabla de contingencia de dos por dos.
PÁGINA WEB http://www.csm.ornl.gov
BIBLIOGRAFÍA 1.• Altman DG: Practical Statistics for Medical Research. Boca Raton, FL, CRC Press, 1990. 2.• Bland M: An Introduction to Medical Statistics, 3rd ed. Oxford, Oxford University Press, 2000. 3.• Dawson BK: Basic and Clinical Biostatistics, 3rd ed. New York, McGraw-Hill/Appleton & Lange, 2000. 4.• Moore DS: The Basic Practice of Statistics, 2nd ed. New York, W.H. Freeman & Company, 2000. 5.• “Student” (W.S. Gosset): The probable error of a mean. Biometrika 6(1):1–25, 1908. 6.• Zar JH: Biostatistical Analysis, 4th ed. Princeton, NJ, Prentice Hall, 1999.
Moore H. Jan, MD, MPH
CAPÍTULO 17
ANÁLISIS BIVARIANTE 1. ¿Qué es un análisis bivariante? El análisis univariante implica la recogida y análisis de los datos en una variable. En el análisis bivariante, se extiende este proceso a dos variables. 2. ¿Por qué se realiza el análisis bivariante? El análisis bivariante se realiza cuando se cree que puede haber alguna asociación entre las dos variables. Clásicamente, se investiga una relación entre un factor de riesgo (una variable independiente) y un desenlace de salud (una variable dependiente). Este capítulo examina alguno de los métodos empleados en el análisis bivariante. 3. ¿Indica una relación causal una asociación observada? No. Encontrar una asociación es, sencillamente, el primer paso para apoyar una relación de causa a efecto entre dos variables. 4. ¿Qué métodos se emplean para determinar asociaciones entre variables? Se utilizan varios métodos estadísticos para identificar asociaciones. En gran medida, los métodos que pueden utilizarse dependen de las características de los datos. 5. ¿Cuál es la primera buena pregunta que podríamos plantearnos al elegir un método estadístico? Una primera buena cuestión es si los datos son cuantitativos o cualitativos. Los datos cuantitativos son numéricos, con cierto sentido de rango o de orden. Los datos cualitativos son categóricos, como el sexo (p. ej., hombre o mujer) o la raza. 6. ¿Se puede realizar una nueva agrupación de los datos cuantitativos? Sí. Los datos cuantitativos pueden someterse a una nueva agrupación en datos continuos o discretos. 7. ¿Hay restricciones en los valores que se pueden asignar a una variable continua? No hay restricciones sobre el valor que puede adoptar una variable continua. Una variable diseñada para medir la altura humana es un claro ejemplo de una variable cuantitativa continua. Se puede asignar también un valor a cualquier valor a lo largo del continuo de los pesos potenciales. 8. ¿Qué hay de discreto en los datos discretos? Los datos discretos pueden tomar sólo ciertos valores. Por ejemplo, una variable designada como el número de nevus en una persona puede asumir sólo valores de números enteros (p. ej., 0, 1, 2, 3...)
223
224
ANÁLISIS BIVARIANTE
9. ¿Importa el modo de presentación de los datos cuando se decide por los mejores métodos de análisis? Sí. En el análisis bivariante de los datos se deben considerar las propiedades de cada variable, porque cada una de ellas puede tener características diferentes. Por ejemplo, un conjunto de datos compuesto de determinaciones individuales de la presión sanguínea y edades en años representa el emparejamiento de datos continuos y discretos. La selección de la herramienta del mejor análisis depende de ambas variables. 10. ¿Qué son datos pareados? En los datos pareados se supone que el valor de una variable se asocia con el valor de la otra, por lo general porque representan datos de una entidad u objeto único (p. ej., un individuo). Que los datos sean o no pareados restringe también la elección de los métodos estadísticos bivariantes. 11. ¿Hay consideraciones con respecto a nuestro análisis cuando tratamos con datos continuos? Sí. En relación con los datos continuos tenemos que considerar la distribución de los datos y preguntarnos, ¿podemos suponer que existe una distribución normal? 12. ¿Qué son las pruebas paramétricas? Muchas pruebas adoptan normalidad (es decir, los datos siguen una distribución normal o binomial), y reciben la denominación de pruebas paramétricas. Entre las pruebas paramétricas figuran la prueba de correlación de Pearson y la regresión lineal. 13. ¿Qué sucede si no se puede hacer el supuesto de normalidad en el conjunto de datos? Reciben la denominación de pruebas no paramétricas las que no hacen suposición de normalidad. Entre los ejemplos de pruebas no paramétricas figuran la prueba de Wilcoxon, la prueba de la U de Mann-Whitney, la prueba de Kruskal-Wallis y la prueba de McNemar. Puede ser difícil decidir si se deben utilizar pruebas paramétricas o no paramétricas. En ocasiones, son de utilidad las pruebas de normalidad. 14. Enumere los métodos utilizados habitualmente para analizar datos continuos cuantitativos. ■ Diagramas de dispersión. ■ Correlación de Pearson. ■ Correlación de rangos de Spearman (no paramétrica). ■ Prueba de Wilcoxon (no paramétrica). ■ Prueba de la U de Mann-Whitney (no paramétrica). ■ Prueba de Kruskal-Wallis (no paramétrica). 15. ¿Qué es un diagrama de dispersión? Un diagrama de dispersión es, probablemente, la forma más sencilla de un análisis bivariante, pero este ejercicio elemental puede aportar mucha información significativa por el poder del medio visual. Puede aplicarse un diagrama de dispersión a los datos continuos o a los datos discretos, o a una combinación de ellos. 16. ¿Qué otros términos recibe un diagrama de dispersión? Sinónimos de diagrama de dispersión son nube de puntos, nube de dispersión y gráfica de distribución de conjunto.
ANÁLISIS BIVARIANTE
17. ¿Cómo se crea un diagrama de dispersión? Para crear un diagrama de dispersión, sencillamente, se representa una variable frente a otra en una gráfica con el eje de las x y el de las y, creando un conjunto de puntos. A continuación, puede examinarse esta «nube de puntos» en busca de cualquier relación visual. Puede ilustrarse el poder de este método por el diagrama (Fig. 17-1) del valor de las monedas en el bolsillo izquierdo de una muestra de hombres en una clase de bioestadística, representado frente al tamaño de los zapatos.
Cambio (monedas) en el bolsillo frente al tamaño del zapato en un grupo de varones
Valor del cambio en el bolsillo izquierdo
1,2 1 0,8 0,6 0,4 0,2 0 0
5
10
15
Tamaño del zapato Figura 17-1. Ejemplo de un diagrama de dispersión.
18. ¿De qué modo puede ser útil un diagrama de dispersión? Un diagrama de dispersión puede ser muy útil en el análisis inicial de datos cuantitativos bivariantes. Por ejemplo, un rápido vistazo a la Figura 17-1 sugiere que no hay relación entre la cantidad de cambio (monedas) en el bolsillo izquierdo de un varón y el tamaño de sus zapatos. 19. ¿Cuál es una debilidad importante del diagrama de dispersión? Un diagrama de dispersión no es cuantitativo y, con frecuencia, es útil tener un valor numérico que indique la magnitud de la relación o asociación entre las dos variables. 20. ¿Qué es el coeficiente de correlación de Pearson? Si queremos examinar la relación o asociación entre dos variables continuas de modo cuantitativo, podemos calcular el coeficiente de correlación de Pearson, también conocido como la correlación producto-momento o coeficiente de correlación poblacional. 21. ¿Cómo podemos decir cuál es la variable independiente (es decir, la predictora) y cuál es la variable dependiente (es decir, el desenlace) a partir de un coeficiente de correlación? No podemos. Es importante observar que aquí no se hace supuesto alguno sobre la interdependiencia de las variables: ninguna de ellas está en función de la otra. En efecto, se considera que cada una depende de la otra. Nuestro interés aquí no es tanto la predicción del valor de las variables como la determinación de la asociación entre las dos variables.
225
226
ANÁLISIS BIVARIANTE
22. ¿Cómo se calcula el coeficiente de correlación de Pearson? Puede calcularse el coeficiente de correlación de Pearson utilizando uno de los muchos programas de estadística por ordenador. Una fórmula para su cálculo es como sigue:
•(xiyi) – r=
(
•xi2 –
(•xi)2 n
(•xi)(•yi) n
)(
•yi2 –
)
(•yi)2 n
donde r es el coeficiente de correlación de Pearson, y xi e yi son los valores pareados de las variables asociadas. 23. ¿Cuál es el recorrido de los valores que puede tener r? El coeficiente de correlación r toma un valor que va desde –1 a +1. Un valor de r = 1 sugiere una correlación positiva perfecta en la que puede describirse la asociación entre x e y por una línea recta con una pendiente positiva. Un valor de r = –1 indica una correlación negativa perfecta.
PUNTOS CLAVE: COEFICIENTE DE CORRELACIÓN DE PEARSON 1.• Ambas variables son continuas. 2.• Ambas variables se hallan distribuidas normalmente. 3.• Los datos son pareados.
24. ¿Cuál es la finalidad del coeficiente de correlación de Pearson? El coeficiente de correlación de Pearson expresa, en términos cuantitativos, la asociación sugerida por un diagrama de dispersión de las dos variables. Un valor de r = 0 implica una ausencia total de asociación, mientras que los valores r = 1 y r = –1 implican asociaciones positivas y negativas perfectas, respectivamente. Aunque la correlación es muy valiosa en el análisis inicial, es importante observar que la correlación no indica una relación de causa a efecto, y que la correlación cero no excluye una relación entre las dos variables. La Figura 17-2 ofrece varios ejemplos de diagramas de dispersión que dan diferentes valores de r. 25. Considere el siguiente ejemplo hipotético, con datos pareados de altura y peso. La Tabla 17-1 resume los datos de altura y peso de los miembros de una clase hipotética de bioestadística. La Figura 17-3 muestra el diagrama de dispersión correspondiente. Queda implícita una correlación positiva. Para estos datos, 224.866 –
r de Pearson =
(1.258) – (3.188) 18
(1.258)2 88.280 – 18
= 0,833
(3.188)2 581.622 – 18
Este valor indica una correlación positiva elevada (es decir, cercana a 1). ¿Implica una relación de causa a efecto? No. La correlación de Pearson no hace hipótesis sobre causa y efecto ni sobre dependencia.
ANÁLISIS BIVARIANTE
Sin correlación (r = 0)
Correlación negativa perfecta (r = –1,0)
Fuerte correlación negativa (r = +0,7)
Débil correlación positiva (r = +0,3)
Figura 17-2. Cuatro diagramas de dispersión. (De Brochert A: Platinum Vignettes: Behavioral Science and Biostatistics. Philadelphia, Hanley & Belfus, 2003.)
26. Recoge usted las puntuaciones de los exámenes finales y las tasas de asistencia a clase (en porcentajes) en relación con un grupo de estudiantes universitarios matriculados en un curso de inglés. La correlación de las dos variables es 0,23. ¿Cuál es su interpretación? Es una relación positiva baja, lo que sugiere una baja relación. Sin embargo, esta conclusión no es necesariamente cierta. Debe examinarse el diagrama de dispersión para valorar formas más sutiles de relación. 27. ¿Qué es la regresión lineal? Un método más sofisticado para el análisis de dos variables continuas cuantitativas es la regresión lineal simple («simple» indica aquí que sólo hay dos variables). Hay ciertas similitudes entre este método y la correlación, pero en la regresión lineal una variable se considera dependiente de la otra. 28. ¿Puede utilizarse la regresión lineal como herramienta de predicción? En cierto sentido, estamos valorando si puede utilizarse el valor de una variable independiente para predecir el valor de la variable dependiente. Un ejemplo de una aplicación podría ser si se puede utilizar el peso (la variable independiente) para predecir la presión sanguínea (la variable dependiente). En una regresión lineal simple, se determina el «mejor ajuste» de los datos en el que la variable dependiente se representa en el eje de las y frente a la variable independiente en el eje de las x. La Figura 17-4 muestra una línea del «mejor ajuste» trazada en relación con un conjunto de datos ficticios razonablemente bien correlacionados. 29. ¿Cuál es la función de la línea en la regresión lineal simple determinada? Sabemos por el álgebra que una línea recta puede ser descrita como y = mx + b, donde m es la pendiente y b es la intersección en el eje y. Puede determinarse el «mejor ajuste» de m y b por un planteamiento matemático denominado método de los mínimos cuadrados. Este método proporciona los siguientes valores para m y b:
227
ANÁLISIS BIVARIANTE
TABLA 17-1.•DATOS DE LA ALTURA Y DEL PESO DE LOS MIEMBROS DE UNA CLASE HIPOTÉTICA DE BIOESTADÍSTICA Individuo 1
Altura (pulgadas), x
x2
y2
xy
4.356
23.104
10.032
5.184
31.329
12.744
4.761
32.400
12.420
6.084
50.176
17.472
4.624
42.025
13,940
5.776
36.481
14.516
4.489
30.276
11.658
5.476
33.124
13.468
3.844
14.400
7.440
3.600
11.881
6.540
4.761
29.584
11.868
4.489
18.225
9.045
5.329
39.204
14.454
4.761
41.616
14.076
4.900
26.244
11.340
5.329
44.521
15.403
5.041
34.596
13.206
5.476
42.436
15.244
88.280
581.622
224.866
Peso (libras), y
2
66
152
3
72
177
4
69
180
5
78
224
6
68
205
7
76
191
8
67
174
9
74
182
10
62
120
11
60
109
12
69
172
13
67
135
14
73
198
15
69
204
16
70
162
17
73
211
18
71
186
•
74
206
1.258
3.188
250 Peso (libras)
228
200 150 100 50 50
60
70
Altura (pulgadas) Figura 17-3. Diagrama de dispersión del peso frente a la altura en una hipotética clase de bioestadística.
80
ANÁLISIS BIVARIANTE
0,5 0,4 Y
0,3 0,2 0,1 0 0
0,1
0,2
0,3
0,4
X Figura 17-4. Línea recta con «mejor ajuste» para datos bivariados, determinada por regresión lineal simple.
m=
•(xi – x–) (yi – y–) •(xi–x–)2
=
n •xi yi – (•xi)( •yi) n •xi2 – (•xi)2
b = –y – m–x donde –x es la media de la variable independiente, e –y es la media de la variable dependiente. La mayoría de análisis de regresión se llevan a cabo utilizando un programa de ordenador.
PUNTOS CLAVE: REGRESIÓN LINEAL SIMPLE 1.• Los datos son continuos y pareados. 2.• Para cada x, los valores de y asociados siguen una distribución normal.
30. ¿Qué es el coeficiente de determinación? Un parámetro de interés significativo en la regresión lineal recibe la denominación de coeficiente de determinación o r2. Es una medida de lo bien que una ecuación de regresión describe la relación entre las dos variables. De modo más específico, representa la proporción de la variabilidad en la variable independiente y (medida por la diferencia con respecto a la media) que es explicada por la línea de regresión. El valor de r2 varía entre 0 y 1, donde 1 indica que todos los puntos caen directamente sobre la línea de regresión. Por ello, cuanto mayor sea r2, mejor será el ajuste de la línea de regresión a los puntos de los datos. La fórmula de r2 es la siguiente:
r2 =
(
m2 •xi2 –
•yi 2 –
(•xi)2 n
)
(•yi)2 n
31. ¿Pueden utilizarse pruebas estadísticas para evaluar el ajuste de la línea de regresión? También se pueden utilizar pruebas estadísticas para evaluar el ajuste de la línea de regresión a los puntos de los datos. Suele tomar la forma de prueba de hipótesis; en otras palabras, probar la hipótesis de que la pendiente de la línea es cero. Si se puede rechazar la hipótesis nula de
229
230
ANÁLISIS BIVARIANTE
que la pendiente es cero, una línea representa un ajuste bueno o razonable a los puntos de los datos. 32. ¿Qué es la prueba de la F? Uno de los métodos de prueba más habitual para valorar la línea de regresión es la prueba de la F. El estadístico de prueba es el cociente de varianzas obtenido a partir de la metodología ANOVA (análisis de la varianza). La mayor parte del análisis de regresión, en la actualidad, se lleva a cabo por ordenador, y el programa estadístico del ordenador suele mostrar una tabla del ANOVA cuando se aplica la regresión lineal. Esta tabla muestra el valor de p asociado para el cociente de varianza calculado. Si el valor de p es inferior al nivel de significación estadística elegido (generalmente designado como nivel α y con frecuencia fijado en α = 0,05), entonces puede rechazarse la hipótesis nula. También puede aplicarse la prueba de la t para probar la hipótesis nula, pero esta estrategia no se comenta aquí. 33. Ponga un problema ejemplo en el que se utilice el coeficiente de determinación. Apliquemos la regresión simple a los siguientes datos cuantitativos, continuos, pareados e hipotéticos (Tabla 17-2), que constan de las presiones sanguíneas sistólicas promedio, medidas en el mismo momento, diariamente, durante 5 días, y el índice de masa corporal (BMI) a partir de una muestra aleatoria de varones de edades comprendidas entre 35 y 45 años que no reciben tratamiento por hipertensión. De los datos de la Tabla 17-2,
m=
(23)[(88.274) – (635)(3146)] (23)(18.303) – (635)2
= 1,837
b = 136,783 – (1,837)(27,609) = 86,071
(
(1,837)2 18.303 –
r2 =
434.852 –
(635)2 23
(3.146)2
) = 0,574
23
Así, la pendiente y la intersección de la línea de regresión lineal vienen dados por 1,837 y 86,071, respectivamente. El coeficiente de determinación, 0,574, no está próximo a 1, lo que sugiere que la línea de regresión no da cuenta de gran parte de la variación en la variable independiente y. La tabla del ANOVA para los datos viene dada abajo, donde: df, grados de libertad; SS, suma de cuadrados; MS, cuadrado de la media, y VR, cociente de varianzas.
Regresión Residual Total
df
SS
MS
VR
Valor de p
1 21 22
2.602,811 1.931,102 4.533,913
2.602,811 91,957
28,305
0,0000283
No se tratará aquí sobre los detalles del procedimiento analítico del ANOVA. El valor de p arriba indicado sería estadísticamente significativo a un nivel α = 0,05 (o 0,01, para tal caso); así, puede rechazarse la hipótesis nula de que la pendiente m es cero a estos niveles de significación. En la Figura 17-5 se muestran los puntos de los datos y la línea de regresión. Es intere-
ANÁLISIS BIVARIANTE
TABLA 17-2. PRESIÓN SANGUÍNEA SISTÓLICA Y DATOS DEL BMI. DATOS HIPOTÉTICOS. BMI (x)
x2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 • Promedio
19 22 28 29 34 32 32 38 22 21 18 35 26 28 30 20 24 22 33 32 25 28 37 635 27,609
361 484 784 841 1.156 1.024 1.024 1.444 484 441 324 1.225 676 784 900 400 576 484 1.089 1.024 625 784 1.369 18.303
BP sistólica, mmHg
Individuo
BP sistólica mmHg(y) 118 122 128 134 144 126 162 154 146 128 120 148 142 138 146 116 124 112 154 158 140 138 148 3.146 136,783
y2
xy
13.924 14.884 16.384 17.956 20.736 15.876 26.244 23.716 21.316 16.384 14.400 21.904 20.164 19.044 21.316 13.456 15.376 12.544 23.716 24.964 19.600 19.044 21.904 434.852
2.242 2.684
170 150 130 110 90 70 50 15
20
25
30
35
40
Índice de masa corporal Figura 17-5. Línea de regresión lineal simple para datos hipotéticos de presión sanguínea sistólica y BMI.
3.584 3.886 4.896 4.032 5.184 5.852 3.212 2.688 2.160 5.180 3.692 3.864 4.380 2.320 2.976 2.464 5.082 5.056 3.500 3.864 5.476 88.274
231
232
ANÁLISIS BIVARIANTE
sante observar que el valor de p es muy bajo y, sin embargo, el coeficiente de determinación no fue muy alto (0,574), como se recordará. Esto no significa necesariamente que sea una contraindicación. El rechazo de la hipótesis nula sólo significa que si vamos a ajustar una línea recta a los datos, la pendiente de la línea no será cero (no significa necesariamente que la línea recta es el mejor ajuste a los datos). El valor de r2 relativamente bajo sugiere otra cosa. 34. ¿Cuál es el supuesto en relación con los valores de y (es decir, una variable dependiente) para cualquier valor dado de x (es decir, una variable independiente) en los modelos de regresión lineal? Un supuesto importante de la regresión lineal simple es que para cada valor de x hay una subpoblación de valores de y que se hallan distribuidos normalmente.
PUNTOS CLAVE: CORRELACIÓN DE RANGOS DE SPEARMAN 1.• No se hacen supuestos de normalidad en relación con las variables. 2.• Las variables son continuas o discretas. 3.• Los datos son pareados.
35. ¿En qué se diferencian las pruebas no paramétricas de las pruebas paramétricas comentadas (es decir, el coeficiente de correlación de Pearson y la regresión lineal)? Los métodos no paramétricos requieren menos supuestos, especialmente con respecto a la normalidad (es decir, datos que siguen una distribución normal). Además, los métodos no paramétricos tienden a ser simples, y se pueden obtener los resultados con una relativa rapidez. 36. ¿En qué situaciones se utilizan clásicamente las pruebas no paramétricas? Situaciones clásicas en las que se emplean los métodos no paramétricos incluyen datos claramente anormales y el análisis de una muestra pequeña.
PUNTOS CLAVE: PRUEBA DEL RANGO CON SIGNO DE WILCOXON 1.• No se hacen supuestos de normalidad sobre los datos (es decir, no paramétrica). 2.• Los datos son pareados, continuos o discretos. 3.• Deseamos conocer si la diferencia dentro de cada par es significativa.
37. ¿Qué es la correlación de rangos de Spearman? La correlación de rangos de Spearman es un análogo no paramétrico al coeficiente de correlación de Pearson. Al igual que el coeficiente de correlación de Pearson, el método intenta determinar si existe una asociación entre dos variables mutuamente dependientes, sin suponer que una variable dependa de la otra. Las variables pueden ser continuas o discretas, y son pareadas.
ANÁLISIS BIVARIANTE
38. ¿Cuáles son los principios en la correlación de rangos de Spearman? Es una forma de probar una hipótesis en la que según la hipótesis nula (HA) no hay relación entre las dos variables, y la hipótesis alternativa es que sí hay una relación. Se calcula un coeficiente de correlación de rangos, rx, y se emplea para obtener un estadístico de prueba; a continuación, se compara éste con una tabla de valores críticos, para determinar el nivel de significación estadística.
PUNTOS CLAVE: PRUEBA DE LA U DE MANN-WHITNEY 1.• No se supone que los datos sigan una distribución normal. 2.• Los datos no son pareados, pero representan mediciones realizadas en dos grupos que difieren en algún modo (p. ej., expuestos frente a no expuestos). 3.• Deseamos conocer si la diferencia en las mediciones entre los dos grupos es estadísticamente significativa al comparar las medianas.
39. ¿Cómo se calcula el coeficiente de correlación de Spearman? En primer lugar, hay que clasificar por magnitud los valores dentro de cada variable, de 1 a n. Se calcula la diferencia (di) en relación con cada par de observaciones (xi , yi) al restar el rango de yj del rango de xi. A continuación, se calcula el coeficiente de correlación de rangos de Spearman de acuerdo con la siguiente fórmula:
rs = 1 –
6•di2
n(n2 – 1)
Para n • 30, se convierte en el estadístico de prueba. Para n > 30, hay que utilizar
z = rs
n–1
40. Ponga un ejemplo de cómo se calcula el coeficiente de correlación de rangos de Spearman. Podemos aplicar la prueba de Spearman a los datos de la altura y del peso utilizados en un ejemplo previo (véase la pregunta 25). La hipótesis nula es que la altura y el peso son mutuamente independientes. Nuestra hipótesis alternativa es que el peso aumenta con la altura (es decir, una correlación directa). En la Tabla 17-3, cada uno de los valores figura clasificado de menor a mayor dentro de su grupo respectivo, comenzado con 1. di representa la diferencia entre los rangos de xi e yi (específicamente, xi – yi). En este ejemplo, también se ilustra el método para tratar con empates: se asigna un rango calculado, que representa el promedio de los rangos con empates. Si el número de empates no es grande, puede utilizarse la fórmula usual (en la pregunta 39), como en este caso. Dado que n • 30 en relación con los datos de arriba, el estadístico viene dado por la fórmula
rs = 1 –
6(240,5) = 0,752 18(182 – 1)
Para α = 0,05, la tabla de los valores críticos del estadístico de prueba de Spearman da 0,3994 para n = 18. Dada la hipótesis alternativa de arriba, estamos interesados en una prueba de un lado, en la que rechazaremos la hipótesis nula si rs > 0,3994. Al ser verdad, rechazamos la hipótesis nula y aceptamos la hipótesis alternativa con un valor de p < 0,05.
233
234
ANÁLISIS BIVARIANTE
TABLA 17-3. EJEMPLO DEL COEFICIENTE DE CORRELACIÓN DE SPEARMAN Individuo
Altura (pulgadas, x)
Orden x
Peso (libras) y
Orden y
d
d2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 •
66 72 69 78 68 76 67 74 62 60 69 67 73 69 70 73 71 74
3 12 8 18 6 17 4,5 15,5 2 1 8 4,5 13,5 8 10 13,5 11 15,5
152 177 180 224 205 191 174 182 120 109 172 135 198 204 162 211 186 206
4 8 9 18 15 12 7 10 2 1 6 3 13 14 5 17 11 16
–1 4 –1 0 –9 5 –2,5 5,5 0 0 2 1,5 0,5 –6 5 –3,5 0 –0,5
2 16 1 0 81 25 6,25 30,25 0 0 4 2,25 0,25 36 25 12,25 0 0,25 240,5
41. ¿Qué es el valor de la tau de Kendall? Un método similar a la correlación de rangos de Spearman es la tau de Kendall. Al igual que la correlación de rangos de Spearman, se aplica a datos pareados, y se supone que los datos son continuos o discretos. No hay suposiciones de normalidad. En la mayoría de los casos, los resultados de la correlación de rangos de Spearman y la tau de Kendall son comparables, pero esta última prueba es más difícil de calcular. 42. Explique la prueba de Wilcoxon. Otra prueba no paramétrica para los datos cuantitativos no pareados es la prueba de rangos con signo de Wilcoxon. En esta prueba, se intenta valorar si la diferencia entre los valores de cada par es significativa o no lo es (es decir, la hipótesis alternativa es que la diferencia no es cero). Esta prueba es diferente tanto de la correlación de rangos de Spearman como del valor de la tau de Kendall; ambas implican correlación. Sin embargo, al igual que la prueba de Spearman, se determina la diferencia entre cada par de datos y a continuación se clasifica. Se asigna un signo positivo o negativo a la clasificación, dependiendo del signo de la diferencia original. Se suman de modo separado los rangos positivos y los negativos, y se emplean para determinar el nivel de significación estadística utilizando una tabla especial. 43. ¿Hay modos para analizar datos de dos grupos diferentes (en vez de datos pareados)? Sí. Hasta ahora nos hemos centrado en métodos no paramétricos de análisis de datos pareados. Consideremos ahora la prueba de la U de Mann-Whitney, una prueba no paramétrica que
ANÁLISIS BIVARIANTE
se emplea para determinar si dos conjuntos de datos continuos o discretos son significativamente «diferentes». Un ejemplo de una aplicación de la prueba de la U de Mann-Whitney es la determinación de una característica (p. ej., el peso) en grupos de expuestos y de no expuestos. Como se ha observado arriba, la variable que se mide o recoge es cuantitativa y continua o discreta. Se supone que los dos conjuntos de datos son independientes y extraídos de modo aleatorio. Los estadísticos de interés en esta prueba son las medianas de ambos conjuntos de datos, y la prueba determina si la diferencia entre las medianas a un nivel dado es estadísticamente significativa o no lo es. 44. ¿Hay alguna prueba no paramétrica para comparar las medianas de más de dos muestras? Sí. La prueba de Kruskall-Wallis es otra prueba no paramétrica que puede emplearse para determinar si las medianas de dos muestras son diferentes. A diferencia de la prueba de la U de Mann-Whitney, no se limita sólo a dos muestras. Sin embargo, al igual que con la prueba de la U de Mann-Whitney, se supone que las muestras son aleatorias e independientes. 45. ¿Es posible analizar dos grupos de datos categóricos? Sí. Con frecuencia se efectúa el análisis estadístico de datos que implican dos variables categóricas. Un ejemplo es la ausencia o la presencia de tos en casos de faringitis por estreptococos betahemolíticos del grupo A frente a la faringitis por estreptococos betahemolíticos no pertenecientes al grupo A. Este tipo de datos lleva de modo natural a la representación en tablas (denominadas tablas de contingencia) en las que se representan las categorías en filas y columnas. Así, el ejemplo arriba indicado vendría representado en la siguiente tabla de contingencia de 2 ⫻ 2 del siguiente modo:
Faringitis estreptocócica del grupo A Faringitis estreptocócica de un grupo distinto al A
Con tos
Sin tos
A C
B D
46. Explique la tabla de contingencia arriba representada. A-D representa el recuento de casos, con el par de características determinadas por la intersección de las filas y de las columnas. Por ejemplo, los sujetos A tenían tos y faringitis estreptocócica A, mientras que los sujetos C tenían tos y faringitis estreptocócica no A. El total de sujetos con tos es A + C, y el número total de sujetos del estudio es A + B + C + D. 47. ¿Qué es el estadístico ji al cuadrado? El estadístico de la ji al cuadrado es una prueba no paramétrica de recuento bivariante o datos de frecuencias. Este método de modelado examina la disparidad entre las frecuencias de recuentos reales y las frecuencias de recuentos esperados, cuando es cierta la hipótesis nula de que no hay diferencia entre los grupos. Podemos aplicar la prueba de la ji al cuadrado para determinar si existe una asociación entre la faringitis estreptocócica del grupo A y la tos. 48. ¿Cómo se calcula el estadístico ji al cuadrado? En este método se calcula el estadístico de la prueba de la ji al cuadrado por la siguiente fórmula: r c
(Oij – Eij)2
i=1 j =1
Eij
χ2 = • •
235
236
ANÁLISIS BIVARIANTE
donde Eij = (Oi x Oj)/n; r = número de filas; c = número de columnas; Oij = número observado en la intersección de la fila i y de la columna j; Eij = número esperado en la intersección de la fila i y de la columna j; Oi = suma de los términos para la fila i (en la tabla de arriba, O1 = suma de las filas de entradas = A + B); Oj = suma de las entradas de la columna j (en la tabla de arriba, O2 = suma de entradas en la segunda columna = B + D), y n = número total de casos (arriba, n = A + B + C + D). 49. ¿Cómo se utiliza el estadístico ji al cuadrado calculado? Una vez calculado el estadístico ji al cuadrado, puede determinarse la probabilidad de que los recuentos de frecuencias en la tabla se deban al azar (es decir, que la hipótesis nula sea cierta) en relación con el número de grados de libertad, a partir de una tabla estandarizada de la ji al cuadrado. Para cualquier número dado de grados de libertad, cuanto mayor sea el estadístico de la ji al cuadrado, más improbable es que las disparidades en las frecuencias se deban al azar.
PUNTOS CLAVE: PRUEBA DE LA JI AL CUADRADO 1.• Las variables son categóricas. 2.• Los datos representan recuentos, y pueden representarse en una tabla de r filas y c columnas, una tabla de contingencia de r ⫻ c. 3.• Se deben satisfacer los criterios de Cochran para aplicar la prueba de la ji al cuadrado básica.
50. ¿Cuáles son los criterios de Cochran? Los criterios de Cochran deben cumplirse en el caso de que se quiera aplicar el estadístico de la ji al cuadrado, tal como se ha observado arriba. Estos criterios son: ■ Todos los valores esperados en cada celda tienen una frecuencia • 1. ■ El 80% de los valores esperados en cada celda debe ser • 5. El número de términos o celdas para su suma vendrá dado, en general, por r ⫻ c. Por consiguiente, en la tabla de arriba, habría 2 ⫻ 2, o 4 términos para la suma del estadístico de la ji al cuadrado. 51. ¿Cuál es el número máximo de filas o de columnas para que se pueda calcular el estadístico de la ji al cuadrado? Teóricamente, no hay un límite en el número de filas o de columnas (una variable podría tener fácilmente más de dos categorías), y el cálculo podría llegar a ser tedioso. Es muy recomendable emplear un programa estadístico de ordenador. 52. ¿Existe alguna fórmula simplificada para el cálculo del estadístico de la ji al cuadrado en la tabla de contingencia de 2 ⫻ 2? Afortunadamente, sí existe. En relación con la tabla de 2 ⫻ 2 de arriba, la fórmula se simplifica en la siguiente: χ2 =
n(ad – bc)2 (a + c)(b + d)(a + b)(c + d)
53. ¿Cómo se pueden determinar los grados de libertad en una tabla de contingencia? Para aplicar la prueba de la ji al cuadrado hay que determinar los grados de libertad, dados por la fórmula df = (r – 1)(c – 1). En una tabla de 2 ⫻ 2, df = 1; en una tabla de 3 ⫻ 3 hay (3 – 1)(3 – 1)
ANÁLISIS BIVARIANTE
= 4 grados de libertad. Después de elegir el nivel de significación (α), se debe consultar la distribución de la ji al cuadrado para determinar si se puede rechazar la hipótesis nula de que no existe asociación. 54. Ponga un problema ejemplo que utilice el estadístico de la ji al cuadrado en una tabla de 2 ⫻ 2. Hipótesis: los suplementos de vitamina C reducen la susceptibilidad de una persona al resfriado común. Consideremos 90 sujetos seleccionados aleatoriamente y agrupados atendiendo al hecho de si toman o no suplementos de vitamina C. A continuación, figura una tabla de 2 ⫻ 2 para esta muestra: Con resfriado común Toman suplementos de vitamina C No toman suplementos de vitamina C
Sin resfriado común
12 28
23 27
Se calcula el estadístico ji al cuadrado utilizando la ecuación de la pregunta 52: χ2 = χ2 =
2 n (ad – bc)2 = 90 [(12)(27) – (23)(28)] (a + c)(b + d)(a + b)(c + d) (40)(50)(35)(55)
9.216.000 3.850.000
χ2 = 2,39 Ji al cuadrado igual a 2,39, con (2 – 1)(2 – 1) = 1 grado de libertad. Ahora, consultando en el Apéndice C las distribuciones de la ji al cuadrado y suponiendo que p = 0,05 (es decir, un nivel de confianza del 95% de que la diferencia no se debe al azar), encontramos que la ji al cuadrado ha de ser, por lo menos, 3,841 para demostrar una diferencia significativa. Por consiguiente, tenemos que aceptar la hipótesis nula de que la vitamina C no tiene efecto sobre la susceptibilidad al resfriado común. 55. ¿Qué es la corrección de Yates? La corrección de Yates es una corrección para la continuidad de las tablas de 2 ⫻ 2. Algunos expertos creen que es necesaria esta corrección especialmente cuando los recuentos de frecuencias son bajos, porque el estadístico de la ji al cuadrado es un valor discreto (ya que se calcula a partir de datos enteros) cuya distribución sigue, aproximadamente, una distribución continua (es decir, la distribución de la ji al cuadrado). Matemáticamente, la corrección de Yates se lleva a cabo de modo sencillo restando 0,5 del valor absoluto de la diferencia entre los valores observados (O) y esperados (E), antes de elevar al cuadrado el denominador. χ2 de Yates = •
(|O – E| – 0,5)2 E
56. ¿Se debe utilizar siempre la corrección de Yates para la continuidad cuando se efectúen pruebas de la ji al cuadrado? Depende de nosotros. No está universalmente aceptado que esta corrección sea necesaria. En efecto, para grandes recuentos en las tablas de contingencias, probablemente no sea necesaria, aunque se sugiere clásicamente cuando se analizan muestras de pequeño tamaño.
237
238
ANÁLISIS BIVARIANTE
57. ¿Qué sucede si no se satisfacen los criterios de Cochran? Si no se satisfacen los criterios de Cochran para el empleo de la técnica de la ji al cuadrado (p. ej., si los recuentos en algunas celdillas son muy bajos), se puede aplicar la prueba exacta de Fisher para tablas de 2 ⫻ 2. 58. ¿Qué sucede cuando analizamos datos categóricos que, en realidad, son pareados? Como se acaba de indicar, la prueba de la ji al cuadrado no supone datos pareados. En el caso de datos categóricos pareados puede aplicarse la prueba de McNemar. En este caso, se valora una característica o calidad particular en el mismo individuo bajo condiciones diferentes, o en individuos que han sido emparejados por factores de confusión potenciales. 59. ¿Puede poner un ejemplo del empleo apropiado de la prueba de McNemar? Un ejemplo es un estudio sobre la ocurrencia de cefaleas en individuos emparejados después de la ingestión de la misma medicación. Otro ejemplo podría ser la ocurrencia de infecciones óticas (otitis media) en individuos en las edades de 5 y 15 años. Infecciones óticas a los 15 años de edad A C
Infecciones óticas a los 5 años de edad Sin infecciones óticas a los 5 años de edad
Sin infecciones óticas a los 15 años de edad B D
Con el empleo de la prueba de McNemar, se valoraría si hay una diferencia estadísticamente significativa en la ocurrencia de infecciones óticas en las dos edades en la muestra. Si la muestra es grande, el estadístico de la prueba de McNemar podría calcularse del siguiente modo. χ2 =
(b – c)2 b+c
Después de seleccionar el nivel de significación estadístico (por lo general, α = 0,05), se emplearía la distribución de la ji al cuadrado para determinar si se puede rechazar la hipótesis nula de que no hay diferencia. 60. ¿Puede utilizarse la prueba de McNemar si hay más de un desenlace posible? Aunque en nuestros ejemplos había variables con dos desenlaces, se ha extendido la prueba de McNemar a variables con más de dos desenlaces. 61. Describa la regresión logística. La regresión logística es un método estadístico análogo a la regresión lineal para el análisis de los datos categóricos. En la regresión logística, la variable dependiente es categórica (en el caso más sencillo, dicotómica, o con dos desenlaces, como la ausencia o la presencia de enfermedad). Las variables independientes pueden ser categóricas o bien continuas o discretas. Al igual que la regresión lineal, la regresión logística es una herramienta poderosa que se ha utilizado ampliamente en investigación médica. Se pueden valorar las variables independientes por su contribución al desenlace de la variable dependiente (p. ej., la presencia de enfermedad).
ANÁLISIS BIVARIANTE
62. ¿Puede efectuarse la regresión logística cuando más de una variable independiente puede, potencialmente, afectar al desenlace? Sí. En el caso más simple, la regresión logística implica el modelado de una variable dependiente dicotómica en una única variable independiente que es categórica o cuantitativa. En la mayoría de las aplicaciones se valoran múltiples variables independientes en el modelo de regresión. 63. ¿Pueden utilizarse los modelos de regresión logística para cuantificar el riesgo? Otra característica importante y muy útil de la regresión logística es la capacidad para calcular oportunidades relativas de un desenlace de la variable dependiente (p. ej. cáncer de pulmón) dados unos valores específicos de una de las variables independientes (p. ej., fumar o no fumar) mientras se controlan valores de las otras variables independientes (p. ej., ingesta de alcohol, historia familiar y empleo de antioxidantes).
PÁGINAS WEB 1.• http://www.mste.uiuc.edu/hill/dstat/dstat.html 2.• http://www.davidmlane.com/hyperstat/index.html 3.• http://www.emedicine.com/emerg/topic758.htm
BIBLIOGRAFÍA 1.• Brochert A: Platinum Vignettes: Behavioral Science and Biostatistics. Philadelphia, Hanley & Belfus, 2003. 2.• Daly LE, Bourke GJ: Interpretation and Uses of Medical Statistics, 5th ed. Oxford, Blackwell Science Ltd., 2000. 3.• Kirkwood BR: Essentials of Medical Statistics. Oxford, Blackwell Science Ltd., 1988. 4.• Norman GR, Streiner DL: Biostatistics: The Bare Essentials, 2nd ed. Toronto, B.C. Decker, 2000.
239
Robbie Ali, MD, MPH, MPPM
CAPÍTULO 18
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE 1. ¿Qué es un análisis multivariable? Según Katz, «el análisis multivariable es una herramienta para determinar las contribuciones relativas de las diferentes causas a un suceso o desenlace único». Katz MH: Multivariable Analysis: A Practical Guide for Clinicians. Cambridge, Cambridge University Press, 1999.
2. ¿Cuál es la diferencia entre un análisis multivariable y un análisis multivariante? Se emplea el análisis multivariable para datos con una variable del desenlace dependiente pero más de una variable independiente. Se emplea el análisis multivariante para datos con más de una variable del desenlace dependiente así como más de una variable independiente. 3. Enumere los empleos habituales del análisis multivariable. ■ Cuantificar asociaciones: indica hasta qué punto varias variables independientes, por separado y en conjunto, explican o predicen la variación en una variable dependiente (p. ej., bondad del ajuste de un modelo). ■ Examinar la interacción entre variables independientes: se produce interacción cuando dos o más variables independientes, cuando se dan juntas, producen un efecto diferente a la simple adición de sus efectos individuales. ■ Ajustar las variables de confusión potenciales en un estudio controlado; una variable de confusión es un factor (p. ej., ingesta de alcohol) que lleva a una correlación observada entre dos variables (p. ej., fumar y cirrosis) que no se origina de una relación causal entre ellas sino más bien por su relación común con la variable de confusión. ■ Desarrollar modelos que predigan valores o probabilidades de ciertos desenlaces: por ejemplo, el análisis multivariable podría permitir la predicción de si se podría recuperar un paciente con cáncer que tiene un conjunto de características y que recibe un cierto tratamiento.
PUNTOS CLAVE: EMPLEOS DEL ANÁLISIS MULTIVARIABLE 1.• Cuantificar asociaciones. 2.• Examinar la interacción entre variables independientes. 3.• Ajustar las variables de confusión potenciales en un estudio controlado. 4.• Desarrollar modelos para predecir valores o probabilidades de ciertos desenlaces.
241
242
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
4. ¿Cómo se decide qué tipo de análisis multivariable se debe emplear? Observe los datos. La Figura 18-1 resume las siguientes directrices:
Variable dependiente (VD)
Continua
Categórica Dicotómica (2 desenlaces) Factor tiempo (p. ej., curva de supervivencia): RIESGOS PROPORCIONALES DE COX
Sin factor tiempo: REGRESIÓN LOGÍSTICA
Nominal (> 2 desenlaces): ANÁLISIS LOGLINEAL (se pueden agrupar las variables independientes [VI] continuas en categorías nominales)
Datos VI categóricos: ANOVA
Datos VI categóricos y continuos: ANCOVA
Datos VI continuos: REGRESIÓN MÚLTIPLE
Figure 18-1. Cómo elegir el tipo apropiado de análisis multivariable. (Adaptado de Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine. Philadelphia,•W.B. Saunders, 2001, pp 209-217.)
■
■
■
■
■
Si la variable dependiente consta de datos categóricos dicotómicos (dos desenlaces, p. ej., sí o no, con enfermedad o sin enfermedad, vivo o muerto), puede emplearse la regresión logística. Si la variable dependiente incluye también un factor de tiempo (p. ej., curva de supervivencia), se puede emplear el modelo de riesgos proporcionales de Cox. Si la variable dependiente consta de datos categóricos nominales (es decir, más de dos desenlaces), puede emplearse el análisis logarítmico lineal. Si alguna o todas las variables independientes son continuas, pueden agruparse en categorías nominales para hacerlo. Si tanto las variables dependientes como las independientes constan de datos continuos, se emplea la regresión múltiple. En el caso de una variable dependiente continua, con variables independientes categóricas, se emplea el análisis de la varianza (ANOVA), y si hay variables independientes categóricas y continuas, se emplea el análisis de la covarianza (ANCOVA).
5. ¿Qué nombre se da a una línea que describe la relación entre una variable dependiente continua y una variable independiente, que permite la predicción de la variable dependiente a partir de la independiente? Línea de regresión. 6. Exponga una ecuación simple para una línea de regresión, y explique sus elementos. Y = a + bX + E donde Y es la variable dependiente, a es una constante igual a la intersección en el eje de las y (es decir, valor de Y cuando X = 0), b es la pendiente de la línea (es decir, el coeficiente de regresión), X es la variable independiente, y E es el término de error. 7. ¿Son siempre rectas las líneas de regresión? No. La ecuación del punto 6 describe una línea recta. Otras ecuaciones de regresión describen curvas; por ejemplo,
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
Parábolas: Y = a ⫹ bX ⫹ cX2 Curvas exponenciales: Log(Y) = a ⫹ bX ■ Curvas logarítmicas: Y = a ⫹ b Log(X) ■ Curvas geométricas: Log(Y) = a ⫹ b Log(X) Estas ecuaciones de regresión se emplean para modelar datos de relaciones entre variables dependientes e independientes como ecuaciones de curvas que se aproximan. ■ ■
PUNTOS CLAVE: DATOS Y PRUEBAS 1.• Si la variable dependiente consta de datos categóricos dicotómicos, se puede emplear la regresión logística. 2.• Si la variable dependiente incluye también un factor de tiempo (p. ej., una curva de supervivencia), se puede emplear el modelo de riesgos proporcionales de Cox. 3.• Si la variable dependiente consta de datos categóricos nominales (es decir, más de dos desenlaces), se puede emplear el análisis logarítmico lineal. Si alguna o todas las variables independientes son continuas, tal vez haya que agruparlas en categorías nominales para hacerlo. 4.• Si tanto las variables dependientes como independientes constan de datos numéricos, se emplea la regresión múltiple. 5.• En el caso de una variable dependiente continua con variables independientes categóricas, se emplea el ANOVA (o ANCOVA, si hay tanto variables independientes categóricas como continuas).
8. Enumere tres requerimientos de los datos para el análisis de regresión. 1.• La variable dependiente ha de ser continua. 2.• La variable dependiente debe tener una distribución normal (a menos que se empleen técnicas avanzadas). 3.• La variabilidad de la variable dependiente debe permanecer igual para todos los valores de la variable independiente (a menos que se empleen técnicas avanzadas). 9. ¿En qué se diferencian los requerimientos de los datos para la regresión con respecto a los de la correlación? Para la correlación, tanto la variable dependiente como la variable independiente deben tener una distribución normal. En el análisis de regresión, sólo se requiere que la variable dependiente esté normalmente distribuida. No se requiere que la variable independiente tenga una distribución normal; en efecto, el investigador puede seleccionar su valor. 10. ¿Con qué término se designa una medida de una bondad del ajuste de un modelo de regresión particular, igual a la proporción de la variación en la variable dependiente (es decir, variación explicada/variación total, que va de 0-1) que explica el modelo? Coeficiente de determinación (R2). Por ejemplo, en el estudio 1 con una población muestral 1, un diagrama de dispersión del desenlace Y (altura del niño) frente al factor X1 (edad del niño) puede mostrar puntos que se agrupan alrededor de una línea, con un R2 próximo a 1, mientras que en el estudio 2, con población muestral 2, un diagrama de dispersión del desenlace Y2 (cociente de inteligencia) frente al factor X2 (presión sanguínea) puede mostrar una nube de puntos sin relación real con una línea, con un R2 próximo a 0.
243
244
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
11. ¿Qué nombre recibe el tipo de análisis que describe la relación entre una variable dependiente continua y dos o más variables independientes, que permite la predicción de la variable dependiente a partir de las variables independientes? Regresión múltiple. 12. Ponga un ejemplo de una ecuación de regresión múltiple, y explique sus elementos. Y = a ⫹ b1X1 ⫹ b2X2 ⫹ b3X3 donde Y es la variable dependiente (p. ej., presión sanguínea); a es una constante; X1, X2 y X3 son variables independientes (p. ej., edad, raza y sexo); y b1, b2 y b3 son los coeficientes de regresión que sirven como factores de ponderación de las contribuciones relativas de X1, X2 y X3 al desenlace Y.
PUNTOS CLAVE: REGRESIÓN SIMPLE 1.• Una línea de regresión simple describe la relación entre una variable dependiente continua y una variable independiente. 2.• Un ejemplo de una ecuación simple para una línea de regresión es Y = a + bX, donde Y es la variable dependiente, a es una constante (es decir, el valor de la intersección con el eje de las y), b es la pendiente de la línea (es decir, coeficiente de regresión) y X es la variable independiente. 3.• Para el análisis de regresión, la variable dependiente ha de ser continua. Por cada cambio unitario en X habrá un cambio unitario b en Y. 4.• A menos que se empleen técnicas especiales, la variable dependiente debe tener una distribución normal y tener variabilidad que se mantenga igual para todos los valores de la variable independiente. 5.• El coeficiente de determinación (R2) describe la bondad del ajuste de un modelo de regresión, como la proporción de la variación en la variable dependiente (es decir, variación explicada/variación total, que va de 0 a 1) que explica el modelo. Cuanto más próximo a 1 esté R2, mejor explica el modelo la variación.
13. ¿Cómo se estiman los coeficientes de regresión (b) en las ecuaciones de regresión múltiple? Por el método de los mínimos cuadrados ordinarios: se minimiza la suma de los residuos al cuadrado (es decir, términos de error) entre el plano de regresión (análogo a la línea de regresión) y los valores observados para cada variable dependiente. Esto proporciona la ecuación que «mejor se ajusta» a los datos observados. 14. ¿Qué significa que el valor de p para los coeficientes de regresión de una o más variables independientes sea pequeño (es decir, < 0,05) en una ecuación de regresión múltiple? Significa que hay suficientes pruebas en los datos que muestran que la variable independiente tiene una asociación, con la variable dependiente, mayor de lo que se podría esperar por el azar solo; por tanto, se rechaza la hipótesis nula.
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
15. ¿Por qué es importante este concepto en la construcción de modelos con ecuaciones de regresión múltiple? En la construcción de modelos podemos añadir, de modo progresivo, variables a la ecuación de regresión y mantenerlas o rechazarlas si los coeficientes de regresión son estadísticamente significativos. 16. ¿Cuál es el método estadístico de elección para analizar de qué modo varias variables independientes predicen una variable dependiente dicotómica (es decir, desenlace)? Regresión logística. 17. ¿Qué es la regresión logística? La regresión logística es una herramienta utilizada para encontrar el modelo del mejor ajuste para una relación entre una o más variables independientes y una variable dependiente que es dicotómica o binaria. Una variable dependiente dicotómica tiene sólo dos desenlaces posibles (p. ej., sí o no, verdadero o falso, éxito o fracaso, o vivo o muerto). La variable dependiente en la regresión logística recibe también la denominación de variable ficticia (dummy), que significa que puede codificarse como 0 o 1.
PUNTOS CLAVE: REGRESIÓN LINEAL MÚLTIPLE 1.• La regresión lineal múltiple describe una relación entre una variable dependiente continua y dos o más variables independientes, lo que permite la predicción de la variable dependiente a partir de las variables independientes. 2.• Un ejemplo sencillo de una ecuación de regresión múltiple es Y = a ⫹ b1X1 ⫹ b2X2 ⫹ b3X3, donde Y es la variable dependiente; a es una constante; b1, b2 y b3 son coeficientes de regresión, y X1, X2 y X3 son variables independientes. Para un cambio unitario en X1, hay un cambio unitario de b en Y (manteniendo X2 y X3 constantes). 3.• Se estiman los coeficientes de regresión (b) en las ecuaciones de regresión múltiple por el método de los cuadrados mínimos ordinarios. 4.• En la construcción de modelos, a menos que exista una interacción significativa entre las variables independientes, puede eliminarse una variable independiente con un coeficiente de regresión no estadísticamente significativo de 0 (p > 0,05). Si p < 0,05 debe retenerse la variable.
18. ¿En qué difiere la ecuación de regresión logística de la ecuación de regresión lineal? La ecuación de regresión logística es una transformación no lineal de la ecuación de regresión lineal. Esta transformación «logit» da lugar a un modelo de regresión «logit» en lugar de modelo de regresión «probit» de una distribución normal estándar. Gráficamente, la transformación «logit» convierte el modelo de la línea recta de la regresión lineal en un modelo logístico con forma de S, asintótica con respecto a los valores 0 y 1 de Y (Fig. 18-2). 19. Ponga un ejemplo de cómo puede transformarse una ecuación de regresión lineal en una ecuación de regresión logística. Consideremos la siguiente ecuación de regresión lineal: Y (variable dependiente dicotómica) = a (constante) ⫹ b1X1 ⫹ b2X2 ⫹ ... ⫹ E (error)
245
246
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
Y
Línea de regresión lineal
Línea de regresión logística
Y=1
X
Y=0
Figure 18-2. Líneas de regresión lineal y logística. (Adaptado de Whitehead J: An Introduction to Logistic Regression at http://www.personal.ecu.edu/whiteheadj/data/logit/.)
Puede transformarse en una ecuación de regresión logística de modo que si p es la probabilidad de que se produzca el desenlace Y (Y = 1), Log oportunidad relativa = Logit (p) = ln[p/(1 – p)] = a ⫹ b1X1 ⫹ b2X2 ⫹ ...⫹ E (error)
y, tomando la exponencial de ambos lados, Oportunidad = [p/(1 – p)] = expa expb1X1 expb2expX2 ... expe ■ ■ ■ ■
donde los elementos de la ecuación tienen los siguientes significados: X1, X2, ...son las variables independientes. b1, b2, son los coeficientes de regresión de las variables independientes. ln es el logaritmo natural o neperiano (es decir, el logaritmo con base e) exp = e = 2,71828...
20. Recuerde qué son el logaritmo natural o neperiano (ln) y exp (e) = 2,71828. ¿Por qué se emplean en la regresión logística? Exp (es decir, exponencial, en ocasiones también denominado e) es la base del sistema de logaritmos naturales o neperianos. El valor numérico de e es igual a una serie de factoriales inversas sumadas: 1 ⫹ 1/1 ⫹ 1/(1⫻2) ⫹ 1/(1⫻2⫻3) ⫹...⫹1/(1⫻2⫻3⫻...⫻∞), con ∞ = infinito. Exp tiene una propiedad única entre los números, porque expx (es decir, la función logarítmica con base e) es la única función logarítmica que es igual a su propia derivada. Esto significa que la pendiente de una línea tangente a expx (es decir, la velocidad de cambio de expx) para cualquier valor de x es igual a expx. Significa también que el logaritmo natural de ex es x: así, el logaritmo natural de e(e1) = 1 y el logaritmo natural de 1(e0) = 0. Cuando algo cambia a una velocidad que es igual a su propio valor, se dice que está sufriendo un crecimiento exponencial (como sucede en el interés compuesto continuo) o una descomposición exponencial (como sucede con los materiales radiactivos). Los logaritmos naturales son útiles en las funciones de modelado como éstas, y para analizar sus pendientes por medio de ecuaciones diferenciales. El coeficiente de regresión b en regresión logística es dicha
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
pendiente. La transformación logística de las líneas de regresión lineal con logaritmos naturales corrige varios problemas que surgen con la regresión lineal (véase la pregunta 21). Se puede encontrar una explicación más profunda de los logaritmos naturales, pero de lectura relativamente fácil, en e: The Story of a Number, de Eli Maor (Princeton, 1998). Es un tema convincente, pero no principal. 21. Cite tres razones por las que la regresión logística y el modelo «logit» son mejores que la regresión lineal y los mínimos cuadrados ordinarios, para la predicción de probabilidades con una variable dependiente dicotómica. 1.• En el modelo lineal, el error no tiene una distribución normal, lo cual no es bueno para la regresión. La transformación «logit» se ocupa de esto. 2.• En el modelo lineal, los términos de error se denominan heteroescedásticos (es decir, la varianza de la variable dependiente cambia con los diferentes valores de las variables independientes). Esto tampoco es bueno para la regresión lineal. La transformación «logit» también se ocupa de esto. 3.• En el modelo lineal, las probabilidades predichas pueden ser mayores que 1 o menores que 0, una imposibilidad teórica. Después de la transformación «logit», las probabilidades estimadas se encontrarán entre 0 y 1. 22. ¿Cómo puede interpretarse un coeficiente logit (p. ej., exp b)? Como oportunidad relativa (OR) que es, Expb (es decir, 2,71828… para la potencia b) es la OR del coeficiente individual b para la variable independiente X. Esto indica la cantidad relativa por la que la oportunidad relativa global, o la probabilidad de Y = 1/(probabilidad de que Y = 0), cambia cuando el valor de la variable independiente X aumenta en 1 unidad, con el resto de los factores sin cambios. Obsérvese que en la regresión logística, los coeficientes b representan la verosimilitud máxima, y no los cuadrados mínimos ordinarios, como en la regresión lineal.
PUNTOS CLAVE: REGRESIÓN LOGÍSTICA 1.• La regresión logística se emplea clásicamente para encontrar el modelo con el mejor ajuste para una relación entre una o más variables independientes y una variable dependiente que es dicotómica o binaria. 2.• La ecuación de la regresión logística es una transformación no lineal de la ecuación de regresión lineal. Esta transformación «logit» da lugar a un modelo de regresión «logit», en lugar de un modelo de regresión «probit» de una distribución estándar normal. 3.• Un coeficiente «logit» (p. ej., expb) puede interpretarse como una oportunidad relativa que indica la cantidad relativa por la que cambia la oportunidad relativa global cuando el valor de la variable independiente X aumenta en 1 unidad. 4.• Puede analizarse la significación estadística del coeficiente b utilizando el estadístico de Wald; en otras palabras, [b/error estándarb]2. 5.• En los modelos de construcción, como en la regresión lineal, a menos que exista una interacción significativa entre las variables independientes, puede eliminarse una variable independiente con un coeficiente de regresión no significativamente diferente de 0 (es decir, p > 0,5). Si p < 0,05, se debe retener la variable.
247
248
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
23. ¿Cuál es la significación estadística del coeficiente b analizado en la regresión logística? Utilizando el estadístico de Wald: [b/error estándarb]2. Al modelar, puede eliminarse una variable independiente con un coeficiente de regresión no significativamente diferente de 0 (es decir, p > 0,05) del modelo de regresión. Si p < 0,05, la variable contribuye de modo significativo a la predicción de la variable del desenlace, y debe ser retenida. 24. ¿Cuándo se utiliza el análisis de la varianza (ANOVA)? ¿Cómo funciona? Se utiliza el ANOVA con datos cuando la variable dependiente es continua (p. ej., presión sanguínea) y todas las variables independientes son categóricas (p. ej., diferentes tipos de medicación). El ANOVA puede analizar si hay diferencias significativas entre las medias en varios grupos, sin aumentar la tasa de error de tipo I (como resultaría al llevar a cabo múltiples pruebas de la t). Se emplea el ANOVA unidireccional cuando hay una variable independiente, mientras que se utiliza el ANOVA de N direcciones cuando hay más de una. El ANOVA describe la variación total en los datos del estudio al dividir la variación explicada por las variables independientes (es decir, diferencias de grupos), la variación causada por la interacción entre las variables independientes, y la variación causada por el error aleatorio (es decir, el azar). A continuación, se comparan las variaciones de los componentes con la variación causada por el error aleatorio por medio del estadístico F. 25. ¿Qué métodos multivariantes utiliza el estadístico F? El ANOVA y el análisis de la covarianza (ANCOVA). El cociente F es igual a la varianza entre grupos dividida por la varianza dentro de los grupos. La varianza para cada uno de éstos es, simplemente, la suma de los cuadrados (SS) dividida por los grados de libertad (df): SS/df (entre grupos) Cociente F = SS/df (dentro de los grupos) La prueba de la F, como la prueba de la t de Student, compara medias, pero puede comparar más de dos medias al mismo tiempo. Analiza si la variación entre las medias de los grupos se debe al azar solo o a verdaderas diferencias entre los grupos. Se pueden consultar los valores de p en relación con el estadístico F en una tabla de F. 26. ¿Cuántos grados de libertad tiene el estadístico F? Dos. Uno por la varianza entre grupos y otro por la varianza dentro de los grupos. 27. ¿Qué significa que el cociente de F sea mucho mayor que 1? Significa que se debe rechazar la hipótesis nula que dice que no hay diferencias significativas entre los grupos. A la inversa, si el estadístico F está próximo a 1, no puede rechazarse la hipótesis nula, ya sea porque el estudio era demasiado pequeño o porque la varianza del estudio era completamente explicable por el azar y no por diferencias reales en los agrupamientos utilizando las variables independientes. 28. ¿Cuándo se utiliza el análisis de la covarianza? ¿Cómo funciona? Se utiliza el ANCOVA cuando los datos que van a analizarse constan de una variable dependiente continua a lo largo de variables independientes tanto categóricas como continuas. Lo primero que hace el método es ajustar la variable o variables independientes continuas (p. ej., edad o peso) en toda la regresión, y luego analiza la varianza de las variables categóricas como en el ANOVA, utilizando la prueba de la F para comparar la varianza entre grupos y dentro de los grupos.
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
PUNTOS CLAVE: ANÁLISIS DE LA VARIANZA (ANOVA) 1.• Se emplea el ANOVA con datos en los que la variable dependiente es continua y todas las variables independientes son categóricas. 2.• El ANOVA utiliza el estadístico F. 3.• El estadístico F tiene dos grados de libertad, uno por la covarianza entre los grupos y el otro por la varianza dentro de los grupos. 4.• Se rechaza la hipótesis nula si el cociente de F es mucho mayor que 1.
29. ¿Qué método estadístico se utiliza con frecuencia para analizar covariantes en las curvas de supervivencia (p. ej., Kaplan-Meier)? El modelo de riesgos proporcionales de Cox es una forma de modelo de regresión multivariable utilizado para analizar curvas de supervivencia y estudios clínicos con un desenlace dicotómico (p. ej., muerto o vivo, con enfermedad o sin enfermedad). Permite la comparación de sujetos con características diferentes y distintos puntos de partida y de llegada de la observación en el tiempo. 30. ¿Qué es una función de riesgo? En un estudio que analiza los tiempos de supervivencia (o períodos sin enfermedad) de los sujetos, una función de riesgo es un modo de estimar la supervivencia (o período sin enfermedad) de cada sujeto. Esta función de riesgo es una función exponencial. Para un sujeto dado, su valor depende del valor del riesgo basal y de los valores de los coeficientes de regresión (es decir, expβ) de las variables independientes de dicho sujeto (es decir, covariantes). 31. ¿Cuáles son las hipótesis en el modelo de riesgos proporcionales de Cox? El modelo da por sentado que se puede estimar la supervivencia de cada sujeto (o período sin enfermedad) por una función de riesgo. El modelo también da por sentada la proporcionalidad de los riesgos, de aquí el nombre. Esto significa que admite una tasa de riesgos basal o subyacente (p. ej., riesgo de muerte por año de observación) con una relación multiplicativa con alguna función de las covariantes para cada sujeto. También significa que el valor de cada covariante representa un riesgo relativo que es constante en el tiempo, y que dos individuos con valores particulares de las covariantes tendrán un cociente de los riesgos estimados que es constante en el tiempo. 32. ¿Qué hipótesis clave no da el modelo de riesgos proporcionales de Cox? El modelo no hace supuestos sobre la naturaleza o forma de la función de riesgos o distribución de la supervivencia. Tampoco hace supuestos de que los sujetos se hallen en observación durante los mismos períodos de tiempo o que los sujetos sean similares; más bien, controla estas diferencias entre los sujetos (al tratarlos como variables independientes) y durante períodos de observación diferentes. 33. ¿Son realmente siempre constantes en el tiempo las tasas de riesgos asociadas con las características de los sujetos (es decir, covariantes)? No necesariamente. En un estudio dado, los riesgos asociados con algunas covariantes pueden depender del tiempo. Por ejemplo, en un estudio prospectivo de 10 años de contaminación
249
250
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
PUNTOS CLAVE: OTROS MÉTODOS 1.• Se emplea el análisis de la covarianza (ANCOVA) cuando los datos que han de ser analizados constan de una variable dependiente continua junto con variables independientes tanto categóricas como continuas. 2.• El modelo de riesgos proporcionales de Cox es una forma de modelo de regresión multivariable utilizado para analizar curvas de supervivencia (p. ej., Kaplan-Meier), por ejemplo, y estudios clínicos con un desenlace dicotómico en el tiempo (p. ej., muerto o vivo, con enfermedad o sin enfermedad). 3.• El análisis logarítmico lineal es útil para analizar factores en las tablas de frecuencias (es decir, tabulaciones cruzadas) en términos de interacciones, significación estadística o ajuste de modelos. 4.• Se emplea el análisis de la función discriminante para detectar cuál de las diversas variables discrimina mejor entre dos o más grupos. 5.• Se emplea el análisis por grupos para organizar variables en grupos relativamente homogéneos o «agregados» («grupos»). 6. Se emplea la correlación canónica para explorar la relación entre dos conjuntos de variables.
ambiental externa y desarrollo de asma en niños, el hecho de que fumen los padres puede representar un mayor riesgo para los niños más pequeños. A menos que se tengan en cuenta tales cambios del riesgo en el tiempo, puede cuestionarse la validez del análisis. 34. ¿Qué método estadístico es útil para analizar los factores en las tablas de frecuencias (es decir, tabulaciones cruzadas) en términos de interacciones, significación estadística y ajuste de modelos? Análisis logarítmico lineal. Una tabla de frecuencias multidireccional (es decir, una tabla de tabulación cruzada de dos o más factores) es un modo de resumir datos sobre variables en interacción (p. ej., en un estudio de pacientes con meningitis, las frecuencias de los síntomas de presentación, como fiebre, cefalea y dolor de nuca de acuerdo con la edad, raza y sexo del paciente). En el modelado logarítmico lineal se «traducen» en una tabla de frecuencias multidireccional y sus valores observados por medio de transformaciones logarítmicas a varios efectos principales y los efectos de interacción que se sumen linealmente para formar ecuaciones logarítmicas lineales. Esas ecuaciones logarítmicas lineales derivadas expresan así relaciones entre factores en la tabla de frecuencias en términos muy similares a los utilizados en el ANOVA, y permiten probar si hay relaciones estadísticamente significativas. 35. ¿Qué herramienta estadística sirve para saber cuál de varias variables discrimina mejor entre dos o más grupos que se dan de forma natural? Análisis de función discriminante, que es una técnica multivariante utilizada para detectar cuál de entre las diversas variables es la que mejor discrimina entre dos o más grupos. Por ejemplo, un investigador desea detectar qué variables (p. ej., edad, sexo, raza) en los antecedentes de los pacientes con cierta enfermedad discriminan mejor entre: 1) los que se recuperan completamente; 2) los que remiten, y 3) los que tienen una mala evolución. En términos de cálculo por ordenador, el análisis de la función discriminante es similar al análisis multivariante de la varianza (MANOVA).
ANÁLISIS MULTIVARIABLE Y MULTIVARIANTE
36. ¿Qué herramienta estadística se emplea en taxonomía, matrices de similitud y dendrogramas? El análisis por grupos, que es una herramienta multivariante utilizada para organizar variables en grupos relativamente homogéneos o «agregados». Supone la generación de una matriz de similitudes. Un análisis por grupos produce un dendrograma (es decir, un diagrama arbóreo). Los grupos formados representan grupos con miembros más similares entre sí que a miembros de otros grupos. 37. ¿Qué herramienta estadística se utiliza para comparar conjuntos de variables? La correlación canónica, que es una herramienta multivariante utilizada para explorar la relación entre dos conjuntos de variables. Un ejemplo puede ser la relación entre: 1) una lista de diversos factores de riesgo de asma (p. ej., pólenes, contaminación ambiental, frío y ejercicio físico), y 2) una lista de síntomas desarrollados del asma (p. ej., sibilancias, tos y disnea). La correlación canónica supone el cálculo de los valores propios (eigenvalues), que nos dicen qué parte de la varianza se explica por la correlación entre las diversas variantes en las dos listas.
AGRADECIMIENTO El autor desea expresar su gratitud a Abdus Wahed, PhD, Department of Biostatistics, Graduate School of Public Health, University of Pittsburgh por sus útiles sugerencias y comentarios sobre este capítulo.
PÁGINAS WEB 1• http://www.statsoft.com/textbook/stathome.html 2.• http://www.personal.ecu.edu/whiteheadj/data/logit/
BIBLIOGRAFÍA 1.• Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine. Philadelphia, W.B. Saunders, 2001, pp 209–217. 2.• Katz MH: Multivariable Analysis: A Practical Guide for Clinicians. Cambridge, Cambridge University Press, 1999.
251
Ashita Tolwani, MD, MSc
CAPÍTULO 19
ANÁLISIS DE LA SUPERVIVENCIA 1. ¿Qué es el análisis de la supervivencia? El análisis de la supervivencia es un método estadístico para estudiar el tiempo transcurrido desde el ingreso en el estudio y un suceso posterior. La variable de interés es el tiempo transcurrido hasta que se produce el suceso. Es característico hacer referencia al suceso como fracaso. Un ejemplo habitual es el tiempo transcurrido desde el tratamiento hasta la muerte. 2. ¿Cuál es la característica del análisis de la supervivencia que lo hace singular? En el análisis de la supervivencia, el tiempo de observación desigual de los sujetos en estudio. Este hecho hace que el análisis de la supervivencia sea incompatible con muchos diseños de estudio convencionales. 3. ¿Se emplea el análisis de la supervivencia solamente en estudios sobre mortalidad? No. Otros ejemplos son: ■ Tiempo desde el tratamiento de una enfermedad hasta la recidiva. ■ Tiempo de desempleo, medido desde la fecha de despido. ■ Tiempo hasta que se produzca una avería en una pieza de un aparato o equipo. 4. ¿Qué otros términos reciben los datos de supervivencia? ■ Datos del tiempo hasta el suceso. ■ Datos de la vida de un sujeto. ■ Datos del tiempo hasta el fracaso. ■ Datos de fiabilidad. ■ Datos de duración. ■ Datos de la historia de sucesos. 5. ¿Cuáles son algunos de los objetivos del análisis de la supervivencia? ■ Efectuar predicciones sobre una población. ■ Comparar el efecto del tratamiento entre dos grupos. ■ Investigar la importancia de características específicas sobre la supervivencia. 6. ¿Por qué no se pueden utilizar las técnicas de regresión estándar para determinar si ciertas variables se correlacionan con los tiempos de supervivencia o fracaso? ■ La variable de interés dependiente (es decir, tiempo de supervivencia o tiempo hasta el fracaso) no tiene una distribución normal; los tiempos de supervivencia suelen seguir una distribución exponencial, de Weibull o de Gompertz. ■ Las técnicas de regresión estándar no toman en consideración la censura, y pueden producir sesgo en las estimaciones de las distribuciones del tiempo de supervivencia y cantidades relacionadas.
253
254
ANÁLISIS DE LA SUPERVIVENCIA
7. ¿Qué significa la expresión datos censurados? En un experimento en el que los sujetos son seguidos en el tiempo hasta que se produzca un suceso de interés, no siempre es posible seguir a cada sujeto hasta que se observe el suceso. Si ya no se sigue a un sujeto, por la razón que sea, todo lo que se sabe es que el tiempo hasta el suceso fue, por lo menos, de una duración igual al tiempo en que el sujeto fue observado por última vez. El tiempo hasta el suceso observado bajo tales circunstancias es desconocido y, por ello, censurado. 8. ¿Se pueden pasar por alto los datos censurados cuando se efectúa el análisis? No. No se pueden pasar por alto estas observaciones, ya que comportan una información importante, a pesar de ser incompletos. En relación con cada sujeto, se sabe, por lo menos, que el tiempo del sujeto hasta el suceso es mayor que el tiempo en observación. 9. ¿Cuáles son los datos esenciales requeridos para efectuar un análisis de supervivencia? ■ Tiempo de ingreso en el estudio. ■ Criterio de valoración del estudio. ■ Fecha del último seguimiento. ■ Estado del paciente en el momento del último seguimiento (es decir, censurado o no censurado). 10. Exponga tres razones por las que se podría producir la censura. ■ Un sujeto no experimenta el suceso antes de que finalice el estudio. ■ Se pierde a una persona durante el período de estudio. ■ Una persona se retira del estudio. 11. ¿Cuál es el principal supuesto de la censura? Suponemos que el tiempo de censura y el tiempo de fracaso son independientes. En otras palabras, se supone que los sujetos censurados tienen la misma curva de supervivencia subyacente después del tiempo de censura que los pacientes no censurados. Se hallan, por tanto, en el mismo riesgo de fracaso que los que permanecen en el estudio. Se conoce este término como censura no informativa. 12. ¿Cuál es la diferencia entre la censura derecha, la censura izquierda y la censura de intervalos? ■ Se produce la censura derecha cuando la observación cesa antes de que se observe el suceso. En el momento t, la censura derecha significa que el verdadero tiempo de supervivencia es, por lo menos, t. ■ Se produce la censura izquierda cuando la observación no comienza hasta después de que se haya producido el suceso. La censura izquierda en el tiempo t significa que el verdadero tiempo de supervivencia es, como mucho, t. Por ejemplo, en un estudio de pacientes infectados con hepatitis C puede comenzar el seguimiento cuando se produce por vez primera un resultado positivo al virus de la hepatitis C, pero desconocemos el tiempo exacto desde la primera exposición al virus. Por ello, el tiempo de supervivencia está censurado en la izquierda. ■ La censura de intervalos significa conocer que la supervivencia verdadera sólo se ha producido en algún momento dentro de un intervalo de tiempo conocido.
ANÁLISIS DE LA SUPERVIVENCIA
13. ¿Cuál es el tipo de censura más habitual? La censura derecha es el tipo de censura más frecuente. 14. En la Figura 19-1, las letras A a E representan pacientes en un estudio de supervivencia. ¿Qué pacientes están censurados? ■ Los pacientes B y E alcanzan el «fracaso». El paciente B es observado desde el comienzo del estudio. El paciente E ingresa en el estudio en el año 3 y es seguido hasta que se produce el fracaso en el año 5,5. No hay censura. ■ El paciente D ingresa en el estudio en el año 2 y es seguido hasta el año 4, en que se pierde para el seguimiento; su tiempo censurado es de 2 años. ■ Los pacientes A y C son seguidos hasta el final del estudio. En relación con el paciente A, el tiempo de supervivencia está censurado porque es, por lo menos, de 7 años. El paciente C ingresa en el estudio en el año 2 y es seguido durante el resto del estudio sin que se produzca el «fracaso»; su tiempo censurado es de 5 años. En resumen, los pacientes B y E alcanzan el fracaso y los pacientes A, C y D están censurados.
Años
1
2
3
4
5
6
T=7
A
7
Final del estudio
T=3 B T=5 C T=2
D
Final del estudio
Perdido T = 2,5
E
X
Se produce el suceso
Figura 19-1. Pacientes en un estudio de supervivencia.
15. ¿Cuáles son los tipos de censura derecha? ■ Se produce una censura simple de tipo I cuando todos los individuos son censurados en el mismo momento fijo. Suele ocurrir cuando se sigue a una población durante un intervalo de tiempo fijo. ■ Se produce una censura progresiva de tipo I cuando los individuos ingresan en diferentes momentos y son seguidos hasta una fecha fija. El desenlace de interés es la duración entre el ingreso y el suceso.
255
256
ANÁLISIS DE LA SUPERVIVENCIA ■
■
Se produce la censura de tipo II cuando un estudio termina en el momento en que hay un número de sucesos previamente especificados. Se produce una censura al azar cuando el estudio está diseñado para que termine después de un tiempo fijo, pero no todos los sujetos censurados tienen el mismo tiempo de censura. El tiempo de censura y el tiempo de supervivencia T son independientes.
16. ¿De qué modo la censura puede producir un sesgo en los resultados? A medida que aumenta el número de pacientes censurados en un estudio, cualquier diferencia entre los pacientes censurados y los no censurados puede aumentar la probabilidad de sesgo. Convencionalmente, el número de pacientes censurados debe ser inferior al 5% del total. 17. ¿Qué es una función de supervivencia? Una función de supervivencia describe la proporción de sujetos que sobreviven hasta un momento dado o superior. 18. ¿Cómo se define matemáticamente la función de supervivencia? Se define la función de supervivencia como S(t) = P(T > t), la probabilidad de que un individuo sobreviva más tiempo que un tiempo especificado t. S(t) indica la probabilidad de que la variable T (tiempo de supervivencia) aleatoria supere un tiempo t especificado. En otras palabras, la función de supervivencia proporciona una predicción del porcentaje de personas que esperamos que «sobrevivan» hasta un momento dado. ■ T es la variable aleatoria en relación con el tiempo de supervivencia de una persona. ■ t representa cualquier valor de interés específico en relación con la variable T aleatoria. 19. Enumere las propiedades de todas las funciones de supervivencia. ■ Las funciones de supervivencia no aumentan. ■ En el tiempo t = 0, S(t) = S(0) = 1. Al comienzo del estudio, la probabilidad de sobrevivir después de t = 0 es uno, ya que aún no ha habido nadie que haya tenido el suceso. Es decir, todos son supervivientes en el tiempo = 0. ■ En el momento = ∞, S(t) = S(∞) = 0. Si el período de estudio aumentase sin límite, nadie sobreviviría. 20. ¿Cuál es la función de riesgos? La función de riesgos calcula el riesgo (una probabilidad) de que un individuo sometido a observación en un tiempo t tenga un suceso en dicho momento. La función de riesgo representa la tasa instantánea de sucesos en un individuo que ya ha sobrevivido hasta el tiempo t. 21. ¿Qué es la tasa de fracaso condicional? La tasa de fracaso condicional es otro nombre para la función de riesgos. Otro modo de expresarlo es que la tasa de fracaso condicional h(t) da el potencial instantáneo de fracaso en el tiempo t por unidad de tiempo, dada la supervivencia hasta el tiempo t. 22. ¿Cómo se define matemáticamente la función de riesgos? Se define la función de riesgos por h(t) = f(t)/S(d) la densidad condicional para T, dada una supervivencia hasta el tiempo t, evaluada en dicho momento. Una definición equivalente es: h(t) = lím P(T < t δt|T = t) δt → 0 δt
ANÁLISIS DE LA SUPERVIVENCIA
23. Explique por qué la función de riesgos es una tasa y no una probabilidad. El numerador en esta función es la probabilidad condicional. El denominador denota un pequeño intervalo de tiempo. Por división, la probabilidad por unidad de tiempo se convierte en una tasa. La escala de este cociente varía entre 0 e infinito. 24. ¿En qué se diferencia la función de riesgos de la función de supervivencia? La función de superviviente indica el porcentaje de los sujetos que no tienen un suceso, mientras que la función de riesgos da una tasa de sucesos. El riesgo se relaciona con la tasa de sucesos incidentes (actual), mientras que la supervivencia refleja la no ocurrencia acumulativa.
PUNTOS CLAVE: ANÁLISIS DE LA SUPERVIVENCIA 1.• El análisis de la supervivencia cuantifica el tiempo hasta un suceso dicotómico único. 2.• Trata bien los datos censurados. 3.• La supervivencia y el riesgo pueden interconvertirse matemáticamente. 4.• Se pueden comparar estadística y gráficamente las curvas de supervivencia de Kaplan-Meier. 5.• Los modelos de riesgos proporcionales de Cox ayudan a distinguir las contribuciones individuales de las covariantes a la supervivencia, con tal de que se satisfagan ciertos supuestos.
25. Indique las características de la función de riesgos. ■ Es siempre • 0. ■ No tiene límite superior, porque es una tasa y no una probabilidad, como se expresa en la fórmula. 26. Indique y exprese gráficamente los diferentes tipos de funciones de riesgo. ■ Modelo de supervivencia exponencial (Fig. 19-2). La función de riesgos es constante. Es éste un ejemplo de h(t) en personas sanas. Una persona que continúa sana durante el estudio tiene un potencial instantáneo constante de enfermar durante el período de tiempo.
h (t)
t Figura 19-2. Modelo de supervivencia exponencial.
257
258
ANÁLISIS DE LA SUPERVIVENCIA ■
Modelo de Weibull creciente (Fig. 19-3). Un ejemplo de este tipo de gráfico es el de los pacientes con cáncer que no responden al tratamiento, en los que el suceso de interés es la muerte. El potencial de que muera un paciente por la enfermedad aumenta a medida que aumenta el tiempo de supervivencia, porque el pronóstico empeora.
h (t)
t Figura 19-3. Modelo de Weibull creciente.
■
Modelo de Weibull decreciente (Fig 19-4). Puede esperarse este tipo de gráfico en las personas que se recuperan de una intervención quirúrgica, en los que el suceso de interés es la muerte. El potencial de morirse después de la intervención quirúrgica disminuye a medida que aumenta el tiempo transcurrido desde la intervención.
h (t)
t
Figura 19-4. Modelo de Weibull decreciente.
■
Modelo de supervivencia logarítmico-normal (Fig. 19-5). Un ejemplo de este tipo de gráfico es el de los pacientes que tienen una enfermedad en la que el potencial de morirse aumenta en las primeras fases de la enfermedad y disminuye posteriormente.
ANÁLISIS DE LA SUPERVIVENCIA
h (t)
t
Figura 19-5. Modelo de supervivencia logarítmico-normal.
27. ¿Cuál es la relación matemática entre S(t) y h(t)? h(t) =
–[dS(t)/dt] S(t)
En el caso de que matemáticamente tenga inclinación, si se redistribuye e integra la ecuación, puede observarse una tasa de riesgos acumulativa H(t) integrada en el tiempo que es igual al logaritmo natural de S(t). 28. ¿Cuáles son los dos procedimientos de análisis de supervivencia básicos que permiten determinar la supervivencia global de grupos únicos, tomando en consideración tanto las observaciones censuradas como las no censuradas? ■ Análisis de las tablas de vida (o método actuarial). ■ Método de la curva de supervivencia de Kaplan-Meier. 29. ¿Qué es el análisis de una tabla de vida? La técnica de la tabla de vida proporciona una buena indicación de la distribución de los fracasos en el tiempo. Supone dividir el período total de observación del grupo en intervalos fijos. Por cada intervalo, se calcula la proporción de supervivientes al final del intervalo atendiendo al número conocido que ha experimentado el suceso del criterio de valoración durante el intervalo y el número estimado que ha estado en riesgo al comienzo del intervalo. Se supone que todas las pérdidas y ganancias de sujetos se producen de modo aleatorio a lo largo del intervalo; por consiguiente, se estima que el período observado es el valor medio del intervalo de tiempo. La Figura 19-6 muestra la tabla de vida o método actuarial del análisis de supervivencia, utilizado en el Veterans Administration Coronary Artery Bypass Surgery Cooperative Study. 30. ¿Qué es el estimador producto límite de Kaplan-Meier? El método de Kaplan-Meier permite la estimación de la función de supervivencia directamente a partir de los tiempos de supervivencia o de fracaso continuos. Permite el cálculo de la proporción de supervivientes hasta un momento dado de que se produzca un fracaso o suceso, más que a intervalos fijos, y genera las curvas de supervivencia características «en peldaños de escalera».
259
ANÁLISIS DE LA SUPERVIVENCIA
1,00 0,90 Proporción de supervivientes
260
0,83
0,80
0,76
0,70 0,60
0,66 0,50
0,50 0,52 0,40
0,38
0,30
Quirúrgicos Médicos
0,20 71S 97M
0,10
35S 35M
0,00 0
1
2
3
4
5
6
7
8
9
10 11
Años desde el tratamiento Figura 19-6. Método actuarial del análisis de supervivencia, utilizado en el Veterans Administration Coronary Artery Bypass Surgery Cooperative Study. (De Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2.ª ed. Philadelphia, W.B. Saunders, 2001, p 188, Fig. 11-4.)
31. ¿Cuál es la ventaja del producto límite de Kaplan-Meier sobre el método de la tabla de vida? La ventaja del producto límite de Kaplan-Meier sobre el método de la tabla de vida para analizar los datos del tiempo de supervivencia y de fracaso es que las estimaciones resultantes no dependen del agrupamiento de los datos en un cierto número de intervalos temporales. El método de Kaplan-Meier y el método de la tabla de vida son idénticos si los intervalos de la tabla de vida contienen, como mucho, una observación. 32. Ponga un ejemplo del cálculo de las estimaciones del tiempo de supervivencia de Kaplan-Meier. Estamos interesados en determinar el tiempo transcurrido hasta la coagulación en el filtro de diálisis en pacientes que comienzan la diálisis continua. En el estudio comienzan a ser sometidos a diálisis 10 pacientes con los siguientes resultados: en el paciente 1 se produce la coagulación a las 24 horas, el paciente 2 fallece a las 10 horas, el paciente 3 es apartado de la diálisis y llevado a cirugía a las 6 horas de iniciarse la diálisis, en el paciente 4 se produce la coagulación a las 42 horas, en el paciente 5 se produce la coagulación 9 horas después de comenzar la diálisis, en el paciente 6 se produce la coagulación 10 horas después, en el paciente 7 se produce la coagulación a las 6 horas, en el paciente 8 se produce la coagulación a las 2 horas, en el paciente 9 se produce la coagulación a las 12 horas y en el paciente 10 se produce la coagulación a las 5 horas. Utilizando este ejemplo, construya una tabla de los datos censurados y de los no censurados (Tabla 19-1).
ANÁLISIS DE LA SUPERVIVENCIA
TABLA 19-1. DATOS CENSURADOS Y NO CENSURADOS Paciente Número
Censurados (Sí/No)
Tiempo hasta el suceso/censura
1 2 3 4 5 6 7 8 9 10
No Sí
24 horas 10 horas
Sí No No No No No No No
6 horas 42 horas 9 horas 10 horas 6 horas 2 horas 12 horas 5 horas
33. Ordene el ejemplo anterior por suceso y tiempo de censura. Véase la Tabla 19-2.
TABLA 19-2. ORDENACIÓN DE LOS DATOS POR SUCESO Y TIEMPO DE CENSURA Tiempo Suceso 2 5 6 10 12 24 42
1 1 2 1 1 1 1
Censura
En riesgo
0 0 1 1 0 0 0
10 9 8 5 3 2 1
Probabilidad condicional Probabilidad del suceso acumulativa 1/10 (0,10) 1/9 (0,11) 2/8 (0,25) 1/5 (0,20) 1/3 (0,33) 1/2 (0,5) 1/1 (1)
0,10 0,10 0,11(1 – 0,10) = 0,20 0,20 0,25(1 – 0,9) = 0,23 0,23 0,20(1 – 0,23) = 0,38 0,38 0,33(1 – 0,38) = 0,59 0,59 0,50(1 – 0,59) = 0,80 0,80 1(1 – 0,8) = 1
34. ¿Cuál es la mediana de tiempo hasta la coagulación en el ejemplo anterior? Utilizando la columna de la probabilidad acumulativa, la mediana de tiempo hasta la coagulación (es decir, el tiempo en que se ha producido la coagulación en el 50% de los filtros) está entre 10 y 12 horas, porque el 50% cae entre las probabilidades acumulativas del 38 y el 59%. 35. ¿Cómo se representa la curva de Kaplan-Meier? ■ Se representa gráficamente la curva en función del peldaño (Fig. 19-7). ■ El tiempo en el eje de las x. ■ La probabilidad acumulativa o «supervivencia», en el eje de las y. ■ Los sujetos censurados se representan como marcas. ■ El número de sujetos «en riesgo» se registra, con frecuencia, por debajo del eje de las x.
261
262
ANÁLISIS DE LA SUPERVIVENCIA
1,0 Proporción acumulativa de supervivientes
0,8 0,6 0,4 0,2 0,0 0•
10
20
30
40
50
60
Tiempo en meses Figura 19-7. Curva de Kaplan-Meier.
36. ¿Cuál es la limitación de la curva de supervivencia de Kaplan-Meier? No tiene en cuenta la confusión o modificación del efecto por otras covariantes. 37. ¿Cuándo se podría desear comparar dos curvas de supervivencia diferentes? Cuando se desee comparar el tiempo de supervivencia entre grupos diferentes. 38. ¿Cómo se comparan estadísticamente las curvas de Kaplan-Meier de dos grupos diferentes? La prueba del orden logarítmico (log-rank test) proporciona una comparación global de las curvas de Kaplan-Meier. Es una prueba de la ji al cuadrado de muestras grandes, que compara los desenlaces observados con los esperados, en donde las categorías vienen definidas por el tiempo de fracaso en un conjunto de datos total. Las comparaciones se efectúan en cada momento del «suceso». 39. ¿Cuáles son los supuestos de la prueba del orden logarítmico? ■ Los tiempos de supervivencia son ordinales o continuos. ■ El riesgo de un suceso en un grupo, comparado con el riesgo en el otro grupo, no cambia con el tiempo. Se conoce este hecho como supuesto de los riesgos proporcionales. 40. ¿Qué otras pruebas se emplean para comparar curvas de supervivencia? ■ La prueba del orden logarítmico de Mantel-Haenszel. ■ El cociente de riesgos. 41. ¿Qué es el cociente de riesgos? El cociente de riesgos es la medida del efecto en el análisis de la supervivencia que describe la relación entre la exposición y el desenlace. Un cociente de riesgos inferior a 1 significa ausencia de efecto. Un cociente de riesgo de 5 indica que el grupo expuesto tiene un riesgo 5 veces mayor que el grupo no expuesto. Un cociente de riesgos de 1/5 indica que el grupo expuesto tiene un riesgo que es la quinta parte del observado en el grupo no expuesto. 42. ¿Cómo se valoran las relaciones entre las diversas covariantes y el tiempo de supervivencia? Se emplea el modelo de regresión de riesgos proporcionales de Cox para valorar el efecto de múltiples covariantes sobre la supervivencia.
ANÁLISIS DE LA SUPERVIVENCIA
PÁGINAS WEB 1.• http://www.apha.org/public_health/epidemiology.htm 2.• http://www.amstat.org/sections/epi/SIE_Home.htm 3.• http://www.apic.org 4.• http://www.biostat.ucsf.edu/epidem/epidem.html
BIBLIOGRAFÍA 1.• Gordis L: Epidemiology, 3rd ed. Philadelphia, W.B. Saunders, 2004. 2.• Jekel JF, Katz DL, Elmore JG: Epidemiology, Biostatistics, and Preventive Medicine, 2nd ed. Philadelphia, W.B. Saunders, 2001.
263
APÉNDICE A TABLA A.• DISTRIBUCIÓN NORMAL ESTANDARIZADA – PROBABILIDADES DE LAS COLAS (TABLA DE LOS VALORES z )* z
Probabilidad de la cola superior
Probabilidad de dos colas
z
0,00 0,01 0,02 0,0251 0,03 0,04 0,05 0,0502 0,06 0,07 0,0753 0,08 0,09 0,10 0,1004 0,11 0,12 0,1257 0,13 0,14 0,15 0,1510 0,16 0,17 0,1764 0,18 0,19 0,20 0,2019
0,5000 0,4960 0,4920 0,49 0,4880 0,4840 0,4801 0,48 0,4761 0,4721 0,47 0,4681 0,4641 0,4602 0,46 0,4562 0,4522 0,45 0,4483 0,4443 0,4404 0,44 0,4364 0,4325 0,43 0,4286 0,4247 0,4207 0,42
1,0000 0,9920 0,9840 0,98 0,9761 0,9681 0,9601 0,96 0,9522 0,9442 0,94 0,9362 0,9283 0,9203 0,92 0,9124 0,9045 0,9 0,8966 0,8887 0,8808 0,88 0,8729 0,8650 0,86 0,8571 0,8493 0,8415 0,84
0,23 0,24 0,25 0,2533 0,26 0,27 0,2793 0,28 0,29 0,30 0,3055 0,31 0,32 0,33 0,3319 0,34 0,35 0,3585 0,36 0,37 0,38 0,3853 0,39 0,40 0,41 0,4125 0,42 0,43 0,4399
Probabilidad de la cola superior 0,4090 0,4052 0,4013 0,40 0,3974 0,3936 0,39 0,3897 0,3859 0,3821 0,38 0,3783 0,3745 0,3707 0,37 0,3669 0,3632 0,36 0,3594 0,3557 0,3520 0,35 0,3483 0,3446 0,3409 0,34 0,3372 0,3336 0,33
Probabilidad de dos colas 0,8181 0,8103 0,8026 0,80 0,7949 0,7872 0,78 0,7795 0,7718 0,7642 0,76 0,7566 0,7490 0,7414 0,74 0,7339 0,7263 0,72 0,7188 0,7114 0,7039 0,70 0,6965 0,6892 0,6818 0,68 0,6745 0,6672 0,66 (Continúa)
265
266
APÉNDICE A
TABLA A.• DISTRIBUCIÓN NORMAL ESTANDARIZADA – PROBABILIDADES DE LAS COLAS (TABLA DE LOS VALORES z )* ( Cont. ) z
Probabilidad de la cola superior
Probabilidad de dos colas
z
0,21 0,22 0,2275 0,4677 0,47 0,48 0,49 0,4959 0,50 0,51 0,52 0,5244 0,53 0,54 0,55 0,5534 0,56 0,57 0,58 0,5828 0,59 0,60 0,61 0,6128 0,62 0,63 0,64 0,6433 0,65 0,66 0,67 0,6745 0,68 0,69 0,70 0,7063 0,71 0,72 0,73
0,4168 0,4129 0,41 0,32 0,3192 0,3156 0,3121 0,31 0,3085 0,3050 0,3015 0,3 0,2981 0,2946 0,2912 0,29 0,2877 0,2843 0,2810 0,28 0,2776 0,2743 0,2709 0,27 0,2676 0,2643 0,2611 0,26 0,2578 0,2546 0,2514 0,25 0,2483 0,2451 0,2420 0,24 0,2389 0,2358 0,2327
0,8337 0,8259 0,82 0,64 0,6384 0,6312 0,6241 0,62 0,6171 0,6101 0,6031 0,6 0,5961 0,5892 0,5823 0,58 0,5755 0,5687 0,5619 0,56 0,5552 0,5485 0,5419 0,54 0,5353 0,5287 0,5222 0,52 0,5157 0,5093 0,5029 0,50 0,4956 0,4902 0,4839 0,48 0,4777 0,4715 0,4654
0,44 0,45 0,46 0,77 0,7722 0,78 0,79 0,80 0,8064 0,81 0,82 0,83 0,84 0,8416 0,85 0,86 0,87 0,8779 0,88 0,89 0,90 0,91 0,9154 0,92 0,93 0,94 0,95 0,9542 0,96 0,97 0,98 0,99 0,9945 1,00 1,01 1,02 1,03 1,036 1,04
Probabilidad de la cola superior 0,3300 0,3264 0,3228 0,2206 0,22 0,2177 0,2148 0,2119 0,21 0,2090 0,2061 0,2033 0,2005 0,20 0,1977 0,1949 0,1922 0,19 0,1894 0,1867 0,1841 0,1814 0,18 0,1788 0,1762 0,1736 0,1711 0,17 0,1685 0,1660 0,1635 0,1611 0,16 0,1587 0,1562 0,1539 0,1515 0,15 0,1492
Probabilidad de dos colas 0,6599 0,6527 0,6455 0,4413 0,44 0,4354 0,4295 0,4237 0,42 0,4179 0,4122 0,4065 0,4009 0,40 0,3953 0,3898 0,3843 0,38 0,3789 0,3735 0,3681 0,3628 0,36 0,3576 0,3524 0,3472 0,3421 0,34 0,3371 0,3320 0,3271 0,3222 0,32 0,3173 0,3125 0,3077 0,3030 0,3 0,2983
APÉNDICE A
TABLA A.• DISTRIBUCIÓN NORMAL ESTANDARIZADA – PROBABILIDADES DE LAS COLAS (TABLA DE LOS VALORES z )* ( Cont. ) z
Probabilidad de la cola superior
Probabilidad de dos colas
z
0,7388 0,74 0,75 0,76 1.080 1,09 1,10 1,11 1,12 1,1264 1,13 1,14 1,15 1,16 1,17 1,175 1,18 1,19 1,20 1,21 1,22 1,227 1,23 1,24 1,25 1,26 1,27 1,28 1,282 1,29 1,30 1,31 1,32 1,33 1,34 1,341 1,35 1,36
0,23 0,2296 0,2266 0,2236 0,14 0,1379 0,1357 0,1335 0,1314 0,13 0,1292 0,1271 0,1251 0,1230 0,1210 0,12 0,1190 0,1170 0,1151 0,1131 0,1112 0,11 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,10 0,0985 0,0968 0,0951 0,0934 0,0918 0,0901 0,09 0,0885 0,0869
0,46 0,4593 0,4533 0,4473 0,28 0,2757 0,2713 0,2670 0,2627 0,26 0,2585 0,2543 0,2501 0,2460 0,2420 0,24 0,2380 0,2340 0,2301 0,2263 0,2225 0,22 0,2187 0,2150 0,2113 0,2077 0,2041 0,2005 0,20 0,1971 0,1936 0,1902 0,1868 0,1835 0,1802 0,18 0,1770 0,1738
1,05 1,06 1,07 1,08 1,41 1,42 1,43 1,44 1,45 1,46 1,47 1,476 1,48 1,49 1,50 1,51 1,52 1,53 1,54 1,55 1,555 1,56 1,57 1,58 1,59 1,60 1,61 1,62 1,63 1,64 1,645 1,65 1,66 1,67 1,68 1,69 1,70 1,71
Probabilidad de la cola superior 0,1469 0,1446 0,1423 0,1401 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,07 0,0694 0,0681 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,06 0,0594 0,0582 0,0571 0,0559 0,0548 0,0537 0,0526 0,0516 0,0505 0,05 0,0495 0,0485 0,0475 0,0465 0,0455 0,0446 0,0436
Probabilidad de dos colas 0,2937 0,2891 0,2846 0,2801 0,1585 0,1556 0,1527 0,1499 0,1471 0,1443 0,1416 0,14 0,1389 0,1362 0,1336 0,1310 0,1285 0,1260 0,1236 0,1211 0,12 0,1188 0,1164 0,1141 0,1118 0,1096 0,1074 0,1052 0,1031 0,1010 0,10 0,0989 0,0969 0,0949 0,0930 0,0910 0,0891 0,0873 (Continúa)
267
268
APÉNDICE A
TABLA A.• DISTRIBUCIÓN NORMAL ESTANDARIZADA – PROBABILIDADES DE LAS COLAS (TABLA DE LOS VALORES z )* ( Cont. ) z
Probabilidad de la cola superior
Probabilidad de dos colas
z
1,37 1,38 1,39 1,40 1,405 1,76 1,77 1,78 1,79 1,80 1,81 1,82 1,83 1,84 1,85 1,86 1,87 1,88 1,881 1,89 1,90 1,91 1,92 1,93 1,94 1,95 1,960 1,97 1,98 1,99 2,00 2,01 2,02 2,03 2,04 2,05 2,054 2,06 2,07
0,0853 0,0838 0,0823 0,0808 0,08 0,0392 0,0384 0,0375 0,0367 0,0359 0,0352 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,03 0,0294 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,025 0,0244 0,0239 0,0233 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,02 0,0197 0,0192
0,1707 0,1676 0,1645 0,1615 0,16 0,0784 0,0767 0,0751 0,0734 0,0719 0,0703 0,0688 0,0672 0,0658 0,0643 0,0629 0,0615 0,0601 0,06 0,0588 0,0574 0,0561 0,0549 0,0536 0,0524 0,0512 0,05 0,0488 0,0477 0,0466 0,0455 0,0444 0,0434 0,0424 0,0414 0,0404 0,04 0,0394 0,0385
1,72 1,73 1,74 1,75 1,751 2,14 2,15 2,16 2,17 2,18 2,19 2,20 2,21 2,22 2,23 2,24 2.25 2,26 2,27 2,28 2,29 2,30 2,31 2,32 2,326 2,33 2,34 2,35 2,36 2,37 2,38 2,39 2,40 2,41 2,42 2,43 2,44 2,45 2,46
Probabilidad de la cola superior 0,0427 0,0418 0,0409 0,0401 0,04 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110 0,0107 0,0104 0,0102 0,01 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069
Probabilidad de dos colas 0,0854 0,0836 0,0819 0,0801 0,08 0,0324 0,0316 0,0308 0,0300 0,0293 0,0285 0,0278 0,0271 0,0264 0,0257 0,0251 0,0244 0,0238 0,0232 0,0226 0,0220 0,0214 0,0209 0,0203 0,02 0,0198 0,0193 0,0188 0,0183 0,0178 0,0173 0,0168 0,0164 0,0160 0,0155 0,0151 0,0147 0,0143 0,0139
APÉNDICE A
TABLA A.• DISTRIBUCIÓN NORMAL ESTANDARIZADA – PROBABILIDADES DE LAS COLAS (TABLA DE LOS VALORES z )* ( Cont. ) z
Probabilidad de la cola superior
Probabilidad de dos colas
2,08 2,09 2,10 2,11 2,12 2,13 2,53 2,54 2,55 2,56 2,57 2,576 2,58 2,59 2,60 2,61 2,62 2,63 2,64 2,65 2,70 2,75 2,80 2,85 2,90 2,95
0,0188 0,0183 0,0179 0,0174 0,0170 0,0166 0,0057 0,0055 0,0054 0,0052 0,0051 0,005 0,0049 0,0048 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0035 0,0030 0,0026 0,0022 0,0019 0,0016
0,0375 0,0366 0,0357 0,0349 0,0340 0,0332 0,0114 0,0111 0,0108 0,0105 0,0102 0,01 0,0099 0,0096 0,0093 0,0091 0,0088 0,0085 0,0083 0,0080 0,0069 0,0060 0,0051 0,0044 0,0037 0,0032
z 2,47 2,48 2,49 2,50 2,51 2,52 3,00 3,05 3,090 3,10 3,15 3,20 3,25 3,291 3,30 3,35 3,40 3,45 3,50 3,55 3,60 3,65 3,70 3,75 3,80
Probabilidad de la cola superior 0,0068 0,0066 0,0064 0,0062 0,0060 0,0059 0,0013 0,0011 0,001 0,0010 0,0008 0,0007 0,0006 0,0005 0,0005 0,0004 0,0003 0,0003 0,0002 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001
Probabilidad de dos colas 0,0135 0,0131 0,0128 0,0124 0,0121 0,0117 0,0027 0,0023 0,002 0,0019 0,0016 0,0014 0,0012 0,001 0,0010 0,0008 0,0007 0,0006 0,0005 0,0004 0,0003 0,0003 0,0002 0,0002 0,0001
Fuente de los datos: National Bureau of Standards. Applied Mathematics Series-23. US Government Printing Office, Washington, D.C., 1953. Resumido por Shott, S. Statistics for Health Professionals. Philadelphia, W.B. Saunders Company, 1990. Utilizada con permiso. * Instrucciones para el empleo de la tabla para determinar el valor de p que corresponde a un valor z calculado: en la columna de la izquierda (encabezada con z), se mira el valor de z hallado en los cálculos. Mire la primera columna de la derecha (valor de p con una cola) o la segunda columna a la derecha (para un valor de p con dos colas) que corresponde al valor de z obtenido. Por ejemplo, un valor de z de 1,74 corresponde a un valor de p de dos colas de 0,0819. Instrucciones para el empleo de la tabla para determinar el valor de z que corresponde a un valor p calculado: para encontrar el valor apropiado de z para su empleo en los límites de confianza o determinaciones del tamaño de la muestra, se define un valor p deseado con una cola o con dos colas, se mira en la segunda o tercera columna, respectivamente, y se determina el valor correspondiente de z en la izquierda. Por ejemplo, para un alfa de 0,05 con dos colas, el valor correspondiente de z es 1,960; y para una beta de una cola de 0,20, el valor correspondiente de z es 0,8416.
269
APÉNDICE B TABLA B.• PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA t * Probabilidad de la cola superior
df
0,40
0,30
0,20
0,15
0,10
0,05
0,025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
0,325 0,289 0,277 0,271 0,267 0,265 0,263 0,262 0,261 0,260 0,260 0,259 0,259 0,258 0,258 0,258 0,257 0,257 0,257 0,257 0,257 0,256 0,256 0,256 0,256 0,256 0,256 0,256 0,256
0,727 0,617 0,584 0,569 0,559 0,553 0,549 0,546 0,543 0,542 0,540 0,539 0,537 0,537 0,536 0,535 0,534 0,534 0,533 0,533 0,532 0,532 0,532 0,531 0,531 0,531 0,531 0,530 0,530
1,376 1,061 0,978 0,941 0,920 0,906 0,896 0,889 0,883 0,879 0,876 0,873 0,870 0,868 0,866 0,865 0,863 0,862 0,861 0,860 0,859 0,858 0,858 0,857 0,856 0,856 0,855 0,855 0,854
1,963 1,386 1,250 1,190 1,156 1,134 1,119 1,108 1,100 1,093 1,088 1,083 1,079 1,076 1,074 1,071 1,069 1,067 1,066 1,064 1,063 1,061 1,060 1,059 1,058 1,058 1,057 1,056 1,055
3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311
6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699
12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 (Continúa)
271
272
APÉNDICE B
TABLA B. PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA t * ( Cont. ) Probabilidad de la cola superior
df
0,40
0,30
0,20
0,15
0,10
0,05
30 40 60 120 ∞
0,256 0,255 0,254 0,254 0,253
0,530 0,529 0,527 0,526 0,524
0,854 0,851 0,848 0,845 0,842
1,055 1,050 1,045 1,041 1,036
1,310 1,303 1,296 1,289 1,282
1,697 1,684 1,671 1,658 1,645
0,025 2,042 2,021 2,000 1,980 1,960
TABLA B.• PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA t * ( Cont. ) df
0,02
0,015
Probabilidad de la cola superior 0,01 0,0075 0,005
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 •
15,895 4,849 3,482 2,999 2,757 2,612 2,517 2,449 2,398 2,359 2,328 2,303 2,282 2,264 2,249 2,235 2,224 2,214 2,205 2,197 2,189 2,183 2,177 2,172 2,167 2,162 2,158 2,154 2,150 2,147 2,123 2,099 2,076 2,054
21,205 5,643 3,896 3,298 3,003 2,829 2,715 2,634 2,574 2,527 2,491 2,461 2,436 2,415 2,397 2,382 2,368 2,356 2,346 2,336 2,328 2,320 2,313 2,307 2,301 2,296 2,291 2,286 2,282 2,278 2,250 2,223 2,196 2,170
31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,390 2,358 2,326
42,434 8,073 5,047 4,088 3,634 3,372 3,203 3,085 2,998 2,932 2,879 2,836 2,801 2,771 2,746 2,724 2,706 2,689 2,674 2,661 2,649 2,639 2,629 2,620 2,612 2,605 2,598 2,592 2,586 2,581 2,542 2,504 2,468 2,432
63,657 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 2,576
0,0025 127,322 14,089 7,453 5,598 4,773 4,317 4,029 3,833 3,690 3,581 3,497 3,428 3,372 3,326 3,286 3,252 3,222 3,197 3,174 3,153 3,135 3,119 3,104 3,091 3,078 3,067 3,057 3,047 3,038 3,030 2,971 2,915 2,860 2,807
0,0005 636,590 31,598 12,924 8,610 6,869 5,959 5,408 5,041 4,781 4,587 4,437 4,318 4,221 4,140 4,073 4,015 3,965 3,922 3,883 3,849 3,819 3,792 3,768 3,745 3,725 3,707 3,690 3,674 3,659 3,646 3,551 3,460 3,373 3,291
Fuente: Shott, S, Statistics for Health Professionals. Philadelphia, W.B. Saunders, 1990. Utilizada con permiso. * Instrucciones para el empleo de la tabla: para determinar el valor de p que corresponde a un valor de t calculado, primero se mira en la línea que corresponde a la columna de los grados de libertad (df) en la izquierda. A continuación en el centro de la tabla se mira el valor que más se aproxima al valor de t encontrado a partir de los cálculos. (1) Para una prueba de la t de una cola: se mira en la fila superior para encontrar la probabilidad correspondiente. Por ejemplo, un valor de t de 2,147 con 30 df corresponde a un valor de p de 0,02. Si el valor de t observado se encuentra entre los valores dados, se dan los dos valores de p entre los que caen los resultados de la prueba de la t. Por ejemplo, si se encuentra una t de 2,160 con 30 df, la probabilidad se expresa como sigue: 0,015 < p < 0,02. (2) Para una prueba de la t con dos colas: el procedimiento es el mismo que para la prueba de una cola, con la excepción de que el valor de p obtenido debe ser duplicado para incluir la probabilidad de la otra cola. Por ejemplo, si una prueba de la t de dos colas da un valor de t de 2,147 con 30 df, se debe duplicar el valor de p de dicha columna (0,02) para dar el valor correcto de p de 0,04.
273
APÉNDICE C Véanse las páginas 276-279 para la Tabla C.
275
276 APÉNDICE C
TABLA C. PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA JI AL CUADRADO* ( Cont. ) df
0,9995
0,995
0,99
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
0,000000393 0,00100 0,0153 0,0639 0,158 0,299 0,485 0,710 0,972 1,265 1,587 1,934 2,305 2,697 3,108 3,536 3,980 4,439 4,912 5,398 5,896 6,404
0,0000393 0,0100 0,0717 0,207 0,412 0,676 0,989 1,344 1,735 2,156 2,603 3,074 3,565 4,075 4,601 5,142 5,697 6,265 6,844 7,434 8,034 8,643
0,000157 0,0201 0,115 0,297 0,554 0,872 1,239 1,646 2,088 2,558 3,053 3,571 4,107 4,660 5,229 5,812 6,408 7,015 7,633 8,260 8,897 9,542
0,975 0,000982 0,0506 0,216 0,484 0,831 1,237 1,690 2,180 2,700 3,247 3,816 4,404 5,009 5,629 6,262 6,908 7,564 8,231 8,907 9,591 10,283 10,982
Probabilidad 0,95
0,90
0,80
0,70
0,60
0,00393 0,103 0,352 0,711 1,145 1,635 2,167 2,733 3,325 3,940 4,575 5,226 5,892 6,571 7,261 7,962 8,672 9,390 10,117 10,851 11,591 12,338
0,0158 0,211 0,584 1,064 1,610 2,204 2,833 3,490 4,168 4,865 5,578 6,304 7,042 7,790 8,547 9,312 10,085 10,865 11,651 12,443 13,240 14,041
0,0642 0,446 1,005 1,649 2,343 3,070 3,822 4,594 5,380 6,179 6,989 7,807 8,634 9,467 10,307 11,152 12,002 12,857 13,716 14,578 15,445 16,314
0,148 0,713 1,424 2,195 3,000 3,828 4,671 5,527 6,393 7,267 8,148 9,034 9,926 10,821 11,721 12,624 13,531 14,440 15,352 16,266 17,182 18,101
0,275 1,022 1,869 2,753 3,655 4,570 5,493 6,423 7,357 8,295 9,237 10,182 11,129 12,078 13,030 13,983 14,937 15,893 16,850 17,809 18,768 19,729
TABLA C. PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA JI AL CUADRADO* ( Cont. ) df dl
6,924 7,453 7,991 8,538 9,093 9,656 10,227 10,804 13,787 16,906 20,137 23,461 30,340 37,467 44,791 52,276 59,896 75,467 91,391 107,597 124,033 140,660
0,995 9,260 9,886 10,520 11,160 11,808 12,461 13,121 13,787 17,192 20,707 24,311 27,991 35,534 43,275 51,172 59,196 67,328 83,852 100,655 117,679 134,884 152,241
0,99 10,196 10,856 11,524 12,198 12,879 13,565 14,256 14,953 18,509 22,164 25,901 29,707 37,485 45,442 53,540 61,754 70,065 86,923 104,034 121,346 138,820 156,432
0,975 11,689 12,401 13,120 13,844 14,573 15,308 16,047 16,791 20,569 24,433 28,366 32,357 40,482 48,758 57,153 65,647 74,222 91,573 109,137 126,870 144,741 162,728
Probabilidad 0,95 13,091 13,848 14,611 15,379 16,151 16,928 17,708 18,493 22,465 26,509 30,612 34,764 43,188 51,739 60,391 69,126 77,929 95,705 113,659 131,756 149,969 168,279
0,90 14,848 15,659 16,473 17,292 18,114 18,939 19,768 20,599 24,797 29,051 33,350 37,689 46,459 55,329 64,278 73,291 82,358 100,624 119,029 137,546 156,153 174,835
0,80 17,187 18,062 18,940 19,820 20,703 21,588 22,475 23,364 27,836 32,345 36,884 41,449 50,641 59,898 69,207 78,558 87,945 106,806 125,758 144,783 163,868 183,003
0,70 19,021 19,943 20,867 21,792 22,719 23,647 24,577 25,508 30,178 34,872 39,585 44,313 53,809 63,346 72,915 82,511 92,129 111,419 130,766 150,158 169,588 189,049
0,60 20,690 21,652 22,616 23,579 24,544 25,509 26,475 27,442 32,282 37,134 41,995 46,864 56,620 66,396 76,188 85,993 95,808 115,465 135,149 154,856 174,580 194,319
APÉNDICE C
23 24 25 26 27 28 29 30 35 40 45 50 60 70 80 90 100 120 140 160 180 200
0,9995
277
278
TABLA C. PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA JI AL CUADRADO* ( Cont. ) 0,50
0,40
0,30
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
0,455 1,386 2,366 3,357 4,351 5,348 6,346 7,344 8,343 9,342 10,341 11,340 12.340 13,339 14,339 15,338 16,338 17,338 18,338 19,337 20,337 21,337 22,337 23,337 24,337 25,336
0,708 1,833 2,946 4,045 5,132 6,211 7,283 8,351 9,414 10,473 11,530 12,584 13,636 14,685 15,733 16,780 17,824 18,868 19,910 20,951 21,991 23,031 24,069 25,106 26,143 27,179
1,074 2,408 3,665 4,878 6,064 7,231 8,383 9,524 10,656 11,781 12,899 14,011 15,119 16,222 17,322 18,418 19,511 20,601 21,689 22,775 23,858 24,939 26,018 27,096 28,172 29,246
0,20
0,10
0,05
1,642 3,219 4,642 5,989 7,289 8,558 9,803 11,030 12,242 13,442 14,631 15,812 16,985 18,151 19,311 20,465 21,615 22,760 23,900 25,038 26,171 27,301 28,429 29,553 30,675 31,795
2,706 4.605 6,251 7.779 9,236 10,645 12,017 13,362 14,684 15,987 17,275 18,549 19,812 21,064 22,307 23,542 24,769 25,989 27,204 28,412 29,615 30,813 32,007 33,196 34,382 35,563
3,841 5,991 7,815 9,488 11,070 12,592 14,067 15,507 16,919 18,307 19,675 21,026 22,362 23,685 24,996 26,296 27,587 28,869 30,144 31,410 32,671 33,924 35,172 36,415 37,652 38,885
0,025 5,024 7,378 9,348 11,143 12,833 14,449 16,013 17,535 19,023 20,483 21,920 23,337 24,736 26,119 27,488 28,845 30,191 31,526 32,852 34,170 35,479 36,781 38,076 39,364 40,646 41,923
0,01 6,635 9,210 11,345 13,277 15,086 16,812 18,475 20,090 21,666 23,209 24,725 26,217 27,688 29,141 30,578 32,000 33,409 34,805 36,191 37,566 38,932 40,289 41,638 42,980 44,314 45,642
0,005 7,879 10,597 12,838 14,860 16,750 18,548 20,278 21,955 23,589 25,188 26,757 28,300 29,819 31,319 32,801 34,267 35,718 37,156 38,582 39,997 41,401 42,796 44,181 45,559 46,928 48,290
0,05 12,116 15,202 17,730 19,997 22,105 24,103 26,018 27,868 29,666 31,420 33,137 34,821 36,478 38,109 39,719 41,308 42,879 44,434 45,973 47,498 49,011 50,511 52,000 53,479 54,947 56,407
APÉNDICE C
Probabilidad
dl
TABLA C. PUNTUACIÓN O VALOR DEL PORCENTAJE SUPERIOR PARA LAS DISTRIBUCIONES DE LA JI AL CUADRADO* ( Cont. ) df 27 28 29 30 35 40 45 50 60 70 80 90 100 120 140 160 180 200
0,9995 26,336 27,336 28,336 29,336 34,336 39,335 44,335 49,335 59,335 69,334 79,334 89,334 99,334 119,334 139,334 159,334 179,334 199,334
0,995 28,214 29,249 30,283 31,316 36,475 41,622 46,761 51,892 62,135 72,358 82,566 92,761 102,946 123,289 143,604 163,898 184,173 204,434
0,99 30,319 31,391 32,461 33.530 38,859 44,165 49,452 54,723 65,227 75,689 86,120 96,524 106,906 127,616 148,269 168,876 189,446 209,985
0,975 32,912 34,027 35,139 36,250 41,778 47,269 52,729 58,164 68,972 79,715 90,405 101,054 111,667 132,806 153,854 174,828 195,743 216,609
Probabilidad 0,95
36,741 37,916 39,087 40,256 46,059 51,805 57,505 63,167 74.397 85,527 96,578 107,565 118,498 140,233 161,827 183,311 204,704 226,021
40,113 41,337 42,557 43,773 49,802 55,758 61,656 67,505 79,082 90,531 101,879 113,145 124,342 146,567 168,613 190,516 212,304 233,994
0,90 43,195 44,461 45,722 46,979 53,203 59,342 65,410 71,420 83,298 95,023 106,629 118,136 129,561 152,211 174,648 196,915 219,044 241,058
0,80 46,963 48,278 49,588 50,892 57,342 63,691 69,957 76,154 88,379 100,425 112,329 124,116 135,807 158,950 181,840 204,530 227,056 249,455
0,70 49,645 50,993 52,336 53,672 60,275 66,766 73,166 79,490 91,952 104,215 116,321 128,299 140,169 163,648 186,847 209,824 232,620 255,264
0,60 57,858 59,300 60,735 62,162 69,199 76,095 82,876 89,561 102,695 115,578 128,261 140,782 153,167 177,603 201,683 225,481 249,048 272,423
APÉNDICE C
Fuente de los datos: derechos de autor 1982, Novartis. Reimpresa con permiso de Geigy Scientific Tables, 8.a ed., editada por Lentner, C. Todos los derechos reservados. Resumida por Shott, S. Statistics for Health Professionals, Philadelphia, W.B. Saunders Company, 1990. *Instrucciones para el uso de la tabla: determinar los grados de libertad (df) apropiados a la prueba de la ji al cuadrado calculada e ir a la línea correspondiente más próxima, utilizando la columna de la izquierda (encabezada con df). En dicha línea, moverse hacia la derecha en el cuerpo de la tabla y encontrar el valor de la ji al cuadrado que corresponde al calculado. Se encuentra el correspondiente valor de p en la parte alta de dicha columna. Por ejemplo, con 6 df, la ji al cuadrado calculada de 12,592 corresponde a un valor de p de 0,05. Si el valor de la ji al cuadrado calculado cae entre dos columnas de la tabla, se ponen los dos valores de p entre los que caen los resultados de la prueba de la ji al cuadrado. Por ejemplo, con 6 df, la probabilidad de una ji al cuadrado de 13,500 se expresa como sigue: 0,025 < p < 0,05.
279
ÍNDICE ALFABÉTICO Los números de página en negrita indican capítulos completos. A Accidente cerebrovascular mortal, cálculo riesgo, 46-47 Acuerdo intragrupal, pruebas diagnósticas, 209 Aerosolización, agente infeccioso, 92 Agency for Toxic Substances and Disease Registry (ATSDR), 66 Ajuste tasas, 40-43 – – método directo, 40, 42-43 – – – indirecto, 40, 42-43 Alaska, fallecimientos ocupacionales, 70, 72 Aleatorización, control factor confusión, 112 – ensayo clínico, 98, 109, 110, 112 – finalidad, 109 – selección muestra, 191 Alfa α, 175, 176 – – definición, 134 – – relación beta (β), 176 Alfabeto, conjunto datos discretos, 149 American Statistical Association, 21 – – Society, 21 Análisis bivariante, 223-240 – – definición, 223 – – diagramas dispersión, 128, 224, 225, 226, 227, 232, 233 – – prueba no paramétrica, 234-235 – – – – – definición, 226 – – – – – estadística ji cuadrado, 222, 235-236 – – – – – prueba Kruskal-Wallis, 224, 235 – – – – – – McNemar, 224, 238 – – – – – – U Mann-Whitney, 224, 234-235 – – – – – – Wilcoxon, 224, 234 – – – paramétrica, coeficiente correlación Pearson, 225, 226 – – – – definición, 224 – – – – regresión lineal, 224 – – regresión lineal, 137, 227-229 – – – – ajuste línea regresión, 231-232 – – – – coeficiente determinación, 229 – – – – comparación análisis regresión logística, 245, 246 – – – – prueba F, 230 – – – – herramienta predicción, 227
Análisis bivariante, regresión lineal simple, 227-229 – – – – valores x, 232 – – – – – y, 232 – covarianza (ANCOVA), 248 – función discriminante, 250 – grupos, 250, 251 – logarítmico lineal, 250 – multivariable, 241-252 – – análisis función discriminante, 250 – – definición, 241 – – diferenciación análisis multivariante, 241 – – opción tipo apropiado, 241, 242 – multivariante, 241-252 – – diferenciación análisis multivariable, 241 – – varianza (MANOVA), 250 – regresión, 137-138. Ver también Análisis regresión lineal; Análisis regresión logística; Análisis regresión múltiple – – lineal, 137-138 – – – ajuste línea regresión, 229-230 – – – coeficiente determinación, 227-229 – – – diferenciación análisis regresión logística, 245, 246 – – – herramienta predicción, 227 – – – múltiple, 245 – – – prueba F, 230 – – – simple, 227-229 – – – – valores x, 232 – – – – – y, 232 – – logística, 137-138 – – – coeficiente b, 245, 247 – – – diferenciación análisis regresión lineal, 245, 246 – – – logaritmo natural (n), 246 – – múltiple, 244 – – – coeficiente regresión, 244 – – requerimiento datos, 243, 244 – supervivencia, 253-264 – – definición, 138 – – diferenciada de regresión lineal/logística, 138 – varianza (ANOVA), 222, 242, 243, 248, 249 Analogía, causalidad, 98 ANCOVA (análisis covarianza), 248 ANOVA (análisis varianza), 220, 240, 241, 246, 247
281
282
ÍNDICE ALFABÉTICO Área bajo curva, distribución normal, 155 Armas químicas, 92 Artefacto (carácter espurio), 95 Artículos revista, en medicina basada evidencia, 118, 119, 123 Asignación aleatoria, selección muestra, 191 Asociación, análisis bivariante, 223 – – multivariable, 241 – exposición-desenlace, 98 – frente a causalidad, 95 – fuerza, 98 – metaanálisis, 102 – modificación efecto, 99 – relación con causalidad, 95 – tipos, 95, 96 Azar, 95, 96 B Bacteriemia, neumocócica, 81 Baker, George, 17 Bases datos, evidencia recurso medicina basada evidencia, 117, 123 Bayes, Thomas, 202 Behavioral Risk Factor Surveillance System (BRFSS), 65, 66 Beta (β), 175, 176 – – definición, 134 – – potencia, 134 – – relación alfa (α), 176 Bioestadística, conceptos básicos, 127-138 – definición, 127 – utilidad, 127 Bondad ajuste, prueba ji cuadrado, 222 Botulismo, agente bioterrorismo, 91 – enfermedad declaración obligatoria, 64 Broad Street, Londres, 21 Brotes, investigación, 89, 90 Brown, Mary, 25 Brucelosis, agente bioterrorismo, 91 – enfermedad declaración obligatoria, 64 Budd, William, 24 Bureau of Labour Statistics, 67 C Cadena infección, 81 California, letalidad laboral, 70, 72 Calostro, 83 Cáncer escrotal, 18-19 – pulmonar, tabaquismo como factor riesgo, 26-27, 32-33, 98-99 Carácter espurio (artefactos), 95 Carbunco, agente bioterrorismo, 91 – enfermedad declaración obligatoria, 64 Causalidad, 95 – consistencia, 97 – criterios Hill, 97 – definición, 95
Causalidad directa, diferenciación causalidad indirecta, 98 – enfermedad, triángulo epidemiológico, 79, 80 – especificidad, 97 – factor confusión, 98, – indirecta, diferenciación causalidad directa, 98 – necesaria pero no suficiente, 98 – – y suficiente, 98 – ni suficiente ni necesaria, 98 – prueba, 95 – relación con asociación, 95, 223 – suficiente pero no necesaria, 98 – temporalidad, 97 – tipos, 98 Censo, 62, 63, 67 – Estados Unidos, 62, 63, 67 Censura derecha, 254 – – tipos, 255 – intervalo, 254 – izquierda, 254 – relación sesgo, 256 – supuesto principal, 254 Centers for Disease Control and Prevention (CDC), 81 – – – – – – – Behavioral Risk Factor Surveillance System (BRFSS), 65, 66 – – – – – – – fuente información respuesta bioterrorismo, 91 – – – – – – – National Center for Health Statistics (NCHS), 61-62 – – – – – – – – Notifiable Disease Surveillance System (NNDSS), 62-63 – – – – – – – Office of Malaria Control in War Areas, 15, 26 – – – – – – – recomendaciones vigilancia hepatitis C, 89-90 – – Medicare and Medicaid Services (CMS), 66 Certificados defunción, 40 Chancroide, enfermedad declaración obligatoria, 64 Clasificadores prueba, medición acuerdo, 208-209 Clergy Orphan’s School, St. John’s Wood, Londres, 24 Clinical Laboratory Improvement Amendments (CLIA), 66 Clínicamente significativo, diferenciación estadísticamente significativo, 179 Coccidioidomicosis, enfermedad declaración obligatoria, 64 Cociente crítico, 214 – – prueba, datos dos muestras, 215 – – relación datos pareados, 215 – – tamaño, 216 – F, 248 – riesgo, 262 – verosimilitud, cálculo, 204, 205 – – definición, 204 – – negativo, 118, 119 – – positivo, 118, 119 – – uso, 204-205
ÍNDICE ALFABÉTICO Coeficiente b, análisis, regresión logística, 248 – correlación Pearson, 137, 225, 226, 227, 232 – – – valores r, 225, 226, 227 – – población. Ver Coeficiente correlación Pearson – determinación, 229 – – ejemplo, 230 – logit, 246, 247 – regresión b, 245, 247 Cogswell, William, 21 Coherencia, 98 Cólera, 20, 21, 22, 32 – enfermedad declaración obligatoria, 64 Cólico Devonshire, 17 Complemento, probabilidad, 131 Comprobación hipótesis, 32-33. Ver también Hipótesis cero (H0) – – correlación rangos Spearman, 232 – – definición, 173, 176 Confusión, análisis multivariable, 241 Consistencia, 97 Construcción modelo, regresión lineal múltiple, 244, 245 – – – logística, 247, 248 Contraste hipótesis, 173-182 Coronavirus asociado síndrome respiratorio agudo grave (SARS-CoV), enfermedad declaración obligatoria, 64 Corrección Yates, 237 Correlación canónica, 250, 251 – coeficiente correlación Pearson, 225, 226 – entre variables, 137 – exigencia datos, 243 – producto-momento. Ver Coeficiente correlación Pearson – rangos Spearman, principios, 233 Covariante, tasa riesgo dependiente tiempo, 249-250 Creación gráficos, datos discretos, 149 – – líneas, 127, 169, 170 – – variables, 127 Cribado bioestadístico, 135 – objetivo, 32 – sesgo tiempo inclusión, 101 Criptosporidosis, enfermedad declaración obligatoria, 64 Criterio Cochran, 236, 238 – Hill, para causalidad, 97 Cuantil, distribuciones frecuencia, 142 Cuartil, 142 Curtosis, 130, 153 – definición, 153 – relación tendencia/dispersión central, 153-154 Curva datos sesgados, 130 – distribución frecuencias, sesgada, 152-153 – – – cuantiles, 144 – – – datos cuantitativos, 141-142 – – – definición, 149 – – – derivación estándar, 144-145
Curva datos distribución diferenciación distribución probabilidades, 158-159 – – – dispersión, 158 – – – distribución gaussiana, 129 – – – – – aplicaciones, 154 – – – – – curtosis cero, 130 – – – – – definición, 154 – – – – – normal, 132 – – – – – puntuación zeta, 156, 157 – – – – – teorema límite central, 157 – – – formas, 152-153 – – – puntuaciones zeta, 156, 157 – – – recorrido, 144 – – – simétrica, 144 – – – tendencia central, 158 – – – usos comunes, 150 – eficacia diagnóstica (ROC), 136-137, 205, 206 – – – – concentración glucosa, 207 – epidémica, 88-89 – exponencial, 242-243 – forma campana. Ver Distribución gaussiana – geométrica, 242-243 – logarítmica, 242-243 – supervivencia, análisis covariable, 249 – – Kaplan-Meier, 257, 259 – – – análisis modelo riesgos proporcionales Cox, 249 – – – representación, 261-262 – – – prueba orden logarítmico, 262 – – peldaños escalera, 259 – – pruebas comparación, 262 D Datos. Ver también Variables, análisis bivariante – categóricos, análisis regresión logística, 238 – censurados, 253-256 – – estudio supervivencia, 255 – – ordenación suceso/tiempo censura, 261 – cociente, 149 – – distribución frecuencia, 152 – – tendencia central, 151 – continuos, 223 – – análisis bivariante, 223 – – cuantitativos, análisis correlación Pearson, 224 – – – – – rangos Spearman, 224 – – – – diagrama dispersión, 224 – – – – prueba Kruskal-Wallis, 224 – – – – – U Mann-Whitney, 224 – – – – – Wilcoxon, 224 – – datos cociente, 150 – – – intervalo, 149 – – diferenciación datos discretos, 149 – – frecuencia distribución, 149 – cualitativos, 139-140283 – cuantitativos, 139 – – frecuencia distribuciones, 141-142 – descripción, 139-150
283
284
ÍNDICE ALFABÉTICO Datos discretos, 223 – – diferenciación datos continuos, 149 – – nominales, 149 – duración, 253 – fiabilidad, 253 – fuentes/vigilancia, 59-78 – historia suceso, 253 – intervalo, 150 – – distribución frecuencia, 152 – – tendencia central, 151 – muestrales, distribución, área bajo curva, 155, 156 – – – normal, 154 – nominales, 149 – – tendencia central, 151 – ordinales, 149 – – tendencia central, 151 – pareados, 224 – poblacionales, distribución normal, 154 – presentación, 163-172 – – diagrama cajas/bigotes, 167-168 – – – circular (gráfico quesitos), 128, 169 – – – tallo/hojas, 167 – – gráfico líneas, 169-170 – – histograma (gráfico barras), 88, 128, 164, 165, 166, 167, 169 – – mapa distribución geográfica, 166, 167 – – pictórica, 171 – – polígono frecuencias, 128, 165, 166, 170 – resumen, 139-150 – supuesto normalidad, 224 – tiempo hasta fracaso, 253 – vida sujeto, 223 De Morbis Artificum Diatribe (Ramazzini), 16 Decameron (Boccacio), 14 Defense Medical Surveillance System (DMSS), 67 Deficiencia niacina, 25 – vitamina C, 16 Dendrograma (diagrama arbóreo), 251 Denominador, valoración riesgo, 52-53 Deriva antigénica, 84 Deshollinadores, cáncer escrotal, 19 Desigualdad de Chebyshev, 129 Desviación estándar, 129, 130, 144, 145, 146, 152, 180 – – cálculo, 129, 152 – – definición, 152 – – diferenciación varianza, 129 Determinación probabilidad, 131, 184, 189 – – complemento suceso, 131 – – diagrama Venn, 131, 187, 189 – – intersección sucesos, 131 – – ley aditiva, 132, 189, 190 – – – multiplicativa, 132 – – – – para sucesos independientes, 132-133 – – unión sucesos, 131 Diagrama árbol (dendrograma), 251 – barras, definición, 165
Diagrama cajas, 128 – cajas/bigotes, 167-168 – – valor externo, 168 – – – remoto, 168 – – ventaja, 168 – dispersión, 225 – – debilidad, 225 – – sinónimos, 224 – tallo/hojas, 167 – tarta (gráfico quesitos), 127, 169 – – – – definición, 169 – – – – desventaja, 169 – Venn, 131 – – sucesos mutuamente excluyentes, 187 – – – no mutuamente excluyentes, 187 Dibujos, 171 Difteria, enfermedad declaración obligatoria, 64 Diseño disperso, correlación, 226, 228 – – debilidad, 225 – estudio analítico, 102, 111 – investigación, definición, 103 – modelo investigación, 103-114 – – – ventajas/desventajas, 36 Dispersión, 147 – efecto valores extremos, 153-154 – medidas, 128, 144, 151, 152 – relación curtosis, 153-154 Distribución bimodal, 152-153 – binomial, 160-162 – cálculo proporción exacta, 155 – frecuencias, 149-162 – – aplicaciones, 150 – Gauss, curtosis cero, 130 – gaussiana, 129, 132, 154-158 – – definición, 154 – – puntuación zeta, 156, 157 – – regla empírica, 129 – – teorema límite central, 156, 157 – – usos, 154 – nominal. Ver Distribución gaussiana – normal, 211. Ver también Distribución gaussiana – probabilidades, 149-162 – – cálculo distribución binomial, 160-162 – – continua, 159, 160 – – diferenciación distribución frecuencias, 158-159 – – ejes x/y, 159 – sesgada, 130, 143, 144, 153 – – definición, 153 – – derecha, ejemplo, 153 – – efectos en media/mediana/moda, 154 – t, comparación distribución z, 213 – – de Student, 211-222 – – valores porcentaje superior, 271-273 – z, 211 – – frente a distribución t, 213 – – – – prueba t, 213 Divorcio, determinación riesgo, 48
ÍNDICE ALFABÉTICO Dugas, Gaetan, 25, 27 Duración datos, 253 E Ecuación 1-β, 134, 176 – regresión lineal, diferenciación ecuación regresión logística, 245-246 Efecto trabajador sano, 101 Ehrlichiosis, enfermedad declaración obligatoria, 64 Ejemplo riesgo atribuible, 54, 55 – tanque entrenamiento escape submarino, proporción probabilidades, 52 Elecciones presidenciales, probabilidad, 188 Electroforesis, gel campo pulsado (PFGE), 89 Emparejamiento, control factor confusión, 112 – desventajas, 113 Encefalitis, enfermedad declarable, 64 Endemia, diferenciación epidemia/pandemia, 87 Enfermedad declaración obligatoria, 62-63 – infecciosa, detección, 88, 89 – – uso bioterrorismo, 90-91 – Lyme, distribución geográfica Estados Unidos, 167 – – enfermedad declaración obligatoria, 64 – meningocócica, enfermedad declaración obligatoria, 64 – transmisión, 79-94 – – cadena infección, 81 – – directa, 80-81, 82 – – indirecta, 80-81, 82 – – triángulo epidemiológico, 79, 80 Enfoque poblacional, determinación recorrido normal, 195 – – uso, 195 Enmascaramiento, 112 Ensayo clínico aleatorio, 98, 109, 110, 112 – – controlado, 109-111, 113 – inmunoabsorbente ligado a enzimas (ELISA), prueba anticuerpos hepatitis C, 90 Epidemia, definición, 82, 87, 88 – diferenciación endemia/pandemia, 87 – propagada, 90 – punto arranque, 88-89 Epidemiología clínica, padre, 18 – definición, 31, 35 – descriptiva, 33 – perspectiva histórica, 13-29 – principios, 31-44 – suposiciones fundamentales, 32 – utilidad, 32 Epidemiólogo, 31 Error aleatorio, 110, 147 – estándar, 180 – – cálculo única muestra, 213 – – diferencia, 215-216 – – media, 146, 158 – – – muestral, 212 – heteroscedástico, 247
Error medición, 146, 147 – – sistemático (sesgo), 147 – muestreo, 191, 192 – – causas, 191 – sistemático. Ver Sesgo – tipo I, 134, 175, 176 – – II, 134, 175, 176 Escala cocientes, 141 – – valor cero significativo, 142 – intervalos, 141 – medida, 140, 141 – nominal, 140 – ordinal, 140-141 Escorbuto, 15, 16, 23 Escuela, vigilancia sindrómica, 91 Especificidad, 135, 137 – cálculo, 199 – definición, 135, 198-199 – prueba, cálculo, 118-119, 199 – – relación tasa falsos positivos, 199-200 – poblacional, 158 – vital, 40 – – definición, 61 Estadístico F, 222, 248, 249 – – grados libertad, 248 – inferencial, interpretación, 158 – ji cuadrado, 235-237 – – – aplicaciones, 222 – – – criterio de Cochran, 236 – – – definición, 222 – – – tablas contingencia 2 ⫻ 2, 236-237 – – – – – – – – corrección Yates, 237 – – – – – – – – prueba exacta Fisher, 238 – – – – – – – – – McNemar, 238 – – – valores porcentaje superior, 275-279 – Wald, 248 Estados Unidos, letalidad laboral, 70, 72-74 Estatura, correlación peso, 226, 228 Estimador producto límite Kaplan-Meier, 259 Estudio, 59 – aleatorio controlado frente a estudio observacional, 116 – – – n = 1, 116 – – propósito, 109 – analítico, 103 – cardíaco Framingham, 20, 26, 60 – caso-control, 34, 35, 36 – – anidado, 108 – – determinación asociación, 96 – – evidencia experimental, 96 – – factores riesgo, 50, 51 – – grupo control, 105 – – posibilidad relativa, 51285 – – razón relativa, controles pareados, 56 – – riesgo relativo, 50 – – sesgo, 110, 111, 112 – – ventajas/desventajas, 35-36
285
286
ÍNDICE ALFABÉTICO Estudio ciego, 112, – cohortes, 35, 36 – – controlados, medición riesgo, 45 – – determinación asociación, 96 – – limitaciones, 108 – – prospectivo, 106 – – – diferenciación estudio cohorte retrospectivo, 106 – – prueba experimental, 97 – – retrospectivo, 106 – – riesgo relativo, 51-52 – – sesgo selección, 110 – – ventajas, 107, – – ventajas/desventajas, 36 – correlación, 104 – descriptivo, 33-34, 103, 106, 107 – – tipos, 103 – diagnóstico, evaluación basada evidencia, 122-123 – doble ciego, 112 – ecológico, 96 – – (correlación), 33, 36, 104 – – definición, – – ventajas/desventajas, 35-36 – encuesta, debilidades, 59 – – definición, 59 – experimental, 34 – – estrategia básica, 108 – intervención, 104, 108-110 – longitudinal. Ver Estudio cohortes – múltiple frente a estudio único, 116 – National Centre for Health Statistics (NCHS), 65 – observacional, 104 – – frente a estudio controlado aleatorio, 116 – poder bajo, 182 – pronóstico, evaluación basada evidencia, 123-124 – prospectivo. Ver Estudio cohorte – terapéutico, valoración basada evidencia, 124 – transversal, 33-34, 36, 103, 104 – – prueba experimental, 98 – – sesgo selección, 110 – – ventajas/desventajas, 35-36 Evidencia experimental, jerarquía, medicina basada evidencia, 115-116 – investigación, 115. Ver también Evidencia experimental, jerarquía, medicina basada evidencia Exactitud combinada con precisión, 82 – diferenciación precisión, 196 – ejemplos, 196-197, 198 Exclusividad mutua, 131, 188, 189 Expresión 1-β, 175 F Fábrica cerveza Guinnes, 211 Fabricación vino, 19 Factor confusión, 95, 96, 98, 99, 112 – – control, 112-113
Factor confusión, estudios correlación, 104 – – minimización, 99 – riesgo, definición, 95 – – diferenciación causa, 95 – – estudio caso-control, 50, 51 – – formas, 48 – – genético, 48 – – medioambiental, 48 – – relación riesgo enfermedad, 50-51 – – relacionado estilo vida, 48 – – sinergia, 99 Falacia ecológica, 34, 96-97 Fallecimientos específicos, causas concretas, método estandarización, 44 Farr, William, 21 Fermentación, 19 Fiebre amarilla, 20, 23-24 – – enfermedad declaración obligatoria, 65 – entérica (fiebre tifoidea), 24 – hemorrágica vírica, agente bioterrorismo, 91 – manchada Montañas Rocosas, enfermedad declaración obligatoria, 64 – puerperal, 18, 22-23 – Q, agente bioterrorismo, 91 – – enfermedad declaración obligatoria, 64 – tifoidea, 24 – – enfermedad declaración obligatoria, 65 Fisher, John Dix, 21 Flagelante, 15 Fletcher, Richard, 21 Florida, letalidad laboral, 70, 72 Frecuencias acumulativas, 149 – distribución, 149-162 Fuentes científicas actuales, 117 – datos, vigilancia, 59-78 Fuerzas Armadas, reposición datos supervisión médica, 67-68 Función riesgo, 256 – – definición, 249 – – tipos, 257-258 – supervivencia, 256, 257 G Galeno, 13 Gammagrafía ventilación-perfusión (V/Q), diagnóstico embolia pulmonar, 120, 121 Gata, Masanoro, 15 Gauss, Karl Friedrich, 129 Georgia, letalidad laboral, 70, 72 Giardiasis, enfermedad declaración obligatoria, 64 Goldberger, Joseph, 25-26 Gonorrea, enfermedad declaración obligatoria, 64 Gossett, William, 209, 210286 Gradiente biológico, 98 Grados Celsius, 149-150
ÍNDICE ALFABÉTICO Grados, libertad, 213 – – comparación dos muestras independientes, 215-216 – Kelvin, 150 Graficación, variables, 127 Gráfico barras. Ver Histograma – dispersión, 224, 225 – distribución conjunta, 224 – líneas, 128, 169, 170 – – definición, 169-170 Graunt, John, 15, 18 Gripe, 1918-1919, 84 – curva epidémica origen único, 89 – epidemia, 84, 85 Grupo control, 113 – – diferenciación grupo estudio, 56 – – estudio caso-control, 105 – – – – pareado, 56 – estudio, diferenciación grupo control, 56 – trabajo, pruebas diagnósticas, acuerdo, 209 Guerra biológica, uso enfermedades infecciosas, 90, 91, 92 – britanicofrancesa, 92 – britanicoindia, 92 – hispanoamericana, Guyatt, Gordon, 115 H Health Insurance Portability and Accountability Act of 1996 (HIPAA), 66 Hepatitis A, transmisión indirecta, 80-81 – B, inmunoglobulina, 83 – C, programa vigilancia médica, 89-90 – enfermedad declaración obligatoria, 64 Herida, ventana del cuerpo, 13 Hipócrates, 13, 15 – inglés, 16 Hipótesis alternativa, 133, 176 – contraste, 173-182 – – cero (H0), 133, 173 – – – aceptación, 174 – – – aceptación/rechazo, correlación rangos Spearman, 233 – – – – error tipo I, 134, 176 – – – – – – – II, 134 – – – – estadístico ji cuadrado, 235-236 – – – – – F, 251 – – – – – valor p, 134 – – – rechazo, 174 Histograma, 88, 128, 164, 165, 166, 167, 169 – comparación diagrama tallo/hojas, 167 – debilidad, 164-165, 169 – definición, 164 – intervalos, 164 Huésped, para enfermedad, 79, 80, 81, 82 I Imágenes, presentación datos, 171 Incidencia, 37, 47
Independencia, comprobación, 208 – prueba ji cuadrado, 222 Índice, diferenciación riesgo, 47 – mortalidad específico edad, ajuste indirecto, 42 Infección aparente (sintomática), 82 – bacteriana, resistente antibióticos, 81, 82 – Chlamydia trachomatis, enfermedad declaración obligatoria, 64 – Escherichia coli 0104:H21, epidemia propagada, 90 – estreptocócica, enfermedad declaración obligatoria, 64-65 – gripe A, variación estacional, 86 – – B, variación estacional, 86 – Haemophilus influenzae, enfermedad declaración obligatoria, 64 – inaparente (asintomática), 82 – micoplasma, variación estacional, 86 – Staphylococcus aureus, variación estacional, 86 – Streptococcus pneumoniae, variación estacional, 86 – varicela, enfermedad declaración obligatoria, 64 – – virus inmunodeficiencia humana (VIH), enfermedad declaración obligatoria, 64 – teoría miasma, 13, 18 Infecciosidad, 81 Inferencia científica, 33 – estadística, 133 Información, presentación, primera etapa, 163 – WHOSIS, 77 Informe casos, 33, 35, 103, 104 – – evidencia experimental, 96 – Lalonde, 27 – morbilidad, 40 Inmunidad activa, 82 – adquirida, 83 – grupo, 83, 84 – pasiva, 82 – – adquirida artificialmente, 83 – – – naturalmente, 82 – tipos, 82 Inmunoglobulina varicela zóster (VZIG), 86 Intercuartil, 144 Intersección, dos sucesos, 131 Intervalo confianza, 181 – – 95%, 219 – – amplitud, 181, 221 – – cálculo, prueba t de Student, 212 – – definición, 137, 219 – – frente a valor p, 181 Intoxicación plomo, 17, 25 Investigación epidemias, 79-94 – Medicare Current Beneficiary Survey (MCBS), 66 87 J Jenner, Edward, 18, 19 Joint Nation Comission on Heart Disease, 194-195
287
288
ÍNDICE ALFABÉTICO Journal of the Plague Year (Defoe), 14 Juego cartas, probabilidad, 182, 183, 184 K Kappa, cálculo, 207-208 – de Cohen (prueba de kappa), 207 Kendall, valor tau, 232 Kinyoun, Joseph, 21 Kitasato, Shibasaburo, 15 Koch, Robert, 20 L Lancet, 24 Lanzamiento moneda, suceso independiente, 185 Lavado manos, prevención fiebre puerperal, 18, 22-23 Legionelosis, enfermedad declaración obligatoria, 64 Lepra (enfermedad de Hansen), enfermedad declaración obligatoria, 64 Lesiones laborales, mortalidad, 67-69, 71 Letalidad laboral, 67, 68 – – estadística vital trabajador, 70, 75 – – por estado, incidencia, 70, 72-74 – – – sector industrial, 68, 69, 70, 71 Ley aditiva probabilidades, 131-132 – multiplicadora probabilidad, para sucesos independientes, 132-133 – multiplicativa probabilidades, 132, 189, 190 – Randsell, 21 Lind, James, 17 Línea regresión, 242 Literatura médica, preguntas clave, 117 Logaritmo neperiano, 246 Louis, P.C.A., 18, 20-21 M Malaria, enfermedad declaración obligatoria, 64 Mallon, Mary, 25 MANOVA (análisis multivariado varianza), 250 Mapa distribución geográfica, 166-167 Matriz similitud, 251 Media, 128, 150 – como indicador tendencia central, 142 – diferenciación mediana, 128 – distribución frecuencia simétrica, 144 – – sesgada, 154 – muestras población, 137 – prueba F, 248 Mediana, 128, 150 – cálculo, 128 – – distribución frecuencias, 142 – como indicador tendencia central, 128, 141, 150 – definición, 128, 142, 150 – diferenciación media, 128 – distribución frecuencias simétricas, 144 – – sesgada, 154 Medicaid, 66 Medicare, 66
Medicare Current Beneficiary Survey (MCBS), 66 Medicina basada evidencia, 115-126 – – – definición, 115 – – – jerarquía, 115-116 – – – preguntas antecedentes/primer plano, 116 – – – puntos clave, 123 – – – recursos en línea, 117, 118, 123 – – – relación evidencia investigación/pericia clínica/valores paciente, 115 – preventiva, definición, 31 Medición, error, 146, 147 – escalas, 140, 141 Medidas dispersión, 151 Medio ambiente, papel en transmisión enfermedades, 80 Meningitis aséptica, variación estacional, 85, 86 – enfermedad declaración obligatoria, 64 Metaanálisis, 102, 113, 180 Método actuarial (análisis tablas vida), 259 – ANOVA, 230 – enfoque afecciones, 196-197 Militar, repositorio datos vigilancia médica, 67 Minería datos (data mining), 177 Mínimos cuadros ordinarios, 244, 247 Moda, 128, 141, 150 – definición, 150 – diferenciación media, 128 – – mediana, 128 – distribución sesgada, 154 Modalidad, definición, 152-153 – distribución frecuencia, 152 Modelo Eibull decreciente, 258 – investigación, diseño, 111 – logit, 246, 247 – regresión probit, 247 – – proporcionales Cox, 249 – – – análisis multivariable, 241, 242, 243 – – – – asunción riesgos proporcionalidad, 249 – supervivencia exponencial, 257 – – logaritmo-normal, 258-259 – Weibull creciente, 258 Modificación efecto, 98 Modo, distribuciones frecuencia simétricas, 144 Montana, letalidad laboral, 70, 73 Morbidity and Mortality Weekly Report (MMWR), 27, 60 Morbilidad, medidas, 38 Mortalidad, medidas, 36 – proporcional, 39 Mosquitos, vectores fiebre amarilla, 23-24 Muerte negra, 14 – relacionada trabajo. Ver Letalidad laboral Muestra, desviación estándar, 144-145 – repetida, diferencia, 157288 Muestreo, 190-192 – definición, 190
ÍNDICE ALFABÉTICO N Natick, Massachusetts, 26 National Center for Health Statistics (NCHS), 61-62, 63, 65, 66, 67 – – – Injury Prevention and Control (NCIPC), 63 – Health and Nutrition Examination Survey (NCHS), 63 – – Care Survey (NHCS), 63 – – Interview Study (NHS), 64 – Immunization Survey (NIS), 64 – Institute for Occupational Safety and Health (NIOSH), 68 – Institutes of Health, 21 – Notifiable Disease Surveillance System (NNDSS), 62-63 – Survey of Family Growth (NSFG), 64 Natural and Political Observations (Graunt), 15 Neumonía, relacionada Pneumocystis carinii, 27 – – Staphylococcus aureus resistente meticilina, 89 – vacuna neumocócica, 83 – varicela, 86-87 New Perspective on the Health of Canadians, 27 Nicolle, Charles Jules Henry, 82 Nivel Leavell, salud preventiva, 31-32 – significación, 172 NNT (número necesario para tratar), 121-122 Nomograma verosimilitud, 121 Número necesario tratar (NNT), 121-122 Números enteros, conjunto datos continuos, 149 O Obtención datos, 174, 175 Occupational Safety and Health Administration (OSHA), 67 Office of Malaria Control in War Areas, 15, 26 Ohio, letalidad laboral, 70, 73 On Airs, Waters and Places (Hipócrates), 13 P Padre epidemiología clínica moderna, 18 Pandemia, diferenciación epidemia/endemia, 87 – plaga, 13-14, 15 Paperas, enfermedad declaración obligatoria, 64 Parábolas, 240-241 Parámetro poblacional, 156 Pasteur, Louis, 19 Pasteurella pestis, 15 Patogenicidad, 81 Patrón oro (referencia), pruebas diagnósticas, 195 Peabody, Oliver, 21 Pelagra, 25 – tratamiento bacteriemia neumocócica, 81 Pennsylvania, letalidad laboral, 70, 73 Percentil, 144 Período incubación, 86 – – agentes bioterrorismo, 90-91 – prevalencia, 38
Peso, correlación estatura, 226, 228 Peste, 13-15, 23 – agente bioterrorismo, 91 – bubónica, 13, 14 – enfermedad declaración obligatoria, 64 Phipps, James, 18 Planificación estudio, tamaño muestra, 192 Pneumocystis carinii, causa neumonía, 27 Población diana, 191 – muestra, media, 137 – puntual, prevalencia, 38 Poder. Ver Potencia Polígono frecuencias, 128, 165, 166, 169 – – definición, 165 – – uso, 165 Poliomielitis, enfermedad declaración obligatoria, 64 Porcentaje riesgo atribuible, 54 Posibilidad, diferenciación probabilidad, 184 – (odds), 49 – posprueba, 118-119 – relativa, estimación riesgo relativo, 106 – – controles pareados, 56 – – ejemplo tanque entrenamiento escape submarino, 52 – – estudios caso-control, 51 – – – – controles pareados, 56 – – (odds ratio), definición, 49-50 – – relación con riesgo relativo, 51-52 – – representatividad, 56 Potencia, 134, 177, 178 – afectación variables, 178 – cálculo, 179 – hipótesis nula falsa, 175 – incremento, 135 – relación con α/β, 135 – valor estándar, 178 – variables, 178 Potts, Percival, 18-19 Precisión, 35, 147 – combinación exactitud, 195 – diferenciación exactitud, 194 – ejemplos, 194-195, 196 Premio Nobel, 82 Presentación datos, 163-172 Presión sanguínea sistólica, límites normales, 196-197 Prevalencia, 37 – determinación tabla 2 ⫻ 2, 118-119 – influencia sobre valor predictivo, 201-202 – período, 38 – puntual, 38 Prevención, niveles, 31-32 – primaria, 31 – secundaria, 31 – terciaria, 31289 Probabilidad, 49, 130, 131, 183-192, 184, 189 – análisis multivariable, 241
289
290
ÍNDICE ALFABÉTICO Probabilidad base para cálculo probabilidades, 184 – cálculo, 183, 184 – – tasa posibilidad, 203 – condicionada, 131, 185, 189 – – relación riesgo relativo, 186 – condicional, 131, 185, 189, 190 – conjunta, 184-185 – definición, 131, 183, 184, 189 – diferenciación posibilidad, 184 – distribución, 149-162 – – demográfica enfermedad, 183, 185, 190 – dos colas (valores z), 265-269 – ecuación estándar, 189 – marginal, 185 – más de un suceso, método algorítmico, 190 – posprueba, 118-119, – preprueba, 202 – prueba, 119 – sucesos independientes, 184, 185, 187, 188, 189 – – – definición, 185 – teorema Bayes, 202 Programas vigilancia médica, hepatitis C, 89-90 Proporción, 148 – atribuible población, 56 – – – ejemplo, 55 – mortalidad estandarizada, 35, 44 – riesgo. Ver Riesgo relativo Prueba bondad de ajuste, modelos regresión, 243 – clasificación, 193 – cualitativa, 193 – definición, 193 – diagnóstica, características, 193-210 – – patrón oro, 197 – especificidad, 118-119, 120 – – cálculo, 119, 120, 201 – – valores elevados, 119, 120 – especificidad, definición, 135 – – relación tasa falsos positivos, 199-200 – exacta Fisher, 238 – experimental, 98 – – jerarquía, relacionada diseño estudio, 98, 113 – F, 230 – falsa negativa, 136 – – positiva, 136 – hipótesis, determinación tipo error, 134, 135 – – error tipo I, 134, 135 – – – – II, 134, 135 – – pasos, 175 – ji cuadrado, bondad ajuste, 222 – – – independencia, 222 – kappa (kappa de Cohen), 209 – Kruskal-Wallis, 224, 235 – McNemar, 224, 238 – no paramétrica, 224 – – – diferenciación prueba paramétrica, 232 – – – indicaciones uso, 232 – – – prueba Wilcoxon, 234
Prueba orden logarítmico, 262 – – – Mantel-Haenszel, 262 – paramétrica, 224 – – diferenciación prueba no paramétrica, 232 – positiva, 195 – probabilidad preprueba, 202 – resultado anormal, como indicador enfermedad, 196 – – – determinación basada condición, 196 – – falso negativo, 136 – – – positivo, 136 – – verdadero negativo, 198 – – – positivo, 198 – sangre oculta en heces, 186 – semicuantitativa, 194 – sensibilidad, 118-119 – – cálculo, 198 – – curva eficacia diagnóstica (ROC), 206 – – definición, 135 – – valores elevados, 119, 120 – seriada, 206 – – diferenciación prueba paralelo, 206 – t, 211, 212 – – cociente crítico, 214, 215 – – de Student, 211-222 – – – – bidireccional, nivel significación, 220 – – – – – dos colas (bilateral), 212, 216 – – – – dos muestras, 218 – – – – frente a distribución z, 213 – – – – grados libertad, 213 – – – – – una cola (unilateral), 212, 216 – – – – – unidireccional, nivel significación, 217 – – error estándar media muestral, 212 – – – – única muestra, 213 – – muestra única, 216 – – pareada, 212 – – pares pareados, 218 – – resultados, 212 – U Mann-Whitney, 224, 234-235 – una cola, diferenciación prueba dos colas, 174 – – – ventajas, 174 – valor predictivo, 134-136 – – – negativo, 136 – – – – cálculo, 118-119, 201, 203 – – – – definición, 200 – – – positivo, 135-136 – – – – cálculo, 118-119, 200, 203 – – – – definición, 200 – – – relación prueba actuación, 201, 202 – Wilcoxon, 224, 232, 234 Psitacosis, enfermedad declaración obligatoria, 64 Puntuación zeta, 156, 157 R Rabia, enfermedad declaración obligatoria, 64 Ramazzini, Bernardino, 16290 Recorrido, 129
ÍNDICE ALFABÉTICO Recorrido, cálculo, 151-152 – intercuartiles, 129, 144, 145, 151-152 Recursos en línea, para medicina basada evidencia, 117, 118, 123 Reed, Walter, 20 Registro enfermedades, 66 Regla empírica, 129 – multiplicadora (producto), 190, 191 – multiplicativa (producto), sucesos no independientes, 189 – producto (multiplicativa), 188, 189 Regresión logística, 238 – – cuantificación riesgo, 239 Relación alfa (α)/beta (β), 176 – matemática S(t)/h(t), 259 Relaciones causa a efecto, 226, 227 Reservorios para enfermedades infecciosas, 80 Resistencia antibióticos, 82 – innata, 81, 82 – vancomicina, Staphylococcus aureus, 65 Restricción, control factor confusión, 112 Resultado cara o cruz, 131 – estadísticamente significativo, 173 – falso negativo, 198 – – positivo, 198 – verdadero negativo, 198 Riesgo absoluto, cálculo, 45, 46, 96 – – definición, 46, 54, 95 – – diferenciación riesgo comparativo, 48 – – valores, 46 – – – altos, 47, 48 – – – bajos, 47, 48 – atribuible, definición, 54, 96 – – diferenciación riesgo relativo, 54-55 – – ejemplo, 54 – – población, aplicación salud pública, 54, 55 – – – definición, 55 – comparativo, 48 – – definición, 48 – – diferenciación riesgo absoluto, 48 – – medición, 48 – definición, 46 – incidencia, 47 – – diferenciación tasa incidencia, 47 – medición, 45-57, 95, 96 – – denominadores, 51-52 – – notación, 45 – – regresión logística, 239 – relativo, 48-49 – – cálculo, 45 – – definición, 48-49, 96 – – diferenciación posibilidad relativa, 52 – – – riesgo atribuible, 54-55 – – estimación basada proporción probabilidades, 106 – – estudio caso-control, 50 – – – cohortes, 52
Riesgo relativo, relación posibilidad relativa, 51-52 – – – probabilidad condicionada, 188 – – uso engañoso, 49 Rodamiento dados, probabilidad, 184 Rubéola, enfermedad declaración obligatoria, 64 S Sackett, David, 115 Salmonella typhi, 24 Salmonelosis, 89 – enfermedad declaración obligatoria, 64 Salud, definición, 31 – pública, definición, 31 Sangría, 18, 20-21 Sarampión, enfermedad declaración obligatoria, 64 – inmunidad grupal, 84 100 secretos principales, 1-11 Secuencia epidemiológica, 32-33 SEM (error estándar media), 146 Semmelweis, Ignac, 18, 22-23 Sensibilidad, 135, 137 – cálculo, 118-119, 198, 199 – definición, 135, 198 – diseño curva eficacia diagnóstica (ROC), 206 – relación tasa falsos negativos, 200 Serie casos, 33, 35, 103, 104 – – ventajas/desventajas, 35-36 Sesgo Berkson, 100 – censura relacionada, 256 – clasificación errónea, 100-101, 111 – confusión, 35 – definición, 99, 153 – entrevistador, 111 – estudio caso-control, 110, 111, 112 – exclusión, 100, 110, 111 – informativo, 35, 100 – notificación, 100, 101 – observación, 110, 111 – – tipos, 111 – recuerdo, 100, 101, 111 – selección, 35, 100, 110, 111 – – error muestreo, 191 – – minimización, 191 – tiempo inclusión, 100, 101 – vigilancia, 100, 101 Shattuck, Lemuel, 21 Shigelosis, enfermedad declaración obligatoria, 64 Sida, paciente cero, 27 Sífilis, enfermedad declaración obligatoria, 65 – Estudio Tuskegee, 20, 26 Significación estadística, 133 Significado estadístico, definición, 173 – – diferenciación significado clínico, 179 Simond, Paul Louis, 15 Síndrome hemolítico urémico, enfermedad declaración obligatoria, 64291 – inmunodeficiencia adquirida (sida), 23, 25
291
292
ÍNDICE ALFABÉTICO Síndrome inmunodeficiencia adquirida (sida) caso inicial, 25, 27 – – – – enfermedad declaración obligatoria, 64 – – – – tendencias seculares, 61 – pulmonar hantavirus, 27-28 – – – enfermedad declaración obligatoria, 64 – shock tóxico, 27 – – – enfermedad declaración obligatoria, 65 Sinergismo, 99 Snow, John, 20 Sobre los aires, aguas y lugares (Hipócrates), 15 Sociedad móvil, agentes bioterrorismo, 90-91 S(t), relación h(t), 259 Staphylococcus aureus, resistente meticilina (MRSA), 89 – – – vancomicina, 65 State and Local Area Integrated Telephone Survey (SLAITS), 64 – Children’s Health Insurance Program (SCHIP), 66 Story of a Number, The (Maor), 247 Streptococcus pneumoniae, resistente penicilina, 85 Sucesos independientes, 184, 185, 187, 188, 189 – – definición, 185 – mutuamente excluyentes, 131, 186, 189, 190 Suicidio, 33 Suma cuadrados, 222, 248 – total cuadrados (STC), 222 Supervivencia, análisis, 253-264 – modelo Weibull, creciente, 258 – – – decreciente, 258 Syndenham, Thomas, 16 T Tabaquismo, causa cáncer pulmonar, 26-27, 32-33, 98-99 Tabla ANOVA, 230 – contingencia, 238-239. Ver también Tabla contingencia 2 ⫻ 2 – – 2 ⫻ 2, 45, 197, 198, 199, 235, 236, 237, 238 – – – – – aplicaciones, especificidad, 118-119 – – – – – – prevalencia, 118-119 – – – – – – probabilidades posprueba, 118-119 – – – – – – – preprueba, 118-119 – – – – – – proporción posibilidad negativa, 118-119 – – – – – – – probabilidad positiva, 118-119 – – – – – – – probabilidades, 51 – – – – – – sensibilidad, 118-119 – – – – – – valor predictivo negativo, 118-119 – – – – – – – – positivo, 118-119 – – – – – estadístico ji cuadrado, corrección Yates, 237 – – – – – – – – criterio Cochran, 238 – – – – – – – – prueba exacta Fisher, 238 – – – – – – – – – McNemar, 238 – – – – – hallazgos falsos negativos, 197, 198 – – – – – – – positivos, 197, 198
Tabla cruce. Ver Tabla contingencia 2 ⫻ 2 – mortalidad, 16 – vida, análisis, 259 Tamaño muestra, 192 – – factores, 192 – – pequeña, 102 – – relaciones con potencia, 135 Tampones, causa síndrome shock tóxico, 27 Tasa ataque, 38 – – definición, 86 – – primario, 82 – – secundario, 87, 88 – basal, definición, 60 – – utilidad, 61 – bruta, definición, 40 – – mortalidad, 36 – definición, 147 – diferenciación riesgo, 47 – falsos negativos, 137 – – – cálculo, 199-200 – – positivos, 137 – – – cálculo, 199-200 – – – relación con especificidad, 199-200 – – – trazado curva eficacia diagnóstica (ROC), 206 – fracaso condicional, 256 – incidencia, 47 – letalidad, 87 – mortalidad bruta, 36 – – – estandarización directa, 40, 41 – – – – indirecta, 40, 42-43 – – específica causa, 37 – – – edad, 37 – – – – ajuste directo, 40, 41 – – estandarizada, 44 – – infantil, 37 – – laboral, 67, 68 – – – estadística vital trabajador, 70, 75 – – – estado incidencia, 70, 72-74 – – – sector industrial, 68, 69, 70, 71 – – materna, 39 – – medidas, 39 – – neonatal, 39 – – posneonatal, 39 – posibilidad, 118-119, 203, 204, 205, 206 – probabilidad, 48 – – cálculo, 49 – – definición, 49 – riesgo dependiente tiempo, 249-250 Temporalidad, 97 Tendencia central, 141, 142 – – datos cociente, 151 – – – intervalo, 151 – – – nominales, 151 – – – ordinales, 151 – – mediciones, 128 – – relación curtosis, 153-154292 – – valores, 150
ÍNDICE ALFABÉTICO Tendencia secular, 61 – – sida, 61 Teorema Bayes, 202-203 – límite central, 157 Teoría gérmenes, 19, 20 – – pelagra, 25-26 – miasma, infección, 13, 18 Terrorismo, uso enfermedad infecciosa, 90-91 Tétanos, enfermedad declaración obligatoria, 65 Texas, letalidad laboral, 70, 73 Tiempo supervivencia, efecto múltiples covariantes, 262 – – Kaplan-Meier, cálculo, 259 Tifus, 82 Tos ferina, enfermedad declaración obligatoria, 64 Trabajadores sanitarios, varicela, 86 Transformación logit, 245, 247 Transmisión enfermedades, 79-94 Treatise on the Plague (Browne), 14-15 Triángulo epidemiológico, 79, 80 Triple ciego, 112 Triquinosis, enfermedad declaración obligatoria, 65 Tuberculosis, enfermedad declaración obligatoria, 65 Tukey, John, 167 Tularemia, agente bioterrorista, 91 – enfermedad declaración obligatoria, 65 Tuskegee Study of Untreated Syphillis in the Negro Male, 20, 26 Typhoid Mary, 25, 26 U Unión dos sucesos, 131 United States Armed Forces, datos reposición vigilancia médica, 67 – – Department of Health and Human Services, Centers for Medicare and Medicaid Services (CMS), 66 – – – – Labor, Bureau of Labor Statistics, 67 – – – – – Occupational Safety and Health Administration (OSHA), 67 Universidad McMaster, 115 V Vacuna neumocócica, 83 – poliomielitis, 83 – sarampión-paperas-rubéola (MMR), 83 – viruela, 18, 19, 92 Vacunación, 83 Validez, 35, 147 Valor cero significativo, 142 – p, 173, 176, 177, 178 – – definición, 134 – – ecuación regresión múltiple, 244 – – estadístico F, 247 – – frente a intervalo confianza, 181 – – problemas, 176-177 – – relación valor α, 134
Valor predictivo, 135-136, 200, 201 – – negativo, 136, 200 – – – cálculo, 118-119, 200, 201, 203 – – – – ecuación simplificada, 203 – – – – tabla contingencia 2 ⫻ 2, 118-119 – – – – uso teorema Bayes, 203 – – – definición, 200 – – – fórmula, 200 – – positivo, 135-136, 200 – – – cálculo, 118-119, 200, 203 – – – – tabla contingencia 2 ⫻ 2, 118-119 – – – – uso teorema Bayes, 203 – – – definición, 200 – – – fórmula, 200 – – prevalencia, 201-202 – – relación prueba actuación, 201 – – – z correspondiente, 265-269 – propio (eigenvalue), 251 – tau de Kendall, 234 – z, 265-269 Variables, análisis bivariante, 223-240 – cociente, 127 – confusión, análisis multivariable, 241 – continuas, 127, 139 – – aleatorias, 137 – – análisis regresión lineal, 227-229 – – coeficiente correlación Pearson, 225, 226 – – exactitud/precisión, 194, 195, 196 – – valores, 223 – correlación, 137 – correlacionadas, 137 – definición, 139 – dependientes, 140, 141 – – análisis regresión, 244, 245 – – datos categóricos nominales, 243 – – dicotómicas (resultado), 245, 247 – – factores temporales, 243, 244 – diferenciación, 127 – discretas, 127, 139 – ficticias, 245 – formas gráficos, 128 – independientes, 137 – – análisis multivariable, 241, 242 – – relación con variables dependientes, 140, 141 – intervalo, 127 – nominales (categóricas), diferenciación variables ordinales, 127 – ordinales, diferenciación variables nominales (categóricas), 127 Variación antigénica, 84 – estacional, enfermedades infecciosas, 85, 86 – por azar, error muestreo, 191 Varianza, 129, 130, 145, 146, – análisis (ANOVA), 222, 242, 243, 248, 249 – cálculo, 128 – diferenciación desviación estándar, 129 Varicela, 86
293
294
ÍNDICE ALFABÉTICO Varicela, tasa ataque secundario, 87293 Variolación, 18 Vectores, enfermedad, 80, 81, 82 Ventana cuerpo, 13 Verificación, acuerdo clasificadores, 208-209 – independencia, 208 Verosimilitud, 97 Verruga por hollín, 25 Veterans Administration Coronary Artery Bypass Surgery Cooperative Study, 259 – – reposición datos vigilancia médica, 67 Vibrión, organismo causante cólera, 32 Victoria, reina Inglaterra, 21 Vigilancia, 59 – activa, definición, 60 – – ejemplos, 60 – definición/propósito, 59 – pasiva, 60 – sindrómica, 91 – – niños edad escolar, 91 – tipos, 59 Vikingos, 17 Virginia Occidental, letalidad laboral, 70, 74 Viruela, 15, – agente bioterrorismo, 91 – bovina, 17 – enfermedad declaración obligatoria, 64
Viruela inmunidad grupal contra, 83-84 – mantas infectadas, 92 Virulencia, 81 – diferenciación patogenicidad, 81 Virus Cañón Muerto, 27-28 – gripe, variaciones antigénicas, 84 – inmunodeficiencia humana (VIH), variación antigénica, 84 – sarampión, reservorio, 80 – sin nombre, 27-28 – variación antigénica/deriva antigénica, 84 – varicela, 86-87 Votación, probabilidad, 188 W Walter, Richard, 17 World Health Organization (WHO), definición salud, 31 – – – – Library Service (WHOLIS), 70-77 – – – – Statistical Information Service (WHOSIS), 77 Wyder, Ernst, 26 Wyoming, letalidad laboral, 70, 74 Y Yersin, Alexander, 15
KWWSERRNVPHGLFRVRUJ