Vista previa del material en texto
MAESTRÍA DE SALUD PÚBLICA
MÓDULO 3
ESTADÍSTICA
PROGRAMA
La Habana/Caracas
2007
1
1
Módulo 3. Estadística
Objetivos:
• Elaborar, procesar, analizar y presentar datos estadísticos derivados de la
gestión o investigación en salud pública, así como de situaciones
modeladas análogas.
• Seleccionar, calcular e interpretar los principales indicadores sanitarios y
demográficos que se utilizan en la toma de decisión e investigación en
el ámbito sanitario.
• Identificar las leyes de distribución de probabilidades más usadas, a
través del análisis de sus propiedades, para ser aplicadas en procesos
de inferencia estadística en el ámbito sanitario.
• Dominar los conceptos básicos de la Inferencia Estadística que permite
fundamentar y emplear los métodos que se utilizan en el campo de las
investigaciones de salud y biomédicas.
Plan Temático:
3.1 Estadística Descriptiva
3.2 Estadística de Salud
3.2 Introducción a la Teoría de Probabilidades
3.4 Introducción a la Inferencia Estadística
2
2
Contenido:
3.1 Conceptos básicos. Distribuciones de frecuencia. Métodos de representación
estadística: tabular y gráfico. Medidas de resumen para variables
cualitativas. Medidas de resumen para variables cuantitativas. Análisis de
Series Cronológicas. Uso de paquetes computacionales.
3.2 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de
Salud. Indicadores sanitarios y demográficos más utilizados. Uso de
paquetes computacionales.
3.3 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios.
Variables aleatorias. Distribuciones de probabilidades de una variable
aleatoria. La distribución Binomial, Poisson, Normal, Ji Cuadrado y t de
Student. Uso de paquetes computacionales.
3.4 Distribuciones muestrales de la media, de la proporción y de la diferencia
entre medias y proporciones. Estimación de parámetros: puntual y por
intervalos de confianza, para una media, para la diferencia entre dos medias
poblacionales, así como para la proporción y para la diferencia entre dos
proporciones poblacionales. Prueba de hipótesis para una media, para la
diferencia entre dos medias poblacionales. Análisis de la varianza de una
vía. Prueba de hipótesis para una proporción poblacional y para la diferencia
entre dos proporciones. Pruebas de homogeneidad e independencia.
Regresión y Correlación Lineal. Uso de paquetes computacionales.
Evaluación:
La evaluación del tema, forma parte del sistema evaluativo del curso; este
incluye la evaluación, por parte del profesor, de las respuestas a los trabajos
individuales y de grupo. A ello se le adicionará una prueba escrita de los
contenidos del tema. La Evaluación Final se realizará mediante la integración
de todos los componentes de ésta, en escala cualitativa (excelente, bien,
aprobado, desaprobado)
3
3
Selección de lecturas
1. Estadística descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford
Saing R, Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro
de Texto de Metodología de la Investigación. Maestrías para
profesionales de la Atención Primaria de Salud. La Habana; 2004.
2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material
Docente. ENSAP; 2000.
3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.
4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez
M. Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.
5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a
la Investigación en Atención Primaria de Salud. Parte III. Material
Docente. ENSAP; 2002
Bibliografía Complementaria:
1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300.
2. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.
3. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454.
4. Métodos estadísticos para el análisis de datos cualitativos. Análisis de
Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.
4
MAESTRÍA DE SALUD PÚBLICA
MÓDULO 3
ESTADÍSTICA
GUÍA DE ESTUDIO
La Habana/Caracas
2007
5
1
Guía de Estudio
Estimado cursista:
La guía que le presentamos a continuación contiene las orientaciones necesarias
para el estudio, tanto individual como grupal, del módulo de Estadística de la
Maestría de Salud Pública. Con ella pretendemos contribuir a la formación de las
habilidades que se esperan alcance al final del mismo.
La guía consta con la estructura siguiente: orientaciones generales, objetivos
generales, contenidos, descripción de actividades para cada contenido, entre las
que se incluyen los trabajos individuales, los trabajos de grupo; y la bibliografía a
utilizar. Al final de la guía aparece el sistema de evaluación del módulo.
I. Orientaciones Generales:
Los contenidos de Estadística Descriptiva constituyen los primeros a estudiar en el
curso. A este tema se le dedicará la mayor cantidad del tiempo del módulo. Le
siguen los contenidos relacionados con las Estadísticas Sanitarias, elementos de
la Teoría de Probabilidades, y de la Inferencia Estadística.
El estudio de cada uno de los contenidos de cada tema deberá comenzar por la
revisión de la Bibliografía Básica, luego conteste la tarea independiente planteada
para cada contenido; finalmente reúnase con el resto de los integrantes del grupo
de estudio y realicen el trabajo correspondiente.
II. Objetivos generales:
1. Elaborar, procesar, analizar y presentar datos estadísticos derivados de la
gestión o investigación en salud pública, así como de situaciones modeladas
análogas.
2. Seleccionar, calcular e interpretar los principales indicadores sanitarios y
demográficos que se utilizan en la toma de decisión e investigación en el
ámbito sanitario.
3. Identificar las leyes de distribución de probabilidades más usadas, a través
del análisis de sus propiedades, para ser aplicadas en procesos de
inferencia estadística en el ámbito sanitario.
4. Dominar los conceptos básicos de la Inferencia Estadística que permite
fundamentar y emplear los métodos que se utilizan en el campo de las
investigaciones de salud y biomédicas.
6
2
III. Contenidos:
No. Título
1 Estadística. Conceptos Básicos. Universo y muestra. Variables. Concepto y
clasificación. Escalas de clasificación. Distribución de frecuencias absolutas,
relativas y acumuladas.
2 Representación Estadística. Tablas estadísticas: elementos a considerar en su
confección. Representación gráfica: errores de elaboración e interpretación.
Principales tipos de gráficos: barras, pastel, histograma, polígono de
frecuencia. Uso de paquetes computacionales.
3 Medidas de resumen para variables cualitativas. Razón, proporción,
porcentaje, tasa. Definiciones. Tasas brutas y específicas. Cálculo e
interpretación. Medidas de resumen para variables cuantitativas. Medidas de
tendencia central: Media aritmética, mediana y moda. Medidas de
Dispersión: necesidad del estudio de la dispersión. Rango o amplitud.
Desviación media, varianza, desviación estándary coeficiente de variación.
Uso de paquetes computacionales.
4 Análisis de Series Cronológicas: Definición, clasificación e importancia.
Requisitos para el tratamiento estadístico de las series. Métodos gráficos y
matemáticos para el análisis de la tendencia. Métodos para el análisis de
estacionalidad. Uso de paquetes computacionales.
5 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de Salud.
Indicadores sanitarios y demográficos más utilizados. Uso de paquetes
computacionales.
6 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios.
Variables aleatorias. Distribución de probabilidad de una variable aleatoria.
7 Distribuciones muestrales: distribución muestral de la media, de la
proporción y de la diferencia entre medias y proporciones.
8 Estimación de parámetros. Estimación puntual y por intervalos de confianza.
Intervalo de confianza para una media y para la diferencia entre dos medias
poblacionales. Intervalo de confianza para la proporción y para la diferencia
entre dos proporciones poblacionales.
9 Docimasia de Hipótesis. Aspectos generales. Pruebas de hipótesis a partir de
medias. Pruebas de Hipótesis a partir de proporciones. Análisis de la varianza
de una vía. Prueba de hipótesis para una proporción poblacional y para la
diferencia entre dos proporciones. Pruebas de homogeneidad e
independencia. Regresión y Correlación Lineal.
7
3
IV. Descripción de actividades independientes y grupales por contenido.
Contenido 1.
En la Bibliografía Básica del Módulo revise las páginas 3 a la 11. Una vez que
haya estudiado estos contenidos realice, de forma individual, la tarea (trabajo
independiente) siguiente:
1. Un grupo de investigadores desea estudiar la satisfacción personal de los
médicos que brindan sus servicios en cierto estado de la República
Bolivariana de Venezuela. Para ello, de un total de 1500 médicos que trabajan
en ese territorio, estudiarán 700. Desean recoger información sobre la edad, la
calificación profesional, el tiempo de graduado, el sexo, el estado civil y la
presencia de satisfacción personal.
a) Identifique cuál es la población en estudio y cuál es la muestra, en caso de
existir.
b) Identifique las variables a estudiar y clasifíquelas.
2. A continuación le presentamos algunas variables investigadas en un grupo de
residentes del 1er año de la especialización de Medicina General Integral, con
la finalidad de controlar el proceso docente-educativo.
– Asistencia a actividades docentes,
– Existencia de quejas de la población,
– Calificación en examen parcial (sobre 10 puntos),
– Sexo, y
– Edad.
a) Clasifique cada una de las variables estudiadas.
3. A continuación le presentamos la variable temperatura (en grados Celsius)
clasificada en una escala de intervalos:
Temperatura
34 - 36
37 – 39
40 – 42
a) Determine la amplitud del segundo intervalo de clase.
b) ¿Cuál es el límite de clase inferior del tercer intervalo de clase?
8
4
Luego, realice el trabajo grupal siguiente:
1. Revise uno de los Análisis de la Situación de Salud (ASIS) de la comunidad
atendida por uno de los integrantes del grupo. Luego conteste las
interrogantes siguientes:
a) Identifiquen cuál es la población atendida por el colega.
b) Identifiquen las variables incluidas en el análisis. Clasifíquenlas según su
naturaleza.
c) Escoja la información relativa a una de las variables del ASIS y construya
una distribución de frecuencia: absolutas y relativas.
Contenido 2.
Revise las páginas 12 a la 24 de la Bibliografía Básica. Una vez que haya
estudiado estos contenidos realice el siguiente trabajo independiente:
1. A continuación le presentamos los resultados de la medición de creatinina
sérica en 20 personas del municipio Playa, atendidos en el policlínico “26
de Julio” en enero de 1999.
Creatinina Sérica
160,00 170,54 166,00 150,00
160,36 160,20 156,70 151,78
158,20 163,20 154,50 152,00
174,00 165,80 155,00 154,80
170,00 165,90 155,90 156,70
a) Con la información anterior, construya una escala de intervalos de igual
amplitud.
b) Construya un cuadro estadístico.
c) Interprete los resultados.
d) Construya un gráfico. Fundamente su elección.
9
5
2. El siguiente cuadro muestra información resultante de cierto estudio. Analícelo
cuidadosamente y emita su criterio al respecto.
Tabla # 1. Muestra de las madres del Consultorio del Médico de la Familia #
1925 según el número de hijos tenidos en el último matrimonio. CMF # 1925,
municipio Contramaestre, provincia Santiago de Cuba, enero de 1962.
Edad materna
< 20 > 20 Total # de hijos # % # % # %
0 8 8.0 14 14.0 22 22.0
1-3 20 20.0 6 6.0 26 26.0
3-4 10 10.0 19 19.0 29 29.0
5-6 10 10.0 6 6.0 16 16.0
6 y más 2 2.0 7 7.0 9 9.0
Total 50 100.0 50 100.0 100 100.0
Fuente: Encuesta
3. Para los siguientes títulos de tablas, seleccione el gráfico que mejor la
represente.
a) Distribución de ancianos según sexo. Tabasco, 2003.
b) Distribución de médicos de familia según edad y sexo. Campeche, 2002.
c) Mortalidad materna. Cuba, 1990-1996.
d) Distribución de recién nacidos según raza. HGD “Dr. A. Neto”, 1998.
e) Distribución de ancianos según peso. La Habana, 1999.
A continuación, realice el trabajo grupal siguiente:
1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo
grupal, realicen un análisis crítico de los cuadros y gráficos estadísticos
confeccionados. Incluya los errores presentes en la confección, así como las
principales fallas detectadas en la interpretación. Al final de estos análisis
hagan un informe de una o dos cuartillas, donde se expresen los principales
errores (sistemáticos) detectados.
2. La información siguiente es parte de los resultados de un estudio realizado en
escolares del municipio Marianao, provincia Ciudad de La Habana, durante
1997-1999.
Nombre Sexo Edad
YHP F 8
HHD M 7
GTR F 6
TRF M 5
10
6
ADE F 14
LOI F 11
YGF M 5
HTR M 9
SDE F 10
GTW F 8
JFY F 9
BHG M 8
FRW M 12
RTL F 8
ABV F 9
JUY M 10
a) Construyan una tabla y un gráfico con estos datos.
b) Interpreten los resultados.
Contenido 3.
Lea detenidamente las páginas 25 a la 42 de la Bibliografía Básica. Una vez que
haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:
1. De los siguientes indicadores, diga su nombre y qué datos necesitaría para
calcularlos.
a) Riesgo de morir por enfermedades del corazón en Maracay, 2005.
b) Riesgo de morir por cualquier causa en el estado de Lara, 2004.
c) Contribución del grupo de 60 años y más a la mortalidad general en
Venezuela, 2003.
d) Contribución del sexo femenino a la estructura poblacional de Cuba, 2000.
e) Riesgo de morir en la primera semana de vida extrauterina.
f) Riesgo de morir de los enfermos de tuberculosis.
2. Las cifras siguientes corresponden a la estatura (en centímetros) de los
estudiantes de un aula de cierta escuela. La Dra. Fonseca, a cargo de dicho
centro, desea resumir esta información con miras a redactar un informe, en el
cual deben aparecer consignadas las interpretaciones correspondientes a los
resultados de la media aritmética, la mediana, la moda, el rango, la desviación
media, la desviación típica y el coeficiente de variación. ¿Podría Ud. ayudar a
la doctora de referencia en su empeño?
135 134 136 136 134
146 146 147 147 146
123 117 125 124 122
151 148 153 152 148
138 138 138 138 138
140 138 143 141 139
11
7
131 219 132 132 129
145 144 146 146 145
128 126 128 128 127
137 137 137 137 137
Realice el trabajo grupal siguiente:
1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo
grupal, hagan un análisis crítico de las medidas utilizadas para resumir
variables cualitativas y cuantitativas.
2. En el Informe Anual de Salud del país aparecen algunos de los indicadoresde
mortalidad. Hagan un análisis de éstos. Comparen, en la medida de lo posible,
los indicadores del estado donde trabajan con los del país.
Contenido 4.
Lea detenidamente las páginas 43 a la 63 de la Bibliografía Básica. Una vez que
haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:
1. Responda verdadero (V) o falso (F)
____ Para construir una serie temporal los hechos deben registrarse
cronológicamente.
____ La obtención de la tendencia de una serie, mediante el método de las
diferencias absolutas es muy buena cuando la serie tiene grandes
fluctuaciones.
____ La línea recta que se obtiene mediante el método de los semipromedios
resulta muy atractiva para observar la tendencia.
____ Los componentes de la serie, según el método clásico, son: la tendencia,
estacionalidad, el ciclo y la aleatoriedad.
Realice el trabajo grupal siguiente:
A partir de la información disponible en el estado obtener la tendencia de la
Mortalidad por las causas y período seleccionados por su profesor. Utilicen para
ello métodos matemáticos y gráficos. Hagan un informe de no más de dos
cuartillas con los resultados obtenidos.
Contenido 5.
Lea detenidamente las páginas 65 a la 119 de la Bibliografía Básica. Una vez que
haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:
12
8
1. Enumere al menos cinco interrogantes, a las que Ud. puede dar respuesta con
el uso de las estadísticas de salud, en el contexto de su área de trabajo.
2. ¿Considera importante las estadísticas de salud? Fundamente su respuesta.
3. Mencione tres indicadores de estadísticas vitales. Fundamente la utilidad de
uno de ellos.
4. A continuación le brindamos la información referente a la población cubana,
para el año 1999, según edad y sexo. Construya la pirámide poblacional
correspondiente.
Tabla 1.1 Población cubana según edad y sexo. 1999.
Sexo Grupos de
edad
(años)
Masculino Femenino
0 - 4 385573 361824
5 - 14 882412 839334
15 – 49 3065649 3063266
50 – 59 544772 557573
60 y más 700851 741437
Total 5579257 5563434
Fuente: Anuario estadístico de Cuba. 1999.
7. Se desea comparar la mortalidad de dos estados de la República Bolivariana de
Venezuela, con el objetivo de investigar las causas de una mayor tasa de
mortalidad en el primero de éstos. Para ello es necesario controlar el posible
efecto confusor de las diferentes estructuras por edad de estas poblaciones,
para lograrlo, los investigadores te solicitan que tipifiques las tasas y te brindan
la siguiente información.
Primer Estado. Segundo Estado. Grupos
de edad
(años) Población Tasas* Población Tasas*
< 15 442038 0.8 137177 0.7
15 – 64 1502000 3.5 338000 2.6
65 y más 247000 55.0 36157 49.7
Total 2191038 8.8 511334 5.4
* tasas por 1000 habitantes
a ) ¿Qué método de ajuste puede usar en este caso?. Fundamente.
b ) Realice el ajuste por el método que seleccionó en el inciso anterior.
c ) ¿Cuáles son sus conclusiones?
13
9
8. A continuación aparece información sobre población y defunciones de Cuba
durante 1 999:
SEXO POBLACIÓN DEFUNCIONES
Masculino 5 579 257 43 794
Femenino 5 563 434 35 692
Total 11 142 691 79 486
A partir de la información presentada calcule e interprete:
Porcentaje de defunciones para el sexo masculino
Porcentaje de defunciones para el sexo femenino
Tasa de mortalidad para el sexo masculino
Tasa de mortalidad para el sexo femenino
Tasa bruta de mortalidad
Contenido 6.
Lea detenidamente las páginas 120 a la 150 de la Bibliografía Básica. Una vez
que haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:
1. Responda Verdadero (V) o falso (F), las siguientes afirmaciones:
⎯ La probabilidad clásica puede ser calculada solamente después de
observar un número elevado de repeticiones del experimento.
⎯ Un experimento que realizado bajo las mismas circunstancias, se obtiene
en cada repetición un resultado diferente, se le denomina experimento
aleatorio.
⎯ La definición estadística de probabilidad, considera a la frecuencia relativa
de un evento, como una estimación de la probabilidad de ocurrencia de
dicho evento.
⎯ Masculino y femenino, constituyen los sucesos elementales del
experimento aleatorio consistente, en observar el sexo de un recién
nacido.
2. Explique con sus palabras, ¿Qué entiende por variable aleatoria?. De tres
ejemplos de aplicación en el contexto de la Salud Pública. Clasifíquelas.
3. El número de fumadores en tú área de salud es una variable aleatoria. Diga,
qué tipo de v.a y qué distribución sigue aproximadamente?.
Contenidos 7 - 9.
Lea detenidamente las páginas 151 a la 266 de la Bibliografía Básica. Una vez
que haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:
14
10
1. En una muestra de 50 bebés varones de 12 semanas de vida, se obtuvo un
peso medio de 5.900 gr y una desviación típica de 94 gr. Obtener un intervalo
de confianza (al 95%) para el peso medio poblacional. Interpreta el resultado.
2. Se desea estimar el peso medio de mujeres de 30 a 40 años. Un estudio
realizado en 160 mujeres de tales edades da los siguientes resultados: x = 53
kg y s = 5 kg. Construye un intervalo de confianza al 95 % para el peso
promedio poblacional. Interpreta el resultado.
3. El director de cierto hospital está interesado en conocer el porcentaje de
pacientes asmáticos de la población que atiende, para planificar una medida
preventiva de las crisis. Se estudió una muestra de 250 personas de dicha
población, encontrándose que de ellos 28 eran asmáticos. Construye un
intervalo de confianza al 99% para la proporción de asmáticos de dicha
población.
4. Se conoce que un 20% de los individuos tratados crónicamente con digoxina
sufren una reacción adversa por causa de ella. A 10 pacientes se les
administró durante largo tiempo digoxina más otros medicamentos, y de ellos 5
desarrollaron la reacción adversa. ¿Puede afirmarse que la asociación entre la
digoxina y los otros medicamentos hace variar el número de reacciones
adversas?
5. Un 8% de los individuos que acuden a un servicio sanitario son
hiperutilizadores del mismo (más de 11 visitas al año) y, de entre ellos, un 70%
son mujeres. De entre los no hiperutilizadores, son mujeres el 51%. ¿Puede
afirmarse que han variado los hábitos de éstas si, tras una campaña de
información y control de visitas, de 90 mujeres elegidas al azar 6 resultaron
hiperutilizadoras?
6. La eliminación por orina de aldosterona está valorada en individuos normales
en 12 mgs/24 h. por término medio. En 50 individuos con insuficiencia cardíaca
se observó una eliminación media de aldosterona de 13 mgs/24 h., con una
desviación típica de 2,5 mgs/24 h.
a ) ¿Son compatibles estos resultados con los de los individuos normales?
b ) ¿La insuficiencia cardíaca aumenta la eliminación por orina de
aldosterona?
7. En una investigación realizada sobre la Calidad de la Atención, se trata de
probar la hipótesis de que existe asociación entre la satisfacción de la
población con el servicio brindado y la calificación del personal. Para ello se
diseña un estudio, en el que se obtuvo el siguiente resultado:
Satisfacción Calificación
profesional Si NO
Total
Buena 175 15 190
Regular 15 25 40
15
11
Mala 10 160 170
Total 200 200 400
a. ¿Qué prueba de hipótesis Ud. Utilizaría?
b. Pruebe la hipótesis planteada con anterioridad.
8. Se desea determinar si las cuatro áreas de salud de un municipio, difieren
respecto al peso medio al nacimiento de niños a término, para ello se
seleccionaron aleatoriamente una muestra de registros de nacimientos de cada
área. A continuación se muestran los pesos de los recién nacidos (peso en
libras):
Áreas
A B C D
6.40
6.33
4.96
8.01
5.61
6.53
5.23
5.026.93
6.21
6.74
6.01
7.12
6.40
7.35
5.04
6.33
5.66
5.60
5.08
5.10
4.99
4.80
4.97
6.39
6.42
5.10
5.85
6.21
5.24
4.36
6.19
6.0
¿Es posible concluir que las cuatro áreas difieren respecto al peso medio al nacer
de niños a término?
Considere un α=0.05
9. Se llevó a cabo un experimento para evaluar el efecto de cierto medicamento
para disminuir la frecuencia cardiaca en adultos. Los resultados obtenidos se
brindan al continuación:
Dosis del medicamento
(mg)
Disminución frecuencia
cardiaca (latidos / minuto)
0,50 10
0,75 8
1,00 12
1,25 12
1,50 14
1,75 12
2,00 16
2,25 18
2,50 17
2,75 20
3,00 18
3,25 20
3,50 21
16
12
a) Construya el diagrama de dispersión
b) Estime e interprete el coeficiente de correlación.
c) Estime e Interprete el coeficiente de determinación.
d) Obtenga un IC (95%) para β. Intérprete los resultados.
10. Una muestra aleatoria de 24 enfermeras seleccionadas de un registro estatal
de enfermeras proporcionó la siguiente información acerca de la calificación
de cada enfermera en el test psicométrico realizado al inicio del curso y su
calificación final acumulada en la escuela.
TEST
PSICOMÉTRICO
(X)
CALIFICACION
ACUMULADA AL
FINAL DEL
CURSO
(Y)
TEST
SICOMÉTRICO
(X)
CALIFICACION
ACUMULADA AL
FINAL DEL
CURSO
(Y)
87
87
87
88
88
89
89
89
89
90
90
90
91
90
85
440
480
535
460
525
480
510
530
545
600
495
545
575
620
480
91
91
92
92
92
93
93
94
94
94
94
95
80
89
90
525
575
600
490
510
575
540
595
525
600
625
680
420
512
495
a) Preparar un diagrama de dispersión.
b) Calcular r
c) Probar H0:β =0 con α =0.05
d) Construir el intervalo de confianza del 95% para β.
V. Bibliografía:
La bibliografía disponible para el estudio de los temas del módulo ha sido
seleccionada de libros y monografías escritos por los profesores del curso y por
otros miembros del claustro de la maestría. Las principales fuentes de las mismas
se encuentran en:
17
13
Básica:
1. Estadística Descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford Saing R,
Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro de Texto de
Metodología de la Investigación. Maestrías para profesionales de la Atención
Primaria de Salud. La Habana, 2004.
2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material
Docente. ENSAP; 2000
3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.
4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M.
Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.
5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte III. Material Docente.
ENSAP; 2002
Complementaria:
1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M, Bayarre
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300.
2. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M, Bayarre
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454.
3. Métodos estadísticos para el análisis de datos cualitativos. Análisis de
Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.
4. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M, Bayarre
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.
VI. Evaluación del Módulo:
La evaluación del tema, forma parte del sistema evaluativo del curso; este incluye
la evaluación, por parte del profesor, de las respuestas a los trabajos individuales
y de grupo. A ello se le adicionará una prueba escrita de los contenidos del tema.
La Evaluación Final se realizará mediante la integración de todos los componentes
de ésta, en escala cualitativa (excelente, bien, aprobado, desaprobado)
18
MAESTRÍA DE SALUD PÚBLICA
MÓDULO 3
ESTADÍSTICA
SELECCIÓN DE LECTURAS
La Habana/Caracas
2007
19
Tabla de Contenido
TEMA 1- ESTADÍSTICA DESCRIPTIVA. ............................................................... 3
1.1 Estadística. Conceptos básicos..................................................................... 3
1.2- Representación Estadística. El Cuadro y los Gráficos. ............................ 12
1.3 - Medidas de resumen para variables cualitativas. .................................... 25
1.4- Medidas de resumen para variables cuantitativas. ................................... 30
1.5 - Análisis de Series Cronológicas o Temporales. ...................................... 43
TEMA 2. ESTADÍSTICAS DE SALUD.................................................................. 64
2.1 Fuentes de información................................................................................ 65
2.2 La población .................................................................................................. 68
2.3 La fecundidad ................................................................................................ 75
2.4 La mortalidad................................................................................................. 81
2.5 La morbilidad............................................................................................... 108
2.6 Estadísticas de recursos y servicios......................................................... 113
2.7 Clasificación internacional de enfermedades (cie) .................................. 118
TEMA 3- INTRODUCCIÓN A LA TEORÍA DE PROBABILIDADES. ................. 120
3.1 Probabilidad. Conceptos básicos.............................................................. 121
3.2 Variables aleatorias..................................................................................... 127
3.3 Distribución de probabilidad de una variable aleatoria. .......................... 130
3.4 La distribución Binomial............................................................................. 136
3.5 La distribución de Poisson......................................................................... 138
3.6 La distribución normal................................................................................ 139
3.7 Otras distribuciones de probabilidad. ....................................................... 147
20
TEMA 4 - INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA ...................... 151
4.1 - Distribuciones muestrales. ..................................................................... 152
4.2 - Estimación de parámetros. ..................................................................... 157
4.3 Intervalos de confianza.............................................................................. 160
4.4 Pruebas de hipótesis. ................................................................................. 168
4.5 Introducción al Análisis de Varianza ......................................................... 193
4.6 Correlación y regresión lineal simple........................................................ 224
4.7 Introducción a los Métodos no Paramétricos........................................... 254
21
Tema 1- Estadística Descriptiva.
1.1 Estadística. Conceptos básicos.
1.1.1 Estadística y estadísticas.
Debemos distinguir dos acepciones diferentes de la palabra: estadísticas en plural
se refiere a datos numéricos, por ejemplo, cuando hablamos de estadísticasde
mortalidad estamos haciendo alusión a datos de mortalidad, estadísticas de
fecundidad, datos de fecundidad, sin embargo, Estadística en singular es para
algunos la ciencia, para otros el método que nos brinda las herramientas
necesarias para la recolección, procesamiento y análisis de la información.
La Estadística se divide en dos grandes ramas: la Estadística descriptiva y la
Estadística Inferencial.
La Estadística descriptiva nos brinda las herramientas necesarias para
caracterizar un grupo de elementos o unidades de análisis pero sin pretender
generalizar esos resultados a un grupo mayor, objetivo que sí persigue la
Estadística inferencial.
1.1.2 Universo y muestra.
Otro aspecto que debemos tener presente es qué se entiende por población o
universo.
Población es un conjunto de elementos, objetos o unidades de análisis que al
menos comparten una característica que nos interesa conocer o estudiar. Por
ejemplo, los niños residentes en Santa Cruz que asistieron a la escuela durante el
año 1998. Esta población tiene 3 características que la definen, todos los
elementos que la integran son niños, todos residen en la misma localidad, Santa
Cruz, y todos tienen que haber asistido a la escuela durante el año 1997. Otro
ejemplo sería las historias clínicas de un hospital para un periodo de tiempo dado.
Se debe aclarar que no siempre investigamos personas, en ocasiones se estudian
animales de experimentación, muestras de tejidos (biopsias) o de sangre, etc, por
lo que de manera general se suele llamar unidades de análisis a los elementos de
la población objeto de estudio.
Es muy importante en una investigación, definir como parte del método, la
población objeto de estudio de manera que quede claro qué elementos la integran.
Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la
Investigación. Maestrías para profesionales de la Atención Primaria de Salud.
22
La Muestra no es más que una parte cualquiera de la población, un conjunto
cualquiera no vacío, o sea, que teóricamente incluso un solo elemento de la
población puede ser considerado como una muestra, aunque en la práctica esto
ocurra con poca frecuencia.
Los conceptos de muestra y población son conceptos relativos, lo que en un
estudio puede ser una población en otro puede ser una muestra. Los niños de
Santa Cruz que asistieron a la escuela en el año 1997 pueden ser parte de una
muestra que se haya diseñado para un estudio nacional.
Veamos algunos ejemplos de población y muestra:
1. Para determinar si el medicamento X producido en la Fábrica de
Medicamentos Y tiene la calidad adecuada, se toman 100 tabletas al
azar de la producción de una semana. Aquí la población es el total de
tabletas del medicamento X producidas por la fábrica, y la muestra está
formada por las 100 tabletas que se estudiaron.
2. Un grupo de investigadores desea estudiar el comportamiento del
síndrome anémico en el área que atiende el policlínico Sur de la
provincia Guantánamo, para ello decide tomar a los habitantes de los
consultorios 66, 50, 17 y 5 a fin de realizarles los exámenes pertinentes.
En este caso, la población está formada por el total de personas que
atiende el policlínico, y la muestra por las personas que atienden los
cuatro consultorios escogidos.
3. Unos investigadores se proponen estudiar la actitud de las jubiladas de
cierto consultorio ante el estrés generado por las tareas del hogar, por lo
que estudiaron a 10 de las 37 jubiladas existentes. Obviamente, la
población está constituida por las 37 jubiladas, y la muestra por las 10
señoras estudiadas.
4. Los mismos investigadores desean estudiar el fenómeno en el área
atendida por el policlínico, de ahí que estudiarán a las jubiladas de cinco
consultorios. Ahora, la población es el total de jubiladas que atiende el
policlínico, y la muestra las jubiladas de aquellos consultorios escogidos.
La selección de la muestra puede realizarse aplicando técnicas estadísticas con lo
que se obtiene una muestra probabilística, o simplemente definir la muestra por
criterio de expertos.
La determinación correcta de la muestra entraña el cálculo del tamaño muestral
adecuado para lograr resultados fiables, y la selección del método de muestreo
apropiado. Para este proceder es recomendable acudir a un Bioestadístico, o
especialista afín, para recibir asesoría al respecto.
23
1.1.3 Variables. Definición y clasificación
Un concepto trascendental para la estadística, pues constituye el punto de partida
para definir métodos de representación a utilizar, medidas de resumen a calcular y
qué técnicas de análisis se pueden aplicar, es el de variable.
Consideraremos como variable cualquier característica de la población que puede
asumir diferentes comportamientos, valores, o grados de intensidad entre los
diferentes elementos, individuos o unidades de análisis. Por ejemplo la edad es
una característica que asume diferentes valores de un individuo a otro, el sexo, el
estado civil, los servicios de un hospital, son todos variables.
En fin, toda característica inherente a los objetos y fenómenos que nos rodean
puede ser una variable: los colores de las cosas, la estatura de las personas, la
altura de las edificaciones, el volumen de los recipientes, la cantidad de autos que
pasan la noche en un parqueo, o los países ganadores en las Copas Mundiales de
Boxeo, entre otras. Pero, obsérvese que no son variables por el simple hecho de
ser características, sino porque pueden asumir valores diferentes en dependencia
de qué objeto o fenómeno midas, además, éstas no se miden todas de la misma
manera, unas se miden numéricamente y otras no, de aquí que las variables
pueden clasificarse en dos grandes grupos: cuantitativas y cualitativas,
Las variables cualitativas son aquellas que se identifican con cualidades o
atributos y que no toman valores numéricos. Ej.: el sexo, la nacionalidad, las
especialidades médicas con que cuenta un centro asistencial y las causas de
defunción, entre otras.
Las variables cuantitativas son aquellas en las que las diferencias existentes entre
los disímiles elementos de la población son medibles numéricamente. Ej. la edad,
la talla, el peso, el número de camas de un hospital, el número de hijos de una
familia, etc.
Las variables cualitativas a su vez se clasifican en nominales y ordinales o
cuasicuantitativas. Es importante definir que los valores posibles de una variable
cualitativa se denominan categorías, así la variable sexo tiene dos categorías:
femenino y masculino, mientras que la variable raza tiene tres o más categorías:
blanca, negra, mestiza y otras.
Una variable se considera cualitativa nominal cuando las diferencias en cuanto a
sus valores entre los elementos no traducen diferencias de magnitudes o de
intensidad. Son cualidades, atributos que no son medibles numéricamente. Ej.: el
estado civil y el sexo. Mientras que, las variables cualitativas ordinales son
aquellas en que las diferencias si bien no son cuantificables, si tienen implícito
diferencias de magnitud o de intensidad y dan una idea de ordenamiento. Ej. el
estado de un paciente: grave, de cuidado, mejorado; el estado técnico de una
vivienda: buena, regular, mala; el estadio de una enfermedad: leve, moderada,
severa.
24
A su vez las variables cuantitativas también se subdividen en dos subgrupos:
discretas o discontinuas y continuas.
Las variables cuantitativas discretas son aquellas que sólo asumen valores
enteros, por lo general estas variables resultan del conteo. Ej.: el número de hijos,
una pareja podrá tener 5 hijos, 10 hijos o ningún hijo, pero lo que no podrá tener
nunca es 1.6 hijos.
Sin embargo, las variables cuantitativas continuas sí pueden asumir valores
fraccionarios. Ej.: el peso, la talla, la edad.
En el siguiente cuadro se resume la clasificación de las variables.
Nominales
No existen diferenciasde
magnitud o intensidad
entre sus categorías. Cualitativas:
No se miden
numéricamente Ordinales o
Cuasicuantitativas
Llevan implícito
diferencias de magnitud o
intensidad entre sus
categorías, que les
confiere cierto orden.
Discretas o
Discontinuas
Toman valores siempre
enteros, de manera que
entre dos valores enteros
consecutivos no existen
posibilidades prácticas ni
teóricas de que haya
valores intermedios.
Variables
Cuantitativas:
Se miden
numéricamente
Continuas
Entre dos valores enteros
consecutivos existen
infinitos valores
intermedios (al menos
teóricamente) aunque
frecuentemente se
emplean valores enteros.
Identificar el tipo de variables que estudiamos en las unidades de análisis de una
investigación resulta de vital importancia, ya que todo el procesamiento estadístico
de los datos depende del tipo de variable.
Es oportuno aclarar acerca de un error bastante frecuente relacionado con la
utilización cada vez más creciente del software para el tratamiento estadístico de
la información. Se trata del mal uso de la codificación, un recurso que brindan los
paquetes estadísticos, consistente en la asignación de códigos numéricos a las
variables en estudio, a fin de facilitar su manejo. Por ejemplo, el sexo puede
25
Administrador
Resaltado
tratarse como 1 para el femenino y 2 para el masculino (o viceversa), pero este
tratamiento no le confiere valor cuantitativo a la variable, puesto que es cualitativa;
por ende, no se le pueden aplicar procedimientos matemáticos propios de
variables cuantitativas.
1.1.4 Escalas de clasificación de las variables
Una vez identificadas las variables que formarán parte del estudio, el siguiente
paso que se impone es definir las escalas de clasificación para esas variables.
Una escala de clasificación no es más que el conjunto de clases o categorías que
se definen para clasificar la información en función de determinada variable. En el
caso de las variables cualitativas la propia naturaleza de la variable establece las
posibles categorías de la escala. Por ejemplo, la variable estado civil puede asumir
5 categorías en su escala: soltero, viudo, divorciado, acompañado y casado.
Pueden utilizarse esas 5 o hacer reagrupaciones y definir solo dos categorías en
función de los intereses que se persiga con el estudio: uniones estables (casado y
acompañado) y uniones inestables (soltero, divorciado y viudo). En el caso de las
variables cuantitativas pueden existir diferentes y diversas escalas.
Sea cual sea la escala que se construya para la clasificación de la información
debe cumplir con dos requisitos o condiciones para que sea una buena escala.
En primer lugar que sea exhaustiva, que el número de clases o categorías que la
constituyen garanticen que todos los elementos que integran la población puedan
ser clasificados.
La segunda condición que deben cumplir es que las categorías sean mutuamente
excluyentes, de forma tal que no quede duda de en qué clase debe ser incluido
cada uno de los elementos que conforman la muestra o la población.
A modo de ejemplo: Supongamos que se quiere hacer un estudio de fecundidad y
una de las variables a estudiar es la edad a la que se produjo el nacimiento.
Edad. (años)
20 -25
25 - 29
30 - 34
35 - 39
40 - 44
Si se producen nacimientos en menores de 20 años, algo bastante probable, no
tendrían una categoría donde ser ubicados por tanto no se cumpliría el principio de
la exhaustividad, por otra parte si nace un niño cuya madre tiene 25 años no
sabríamos en que categoría incluirlo, si en la primera o en la segunda, por tanto
las clases de la escala no son mutuamente excluyentes.
Las escalas pueden ser cuantitativas o cualitativas, en dependencia de si sus
categorías pueden ser numéricamente medidas o no. Para las variables
cualitativas se construyen escalas cualitativas, las que consisten simplemente en
26
Administrador
Resaltado
Administrador
Resaltado
Administrador
Resaltado
identificar los valores de la variable (sus categorías) y clasificar a las unidades de
análisis de acuerdo a estas categorías, y al igual que las variables, pueden ser
nominales u ordinales. Por su parte las escalas cuantitativas pueden ser discretas
o continuas.
Para las variables cuantitativas se pueden emplear tanto las escalas cualitativas
como las cuantitativas. Por ejemplo, el peso puede considerarse cualitativamente:
normopeso o no, o un poco más detallado: bajo peso, normopeso y sobrepeso. En
el primer caso se trata de una escala cualitativa nominal y ordinal en el segundo.
Por lo tanto, se puede construir una escala cualitativa a cualquier variable (dentro
de lo razonablemente lógico), no importa cual sea la naturaleza de dicha variable.
Claro que, al hacerlo, si se está representando una variable cuantitativa,
sencillamente se pierde información que pudiera resultar valiosa.
Para el caso particular de las escalas cuantitativas es necesario identificar algunos
elementos particulares.
Las clases o categorías que conforman las escalas cuantitativas se denominan
intervalos de clase, en el ejemplo anterior de la edad de las madres, esa escala
está formada por 5 intervalos de clase.
El menor valor y el mayor valor que delimitan los intervalos de clase se denominan
límite de clase inferior y límite de clase superior y a aquellos intervalos de clase
que les falta uno de los límites, ya sea el inferior o el superior, se les llama
abiertos.
Así, en el mismo ejemplo 20, 25, 30, 35 y 40, serían los límites inferiores, y 24
(subsanando el error), 29, 34, 39 y 44, serían los límites superiores, siendo todos
intervalos cerrados.
Para cumplir con el criterio de exhaustividad, en este ejemplo de la edad de las
madres, se hace necesario agregar un intervalo de clase al principio y al final de la
escala, ya que se puede asumir que deben ocurrir nacimientos por debajo de los
20 años y por encima de los 44 años, pero cuán joven puede ser la madre o cuán
mayor, lo desconocemos. En este caso que no tenemos bien definido que limite
inferior asumir, simplemente lo omitimos y creamos un intervalo de clase abierto:
19 años o menos, o menor de 20 años. Lo mismo pudiera ocurrir con el último
intervalo, y sería, 45 años o más.
Las escalas pueden ser cerradas o abiertas, en virtud de que todos sus intervalos
sean cerrados o no. Algunos autores denominan semiabiertas o semicerradas a
aquellas escalas en las que uno de sus intervalos, ya sea el primero o el último
son abiertos; reservando el término abierta para las escalas en que ambos
intervalos son abiertos.
Analicemos en detalles la construcción de escalas cuantitativas. Ya comentamos
que esta escala de clasificación está compuesta por varias divisiones ordenadas
llamadas Intervalos de clase, los cuales están delimitados por límites de clase
superior e inferior, que son los valores mayor y menor que los enmarcan,
27
Administrador
Resaltado
Administrador
Resaltado
Administrador
Resaltado
respectivamente. A su vez los intervalos pueden ser cerrados o abiertos en
dependencia de si poseen los dos límites de clase o uno solo.
Para ilustrar las ideas planteadas, mostramos una escala cuantitativa de
intervalos, abierta y los intervalos utilizados:
Edad (años)
< 20 ⇐ Intervalo de clase abierto
20 – 24
25 – 29
30 – 34
35 – 39
40 - 44
Intervalos de clase cerrados
45 y más ⇐ Intervalo de clase abierto
Los intervalos pueden o no tener igual amplitud, aunque se prefiere lo primero, ya
que facilita enormemente el trabajo posterior con los datos. La amplitud o
recorrido (A) de un intervalo de clase es la longitud de éste. Su cálculo puede
hacerse de distintas maneras, veamos algunas:
1. Hallar la diferencia de los límites de clase del intervalo de
referencia y, luego, adicionarle una unidad al resultado obtenido.
Así, para el segundo intervalo de la ilustración anterior:
A = (24 – 20) + 1 = 5.
2. Otra forma de cálculo es contando losnúmeros enteros que se
encuentran entre los valores límites, incluyendo éstos. Así, para
el segundo intervalo de la ilustración anterior, la amplitud sería el
conteo de 20, 21, 22, 23 y 24, es decir, A = 5.
Obviamente, estos ejemplos son válidos cuando los límites de las escalas son
números enteros.
Para construir una escala cuantitativa con intervalos de igual amplitud, se deben
seguir los siguientes pasos:
1. Determinar el recorrido de la serie (R). Esto se logra restando el valor mínimo
al máximo. En el ejemplo dela Edad de la madre en años, el Rango será igual
a la diferencia de la edad mayor (madre de mayor edad) y la edad menor
(madre más joven) del grupo estudiado.
2. Establecer el número mínimo de intervalos deseado. Esta decisión es
personal, se determina en dependencia de las necesidades y los objetivos de
cada investigación. No siempre este es el número definitivo de intervalos,
ocasionalmente se requiere de un intervalo adicional.
3. Calcular la amplitud (A) de los intervalos. Para ello, se divide el rango obtenido
en el paso 1 por el número de intervalos fijado en el paso anterior. Es
recomendable redondear para convertir la amplitud en un número entero, lo
que facilitará la construcción de la escala.
28
4. Delimitar los límites inferiores (LI) de los intervalos. Partiendo del valor mínimo
de la serie, sumar la amplitud de los intervalos (A) y se obtendrá el LI del
intervalo siguiente, a este se le suma la amplitud (A) y se obtiene el
subsiguiente, y así hasta llegar al último intervalo de la escala.
5. Delimitar los límites superiores (LS). Se obtiene sustrayendo (restando) una
unidad al LI siguiente. En el caso del LS del último intervalo, se obtiene
sumándole la amplitud al último LI, y luego restando al resultado una unidad.
A fin de fijar ideas, veamos la construcción de una escala paso a paso. A
continuación se tiene una lista con los pesos (en libras) de 20 adolescentes, y se
desea agruparlos en una escala cuantitativa con intervalos de igual amplitud.
Nro. Peso Nro. Peso Nro. Peso Nro. Peso
1. 160,00 6. 170,54 11. 166,00 16. 150,00
2. 160,36 7. 160,20 12. 156,70 17. 151,78
3. 158,20 8. 163,20 13. 154,50 18. 152,00
4. 174,00 9. 165,80 14. 155,00 19. 154,80
5. 170,00 10. 165,90 15. 155,90 20. 156,70
Para visualizar mejor el rango es conveniente ordenar la serie1 de datos de menor
a mayor:
Nro. Peso Nro. Peso Nro. Peso Nro. Peso
1. 150,00 6. 155,00 11. 160,00 16. 165,90
2. 151,78 7. 155,90 12. 160,20 17. 166,00
3. 152,00 8. 156,70 13. 160,36 18. 170,00
4. 154,50 9. 156,70 14. 163,20 19. 170,54
5. 154,80 10. 158,20 15. 165,80 20. 174,00
Como puede verse el valor mínimo es 150, y el máximo 174, de manera que la
escala se construirá de la siguiente manera:
1. El recorrido de la serie es R = 174.00 – 150.00 = 24.
2. Establecemos como mínimo 4 intervalos de clase.
3. La amplitud que tendrán los intervalos es A = 24 / 4 = 6.
4. Límites inferiores se muestran a continuación:
Intervalo Límites inferiores
1. 150
2. 150 + 6 = 156
3. 156 + 6 = 162
4. 162 + 6 = 168
1 Se le llama serie de datos al conjunto de valores de una variable obtenidos en un
estudio, por ejemplo todos los pesos de los pacientes estudiados.
29
5. Límites superiores:
Intervalos Límites superiores
1. 156 - 1 = 155
2. 162 - 1 = 161
3. 168 - 1 = 167
4. 174 - 1 = 173
Hasta este punto, la escala será 150-155, 156-161, 162-167, 168-173,
completando así los cuatro intervalos deseados. Pero como puede comprobarse,
en los datos existe un valor que supera 173, de ahí que sea necesario añadir un
intervalo de clase al número predicho con el objetivo de lograr la exhaustividad de
la escala:
Límite inferior del quinto IC: 168 + 6 = 174
Límite superior del último intervalo: 174 + 6 - 1 = 179
Finalmente, la escala es la siguiente:
Peso (libras) Nro. %
150 – 155 7 35
156 – 161 6 30
162 – 167 4 20
168 – 173 2 10
174 – 179 1 5
Total 20 100
Observa que esta escala cumple con los requisitos planteados al inicio de este
epígrafe, es decir, es exhaustiva y sus intervalos son excluyentes entre sí.
1.1.5 Distribuciones de frecuencias absolutas, relativas y acumuladas.
Una vez definidas las variables y su escala de clasificación, el siguiente paso sería
clasificar la información, obtener el número de elementos que corresponden a
cada una de las clases de la escala, es decir, la frecuencia absoluta de cada
clase, con lo que estamos resumiendo la información original.
Cuando tenemos una escala de clasificación y la frecuencia absoluta calculada
estamos en presencia de una distribución de frecuencias para esa variable.
Además de la frecuencia absoluta también se puede obtener la frecuencia relativa.
Esta se obtiene dividiendo la frecuencia absoluta de cada clase entre el total de
observaciones, el valor que se obtiene se conoce por el nombre de proporción y si
este resultado se multiplica por cien (x 100) estaremos en presencia del por ciento
o porcentaje, que es una medida de la contribución que hace cada clase, la
importancia relativa con relación al total de observaciones, al total de la población
o al tamaño de la muestra. Veamos un ejemplo:
30
Edad
(años)
Frecuencia
absoluta
Frecuencia relativa
Proporción %
Frecuencias acumuladas
Absoluta Relativa
20–24 20 0.29 29 20 29
25–29 18 0.27 27 38 56
30–34 15 0.22 22 53 78
35–39 10 0.15 15 63 93
40–44 5 0.07 7 68 100
Total 68 1.00 100
Observe que la suma de todas las frecuencias absolutas es igual al total de
observaciones, y la suma de todas las frecuencias relativas es igual a 1 o a 100 en
dependencia de si se trabaja con proporciones o porcentajes.
También pueden calcularse las frecuencias acumuladas absolutas o relativas.
Para ello se suman las frecuencias de todas las clases que anteceden a la clase
para la cual se esta realizando el cálculo. La frecuencia acumulada del primer
intervalo de clase coincide con la absoluta o relativa del mismo, pues como es
obvio nadie la antecede y la del último intervalo es el total de observaciones 1 o
100.
Veamos un ejemplo. La frecuencia absoluta acumulada del tercer intervalo de
clase sería: 20 + 18 + 15 = 53 y la relativa en forma de por cientos: 29 + 27 + 22 =
78 %. Compruebe el resto de los cálculos con el ejemplo de la tabla anterior.
Las frecuencias absolutas y relativas pueden calcularse tanto para variables
cualitativas como para las cuantitativas, sin embargo como es fácil de apreciar las
frecuencias acumuladas sólo pueden calcularse para las variables cuantitativas.
Resumiendo, las distribuciones de frecuencias pueden clasificarse en:
- Absoluta
- Relativa Distribuciones
De frecuencias
- Acumulada
- Absoluta
- Relativa
1.2- Representación Estadística. El Cuadro y los Gráficos.
Al realizar una investigación se obtiene información sobre las variables del estudio.
Sin embargo, por lo general es tanto el volumen de información registrada que se
necesita utilizar alguna técnica que permita presentarla de manera resumida.
Existen dos formas de presentar la información resumida: la tabla o cuadro
estadístico y los gráficos.
31
1.2.1 – La tabla o Cuadro estadístico.
Un cuadro estadístico es un recurso que emplea la Estadística con el fin de
presentar información resumida, organizada por filas y columnas.
El cuadro tiene la finalidad de representar distribuciones de frecuencias, medidas
de resúmenes y series cronológicas.
1.2.1.1 Partes del cuadro estadístico.
Varios son los elementos que integran una tabla o cuadro2 estadístico.
Seguidamente presentamos cada uno de ellos:
– Presentación (Identificacióny Título)
– Cuerpo de la tabla
– Fuente
– Notas explicativas
1. Identificación. Consiste en otorgar un orden consecutivo a los cuadros,
comenzando por el número uno, v.g. Cuadro 1, Cuadro 2, etc.
2. Título. Debe ser completo y conciso. Para ser completo, el título debe responder
a las preguntas qué, cómo, dónde y cuándo. Reconozcamos en un ejemplo
cada una de estas preguntas:
Cuadro 1. Distribución de fallecidos según grupos de edad y sexo. La Habana,
1999.
Un análisis del título anterior permite conocer que:
- Distribución de fallecidos es de qué trata el cuadro.
- Los grupos de edad y sexo son el cómo se midió, es decir, a través
de cuáles variables.
- La Habana es dónde se realizó el estudio.
- 1999 es cuándo se realizó el estudio.
Observe que las variables se presentan después del vocablo “según”, aunque
alternativamente puede usarse el término “por” o “de acuerdo a”.
También es conveniente plantear que, en ocasiones, no es necesario dar
respuestas a estas cuatro interrogantes en un título, en cuyo caso sólo deberá
responderse al qué y al cómo. Ello ocurre cuando se está representando
información obtenida en una investigación y, en el informe final o el artículo, ya se
ha consignado en algún apartado anterior al de Resultados (Métodos), dónde y
cuándo se realizó el estudio, y por supuesto todos los cuadros representan la
2 Cuadro o Tabla de manera indistinta, pero no debiera usarse alternativamente en
un mismo trabajo: uno o el otro.
32
información del mismo lugar y período, si no es así es necesario señalarlo en cada
caso.
El otro elemento, la concisión, consiste en escribir justamente lo necesario. Se
deben eliminar las preposiciones y artículos que no ayuden a la comprensión del
título del cuadro. No obstante, no debe sacrificarse el mensaje redactando un título
“telegráfico”, no se debe ser lacónico pues ello dificultaría la comprensión de lo
que se quiere decir.
3. Cuerpo del cuadro. Es el cuadro en sí mismo, formado por un arreglo de filas y
columnas, y espacios llamados celdas, que se forman del cruce de una fila con
una columna, por ejemplo:
Columna matriz Fila de encabezamiento Total
xx xx xx
xx xx xx
xx xx xx
Total xx xx
La columna matriz se utiliza para consignar la variable con su escala de
clasificación. En caso de que el cuadro represente más de una variable, por la
columna matriz representarás la que tenga más clases o categorías o la que
constituye la causa, en estudios de causalidad.
En la fila de encabezamiento se presentan las distribuciones de frecuencias, las
medidas de resúmenes o la otra variable. La fila y columna últimas se dedican a
los totales.
Los cuadros estadísticos suelen clasificarse según el número de variables que
representan en:
Cuadros
• Unidimensionales: una variable.
• Bidimensionales: dos variables.
• Multidimensionales: tres o más variables.
Deben ser autoexplicativos, o sea, que se expliquen por sí mismos, por lo que se
debe evitar presentar demasiada información en ellos en aras de ganar claridad.
En general, como forma de presentación se utilizan cuadros uni y bidimensionales,
reservándose el uso de los multidimensionales para fines de trabajo.
4. Fuente. Se refiere al documento3 de donde se extrajo la información
presentada. Por lo general, las fuentes de información se clasifican en:
3 Cuando decimos documento no hacemos distinción de su soporte, puede estar
impreso, en formato digital, etc.
33
Fuentes
Primarias: aquellas de las que el investigador
obtiene directamente la información utilizando
diversas técnicas y métodos, v.g. la encuesta.
Secundarias: aquellas que existen
independientemente del estudio y el investigador
sólo las utiliza, v.g. el Registro de Nacimientos,
las historias clínicas.
Resulta válido y oportuno aclarar que en la tabla sólo se consignarán Fuentes
Secundarias.
Recuerda que una fuente es un documento. Frecuentemente esto se olvida, y se
consignan erróneamente como fuentes algunos locales, departamentos, entre
otros, como la Oficina Nacional de Estadísticas, el Archivo del policlínico, etc.
5. Notas explicativas o aclaratorias. Se utilizan cuando se desea aclarar algo, por
lo general del título o del cuerpo de la tabla.
1.2.1.2 Errores más frecuentes
No son pocos los errores que se cometen, voluntaria o involuntariamente, en la
confección de los cuadros estadísticos. A continuación presentamos una lista de
los más comunes, revisarla puede contribuir a no incurrir en ellos.
I. Errores en la presentación.
– Cuadros sin identificación.
– Título o encabezamiento incorrecto o inadecuado:
– Telegráfico: título demasiado pequeño, carente de claridad.
– Ampuloso: título demasiado extenso, que incluye vocablos que no
aportan nada a la claridad del texto.
II. Errores del cuerpo.
Errores de cálculo.
Disposición incorrecta de los datos.
Mostrar solamente medidas relativas (frecuentemente
porcentajes) u otras medidas de resumen.
Cuadros sobrecargados.
III. Errores en la fuente.
No citar la fuente cuando es secundaria.
34
Citar la fuente cuando es primaria.
Consignar como fuente aquello que no es un documento
(oficinas, departamentos, centros, etc.)
1.2.1.3 ¿Cómo leer un cuadro estadístico?
Realmente parece algo tan trivial, que muchas personas lo pasan por alto muchas
veces, lo que puede conllevar a interpretaciones erróneas del cuadro —o en el
peor de los casos, a no entenderlo—. Para evitar el fiasco, echemos una ojeada al
orden propuesto:
1. Leer cuidadosamente el título, así se sabrá exactamente de qué trata
el cuadro.
2. Leer las notas explicativas. Obviamente, las mismas mejoran
considerablemente la comprensión del cuadro.
3. Informarse de las unidades de medida utilizadas.
4. Fijarse en el promedio total o porcentaje general del grupo.
5. Relacionar el promedio total con el porcentaje de cada una de las
variables estudiadas.
6. Relacionar los promedios o porcentajes de las variables estudiadas.
1.2.2 Representación gráfica.
Otra manera de presentar la información estadística es a través de los gráficos.
Ellos pueden resultar muy útiles, aunque en ocasiones un uso incorrecto los
convierte en instrumentos estériles. Son complemento de los cuadros, por ende,
deben ser más autoexplicativos que ellos.
1.2.2.1 Características generales de los gráficos
Generalmente se inscriben en los ejes de coordenadas cartesianas o ejes
rectangulares, los cuales:
– Deben poseer la misma longitud, aceptándose como máximo que el eje X
exceda hasta 1.5 veces al eje Y. Esto evita la introducción de falacias.
– Deben estar rotulados. Generalmente, por el eje X se presenta(n) la(s)
variable(s) con su escala de clasificación; en el eje Y, la distribución de
frecuencias o medida de resumen utilizada.
– De ser posible, el origen de los ejes debe ser en el punto (0,0).
– Deben utilizarse números redondos.
– Debe evitarse el exceso de divisiones de los ejes.
Figura 1. Ejes cartesianos
o rectangulares
35
En la actualidad, con el advenimiento de las nuevas tecnologías informáticas, han
proliferado los programas que permiten la construcción de gráficos estadísticos. Al
utilizarlos, se debe tomar la precaución de analizar cuidadosamente el tipo de
información que se quiere representar, pues la mayoría de ellos ofrece varias
posibilidades de representación, quedando al juicio propio escoger la más
adecuada.
1.2.2.2 Partes del gráfico
Todo gráfico estadístico está constituido por varios elementos, los cuales
mencionamos a continuación.
– Presentación (Identificación y Título)
– Gráfico propiamente dicho
– Fuente
– Notas explicativas
– Leyenda
1. Identificación: consiste en numerar los gráficos consecutivamente, por
ejemplo: Gráfico 1, Gráfico 2, etc.
2. Título: el de la tabla que lo originó.
3. Gráfico propiamente dicho: severán los distintos tipos de gráficos en el
epígrafe siguiente.
4. Fuente: la tabla que lo originó.
5. Notas explicativas: su uso es similar a lo descrito en las tablas.
6. Leyenda: su fin es identificar los elementos del gráfico (barras, sectores,
etc.) con su correspondiente origen.
1.2.2.3 Gráficos para representar variables en escalas cualitativa y
cuantitativa discreta
A continuación le presentamos un grupo de gráficos que se estudiarán en este
epígrafe, atendiendo al número de variables que representan.
Número de
Variables
Tipo de Gráfico
1 Barras simples, Pastel o Circular
2 Barras múltiples, Barras compuestas
Gráfico de barras simples
Uso: Es un gráfico formado por barras separadas que representan a las categorías
de la variable en estudio. Se utiliza cuando queremos representar una variable
36
cualitativa o cuantitativa discreta, y la información se dispone en frecuencias
absolutas o relativas, o en medidas de resumen.
Elementos a considerar en su construcción
1. Disponer las barras separadas entre sí, para dar la idea de discontinuidad de
la variable representada.
2. El ancho de las barras será opcional, pero debe ser el mismo para todas.
3. La separación entre barras debe ser igual a la mitad del ancho de ellas.
4. Si la variable es nominal, ordene las barras en orden creciente o decreciente,
en dependencia de su gusto.
5. Utilice tantas barras como categorías tenga la variable.
6. Puede colocar las barras en el eje vertical o en el horizontal. Comúnmente se
utiliza el eje horizontal.
7. Este gráfico se origina a partir de tablas unidimensionales.
Ejemplo: Un grupo de investigadores desea conocer el comportamiento de la
vulnerabilidad psicosocial en ancianos de un área de salud. Para ello aplica el
cuestionario de vulnerabilidad-bienestar psicosocial del Dr. R. Pérez y obtiene los
siguientes resultados:
Cuadro 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio
Playa, 1994.
Vulnerabilidad
Psicosocial Número Porcentaje
Ausente 20 25.00
Baja 25 31.25
Media 20 25.00
Alta 15 18.75
Total 80 100.00
Gráfico 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio
Playa, 1994.
0
5
10
15
20
25
30
35
Ausente Baja Media Alta
Vulnerabilidad
%
Fuente: Tabla 1
37
Gráfico de pastel, de sectores o circular
Uso: Este gráfico se utiliza cuando queremos representar una variable cualitativa o
cuantitativa discreta, y la información se dispone en porcentaje. Básicamente, es
un círculo dividido en sectores que representan las categorías de la variable.
Elementos a considerar en su construcción
1. La totalidad de la información se representa por el número total de grados de
un círculo (360º).
2. Para obtener los grados correspondientes a cada categoría, se multiplica 3.6º
por la frecuencia relativa utilizada.
Ejemplo: Utilizando la información del ejemplo anterior, y haciendo los cálculos
pertinentes, el gráfico quedaría de la siguiente forma:
Cálculos previos:
Vulnerabilidad Porcentaje (%) 3.6º x %
Ausente 25.00 90.0º
Media 31.25 112.5º
Baja 25.00 90.0º
Alta 18.75 67.5º
Total 100.00 360º
Gráfico 2. Distribución de ancianos según vulnerabilidad psicosocial. Municipio
Playa, 1994.
Fuente: Tabla 1.
Nota: Con toda intención representamos los mismos datos por dos formas gráficas
diferentes (barras simples y pastel), así confirmamos la posibilidad de utilizarlos
indistintamente, aunque si la variable tiene más de cinco categorías, es preferible
usar las barras simples.
Ausente
Baja
Media
Alta
38
Gráfico de barras múltiples
Uso: Este gráfico se utiliza cuando queremos representar dos variables, que
pueden ser: cualitativas o cuantitativas discretas ambas, o una cualitativa y la otra
cuantitativa discreta; y la información se dispone en frecuencias absolutas o
relativas, o en medidas de resumen. Los datos se representan mediante barras
agrupadas, como se verá a continuación.
Elementos a considerar en su construcción
1. Dispondrá grupos de dos, tres o más barras, es decir, barras dobles, triples,
etc.
2. El número de grupos a formar dependerá del número de categorías
consignadas en la columna matriz o en la fila de encabezamiento, según su
gusto.
3. La separación entre cada grupo de barras es aproximadamente la mitad del
ancho del grupo.
4. Este gráfico se origina a partir de tablas bidimensionales.
Ejemplo: El siguiente gráfico resume la información de 300 niños de un Círculo
Infantil atendido por un médico de familia, atendiendo a las variables sexo y raza.
Tabla 2. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.
Sexo
Masculino Femenino Raza
No. % No. %
Blanca 79 42.9 60 51.7
Negra 63 34.2 34 29.3
Mestiza 42 22.8 22 19.0
Total 184 100.0 116 100.0
Fuente: Libro de matrícula del Círculo Infantil “El Camarón Encantado”. Curso
1999-2000.
Gráfico 3. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.
0
10
20
30
40
50
60
%
Masculino Femenino Sexo
Blanca
Negra
Mestiza
Fuente: Tabla 2
39
Gráfico de barras compuestas
Uso: Al igual que el gráfico anterior, utilice este cuando se quiera representar dos
variables: ambas cualitativas o cuantitativas discretas, o una cualitativa y la otra
cuantitativa discreta; y se disponga de la información en frecuencias relativas.
Aquí, la información perteneciente a una variable se representa en su totalidad en
una sola barra.
Elementos a considerar en su construcción
1. Cada barra representa el ciento por ciento de la información del grupo
representado.
2. El ancho de las barras queda a su gusto, pero debe ser el mismo para todas.
3. La separación entre las barras es aproximadamente la mitad del ancho.
4. Lo originan tablas bidimensionales.
Ejemplo: Utilizando la información del ejemplo anterior, el gráfico quedaría de la
siguiente forma:
Gráfico 4. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.
1.2.2.4 Gráficos para representar variables en escala cuantitativa continua
A continuación le presentamos un grupo de gráficos que se estudiarán en este
epígrafe, atendiendo al número de variables que representan.
Número de
Variables
Tipo de Gráfico
1 Histograma de frecuencias, ojiva*
2 Polígono de frecuencias
* No abordaremos este gráfico por su infrecuente uso en nuestro ámbito.
0%
20%
40%
60%
80%
100%
Masculino Femenino Sexo
Mestiza
Negra
Blanca
Fuente: tabla 2.
40
Histograma
Uso: Este gráfico consiste en barras adyacentes, y se utiliza cuando queremos
representar una variable cuantitativa continua, y la información se dispone en
frecuencias absolutas o relativas, o en medidas de resumen.
Elementos a considerar en su construcción
1. Las barras o rectángulos se disponen unidos para dar idea de continuidad.
2. El ancho dependerá de la amplitud de los intervalos de clase en que se
clasifica la variable en estudio.
3. La altura de cada IC se obtiene mediante el cociente frecuencia
absoluta/amplitud.
4. Por el eje X se consigna el límite de clase inferior de cada intervalo.
5. Lo originan tablas unidimensionales.
Ejemplo: A continuación presentamos los resultados de un estudio relacionado
con las edades maternas.
Tabla 3. Distribución de recién nacidos según edad materna. HGO “E. Hernández,
julio, 1999.
Edad materna Número Porcentaje
15 – 19 12.2
20 – 24 70 18.9
25 – 29 50 13.5
30 – 34 80 21.6
35 – 39 125 33.8
Total 370 100.0
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999.
Gráfico 5. Distribución de recién nacidos según edad materna. HGO “E.
Hernández”, julio, 1999.
0
5
10
15
20
25
30
35
40
15 20 25 30 35
Edad
%
Fuente: Tabla 3
41
Polígono de frecuencias
Uso: Este gráfico se utiliza cuando queremos representarhasta dos variables, de
las que al menos una debe ser cuantitativa continua y la otra (en caso de ser dos
variables) cualitativa o cuantitativa discreta, y la información se dispone en
frecuencias absolutas o relativas, o en medidas de resumen. Está formado por una
o dos curvas que representan a cada variable estudiada.
Elementos a considerar en su construcción
1. Se pueden construir histogramas inicialmente, y luego marcar los puntos
medios de cada intervalo de clase, los cuales al unirse forman una curva.
2. Habrá tantas curvas como categorías tenga la variable discontinua.
3. Lo originan tablas uni o bidimensionales.
Ejemplo: A continuación presentamos los resultados de un estudio relacionado
con las edades maternas y el sexo de los recién nacidos.
Tabla 4. Distribución de recién nacidos según edad materna y sexo. HGO “E.
Hernández”, julio, 1999.
Sexo
Masculino Femenino Edad materna
No. % No. %
15 – 19 25 12.8 20 11.4
20 – 24 34 17.4 36 20.6
25 – 29 31 15.9 19 10.8
30 – 34 29 14.9 51 29.1
35 – 39 76 38.9 49 28.0
Total 195 100.0 175 100.0
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999.
Gráfico 6. Distribución de recién nacidos según edad materna y sexo. HGO “E.
Hernández, julio, 1999.
Fuente: tabla 4
0
5
10
15
20
25
30
35
40
45
15 20 25 30 35 Edad
%
Masc.
Fem.
42
Para representar de manera conjunta dos variables cuantitativas continuas, se
emplea el gráfico de puntos o de dispersión, que no será abordado en este
epígrafe ya que su uso está asociado a otras técnicas de análisis estadístico que
no están contempladas en los objetivos del curso.
1.2.2.5 Gráficos para representar variables en el tiempo
A continuación le mostramos el gráfico aritmético simple, utilizado en el estudio de
las series cronológicas o temporales, como algunos las llaman. No obstante, es
bueno saber que hay quienes utilizan como gráfico de trabajo el de barras simples
para el tratamiento de fenómenos vistos en el tiempo.
Gráfico aritmético simple (GAS)
Uso: Este gráfico se utiliza para representar una variable a través del tiempo.
Elementos a considerar en su construcción
1. Cada categoría o clase de la variable se representa por una curva.
2. En el eje de las abscisas se consignará el año, mes, semana, etc., según la
unidad en que se mida el tiempo.
3. En ocasiones, cuando los ejes no ajustan, se utiliza una escala
semilogarítmica para su construcción.
Ejemplo: A continuación le presentamos la mortalidad perinatal de Cuba desde
1990 hasta 1998.
Tabla 5. Mortalidad perinatal según componentes. Cuba, 1990–1998.
Mortalidad
Neonatal Fetal* Años
No. Tasa No. Tasa
1990 861 4.6 1897 10.1
1991 811 4.6 1708 9.7
1992 720 4.6 1532 9.6
1993 601 4.0 1506 9.8
1994 598 4.0 1442 9.7
1995 586 3.9 1424 9.6
1996 456 3.2 1304 9.2
1997 461 3.0 1462 9.5
1998 435 2.8 1519 10.0
Tasa por 1 000 NV y defunciones fetales de 1 000 gramos y más
*: 1 000 gramos y más
Fuente: Anuario Estadístico de Cuba. 1998.
43
Gráfico 7. Mortalidad perinatal según componentes. Cuba, 1990–1998.
Fuente: tabla 5
A modo de resumen se puede apreciar en el siguiente cuadro los tipos de gráficos
de acuerdo a la escala de la variable y al número de variables a representar.
Escala Número de variables Tipo de gráfico
1 Barras simples Pastel o circular Cualitativa
cuantitativa discreta
2 Barras múltiples Barras compuestas
1 Histograma Polígono de frecuencias Cuantitativa
continua
2* Polígono de frecuencias
* una variable es cuantitativa continua y la otra puede ser cualitativa o
cuantitativa discreta
1.3 - Medidas de resumen para variables cualitativas.
Como hemos visto con anterioridad, en la investigación se utilizan variables
cualitativas, bien por su naturaleza, o por la escala empleada. Por supuesto, una
vez que la información se recogió, es necesario calcular alguna medida de
0
2
4
6
8
10
12
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
Años
Tasa
Neon.
Fetal
44
resumen cuyo resultado es un indicador que deberá analizarse en un momento
posterior.
1.3.1 Razón e Índice. Definición. Cálculo e interpretación
Una razón es la relación por cociente que se establece entre el número de
unidades de análisis que pertenecen a un grupo o categoría (a) y el número de
unidades de análisis que pertenecen a otra categoría (b) de la misma variable o
no. Su expresión general es:
b
a .
Es una medida de fácil cálculo y comprensión. La explicaremos con un ejemplo:
Supongamos que de los 400 recién nacidos (RN) de un municipio en cierto
período, 300 presentaron los ojos oscuros (OO), en tanto que sólo 100 los tenían
claros (OC). Aplicando la expresión general, la razón OO/OC es:
3
100
300
OCconRN
OOconRN
b
a
R ====
Nota: Utilizamos la letra R por razones didácticas, realmente la razón no tiene
símbolo propio.
La razón ojos oscuros/ojos claros es de 3; o lo que es lo mismo, 3:1.
Pero, ¿qué significa este resultado? Expresa que hay tres recién nacidos con ojos
oscuros por cada recién nacido de ojos claros en ese municipio y en ese período.
Note que el numerador y el denominador son disjuntos, es decir, no se
interceptan, no están contenidos uno en el otro. Ello le ayudará a establecer las
diferencias con las medidas de resumen que se estudiarán a continuación.
Además, la razón siempre toma valores mayores o iguales que cero y con
bastante frecuencia es menor que 1, lo que dificulta la interpretación.
Si se multiplica el resultado de una razón por 100, entonces el nuevo indicador se
denomina índice, de tal suerte que en el ejemplo anterior el índice sería 300. En
otras palabras, en el municipio de referencia, en el período estudiado, por cada
100 bebés de ojos claros hay 300 de ojos oscuros.
El índice resulta más fácil de interpretar que la razón, sobre todo cuando la razón
original es menor que 1. Por ejemplo, si nos interesa la razón inversa al ejemplo
anterior:
Razón OC/OO = 33.0
300
100
=
En este caso la interpretación sería muy compleja, en cambio al calcular el índice
correspondiente:
Índice OC/OO = 3.33100*
300
100
=
45
Interpretando ese índice podemos decir que en el municipio de referencia, durante
el período estudiado, nacieron aproximadamente 33 bebés con ojos claros por
cada 100 bebés con ojos obscuros.
1.3.2 Proporción y Porcentaje. Definición. Cálculo e interpretación
Una proporción es la relación por cociente que se establece entre el número de
unidades de análisis que pertenecen a un grupo o categoría (a) de una variable y
el total de las unidades de análisis estudiadas (n). Su expresión general es:
ba
a
+
. Si se multiplica su resultado por 100, se obtendrá el porcentaje.
Suele expresarse en el denominador (a+b) en lugar de n para destacar que el
numerador está incluido en el denominador, a diferencia de la razón.
Seguiremos utilizando el ejemplo del epígrafe anterior. ¿Lo recuerda? Pues bien,
determinemos la proporción de niños con ojos oscuros (300) en la población de
recién nacidos (400):
75.0
4
3
400
300
====
+
=
RNdeTotal
OOconRN
ba
aP
Alternativamente, puedes calcular el porcentaje correspondiente:
%0.75100
400
300
100
RNdeTotal
OOconRN
100P =×=×=×
Los resultados anteriores significan que tres de cada cuatro recién nacidos tienen
los ojos oscuros; o que 75 de cada 100 recién nacidos tiene los ojos oscuros.
¿No le resultan familiares estas nuevas medidas, o sea, la proporción y el
porcentaje? Ya debe estarse preguntando la diferencia que existe entre éstas y la
distribución de frecuencias relativas estudiada. Nada más claro: no es que sean
parecidas, son exactamente las mismas, pero restringidas a variables cualitativas.
Observe que el porcentaje le permite analizar el aporte, el peso específico o la
importancia relativa de cada categoría respecto al total.
1.3.3 Tasas
Siempre que se necesite medir el riesgo de que acontezca cierto fenómeno en una
población determinada,se dispone de un indicador valioso y único: la tasa.
Una tasa es una relación por cociente que expresa el riesgo de que ocurra cierto
evento en una población y período determinados. Está compuesta por tres
elementos, a saber:
k
rdenominado
numeradorTasa ×=
46
Veamos cuáles son esos elementos:
– El numerador contiene el número de veces que ocurrió determinado fenómeno
en un área geográfica y en un período determinados.
– El denominador indica el número de habitantes de la población en la cual
puede ocurrir el fenómeno.
– k es un múltiplo de 10 cuyo uso está justificado por el hecho de que
habitualmente el resultado del cociente es un número fraccionario, y al
multiplicarlo por una potencia de 10 se facilita enormemente la lectura y
comprensión del indicador.
Esta es una medida que expresa el riesgo de ocurrencia del evento estudiado, en
la población involucrada, en el tiempo y lugar establecidos.
Una particularidad realmente útil de las tasas es que se pueden calcular tanto para
la totalidad de la población, como para parte de ella (por ejemplo, para el grupo de
edad de cinco a nueve años, para los estudiantes, para los residentes del área
rural, y así por el estilo); por otra parte, se pueden calcular las tasas para todas las
causas, o solamente para una de ellas (o un grupo de ellas). De este modo, se
tendrán calculadas tasas brutas, crudas, generales o globales si se tratara de
tasas que involucren a toda la población o al total de causas; al tiempo que se
habrán calculado tasas específicas si incluyen a una parte de la población o a una
causa o grupo de ellas.
Así las cosas, estamos en plena facultad de hallar tasas brutas de mortalidad, de
natalidad, o bien específicas por edad, por sexo, por edad y sexo a la vez, entre
muchas otras. Teniendo a la disposición los datos adecuados, se puede hallar una
tasa tan específica como se desee.
Existe en punto cardinal en el manejo de las tasas: la población expuesta al riesgo
en cuestión. Como ya se sabe, este es el denominador de la ecuación, y de su
correcta determinación depende la fidelidad del cálculo. Nunca serán suficientes
las medidas que tomemos para asegurarnos de estar empleando el dato acertado.
No se piense que es muy difícil saber si uno está errado o en lo cierto, el problema
radica en que muchas veces se pasa por alto este “detalle” de forma involuntaria.
Probablemente se habrá preguntado: «Bueno, ¿y qué tanto problema con el
denominador?» ¡Ah! Es que ahí radica el quid de la cosa. Recuerde que calcula
una tasa para medir el riesgo de ocurrencia de un evento o fenómeno en una
población, pero no en cualquier población, sino en la población expuesta a ese
riesgo. Esto quiere decir que sólo podrá calcular la tasa de mortalidad por cáncer
de útero en las mujeres de cierta ciudad, puesto que sería imposible calcularla en
los hombres; del mismo modo que no puede calcular la tasa de morbilidad por
cáncer de pulmón de los habitantes de Pueblo Mocho en 1999, utilizando para ello
a los habitantes que tenía el pueblo en 1979, o a los habitantes de Palma Mocha
en 1999. Esto es realmente algo muy importante.
47
También hay que notar que las poblaciones están sometidas a constantes
cambios en lo que a su número atañe, determinados por los nacimientos y
defunciones y por los movimientos migratorios (emigración e inmigración), que
provocan que no sea la misma a lo largo de todo el año. De ahí que, por convenio,
se tome la población existente a mediados del período4 o población media para el
cálculo de las tasas.
Por otra parte, se debe tener especial cuidado al calcular tasas para poblaciones
pequeñas, como las que usualmente manejan los Consultorios, pues suelen
volverse inestables, ya que cualquier evento “mueve“ mucho la tasa, y a veces no
guarda relación el resultado obtenido con la magnitud del evento acontecido.
Las tasas que más importancia revisten para nuestro desempeño en el campo de
la Salud Pública son las relacionadas con la natalidad, mortalidad y morbilidad,
entre otras, las que serán estudiadas en detalle en el tema siguiente, tanto su
fórmula de cálculo como la interpretación.
Es conveniente insistir en que las medidas de resumen vistas anteriormente,
(razón - índice, proporción - porcentaje) sobre todo el porcentaje, no son medidas
de riesgo, el riesgo lo mide la tasa.
Con el cálculo de la proporción o el porcentaje lo que estamos midiendo es la
importancia relativa, lo que aporta, el peso que tiene cada categoría de la escala
de la variable con relación al total. Esta medida tiene un uso muy difundido y es
de gran utilidad, tiene la ventaja de poder comparar poblaciones con totales
diferentes porque todo se lleva a una base común que es 100.
Sin embargo, en ocasiones se le da un uso al porcentaje que desborda sus
posibilidades de análisis, y se cometen graves errores al interpretar los resultados
de un estudio.
Veamos un ejemplo.
Defunciones perinatales según edad gestacional de la madre. Ciudad de la
Habana. 2003.
Edad Gestacional
(Semanas)
Defunciones
No. %
20-27 31 6.2
28-32 108 21.2
33-36 124 25.6
37-41 197 39.7
42 y más 36 7.3
Total 496 100.0
4 Corrientemente se toma la población del 30 de junio.
48
Fuente: Registro de nacimientos, Dir. Prov. de Salud, CH
Pudiera resultar llamativo, para quien no conozca bien estas medidas, que el
mayor por ciento de defunciones se concentra en las edades óptimas para parir,
39.7% de defunciones entre las 37 y 41 semanas de gestación.
Este resultado es lógico, pues es precisamente en estas edades de gestación
donde ocurre un mayor número de nacimientos.
Lo que ocurre es que se está pensando en función del riesgo, por todos es
conocido, que desde el punto de vista clínico, el riesgo que tiene un niño de
fallecer es menor cuando se produce el parto a término que cuando ocurre con
pocas semanas de gestación. En este caso lo más conveniente es calcular las
tasas específicas de mortalidad en función de los nacimientos ocurridos en cada
grupo de edad gestacional, tal como se muestra a continuación.
Defunciones Nacimientos
Edad gestacional
No. % No. tasa x 1000
20–27 31 6.2 81 382.7
28–32 108 21.2 817 132.2
33–36 124 25.0 1912 64.8
37–41 197 39.7 29713 6.6
42 y más 36 7.3 2848 12.6
Total 496 100.0 35371 14.0
Observe como los valores más altos de las tasas, los mayores riesgos, se
encuentran en los menores tiempos de gestación, y a medida que las semanas de
gestación aumentan las tasas van disminuyendo para alcanzar su valor más bajo
de las 37 a las 41 semanas, y finalmente ascender ligeramente en los partos post-
término con 42 semanas y más.
1.4- Medidas de resumen para variables cuantitativas.
En el epígrafe anterior vimos cómo resumir las variables cualitativas, ya lo fuesen
por naturaleza o porque manejamos los datos en escala cualitativa. La información
cuantitativa también es dable de ser resumida, con las consabidas ventajas que de
ello se generan, pues corrientemente es necesario representar un conjunto de
datos por un número que —en la medida de lo posible— logre describir a dicho
conjunto. Para obtenerlo, se dispone de dos grandes grupos de medidas de
resumen: de tendencia central y de variación, las cuales veremos a continuación.
Antes de comenzar
En este apartado nos valdremos de algunas notaciones matemáticas para
representar las fórmulas de cálculo de los distintos indicadores.
49
Con el ánimo de refrescar la memoria, mencionamos los elementos propios del
lenguaje matemático que empleamos.
Para representar las distintas variables utilizamos las letras del alfabeto. Por
ejemplo, si medimos la edad y la talla de cinco individuos, pudiésemos referirnos a
la primera como la variable X, y a la segunda como la variable Y, de ahí que cadavez que hagamos alusión a X, sabemos que en realidad estamos hablando de la
edad de las personas estudiadas (si fuera Y, entonces hablamos de la talla). Vale
aclarar que para escoger las letras no hay una regla específica, eso queda a su
decisión.
Supongamos que los resultados del estudio fueron los siguientes:
Edad
(años)
Talla
(cm) Individuos
X Y
Ana 24 130.0
Juan 26 120.0
Rosa 27 140.0
Pedro 25 150.0
Teresa 23 110.0
Por otra parte, pudiera referirse a la edad por las letras ed, o algo por el estilo. Lo
que debe quedar claro, es a qué se refiere con la simbología utilizada, pues X
puede significar edad en un estudio, pero sexo en otro, por citar un ejemplo.
Ahora bien, llegamos a otro punto que necesita ser definido. Para referirse a las
edades de los cinco individuos, y suponiendo que las representó por la letra X,
pudieran escribirse entre otras tantas formas:
X(Ana) = 24 X(Rosa) = 27 X(Teresa) = 23
X(Juan) = 26 X(Pedro) = 25
Como se ha visto, es un procedimiento bastante tedioso el utilizar los paréntesis u
otra forma similar de identificación de los datos. En su lugar, se pueden usar los
subíndices, resultando algo por el estilo: X1 = 24, X2 = 26, X3 = 27, X4 = 25, X5 =
23. De la misma forma, las tallas serían: Y1 = 130, Y2 = 120, Y3 = 140, Y4 = 150,
Y5=110.
También resultan muy útiles los subíndices generales (por lo general son letras),
los cuales hacen alusión a un grupo de valores de la variable. Por ejemplo, para
decir que hay cinco valores de la edad, puedes escribir: Xi (i = 1, 2, 3, 4, 5); o lo
que es lo mismo: Xi (i = 1,…, 5). Observe que lo anterior no dice que la variable
toma los valores 1, 2, 3, 4 ó 5, sino que hay cinco mediciones de la misma,
¿claro?
Supongamos ahora que sumamos todos los valores de la variable peso, entonces
se escribiría lo siguiente:
50
X1 + X2 + X3 + X4 + X5 = 650
En el caso que nos ocupa, resulta fácil y rápida esta forma de escritura, pero si
fuesen, digamos, ¡200! valores…
En esta situación, se utiliza la letra griega sigma mayúscula Σ, que representa el
símbolo de sumatoria, el cual antecede a la variable en cuestión y se acompaña
de dos anotaciones: una encima y otra debajo, como lo siguiente: ∑
=
n
1i
iX . Esto se
lee como “la suma de las Xs desde i hasta n”, o sea, las Xs cuyos subíndices van
desde los valores especificados en i, o sea desde 1 hasta n.
Retomando el ejemplo anterior, hubieses escrito ∑
=
5
1i
iX . Si quisieras sumar
solamente los tres valores del centro, entonces escribirías: ∑
=
4
2i
iX .
De la misma forma, ∑
=
5
1i
iiYX significa X1 Y1 + X2 Y2 + X3 Y3 + X4 Y4 + X5 Y5 =
(24·130) + (26·120) + (27·140) + (25·150) + (23·110) = 16 300.
Al mismo tiempo, recordamos que elevar al cuadrado un número es multiplicarlo
por sí mismo, y se representa por el supraíndice 2, o sea, 132 = 169 (porque 13·13
= 169). Entonces, ∑
=
5
1i
2
iX es la representación matemática de lo siguiente —
utilizando los datos del ejemplo—: 21X +
2
2X +
2
3X +
2
4X +
2
5X = 24
2 + 262 + 272 +
252 + 232 = 576 + 676 + 729 + 625 + 529 = 3125.
La operación inversa de elevar al cuadrado es extraer la raíz cuadrada, que se
representa por el símbolo de radical , quedando bajo la barra horizontal a lo que
se le extrae la raíz cuadrada. De ahí que 4 = ±2, porque 2·2 = 4, pero –2 · –2 = 4
también, por lo que debe especificarse en buena lid el símbolo ±. Para algunos
datos del ejemplo anterior: 24 = ±4.89; 26 = ±5.09; 27 = ±5.19.
Por último, seguramente recordará que el valor absoluto o modular de un número
es él mismo sin el signo asociado, esto es, se toma la magnitud positiva del
número. Se representa por dos barras verticales que enmarcan al número
deseado, v.g. 3 = 3, y 3− = 3.
1.4.1 Medidas de tendencia central: Media, Mediana y Moda.
Seguramente, lo primero que estará preguntándose es: « ¿Por qué de tendencia
central?». Bueno, es que ellas están constituidas por un número alrededor del
cual se agrupan las observaciones de la serie de datos y que ocupa el centro
aritmético o geométrico de ella, aunque eso no significa que el número deba estar
51
representado en la serie (de hecho, muchas veces no ocurre así). Veamos en
detalle cada una de estas medidas.
1.4.1.1 La media aritmética
Puede encontrar la medida que vamos a presentar con diversos nombres, entre
ellos los más utilizados son promedio, promedio aritmético e incluso simplemente
media. Al respecto debemos aclarar que existen otras medias que no son
aritméticas, pero cuando decimos media a secas, nos referimos a la aritmética.
La media aritmética es una cifra que se obtiene al sumar todos los valores
observados y dividirlos por la cantidad de valores. Por supuesto que todos
estamos muy acostumbrados al cálculo del promedio. Se denota por los símbolos
µ (letra griega mu) ó X (se lee equis media), el primero se utiliza cuando
trabajamos con toda la población objeto de estudio y el segundo cuando
trabajamos con una muestra de la población, que es lo más frecuente, por lo que
utilizaremos éste. La media conserva las unidades de medida de la variable en su
estado original, o sea, que la media de un grupo de edades en años se expresará
asimismo en años.
La fórmula de cálculo de la media es:
n
X
X
n
1i
i∑
==
Veamos un ejemplo. Supón que deseas conocer la estatura media de cinco
adolescentes de tu consultorio. Estas son las observaciones (datos) de la
medición de cada uno de ellos (en cm):
170.0 150.0 130.0 160.0 140.0
5
140160130150170X ++++= = 150 cm
Este resultado indica que, en promedio, los adolescentes miden 150 centímetros.
Sencillamente, no hemos hecho otra cosa que decir: «más o menos, los
muchachos miden 150 centímetros».
Entre las propiedades de la media tenemos las siguientes:
1. Es fácilmente comprensible por la mayoría de las personas (o, al menos, es
fácil de explicar su significado);
2. Siempre existe, y puede calcularse para cualquier grupo de datos numéricos;
3. Es única, o sea, un grupo de datos sólo tiene una media;
4. Toma en cuenta a todos los valores de la serie de forma individual, esto es,
recorre la serie completa.
52
Esta última resulta ser sumamente importante, pues la media calculada representa
a todos los valores de la serie, siendo precisamente lo que se quería lograr. Ahora
bien, no siempre esto resulta beneficioso, como se verá en el próximo ejrmplo:
imagínese que se deseaba saber la edad promedio de las personas reunidas en
un salón de cierto Círculo Infantil, para lo cual se escogió al azar uno de los que
poseía dicho centro. En el momento de la medición, se encontraban presentes en
el salón escogido siete bebés y la educadora que los cuidaba, siendo sus edades
las siguientes (m: meses, a: años):
18m 10m 12m 16m 20m 12m 14m 34a
Edad media: 510 meses/8 = 63.75 meses = 5.3 años
Ahora tenemos que, en promedio, las personas allí reunidas tenían 64 meses de
edad (¡Bueno, 5 años es algo más fácil de entender!) ¿Crees que sea cierto ese
dato? Claro que no, está bastante lejos de la realidad, mas no está mal hecho el
cálculo. Matemáticamente es impecable, pero la lógica dice que algo falló.
El motivo por el que apareció un resultado tan dispar es la presencia de un dato
discordante en el conjunto: la edad de la educadora. Cuando en una serie de
datos encuentras algún dato que se aparta de los demás de forma llamativa,
entonces puedes nombrarlo dato(s) aberrante(s). Si calculásemos la media con las
edades de los pequeños solamente, entonces hubiese sido de 15 meses.
En resumen, si los datos son relativamente homogéneos, la media aritmética es
una buena medida de resumen; pero si existen valores muy alejados de la
mayoría (datos aberrantes), entonces se distorsiona mucho y deja de reflejar la
realidad existente, por lo que debe emplearse otro tipo de medida de tendencia
central, la mediana.
Nota: la fórmula analizada anteriormente solo puede emplearse cuandolos datos
son simples5, si los datos ya están agrupados en una tabla de distribución de
frecuencias es necesario emplear otra fórmula de cálculo que es un poco más
compleja por lo que decidimos no abordarla, ya que generalmente en la
investigación es el propio investigador quien agrupa los datos. De todas formas
esto puedes consultarlo en la bibliografía que se encuentra referida al final del
tema.
1.4.1.2 La Mediana
La mediana es otra de las medidas de tendencia central. Al igual que la media,
puede ser utilizada para describir el “centro” de un grupo de datos. No tiene un
símbolo específico que la denote; nosotros usaremos Me o mediana en lo
adelante.
La mediana es la observación que divide a una serie ordenada de datos en dos
partes iguales, o sea, es la observación que ocupa la posición central de una
serie ordenada.
5 O sea, datos no agrupados en tabalas ni distribuciones de frecuencias.
53
De lo antedicho se deduce que lo primero que tienes que hacer para calcular la
mediana es ordenar la serie, ya sea en orden creciente o decreciente. Luego,
buscarás cuál de los valores es la mediana, lo cual dependerá del número total de
observaciones o datos que tengas.
Si tienes un número n impar de observaciones, la del centro es la medida
buscada, como lo es 32 en esta serie: 41, 40, 36, 32, 26, 21, 20. Fíjate que a
ambos lados de la mediana hay la misma cantidad de números.
En este caso, por simple observación llegaste al resultado, pero puedes valerte de
calcular
2
1n + para saber la posición de la mediana, comenzando a contar por
cualquiera de los dos extremos de la serie. En el ejemplo anterior el resultado es
(7+1)/2 = 4, y el cuarto puesto lo ocupa el 32, no importa por cuál extremo
comienzas a contar.
La contrapartida ocurre cuando el total de datos es un número par; entonces la
mediana es la media aritmética de los valores del centro de la serie, como sucede
en el ejemplo: 20, 24, 33, 39, 45, 51, 75, 80. Los valores del centro son 39 y 45, su
media es 42, y es este el valor de la mediana de esa serie.
No debe causar extrañeza tal proceder, pues si aplicásemos la fórmula de la
posición, entonces la mediana ocuparía el lugar (8+1)/2 = 4.5, esto es, la mitad
entre los números 4 y 5 de la serie. Ocupando los valores 39 y 45 los lugares 4º y
5º respectivamente, entonces 42 es el centro entre ellos. ¿De acuerdo?
Se puede presentar la situación de que tengamos una serie con varios valores
iguales, como 50, 54, 56, 56, 56, 56, 60, 62. Aquí la mediana es 56, claro está.
Recuerde que ella es el valor central del grupo, y sería un atentado abierto a la
lógica cuestionarse cuál de los 56 es la mediana.
También puede calcularse la mediana para datos agrupados, de manera similar a
la media, lo que puede consultarse en la literatura básica y complementaria al final
del tema.
La mediana posee las propiedades siguientes:
1. Su cálculo es sencillo;
2. Siempre existe, y puede calcularse a cualquier conjunto de datos numéricos;
3. Es única;
4. No se afecta fácilmente por valores extremos.
La cuarta propiedad hace que se prefiera esta medida sobre la media en
situaciones en que existan valores aberrantes. Ahora bien, en la mayoría de los
casos —lógicamente, salvo los citados— se prefiere la media como medida de
tendencia central.
Para ilustrar lo planteado en la cuarta propiedad, volvamos al ejemplo de las
edades de los niños del Círculo Infantil y su educadora. Si calculamos la mediana
de esos datos, ésta sería:
54
Datos ordenados: 10, 12, 12, 14, 16, 18, 20, 34
Mediana: (14 + 16) / 2 = 15 meses, resultado que sí refleja con certeza
el centro de los datos.
Quizá una desventaja imputable a la determinación de la mediana radica en el
ordenamiento previo de las observaciones, faena que pudiese devenir tediosa y
hasta impracticable de ser un número considerable de datos, pero recuerda las
potencialidades que te brindan los programas existentes en el mercado actual, que
facilitan enormemente el trabajo6 al calcular la mayoría de estos indicadores.
1.4.1.3 La Moda
Ahora se conocerá una medida realmente sencilla, tanto de determinar como de
interpretar. Es muy intuitiva, y consiste en el valor, clase o categoría que aparece
con más frecuencia en una serie de datos; o sea, es el que más se repite. Por
ejemplo, si de seis pacientes, tres tienen 20 años, y los otros tienen 18, 21, y 25
respectivamente, entonces se diría que 20 años es la moda, o edad modal.
La mayor ventaja de la moda radica en que no requiere cálculo alguno, para
beneplácito de algunos que no cuentan a las Matemáticas entre su círculo de
amistades. Sin embargo, puede que no exista, e incluso puede no ser única. Por
ejemplo, la serie 2, 5, 6, 6, 6, 7, 8, 8, 8, es una serie bimodal, pues cuenta con el
seis y el ocho como modas.
1.4.2 - Medidas de Dispersión.
En el epígrafe anterior se estudiaron algunas medidas que proporcionan
información de una serie de datos numéricos, con la característica que un solo
número es el encargado de esto. Quizá podría parecer que con las medidas de
tendencia central sería suficiente para resumir y describir un conjunto de datos, sin
embargo, múltiples circunstancias exigen la descripción de otros rasgos de los
datos existentes, tal es el caso de la dispersión o variabilidad que trataremos a
continuación.
1.4.2.1 Necesidad del estudio de la dispersión.
Comencemos con un ejemplo, a continuación te mostramos los resultados de la
frecuencia cardíaca (FC), en latidos cardíacos por minuto, de 100 pacientes
ingresados en el Servicio de Medicina Interna de cierto hospital:
FC Nro. pacientes
21 – 40 1
41 – 60 17
61 – 80 38
81 – 100 40
101 – 120 4
Total 100
6 No tiene que acudir obligatoriamente a un paquete estadístico especializado: por
ejemplo, Microsoft® Excel realiza cálculos como el que nos ocupa.
55
La media aritmética de estos datos agrupados está dada por:
3.76
100
7630X ==
Por lo que se puede decir que, en promedio, los pacientes estudiados tenían una
frecuencia cardiaca de 76 latidos por minuto.
Ahora bien, a partir de esta información el médico a cargo de la sala (que no fue
quien hizo el estudio) pudiera realizar el siguiente análisis: «tomando en cuenta la
FC media, no tengo motivos para preocuparme por la salud de los pacientes,
pues, en general, ostentan cifras dentro de límites normales; por ende, tenemos
que encaminar nuestros esfuerzos hacia otros problemas».
¿Qué puede opinarse acerca de esto? Sí, estamos de acuerdo en principio, no
está nada mal, ya que interpretó correctamente el indicador. Pero, hay algo que
debe recordarse: la realidad es que, hasta donde él sabe, puede que la mayoría
de los pacientes sea la que tiene frecuencias cardiacas en los límites
considerados normales; pero puede que sea solamente la mitad, mientras la otra
mitad permanezca en franca bradicardia (o taquicardia). Claro, este es uno de los
casos “extremos”, mas el hecho de que sea algo poco probable no significa que
sea imposible. De hecho, notar que en el ejemplo, el intervalo de clase que
ostenta mayor frecuencia absoluta (40) es el de 81 a 100 latidos por minuto, o sea,
no es precisamente el que contiene a la media.
Veamos otra situación. Fíjese en estas dos series cuyas medias y medianas
coinciden (53). Sin embargo, no podríamos decir que son semejantes, si tomamos
en cuenta sus datos:
Serie A: 50, 51, 52, 53, 54, 55, 56
Serie B: 23, 33, 43, 53, 63, 73, 83
Por supuesto que no podemos. En la serie A los datos están más juntos, están
más cercanos (distan una unidad entre sí), lo que no ocurre en la serie B, cuyos
datos están mucho más alejados entre sí. Si se analizan las distancias entre las
observaciones y su media, en la serie A la primera y última observaciones están a
tres unidades del centro de la serie, mientras que en la otra esas observaciones
distan 30 unidades de sumedia. ¿Claro?
Ante una situación parecida, se necesitan otros parámetros acerca de la serie,
como aquellos que miden cuán alejadas o agrupadas están las observaciones
unas de otras o de la media.
El grado de agrupación o alejamiento de los datos de una serie es lo que recibe el
nombre de variabilidad, variación, esparcimiento o dispersión de los datos, la cual
puede ser absoluta o relativa. Con el fin de estudiarla, esto es, de conocer hasta
qué punto las observaciones están agrupadas o esparcidas, la Estadística nos
facilita las medidas de variabilidad, variación, esparcimiento o dispersión, las
cuales verás en este epígrafe.
56
1.4.2.2 Medidas de variabilidad absoluta
El Rango o Amplitud
Esta es la más sencilla de las medidas de dispersión. Consiste en la diferencia
entre el mayor valor de la serie y el menor, o sea, restar ambos valores. Por
ejemplo, la amplitud de los datos de la serie A —vista en el acápite anterior— es
de 56 - 50 = 6, y la de la serie B es de 60.
Como ves el rango o amplitud es una medida muy fácil de determinar. Da una idea
rápida de la variabilidad de un grupo de observaciones. No es muy descriptiva de
la misma porque sólo toma en cuenta los valores extremos de la serie, veamos el
siguiente ejemplo:
Serie A: 150, 160, 170, 180, 190, 200
Serie B: 150, 190, 197, 198, 199, 200
Resulta obvio que ambas tienen la misma amplitud (50), pero salta a la vista que
ambas no tienen la misma dispersión. En la primera, los valores se sitúan de
forma bastante dispersa entre los extremos; en la segunda la mayoría está
cercana al valor mayor de la serie.
Si queremos describir de manera más eficiente la dispersión de un conjunto de
datos, tendremos que emplear otras medidas de dispersión más específicas.
La desviación media
Al hablar de dispersión, lo hacemos la mayoría de las veces tomando en cuenta a
la media aritmética del conjunto de observaciones. Así, cuando decimos que la
dispersión de una serie es pequeña, es porque los datos están agrupados en la
cercanía de su media, siendo grande si los datos están alejados de ella. Esto
sienta las bases para utilizar como referencia las distancias (diferencias) para
referirnos a la dispersión, o sea, que sería procedente definirla en función de las
distancias que existen entre los valores de la serie y su media. Estas distancias
pueden ser vistas como la desviación entre los elementos en cuestión; con otras
palabras, si hay mucha distancia, decimos que se desvió mucho el número de la
media, y así por el estilo.
Si promediásemos las desviaciones entre cada número y la media, o sea,
sumarlas y dividirlas por la cantidad de números de la serie, obtendríamos una
medida de la variación promedio del conjunto de datos dada por:
n
)XX(
n
1i
i −∑
=
57
Por desgracia, realizar este cálculo te sería tan provechoso como no hacer
ninguno, pues el resultado final siempre es cero7, debido a razones matemáticas.
Por ejemplo, considera la siguiente serie: 2, 3, 4, 5, 6. Su media es 4, y si
calculásemos lo planteado:
0
5
0
5
210)1()2(
5
)46()45()44()43()42(
==
+++−+−
=
−+−+−+−+−
La solución a este inconveniente es hallar la diferencia modular de las
desviaciones, de esa manera sólo se tomará en cuenta la magnitud de dichas
desviaciones, esto es, hallar el módulo de las diferencias. De esta forma, se estará
calculando la desviación media (DM) o desviación promedio, cuya fórmula para
datos simples es:
n
XX
DM
n
1i
i∑
=
−
=
donde:
- Xi son las observaciones de la serie (i = 1,…, n);
- X : media aritmética de la serie;
- n: total de observaciones.
Ilustremos lo antedicho calculando la desviación media de las siguientes
mediciones del peso (en libras) que corresponden a cinco estudiantes de un área
de salud.
150.5, 180.8, 145.3, 127.9, 130.5
Ante todo, calcule la media:
147
5
5.1309.1273.1458.1805.150X =++++= libras
Luego halle las desviaciones de cada observación con respecto a la media:
Xi |Xi - X |
150.5 3.5
180.8 33.8
145.3 1.7
127.9 19.1
130.5 16.5
74.6
Finalmente, DM = 74.6 ÷ 5 = 14.92 libras.
7 Estriba en que la media de las desviaciones es justamente la media misma.
Como escapa a los propósitos de este curso entrar en formalismos matemáticos,
si estás interesado puedes acudir a la literatura especializada para indagar al
respecto.
58
Calculada la medida deseada, se puede decir que, el peso de los estudiantes se
desvía casi 15 libras de la media de 147 libras.
Particularicemos en algo: si se tratase de una serie con valores aberrantes, se
debió calcular la mediana en vez de la media; entonces utilice la mediana para
calcular la desviación media, sustituyendo la media en la fórmula por la mediana.
La desviación media es una medida que se utiliza poco en la práctica, sobre todo
si son muchos datos o si éstos tienen muchos lugares decimales, pero
principalmente debido a razones de índole matemática que no abordaremos en
este curso. De todas formas, optamos por darla a conocer con el fin de que se
logre entender cabalmente las medidas que veremos a continuación.
La varianza y la Desviación Estándar
Como se recordará, para calcular la desviación media nos vimos obligados a
utilizar las diferencias modulares para obtener un resultado válido, pues de lo
contrario no se obtenía nada. Pues bien, existe otra medida que se vale de elevar
al cuadrado las desviaciones de los datos con respecto a su media. Dicha medida
recibe el nombre de varianza o variancia. Se denota por los símbolos S2 ó σ2 (letra
griega sigma minúscula al cuadrado), al igual que con la media, la distinción entre
ellos se refiere a muestra y población, respectivamente. De momento, usaremos el
primero. Su cálculo (para datos simples) se verifica según la fórmula:
( )
n
XX
S
n
1i
2
i
2
∑
=
−
=
donde:
- Xi son las observaciones de la serie (i = 1,…, n);
- X : media aritmética de la serie;
- n: total de observaciones.
Esta medida logra describir adecuadamente la dispersión del conjunto de datos,
pero tiene un inconveniente: su resultado se expresa en las unidades de medida
de la variable elevadas al cuadrado, algo harto engorroso y difícil de entender en
la mayoría de las situaciones prácticas, y por demás disonante en relación con la
medida de tendencia central utilizada. Sería algo así como años cuadrados, o
pesos cuadrados.
A fin de eliminar este aparente escollo, se puede hallar la raíz cuadrada positiva
del número obtenido, con lo que tendremos de vuelta las unidades originales,
obteniendo así una medida denominada desviación típica o estándar8, que es la
medida de variación más ampliamente utilizada en el mundo de las estadísticas.
Su símbolo es S (por ser la raíz cuadrada de la varianza), aunque se utiliza
8 Aunque en muchos textos se utiliza standard, preferimos utilizar la traducción al
castellano del término.
59
también DS (desviación standard) o SD (standard deviation). Tiene, además, la
ventaja de que hasta las calculadoras de bolsillo —las científicas, claro está— la
calculan, y casi la totalidad de los paquetes estadísticos existentes en el mercado
del software.
Vamos a calcular la desviación estándar de la serie del ejemplo de los pesos (en
libras) del acápite anterior.
150.5, 180.8, 145.3, 127.9, 130.5
X = 147 libras
Xi (Xi - X )2
150.5 12.25
180.8 1142.44
145.3 2.89
127.9 364.81
130.5 272.25
1794.64
S2 = 1794.64 ÷ 5 = 358.93 libras2
S = 94.1893.358 = libras
Con el resultado obtenido puede decirse que, en promedio, los datos se desvían
de la media en casi 19 libras.
En gran parte de las situaciones del mundo biomédico, y basándose en elementos
de la Estadística Inferencial9, se pueden utilizar la desviación estándar y la media
para construir intervalos en los que se encuentran la mayor parte de los datos. Por
ejemplo, en el intervalo cuyo extremo inferior sea X –SD y el superior sea X +
SD, o sea, [ X – SD; X + SD], se encuentra cerca del 68% del total de las
observaciones. Si construimos el intervalo con el duplo de la SD: [ X – 2·SD; X +
2·SD], entonces ahí estará cerca del 95% de los datos; y utilizando el triplo de la
SD, el intervalo contendrá entonces a más del 99% (99.73%) de las
observaciones.
Si los datos están agrupados, el cálculo de la varianza se realiza de manera
diferente pero no lo abordaremos, esto puedes consultarlo en la literatura básica al
final del tema.
Si la serie posee valores aberrantes, usted se ve obligado a utilizar la mediana,
por lo que ahora debe sustituir la media por la mediana en la fórmula para calcular
la varianza y la desviación típica.
9 Nos referimos a la normalidad de las poblaciones. Este es un tema que va más
allá de los objetivos del presente curso.
60
1.4.2.3 Medidas de variabilidad relativa
En muchas ocasiones es necesario comparar la dispersión entre dos o más
conjuntos de datos, y sucede que las variables tienen diferentes unidades de
medida. Con las medidas de dispersión estudiadas no se puede llegar a una
conclusión válida acerca de la comparación en las desviaciones de los datos.
El coeficiente de variación
Ante casos como el descrito con anterioridad, es imprescindible contar con una
medida de variabilidad relativa, como el coeficiente de variación (CV), que expresa
a la desviación típica como porcentaje de la media, y su cálculo se realiza
mediante:
100
X
SDCV =
Observa que, por tener la desviación estándar y la media las mismas unidades de
medida, quedan canceladas dichas unidades, de ahí que el coeficiente de
variación no tenga unidades propias10, lo que facilita la comparación.
En el ejemplo siguiente, si se comparan las desviaciones estándar de los dos
grupos, pudiera creerse que ambos tienen igual dispersión, lo cual es un error
pues no se pueden comparar Kg. con cm:
Grupo 1: peso medio = 60 Kg.; SD = 4 Kg.
Grupo 2: talla media = 170 cm.; SD = 4 cm.
Sin embargo, al calcular la medida recién conocida, entonces: CV peso = 6.6% y
el CV talla = 2.3 %. Con lo que vemos algo bien diferente, pues en realidad el
grupo 1 tiene casi tres veces más dispersión en su peso que el grupo 2 respecto a
la talla.
Hay algo importante que usted debe saber, cuando se trata de una sola unidad de
medida, es decir, comparar la dispersión de dos grupos de estudio respecto a la
misma variable medida en la misma unidad de medida, se puede comparar
directamente la desviación típica (varianza) o la desviación media de ambos
grupos estudiados, en este caso es un error comparar los coeficientes de
variación, ya que el CV depende de los valores de las observaciones en sí
mismas, es decir, si comparo dos grupos de pacientes respecto a la talla en cm
puede suceder lo siguiente:
Grupo 1: talla promedio = 60 cm; SD = 4 cm
Grupo 2: talla promedio = 170 cm; SD = 4 cm
En este ejemplo ambos grupos tienen el mismo grado de dispersión respecto a la
talla, ya que poseen igual desviación estándar, pero habrán notado que las medias
son bien diferentes, el grupo 1 a juzgar por su talla promedio son lactantes,
10 Con otras palabras, el coeficiente de variación es adimensional.
61
mientras que el grupo 2 pueden ser jóvenes o adultos de cualquier edad.
Calculemos el CV en cada caso:
CV1 = 6.6 %
CV2 = 2.3 %
Aparentemente el grupo 1 es mucho más disperso respecto a la talla que el grupo
2, lo cual no es cierto, sucede que tienen diferentes valores de talla, el grupo 2 es
mucho más alto que el grupo 1, lo que se manifiesta en el promedio, pero en la
desviación estándar esto no queda reflejado, ya que es la diferencia promedio de
cada valor respecto a la media, no importa si esos valores son altos o bajos, ya
que su media también será alta o baja. Es decir, en el grupo 1 la talla de cada
paciente, como promedio, se desvía de la talla media unos 4 cm, al igual que en el
grupo 2. ¿Claro?
1.5 - Análisis de Series Cronológicas o Temporales.
Los eventos de salud relacionados con las poblaciones residentes en cualquier
área geográfica transcurren en el tiempo, por ello, es de capital importancia
estudiar su comportamiento a lo largo de éste. La evolución temporal de estos
eventos se puede conocer a través del análisis de las llamadas series temporales,
a las cuales dedicaremos este capítulo.
Una serie temporal, serie de tiempo o serie cronológica, pues de cualquiera de
estas formas puede llamársele, se define como el conjunto de mediciones sobre el
estado de una variable (el evento de salud considerado) ordenados en el tiempo1.
Las series temporales pueden clasificarse según la forma en que se ofrecen los
valores de las mediciones en dos tipos:
• Continuas: cuando los valores se ofrecen de forma permanente, de manera tal
que cada uno de ellos representa el estado de la variable en un instante, el
cual puede ser tan pequeño como teóricamente se quiera suponer.
• Discretas: cuando los valores se ofrecen para intervalos de tiempo,
generalmente homogéneos y donde representan la magnitud acumulada del
estado de la variable durante ese intervalo.
Estas últimas son las más utilizadas en Salud y en este contexto solamente
analizaremos las de este tipo. Un ejemplo de una serie discreta puede ser la
compuesta por las tasas anuales de mortalidad por enfermedades del corazón en
Cuba en los últimos 20 años o las tasas de incidencia mensual de hepatitis de una
provincia en un quinquenio.
Las series temporales tienen además otra característica, que hace muy difícil su
tratamiento mediante los métodos estadísticos habituales, pues en la mayoría de
éstos se exige el cumplimiento del supuesto de independencia de las
observaciones, mientras que las series generalmente se caracterizan por la
dependencia existente entre observaciones sucesivas. Dicho de otro modo, puede
62
existir una correlación entre las tasas de incidencia de determinada enfermedad
en períodos consecutivos de tiempo.
Existen muchas razones para estudiar una serie, por ello son de gran importancia
en nuestro medio pues entre otras cosas sirven para:
Describir las características más sobresalientes de cualquier evento en el
tiempo.
Predecir el comportamiento futuro de un evento de salud según su conducta
pasada.
Estudiar el mecanismo que genera la serie.
Evaluar impacto de las intervenciones realizadas sobre determinado problema
de salud.
Contribuir a la prevención de problemas de salud.
Controlar la calidad de los programas de salud.
Planificar recursos.
Ahora bien, antes de comenzar a trabajar con cualquier serie es necesario
evaluar algunos aspectos relacionados con la calidad de la misma, los cuales
pueden determinar el que ésta no tenga suficiente valor como para ser analizada.
Pudieran considerarse como los requisitos básicos que deben cumplirse antes de
comenzar el tratamiento de la serie y son: la consistencia, la comparabilidad, la
estabilidad, la existencia de valores aberrantes y la periodicidad.
1.5.1 –Requisitos de la Serie Temporal
Consistencia de la serie.
La característica fundamental para poder juzgar sobre la consistencia de una serie
está dada por la invariabilidad en el método de observación o recolección de los
datos, quiere esto decir que cualquier modificación que se efectúe en los mismos
puede determinar inconsistencias. Las series confeccionadas con mediciones
obtenidas por métodos rudimentarios pueden ser muy buenas siempre y cuando
éstos se mantengan estables, pues lo que verdaderamente se necesita es que el
método empleado sea capaz de medir las fluctuaciones del evento en el tiempo y
no tanto la verdadera magnitud del fenómeno. Evidentemente, obtener una serie
consistente en salud no resulta fácil pues existen muchas fuentes de variaciones
como son:
1. Cambios en las definiciones y clasificacionesempleadas. Es necesario
cerciorarse de que las clasificaciones y definiciones utilizadas a lo largo de la
serie sean iguales, las modificaciones impuestas por la Clasificación
Internacional de Enfermedades y Causas de Muerte deben ser tenidas en
consideración así como la no utilización de definiciones imprecisas.
2. Modificaciones en las formas de recogida y procesamiento de los datos. Deben
tomarse en cuenta las variaciones que pueden producirse cuando se implantan
63
nuevos sistemas de información estadística o cuando se sustituyen los
métodos manuales de procesamiento por los computacionales.
3. Modificaciones en los criterios de diagnóstico de las enfermedades. El
incremento en la capacidad diagnóstica debido al perfeccionamiento de las
técnicas y a la mayor cantidad de conocimientos, trae como consecuencia que
cuando se analiza un período largo de tiempo pueden existir modificaciones en
los criterios utilizados y producirse por lo tanto variaciones en el número de
casos que en ninguna medida representan la evolución real de la enfermedad.
4. Calidad de los registros. Nunca se insiste lo bastante en la calidad de los
registros y sin embargo, estos constituyen la piedra angular sobre la cual
descansa el estudio de las series; la calidad de los mismos depende del
personal que registra el dato, de su preparación y disciplina así como de su
estabilidad y experiencia en la actividad.
5. Modificaciones en la cobertura del sistema. Cuando se producen cambios en la
cobertura del sistema, ya sea por incremento de las instituciones o de la fuerza
laboral, debe esperarse un incremento en el número y frecuencia de los
eventos de salud, debidos simplemente al aumento del pesquisaje; no tomar
en cuenta lo anterior puede llevar a conclusiones fatales acerca del
comportamiento de cualquier fenómeno.
6. Calidad del diagnóstico. Al igual que con la calidad de los registros debe ser
una preocupación constante del que va a procesar una serie, el inquirir sobre la
calidad con que se han efectuado los diagnósticos, pues independientemente
del desarrollo tecnológico, existe un componente muy subjetivo en esto dado
por la preparación y dedicación de quienes realizan esta tarea.
7. Modificación de las características demográficas de la población subyacente.
Los cambios producidos en la población subyacente ya sean con relación a su
volumen o a su composición, pueden influir en los eventos de salud
considerados y hacer aumentar o disminuir los valores de los indicadores
utilizados, por lo tanto deben ser tenidos en cuenta.
8. Características del mecanismo de notificación: Hemos incluido este aspecto,
pues aunque no determina realmente la inconsistencia de la serie, si produce
modificaciones en el comportamiento de la misma las cuales deben ser
tomadas en cuenta. Si la serie está conformada mediante los valores
obtenidos por un mecanismo de notificación, una de las cosas que pueden
suceder es que los canales normales por donde fluye la información impongan
un retraso en la llegada de los datos desde las unidades de base hasta los
centros de recopilación finales. En este caso se encuentran las enfermedades
que requieren para su notificación final de exámenes de laboratorio complejos
los cuales solamente se realizan en instituciones de carácter nacional (por
ejemplo el SIDA o las enfermedades inmunoprevenibles).
64
Este retraso en la información produce una serie con valores incompletos de la
variable hacia el final de los períodos de tiempo considerados y esto se traduce
gráficamente por la presencia de una meseta artificial en una curva epidémica.
Para corregir este sesgo se han propuesto varios métodos que pueden ser
consultados en la literatura2,3,4 Otro de los problemas relacionados con las
notificaciones y que puede inducir a error en la interpretación de la serie, es el
producido por el efecto del calendario de recogida de la información, pues este
determina un incremento de casos en los intervalos de tiempo donde usualmente
se cierran las informaciones. Generalmente se observan a finales de trimestres,
semestres y años. Finalmente tenemos el problema que surge cuando las
notificaciones se realizan según la fecha de diagnóstico y no según fecha de
primeros síntomas. Es muy importante conocer esta característica, sobre todo
para enfermedades que tienen un período de transmisibilidad corto y
especialmente si se quiere predecir el momento de mayor riesgo para su
adquisición.
Comparabilidad de los valores de la serie.
Un aspecto importante en el trabajo con series es el de asegurar la comparabilidad
de los valores temporales de la variable, pues cuando ésta se refiere a un evento
que ocurre en una población cuya magnitud fluctúa con el tiempo, es necesario
obtener una medida de relación que permita independizar al valor de la medición
de dicho cambio. Por este motivo no se recomienda trabajar con números
absolutos a menos que se esté seguro de que la población se ha mantenido
invariable a lo largo del período analizado.
Generalmente se utilizan tasas o índices. Sin embargo, al emplear estas medidas
relativas debe garantizarse la calidad del cociente en ambos términos. La calidad
del numerador viene dada fundamentalmente por la utilización de la misma
definición para los casos y por el cumplimiento de los aspectos mencionados al
hablar de la consistencia. La calidad del denominador, depende de la coincidencia,
para todos los intervalos de tiempo que se estudian, de las características de las
poblaciones empleadas (la misma zona geográfica, mismo grupo de edad, mismo
sexo, etc.).
Estabilidad de la serie.
Una serie inestable puede producirse cuando se trata con eventos poco frecuentes
o con aquellos cuya magnitud es prácticamente despreciable con relación a la
población en la cual ocurren. En este caso están incluidas las enfermedades raras
o las que tienen una baja prevalencia. La utilización de medidas relativas cuando
el valor de las mismas está muy cerca del cero trae como consecuencias
dificultades para la obtención de los intervalos de confianza y que pueden originar
intervalos absurdos. Cuando el número de casos de una enfermedad es muy
pequeño en un intervalo de tiempo, esto se puede corregir agrupando los casos y
ofreciéndolos en intervalos de tiempos mayores, por ejemplo usando meses en
vez de semanas.
65
Existencia de valores aberrantes.
Los valores que se apartan mucho del conjunto de valores de su entorno o de los
pertenecientes a iguales períodos de tiempo deben ser considerados como
aberrantes o anómalos, pueden presentarse al observar el gráfico de la serie
como saltos aislados hacia arriba o hacia abajo, bien diferenciados de sus
vecinos. La aparición de estos valores puede tener varias explicaciones y es muy
importante decidirse por una de ellas.
Gráfico 1
Blenorragia.Cuba,1970-2000
0
50
100
150
200
250
300
350
400
450
19
70
19
71
19
72
19
73
19
74
19
75
19
76
19
77
19
78
19
79
19
80
19
81
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
años
Ta
sa
s
po
r 1
00
0
00
h
ab
.
valor aberrante
Pueden deberse a errores tales como: introducción incorrecta de los datos en la
computadora, mala trascripción del dato original así como datos originales
deficientes debido a errores en su obtención en la unidad de procedencia. Las
dificultades de este tipo deben ser corregidas de inmediato. En el Gráfico 1 se
muestra un ejemplo de valor aberrante presentado por la serie de incidencia anual
de blenorragia de Cuba en el año 1993.
Cuando el valor aberrante no es producido por un error entonces debe ser
sustituido. La sustitución de estos valores se realiza declarándolos como datos
perdidos, pues casi todos los programas computacionales tienen opciones para
tratar con este tipo de dato (missing data o missing value). Entre las más utilizadas
están las siguientes:1. Sustitución por la semisuma de los valores vecinos. Esta es la forma más
sencilla y habitual de sustituir un valor aberrante sobretodo cuando se trata de
casos aislados.
66
2. Sustitución por la media aritmética general de la serie. Este método puede ser
la mejor manera de estimar un dato siempre y cuando la serie no tenga
grandes fluctuaciones.
Aún cuando existen numerosas posibilidades para la sustitución de los datos
gracias a los paquetes computacionales, a veces la mejor forma de reemplazar un
dato aberrante es utilizando el valor sugerido por un experto, aún cuando puede
decidirse también no utilizarlo en absoluto.
Gráfico 2
Meningitis Bacteriana. Cuba,1982-2000
0
5
10
15
20
25
30
35
40
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
años
Ta
sa
p
or
1
00
0
00
h
ab
.
vacunación
Ahora bien, existen situaciones a las cuales están asociados los datos aberrantes
y que no deben pasarse por alto, por ejemplo, un conjunto de valores anormales
puede significar que se está produciendo un cambio en los niveles de la serie
debido a modificaciones en la magnitud real del evento o a errores sostenidos en
el mecanismo de observación o medición, en ambos casos ese requiere de una
investigación complementaria antes de continuar el análisis. En el gráfico 2 se
observa la modificación del nivel de la serie producida en la serie de Meningitis
Bacteriana a partir del inicio de la vacunación contra la meningitis meningocóccica
tipo B.
Periodicidad de la serie.
La periodicidad de la serie no es más que el intervalo regular de tiempo al final del
cual obtenemos una medición resultante del estado de la variable. La decisión de
cual es la que mejor conviene a nuestro estudio, está en dependencia de los
objetivos que se persigan, pues si se desea conocer el comportamiento histórico
de un fenómeno, entonces lo más razonable es utilizar series con una periodicidad
anual, en cambio si se quiere hacer la vigilancia de determinada enfermedad
transmisible resulta más apropiado el empleo de series semanales.
67
El gráfico de la serie
Hemos dejado este asunto para el final, pero no porque sea el menos importante,
pues el estudio de cualquier evento en el tiempo tiene que comenzar
necesariamente por la exploración de su representación gráfica. La observación
de ésta permite apreciar los detalles más relevantes de la serie así como detectar
los valores anormales.
El gráfico por excelencia para una serie de tiempo es el llamado Gráfico Aritmético
Simple (GAS), donde en el eje de las abscisas se inscriben los momentos de
tiempo considerados y en el eje de las ordenadas los valores de la variable
obtenidos para cada uno de los intervalos. Generalmente se utilizan las escalas
aritméticas para ambos ejes aunque pueden emplearse escalas semilogarítmicas.
Gráfico 3. Escala Aritmética
INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.
CUBA 1988-1994
0
4
8
12
16
20
1988 1989 1990 1991 1992 1993 1994
Años
Ta
sa
x
1
00
0
00
h
ab
.
0 a 14
15 a 49
50 y mas
Total
Fuente: Registro Nacional de Cáncer
Los gráficos con escalas semilogarítmicas son muy útiles para representar la
variación relativa del fenómeno estudiado, lo cual suele ser de mayor interés para
el epidemiólogo que la propia variación absoluta. Generalmente se utilizan para
representar series de datos que tienen magnitudes diferentes. Si con esta escala
el evento representado aparece como una línea recta esto permite suponer que
existe una evolución constante (crecimiento o decrecimiento) del indicador
empleado y la pendiente de esa recta pone de manifiesto la magnitud de esa
evolución.
68
Gráfico 4 Escala Semilogarítmica
INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.
CUBA 1988-1994
1
10
100
1988 1989 1990 1991 1992 1993 1994
Años
Ta
sa
x
1
00
0
00
0 a 14
15 a 49
50 y mas
Total
Fuente: Registro Nacional de Cáncer
Cuando se analizan dos series de datos y ambas aparecen como rectas paralelas
puede concluirse que los eventos representados tienen una variación similar. La
escala semilogarítmica posee además la cualidad de hacer evidente las
verdaderas variaciones, aunque éstas sean ligeras.
1.5.2 - Los componentes de la serie.
Una vez que se ha concluido que la serie en estudio tiene las cualidades
necesarias para poder ser analizada como tal corresponde proceder al análisis. El
enfoque clásico del estudio de series parte de considerar la existencia de un
proceso que gobierna el comportamiento de la variable en cuestión, el cual
determina los valores observados en cada momento de tiempo. La idea que
subyace bajo este enfoque determinista es una extrapolación de los modelos
matemáticos que describen los fenómenos físicos y los cuales permiten calcular el
valor de cualquier cantidad dependiente del tiempo con exactitud.
Desgraciadamente, casi ningún fenómeno de la vida en general y mucho menos
de Salud puede ser abordado de esta forma, pues factores desconocidos pueden
producir variaciones insospechadas, aún para los propios fenómenos físicos. La
magnitud y tipo de los cambios sociales, biológicos, físicos o químicos que ocurren
son tan infinitos como el propio tiempo. No obstante, se acostumbra a buscar una
expresión analítica que sea función de éste para explicar el comportamiento de la
variable, en otras palabras el modelo que gobierna la serie es una función del
tiempo.
69
Esta función está compuesta, según el enfoque clásico, por cuatro elementos o
componentes de la serie y se considera que todo cambio que se opera en ella es
resultado de la influencia de todos o de alguno de estos componentes, que son:
tendencia, estacionalidad, ciclo y aleatoriedad; los cuales describiremos a
continuación:
• Tendencia (T). También conocida como la tendencia secular, no es más que el
movimiento suave, regular y casi siempre lento, el cual tiende a mantenerse
por períodos largos de tiempo, por lo que generalmente se estudia en varias
décadas. La tendencia de una serie es la orientación general que parecen
seguir sus valores o el cambio de su valor medio o nivel en el tiempo. Los
cambios seculares o históricos son de gran importancia para los epidemiólogos
pues permiten apreciar cual ha sido el comportamiento del evento en períodos
anteriores, sin embargo, numerosos acontecimientos pueden influenciar las
tendencias de las enfermedades a lo largo del tiempo (costumbres higiénicas
de la población, nuevos métodos terapéuticos, medidas preventivas como las
vacunas), los cuales no deben olvidarse al observar la tendencia para permitir
la correcta valoración de la misma. En Gráfico 5 se aprecia la tendencia
decreciente de la mortalidad en el sexo masculino para el grupo de 1-4 años en
Cuba.
Gráfico 5.
Mortalidad: 1-4 años . Sexo Masculino.
Cuba (1986-1996)
60
65
70
75
80
85
90
86 87 88 89 90 91 92 93 94 95 96
Fue nte : Dire cción Nacional de Es tadís ticas .
Ta
sa
s
x
10
00
00
h
ab
ita
nt
es
• Estacionalidad (E). Se le conoce también como variación estacional y se trata
de las fluctuaciones periódicas y rítmicas de la variable en lapsos de tiempo
más cortos, generalmente asociadas con las estaciones aunque por extensión
se aplican a cualquier intervalo de tiempo dentro del año. Las variaciones
70
estacionales de los eventos de salud resultan de gran interés para los
epidemiólogos pues las causas que las motivan son numerosas y van desde
las modificaciones estacionales de la flora y la fauna hasta la circunstancias,
que debidas enteramente a la mano del hombre, juegan un papel en la
producción de las enfermedades, como son los incrementos que se producen
en los accidentes automovilísticos y la muerte por ahogamiento durante los
períodos vacacionales. En el Gráfico 6 podemos observar como se repiten los
momentos de alza en las atenciones médicas por EDA aproximadamentedurante los meses de verano en cada año.
Gráfico 6.
• Ciclo (C). La variación cíclica también es periódica, aunque los intervalos de
tiempo involucrados son mucho más largos, este componente solamente
puede apreciarse, de existir, en series muy extensas. Numerosas son las
enfermedades transmisibles para las cuales ha sido descrita la variación
cíclica, por ejemplo el alza quinquenal de la varicela o de la hepatitis. Un
ejemplo de esto puede verse en Gráfico 7 donde aparecen las tasas de
incidencia de varicela en Cuba en los últimos 32 años.
EDA. Cuba, 1990-1999
0
50000
100000
150000
200000
250000
300000
350000
400000
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99 10
6
11
3
12
0
12
7
meses
A
te
nc
io
ne
s
M
éd
ic
as
71
Gráfico 7
• Aleatoriedad (A). Se trata del movimiento irregular de la serie determinado por
el azar, impredecible, accidental. El enfoque clásico atribuye la presencia de
este elemento en el comportamiento de la variable a errores de observación,
medición o transmisión de los datos y por lo tanto imposible de modelar en ese
contexto. Tradicionalmente se obtiene por exclusión de los otros y se le llama
″residuo aleatorio″. En el gráfico 8 se aprecia un ejemplo de una serie donde
solamente se manifiesta el componente aleatorio. Observe que en esta serie
no es posible discernir ningún patrón como los que cabría esperar en presencia
de tendencia, ciclo o estacionalidad.
Varicela. Incidencia anual. Cuba,1964-1999
0
20000
40000
60000
80000
100000
120000
140000
19
64
19
66
19
68
19
70
19
72
19
74
19
76
19
78
19
80
19
82
19
84
19
86
19
88
19
90
19
92
19
94
19
96
19
98
72
Gráfico 8
Casos semanales del evento X
0.00
10.00
20.00
30.00
40.00
50.00
60.00
70.00
80.00
90.00
100.00
1 11 21 31 41 51 61 71 81 91 10
1
11
1
12
1
13
1
14
1
15
1
1.5.3- Métodos para el tratamiento de series.
Existen numerosos métodos para trabajar con las series temporales y la utilización
de uno u otro está en dependencia de los objetivos propuestos y de las
características de las mismas. No se recomienda hacer más complejo de lo
necesario este proceso pues si lo que se pretende demostrar puede lograrse
mediante un método simple, éste resultará mejor que uno más complejo, sobre
todo, si no se poseen los recursos tecnológicos que generalmente son necesarios
para el empleo de métodos más complicados.
A continuación explicaremos algunas de las formas más simples para estudiar la
tendencia y la estacionalidad, la clasificación utilizada para ello ha sido tomada del
excelente trabajo del doctor Arnaldo Tejeiro ″La Serie Cronológica″5.
Métodos para estudiar la tendencia.
Métodos Matemáticos.
1. Diferencias Absolutas.
2. Cambio Relativo.
3. Diferencias Absolutas o Cambios Relativos de valores extremos de la serie.
4. Números Indices.
5. Promedio de Cambio.
Métodos Gráficos.
1. Línea a mano alzada.
2. Método el Ciclo Medio.
3. Semipromedios.
73
4. Promedios Móviles.
5. Medianas Móviles.
Métodos para estudiar la estacionalidad.
Curvas de expectativa.
1. Curva con la Mediana.
2. Curva con el Promedio.
3. Curvas con Medianas o Promedios Móviles.
4. Mediana y Valor Último.
5. Promedio Tricentral.
Límites de variación habitual o Canales Endémicos.
1. Canal del Máximo -Maximorum y Mínimo - Minimorum.
2. Canal con las cifras inframáximas y supramínimas.
3. Canal del Promedio de la serie más - menos dos Desviaciones Estándar.
4. Canal con la Mediana y Primer y Tercer Cuartiles.
Método de la diferencia absoluta:
En este método lo que se pretende es demostrar la existencia de tendencia a
través del incremento o disminución de la diferencia absoluta entre los valores
extremos de la serie. Para que sea útil es necesario que la serie progrese de
manera bastante estable, ya que en series que presenten grandes variaciones
este valor carece de interés. Supongamos por ejemplo, que tenemos la serie de
mortalidad por enfermedades del corazón de Cuba desde 1970 hasta 1999. La
tasa bruta de mortalidad del año 1970 fue de 148.3 defunciones por 100 000
habitantes y la de 1999 de 192.6, la diferencia entre ambas es de 44.3, de manera
que podemos plantear que se ha producido un incremento entre los años
extremos del período y ello habla a favor de la existencia de una tendencia al
ascenso en este evento.
Método del cambio relativo:
La utilización de medidas relativas es muy atractiva por la facilidad de la
comprensión de las mismas. Este método consiste por lo tanto, en la presentación
del cambio relativo ocurrido entre los valores extremos de la serie. Continuando
con el ejemplo anterior de la mortalidad por enfermedades del corazón,
tendríamos que después de obtener la diferencia entre las tasas de 1999 y 1970,
esta diferencia se divide a su vez por el valor de la tasa del año 1970 y se
multiplica por 100, obteniéndose entonces que en la serie se ha producido un
incremento del 29.8 %.
Los métodos de la diferencia absoluta o del cambio relativo entre grupos de años
extremos de la serie son similares a los dos anteriormente descritos, pero en ellos
se utiliza en vez de los dos valores extremos, un grupo de valores cuyo tamaño
está en dependencia de los deseos del investigador y del número de años
disponibles. Es necesario sin embargo, estar atentos a las características de la
serie, pues si se trata de una serie con grandes fluctuaciones no se podrán
74
obtener resultados coherentes con ninguno de los métodos que emplean los
valores extremos; además como en todos los análisis de series temporales se
debe recordar siempre que los factores que han dado origen a la misma son
múltiples y que cualquier variación de estos puede modificar la misma. No
obstante, si la serie es muy variable se recomienda emplear el método que se
describe a continuación.
Método del número índice.
El número índice ha sido empleado con frecuencia como un indicador bastante
aproximado para estudiar la tendencia de eventos cuyo comportamiento es muy
fluctuante. Para confeccionarlo se escoge el valor de algún año y éste se
considera entonces como el cien por ciento obteniéndose a continuación el
porcentaje de éste que representa cada año de la serie. Este método tiene la
ventaja de que permite apreciar la evolución del evento a lo largo del tiempo. Sin
embargo tiene una gran desventaja y ella está dada por la decisión de cual es el
año que debe ser considerado como el índice. Supongamos que se escoge un año
que tiene un valor muy alto los demás años estarán por debajo del mismo o
viceversa, no obstante esto no resulta tan problemático si se hace la interpretación
adecuada. A continuación mostramos cómo se comportaron los números índices
de la serie de mortalidad por enfermedades del corazón de Cuba entre los años
1970-1999 tomando como año índice a 1970.
75
AÑO TASA
NÚMERO
INDICE %
1970 148.3 1 100.00
1971 141.3 0.95 95.28
1972 135.9 0.91 91.63
1973 147.2 0.99 99.12
1974 156.3 1.02 102.75
1975 148.9 1.00 100.40
1976 158.9 1.07 107.12
1977 162.8 1.09 109.77
1978 168.9 1.13 113.89
1979 164.7 1.11 111.50
1980 166.7 1.12 112.30
1981 176.1 1.18 118.70
1982 162.8 1.09 109.77
1983 171.8 1.15 115.84
1984 176.4 1.18 118.94
1985 189.9 1.28 128.05
1986 184.5 1.24 124.40
1987 185.5 1.25 125.08
1988 191.8 1.35 135.73
1989 190.2 1.29 129.33
1990 201.3 1.35 135.73
1991 192.5 1.28 128.25
1992 195 1.31 131.49
1993 199.2 1.34 134.32
1994 201.9 1.35 135.74
1995 201.3 1.35 135.73
1996 206.3 1.39 139.10
1997 197.1 1.32 132.90
1998 193 1.30 130.14
1999 192.6 1.29 129.87
Para estudiar la tendencia se emplean también varios métodos gráficos. No se
explicará mucho sobre ellos pero es bueno recordar que obtener la tendencia de
la serie por el simple trazo de una línea a mano alzada aunque parezca muy
primitivo es bastante útil para datos que no presenten grandes variaciones.
76
Métodográfico de los semipromedios.
Este método tiene amplia difusión y utilización. Consiste en obtener los promedios
de las dos mitades de la serie, la posterior representación gráfica de los mismos y
su unión mediante una línea recta. En el empleo de la línea recta para resumir la
posición de los dos semipromedios está el atractivo de este método para los
gerentes, pues les permite visualizar bien la tendencia. No obstante, se debe ser
cauteloso en la interpretación de este método pues los promedios se ven
afectados por los valores muy altos o muy bajos de la serie, lo cual puede ser
apreciado al comprobar como la eliminación de un año muy alto o muy bajo
cambia por completo la pendiente de la serie. En el Gráfico 9 se muestra la recta
obtenida para la tendencia mediante los semipromedios en la serie de mortalidad
por enfermedades del corazón de Cuba entre 1970 y 1999.
Grafico 9
Mortalidad por Enfermedades del Corazón.
Cuba, 1970-1999
100
120
140
160
180
200
220
19
70
19
72
19
74
19
76
19
78
19
80
19
82
19
84
19
86
19
88
19
90
19
92
19
94
19
96
19
98
Ta
sa
s
po
r
10
0
00
0
ha
b.
Como la serie tiene una extensión de 30 años, se calculó un promedio para cada
mitad, es decir que se obtuvo la media para los años 1970-1984 ( 159.13) y para
el período 1985-1999 (194.80). Cada promedio se inscribió en el punto medio
correspondiente en el eje de las abscisas.: el año 1977 para la primera mitad de la
serie y el año 1992 para la segunda. Si se hubiera representado una serie con un
número de años impar, por ejemplo con 29 años, entonces se hubiera dividido en
dos mitades de 14 años y el año central es decir el número 15 de la serie, se
hubiera incluido en el cálculo de los dos semipromedios.
Método de los promedios móviles:
Este es otro de los métodos gráficos recomendados para el análisis de tendencia,
pero en realidad lo que permite es disminuir las fluctuaciones bruscas de la serie y
obtener un suavizamiento general de la misma, por lo que se recomienda cuando
estamos en presencia de series con muchas variaciones en su comportamiento a
lo largo del tiempo. El método consiste en obtener el promedio para segmentos
77
iguales de la serie, generalmente se prefiere dividirla en pequeños grupos de 3 ó
de 5 años según la longitud de la serie y sus fluctuaciones e ir obteniendo
sucesivamente el promedio para cada conjunto de años. Estos después se
inscriben en un gráfico, como el que se muestra a continuación. Observe que con
este método siempre se van perdiendo términos.
AñoTASA
1970 0.7
1971 1.3
1972 2.1
1973 3.2
1974 4.9
1975 5.1
1976 5.3
1977 5.1
. .
. .
. .
1999 36.6
( 0.7+ 1.3+ 2.1) / 3
( 1.3 +2.1+3.2 ) / 3
( 2.1 + 3.2 + 4.9 ) / 3
78
Gráfico 10
Condiloma Acuminado. Cuba, 1970-2000
0
5
10
15
20
25
30
35
40
19
70
19
71
19
72
19
73
19
74
19
75
19
76
19
77
19
78
19
79
19
80
19
81
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
Ta
sa
p
or
1
00
0
00
Condiloma promedio movil
Entre los métodos tradicionales para el estudio de la estacionalidad mostraremos
la curva de expectativas y el canal endémico con cifras inframáximas y
supramínimas.
Curvas de expectativas.
Las curvas de expectativa se llaman así porque lo que se obtiene es una curva del
comportamiento esperado para el evento, se pueden confeccionar con la mediana
o con el promedio. Si estamos en presencia de series que no tienen muchas
fluctuaciones y se dispone de un gran número de años se puede utilizar la curva
confeccionada con el promedio. Pero si la serie es muy variable se recuerda que
esto afectará los resultados obtenidos pues el promedio toma en cuenta a todos
los valores.
Cuando se hace con el promedio se obtienen los promedios para cada intervalo,
por ejemplo para cada mes o para cada semana y después se inscriben en el
gráfico.
Cuando se decide confeccionarla con la mediana es necesario ordenar los valores
de los diferentes meses o semanas del año en orden ascendente o descendente y
obtener los correspondientes a la posición de la mediana. Con estos se hace el
correspondiente gráfico. En el gráfico 10 se muestra la curva de expectativa con
79
la mediana obtenida para los casos mensuales de Varicela de Cuba, en la cual se
utilizó la serie de casos mensuales del año 1990-2000.
En este gráfico se
aprecia como en esta
enfermedad se puede
esperar un incremento
de casos entre febrero
y junio.
Aunque las curvas de
expectativa resultan de
utilidad, es más
conveniente poder
establecer ciertos
rangos en el
comportamiento
esperado de los
eventos, que les
permitan a los gerentes
o a los epidemiólogos apreciar adecuadamente los fenómenos, pues las curvas de
expectativa explicadas con anterioridad solamente muestran un valor central. Se
puede adicionalmente hacer curvas con el promedio tricentral por ejemplo o con la
semisuma de la mediana y el valor último, pero estos métodos tampoco ofrecen la
información más completa.
El método del canal endémico es mucho más adecuado para mostrar los
diferentes rangos de comportamiento esperado de un evento. Se puede
confeccionar de varias maneras. A continuación s explicará una de ellas.
Canal Endémico con las cifras inframáximas y supramínimas.
Este es uno de los métodos más utilizados en nuestro país para la vigilancia de
eventos en intervalos de tiempo cortos como por ejemplo semanas o meses. Se
recomienda su utilización cuando se dispone de información de un número
suficiente de años, generalmente más de 7 años, pues en el procedimiento de su
confección se desechan las observaciones máximas y las mínimas. Para explicar
la confección de este método se utilizará la serie mensual de Hepatitis Viral
correspondiente a los años 1990-1998.
Varicela. Curva de expectativa.
( Mediana). Cuba, 1990-2000
0
2000
4000
6000
8000
10000
12000
E F M A M J J A S O N D
80
E F M A M J J A S O N D
1992 1692 1626 1887 2105 1919 1746 1959 1637 1866 1936 1503 1304
1993 838 928 1290 1021 891 1594 830 807 1289 944 727 991
1994 649 951 1509 1365 1206 1565 880 1105 1754 1493 1270 917
1995 815 1037 1540 1139 1443 1133 867 1362 1672 1406 1838 886
1996 946 919 1014 1123 1753 1911 1918 1803 2575 2998 1868 1977
1997 1926 1984 2276 2998 2271 1904 1748 1606 1520 1831 1218 1210
1998 914 1184 1586 1188 1237 1670 1045 1079 1538 1341 1268 1284
Para poder desarrollar el método es necesario ordenar los valores de la serie de
manera ascendente o descendente, en este caso se ordenaron de forma
descendente. Posteriormente se procede a obtener la mediana, y se toman dos
filas de valores adicionales, la fila que está por debajo de los máximos valores (
inframáxima) y la fila que está por encima de los mínimos( supramínima). Estos
tres conjuntos de números se pueden inscribir en un gráfico, dividiendo el área del
mismo en 4 zonas que se conocen con el nombre de Zona de éxito, zona de
seguridad, zona de alerta y zona de epidemia.
E F M A M J J A S O N D
1926 1984 2276 2998 2271 1911 1959 1803 2575 2998 1868 1977
Inframáxima 1692 1626 1887 2105 1919 1904 1918 1637 1866 1936 1838 1304
946 1184 1586 1365 1753 1746 1748 1606 1754 1831 1503 1284
Mediana 914 1037 1540 1188 1443 1670 1045 1362 1672 1493 1270 1210
838 951 1509 1139 1237 1594 880 1105 1538 1406 1268 991
Supramínima 815 928 1290 1123 1206 1565 867 1079 1520 1341 1218 917
649 919 1014 1021 891 1133 830 807 1289 944 727 886
81
Gráfico 11
gEste canal
permite inscribir
los nuevos
valores del
evento en el
período que se
está vigilando;
observar en que
zona se
encuentran y
actuar en
consecuencia.
Observe que los
valores que se
encuentran por
encima de la
mediana, ya
representan un
motivo de alerta o constituyen francamente una epidemia. Este método tiene la
ventaja de no considerar los valoresde años epidémicos pues no toma los
máximos, por eso se prefiere al canal del máximo maximorum y mínimo
minimorum, al cual se le ha señalado que pierde sensibilidad para la detección
de epidemias al tomar en cuenta para su confección a los valores máximos.
Los métodos anteriormente enumerados son bastante buenos en general si lo que
se desea es describir el comportamiento de un evento de salud. Sin embargo, con
frecuencia el estudio de series lo que persigue es poder predecir un valor futuro de
la variable y para este caso, esos métodos resultan inoperantes. Existen otro
grupo de métodos indicados para establecer predicciones que no serán abordados
aquí.
Bibliografía:
1. Horsford Saing R, Bayarre Vea H. Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte I. La Habana: Finlay; 2000.
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la Investigación.
Maestrías para profesionales de la Atención Primaria de Salud. La Habana,
2004.
3. Astraín Rodríguez ME. Estadística Descriptiva. La Habana: ENSAP; 2001.
4. Coutin Marie G. Las Series Temporales. MINSAP. La Habana, 2001.
Hepatitis . Canal Endémico.
0
1000
2000
3000
4000
5000
6000
1 2 3 4 5 6 7 8 9 10 11 12
EXITO
SEGURIDAD
ALERTA
EPIDEMIA
82
Tema 2. Estadísticas de Salud
Introducción
Por Estadística de Salud o Sanitaria entenderemos toda la información numérica
imprescindible para planificar, ejecutar, y evaluar programas de salud,
independientemente de si la información se produce en las unidades de salud.
Las estadísticas de salud se clasifican en:
Estadística de Población. Son aquellas que estudian la composición y
principales características de las agrupaciones humanas.
Estadísticas Vitales. Son aquellas que se refieren a los hechos recolectados
sistemáticamente y reunidos en forma numérica que se relacionan o derivan de
registros de eventos vitales.
Hecho vital. Es todo hecho relacionado con el comienzo y fin de la vida del
individuo y con los cambios de su estado civil que pueden ocurrir durante su
existencia. Los más importantes son los nacimientos y las defunciones.
Estadísticas de Morbilidad. Son aquellas que permiten conocer de que enferman
o padecen los habitantes de determinada colectividad o país.
Estadísticas de Recursos y Servicios. Expresan numéricamente los recursos de
que se dispone en la actividad de salud, y los servicios que se brindan con los
recursos existentes.
No hay dirección científica de la salud sin una sólida y amplia base informativa.
Las estadísticas de salud se tornan cada vez más amplias y complejas en la
medida que más amplia y compleja sea la actividad en salud.
En la planificación de los programas las estadísticas de salud son imprescindibles
pues la identificación de los problemas de salud, la magnitud y causas que los
producen se realizan mediante el análisis de la situación de salud de la comunidad
a servir.
Durante la ejecución de los programas, las estadísticas permiten realizar el control
y ajuste de los mismos y por ultimo son imprescindibles para evaluar el
cumplimiento de los objetivos planteados
Tomado del libro Estadísticas de Salud y Población de la
Dra. Maria Elena Astrain. ENSAP. 2000
83
2.1 Fuentes de información
La información se puede obtener de diferentes fuentes y por diversos métodos.
Existen dos grandes fuentes de información, las denominadas fuentes primarias
y las fuentes secundarias.
Fuente primaria. Es la fuente que contiene el dato en su origen y por sí mismo.
Hay que realizar una búsqueda activa del mismo ya que este no se encuentra ni
registrado ni publicado.
Existen dos métodos básicos de recolección de la información, la Observación y
el Interrogatorio.
La observación, como método o técnica de obtención de la información sé
caracteriza por ser planificada y responder a un objetivo preciso y previamente
formulado.
Tiene como ventaja la objetividad y como desventaja que es un proceder caro, no
permite investigar lo subjetivo, ni el pasado ni el futuro, necesita de un personal
altamente calificado, no puede ser aplicado a grandes poblaciones, y tiene
implícito el error de observación, la valoración subjetiva del que realiza lo
observación.
Existen dos grandes formas de observación, la no estructurada y la
estructurada. En ambas es necesario diseñar una guía de observación, su nivel
de precisión y de detalle dependerá de los objetivos propuestos y del fenómeno a
investigar. En la no estructurada solo se relacionan de forma muy general los
aspectos a observar, mientras que en la estructurada el nivel de detalle y precisión
de la guía es mucho mayor.
El interrogatorio como método de obtención de la información, elimina las
desventajas de la observación y tiene como limitante que es un método mas
subjetivo pues depende de la memoria del interrogado y de la buena voluntad a la
hora de responder las preguntas.
Dentro del interrogatorio se distinguen dos grandes procedimientos: la entrevista
y el cuestionario.
En la entrevista como su nombre lo indica se establece un dialogo entre el
entrevistado y el entrevistador. Puede ser no estructurada, semi estructurada y
estructurada.
En la no estructurada la guía de entrevista se limita a enunciar de forma general
los aspectos a tratar, si se abordan estos temas en forma de preguntas, estas son
84
abiertas. Requiere de un amplio conocimiento sobre el problema a tratar y de gran
pericia por parte del entrevistador.
En la estructurada la guía de entrevista constituye un instrumento diseñado con un
alto nivel de detalle y especificidad. Las preguntas aunque pueden ser abiertas se
limitan a aspectos más concretos y prevalecen por lo general las preguntas
cerradas.
La semi - estructurada, tiene en el diseño de la guía, partes estructuradas y partes
no estructuradas.
La entrevista en cualquiera de sus modalidades tiene la ventaja de poder incluir en
su diseño la observación.
El cuestionario no es mas que una entrevista estructurada pero donde no existe la
figura del entrevistador, es autoaplicado, la persona lo llena sola. Este aspecto es
importante a la hora del diseño, pues la claridad en el lenguaje y en la formulación
de las preguntas es vital para su comprensión. Tampoco debe ser muy extenso.
Tiene como ventaja adicional que es mucho mas económico que la entrevista,
pues puede ser aplicado a grandes grupos de población de una sola vez, con solo
reunirlos en un local para que una persona encargada lo realice, e incluso puede
ser enviado por correo, en este último caso el número de no respuesta puede ser
muy elevado. Tiene como desventaja que no puede combinarse con la
observación.
Es bueno aclarar que la entrevista estructurada y al cuestionario son los métodos
de obtención de la información que identifican a la encuesta que se conoce como
método de recolección de la información bajo otro eje de clasificación.
Fuente secundaria. En este caso ya la información se encuentra registrada y
publicada, no es necesario hacer una búsqueda activa de la misma, solo es
necesario velar por la calidad de la fuente que utilicemos en nuestros análisis. Por
ejemplo las historias clínicas de un centro de salud, los anuarios demográficos y
estadísticos, los sistemas de información o registros, como el de mortalidad.
Métodos de recolección de la información.
Los principales métodos de recolección de la información son: el censo de
población, la encuesta y los registros continuos.
La selección del método de recolección de la información dependerá del:
- Propósito del estudio.
- Naturaleza de la información (fuente, accesibilidad, restricciones)
85
- Frecuencia con que se pretende recoger. La información puede ser recolectada
ocasionalmente como es el caso de la encuesta, de manera periódica como
los censos de población que se realizancada 10 años y generalmente años
terminados en ceros, y de manera continua como los registros.
El censo de población. Proceso que incluye un conjunto de operaciones, que
consiste en reunir, elaborar, y publicar datos demográficos, económicos y sociales,
correspondientes a todos los habitantes de un país o territorio, referidos a un
momento determinado o a ciertos periodos dados.
Los censos de población deben reunir determinadas características, las más
importantes son:
- Un territorio bien definido, es decir un área geográfica bien delimitada.
- Universalidad. Debe comprender a todos los miembros de la población del área
seleccionada, sin omisiones ni repeticiones.
- Simultaneidad. La población total empadronada debe referirse a una fecha bien
definida. Así como los datos reunidos deben referirse a una fecha o a un periodo
bien definido.
El censo tiene dos finalidades principales. En primer lugar sirve a modo de
fotografía instantánea de una comunidad, valedera para un momento dado. En
segundo lugar, cada censo puede considerarse como un elemento en una serie
consecutiva, aspecto dinámico comparable a una película cinematográfica de la
población. Solo mediante una serie sucesiva de censos de una población es
posible apreciar la magnitud y dirección de las diversas tendencias demográficas.
Los errores más frecuentes que se producen en los censos pueden agruparse en
dos categorías: errores de cobertura y errores de contenido.
Los errores de cobertura pueden deberse a:
- Omisión de personas. Las omisiones más frecuentes se producen en las
primeras edades.
- Duplicidad en la enumeración. Personas enumeradas mas de una vez.
Los errores de contenido ocurren al proporcionar el declarante datos equivocados
sobre el tema que se indaga o al anotar el enumerador incorrectamente la
información. El error que con más frecuencias se comete es la declaración
incorrecta de la edad, por lo general en personas de edad avanzada que tienden a
redondear la edad en cifras que terminen en 0 o en 5.
86
Los censos se clasifican en:
- Censo de jure o de derecho. Cuando la persona resulta empadronada según el
lugar de residencia, independientemente de su presencia o no el día del censo.
- Censo de Facto o de hecho. Cuando la persona resulta empadronada según el
lugar de su presencia el día del censo, independientemente que resida
habitualmente o no en dicho lugar.
- Mixto. Cuando se aplican en un mismo censo los dos métodos. Los datos de la
persona enumerada por lugar de presencia se envían posteriormente al lugar
donde declaró como residencia habitual para su compatibilización.
Registros continuos. Registran la información sobre hechos o sucesos ocurridos
a la población o a un segmento de ella, a medida que estos se producen en el
tiempo y el espacio. Estos constituyen por su variedad una fuente de información
valiosísima sobre todo a lo que a Salud Publica se refiere. Entre los registros más
comunes se pueden citar: los registros civiles - nacimientos, defunciones,
matrimonios divorcios etc.- los de seguridad social, los escolares, etc.
Los registros civiles constituyen la fuente de las estadísticas vitales, son los mas
útiles para el sector salud, y su historia data desde épocas remotas. En un
principio la iglesia estuvo a cargo de los mismos( registros parroquiales), pasando
el estado, a partir del siglo XIX, al asumir su responsabilidad, aunque todavía
existen países en los cuales continua siendo la Iglesia la encargada de muchos de
ellos.
Los hechos o sucesos vitales pueden ser anotados en los registros de dos formas
distintas.
- Según lugar de ocurrencia del hecho.
- Según lugar de residencia de la persona objeto de estudio.
La forma mas apropiada es la del registro por lugar de residencia, pues permite tener
información de las regiones o áreas geográficas en el marco interno de un país,
imprescindible para la planificación y evaluación en el sector salud.
La información proveniente de los registros se puede interrelacionar con la
proveniente de los censos, mediante la llamada Ecuación Compensadora.
2.2 La población
Desde el punto de vista demográfico la población es el conjunto de personas que
se agrupan bajo un cierto ámbito geográfico.
87
Las poblaciones no son estáticas, están en continuo cambio por la influencia de
las tres variables demográficas más importantes: la fecundidad, la mortalidad y las
migraciones
Composición o estructura de la población
No es más que la distribución de los integrantes de la población por las variables
de más interés como la edad, el sexo, el estado civil, la ocupación, la escolaridad y
otras.
Las variables más importantes para el estudio de la estructura lo son la edad y el
sexo.
Edad. De ella depende la participación que tenga la población en hechos como: la
reproducción, la actividad económica, las migraciones y la mortalidad.
La distribución por edad puede hacerse por edades simple aunque es más
frecuente su estudio por grupos quinquenales o decenales.
Dentro del análisis por edad tenemos un indicador muy importante que mide la
carga que tienen las poblaciones de personas no productivas, económicamente
dependientes, la razón de dependencia.
Está razón no es más que la relación entre las personas con dependencia
económica por su edad y la población económicamente activa.
RD =
nteactivaconomicamepoblacióne
ependientepoblaciónd
x 100
Donde:
Población dependiente = < de 15 y > 64 años
Población económicamente activa = 15-64 años
El criterio de población económicamente activa puede cambiar de un país a otro,
pero lo importante es medir la carga que tiene la población productiva.
Sexo. Influye en el comportamiento diferencial de los nacimientos, defunciones,
migraciones, ocupación y otros aspectos de interés.
Un indicador muy utilizado para el análisis de la composición de la población por
sexo lo es el denominado Índice de masculinidad o razón de masculinidad.
88
Razón de masculinidad =
eedadnquenalesdrgruposquifemeninapoPob
deedadinquenalesorgruposqumasculinappob
.
.
Al nacimiento el índice es de aproximadamente 1.05. Si no hay migraciones, sólo
la influencia de la mortalidad, producto de la sobremortalidad masculina tiende a
igualarse a la unidad alrededor de los 40 años y a partir de esta edad, se invierte
al existir en las edades más avanzadas más mujeres que hombres.
Por edad y sexo. Generalmente se obtiene la distribución porcentual por edad y
sexo y se representa a través de una gráfico especial: la pirámide de población
La pirámide de población, la representación gráfica por edad y sexo de la
población, no es mas que dos histogramas, uno para cada sexo, que se han unido
y rotado sus ejes, en el lado izquierdo se colocan los hombres y a la derecha las
mujeres.
En el eje vertical, (y), están los grupos quinquenales de edad hasta 85 y más y en
el eje horizontal, las abcisas aparecen los efectivos de población en porcentajes.
Como todos los grupos de edad tienen la misma amplitud, cinco, los rectángulos
tienen el mismo ancho y sólo varía la longitud en dependencia de los efectivos de
población de cada grupo.
Tipos de pirámide
- Pirámide de base ancha y una rápida disminución hacia la cúspide. Se ve en
poblaciones jóvenes típica de países en desarrollo donde existen altos niveles
de fecundidad y de mortalidad.
- Pirámide de base estrecha, por la baja natalidad, un ascenso irregular hacia la
cúspide que es más ancha por los bajos niveles de la mortalidad. Típica de
países desarrollados.
A continuación se muestran tres tipos de pirámide, la expansiva es la de base
ancha y cúspide estrecha propia de países pobres.
La constrictiva y la casi estacionaria por el contrario son típicas de países ricos con
muy bajos niveles de natalidad y mortalidad. En la casi estacionaria los bajos
niveles de fecundidad ya llegan a producir un crecimiento negativo.
89
PirámideExpansiva Pirámide Constrictiva Pirámide Casi
Estacionaria
Perfiles generales de las poblaciones
La variable demográfica que más influye en el envejecimiento de la población es la
fecundidad, pues al disminuir los efectivos de población más jóvenes se estrecha
la base y aumenta el peso relativo de los viejos. La mortalidad, cuando disminuye
lo hace para todas las edades.
Una forma rápida de analizar el grado de envejecimiento de la población es a
través de los índices de Rosset y de la ONU, que miden el peso relativo de la
población de 60 y 65 años y más.
Índice de Rosset. Según la distribución de la población de 60 años y más:
-<8% Juventud demográfica
8-10 % Umbral de envejecimiento
11-14% Envejecimiento propiamente dicho
15ymàs Vejez demográfica
Índice de la ONU. Según la distribución de la población de 65 años y más
<4% población joven
4-6% población madura
7-10% envejecimiento incipiente
11-13% envejecimiento avanzado
14-16% población envejecida
> 16% muy envejecida
90
Crecimiento de la población.
Puede ser de dos tipos según las variables demográficas que intervengan:
- Natural o vegetativo. El cambio de magnitud se debe sólo a la diferencia
entre nacimientos y defunciones, no ocurren migraciones.
- Total o neto. Se tiene en cuenta las migraciones
Tasas de crecimiento:
1- Aritmético o lineal o incremento natural. Mide el crecimiento de manera
absoluta y asume que la población crece a un ritmo constante. Sólo se
recomienda para períodos cortos de tiempo de 1 a 2 años.
r =
t
1
(
no
nont −
) k
Donde:
no = población al inicio del período
nt = población al final del período
t = tamaño del intervalo de tiempo
k = constante, 100 o 1000
Veamos el ejemplo de Cuba:
1998 = 11 122 308 habitantes 2001 = 11 229 688 habitantes
r =
3
1
(
11122308
1112230811229688 −
) x 100
r = 0.33 (0.00965) x 100
r = 0.3 % tasa media anual de crecimiento
2-Tasa de crecimiento geométrico o interés compuesto
Es mejor que la anterior. No asume un incremento absoluto constante, sino un
crecimiento exponencial y puede ser utilizada por periodos más largos de tiempo
La expresión simplificada de cálculo sería:
91
r =
t
2 100x
nont
nont
+
−
Para Cuba en el período 1990-2001 sería:
r =
10
2
(
1060320011229688
1060320011229688
+
−
) x 100
r = 0.2(0.029) x 100
r = 0.6% de crecimiento en el período 1990-2001
3. Tiempo en que se duplica la población
Suponiendo que la población crece a una tasa constante r, de crecimiento relativo,
se puede determinar el tiempo que demora la misma es duplicar, triplicar, etc, su
tamaño.
t
r
=
+
ln
ln( )
2
1
Donde:
Ln 2 = 0.69315
r = crecimiento geométrico
Con el ejemplo de Cuba:
t =
)006.01ln(
69315.0
+
t =
00598.0
69315.0
= 115.9
De mantenerse la tasa de crecimiento constante, la población de cuba se
demorará 115.9 años en duplicarse.
Transición demográfica
Los primeros siglos, antes y después de nuestra era, se caracterizaron por un
crecimiento de la población lento, con una elevada natalidad pero una también
elevada mortalidad.
A partir del siglo XIX se produce un descenso marcado y sostenido de la
mortalidad, con altos niveles de natalidad, lo que trajo como consecuencia un
92
crecimiento muy marcado de la población. Este proceso se inicio en los países
europeos y en sólo 90 años se duplicó la población mundial.
Ya a finales del siglo XIX se inicia en Francia un descenso de la natalidad, que se
comienza a extender en el siglo XX al resto de los países en mayor o menor
medida. El descenso de la mortalidad que ha seguido un ritmo marcado y
sostenido, unido al descenso de la fecundidad ha motivado una disminución
nuevamente del ritmo de crecimiento, con un envejecimiento poblacional.
Esto ha provocado un cambio en los perfiles de morbilidad y mortalidad, con un
predominio de las enfermedades crónicas no transmisibles.
En el gráfico que aparece a continuación, se ha esquematizado la transición
demográfica: en los inicios, ambas tasas eran muy elevadas, con valores cercanos
entre sí, lo que resultó en una tasa de crecimiento (diferencia entre TBN y TBM)
pequeña, posteriormente, la mortalidad lideró el descenso cuando aún la natalidad
permanecía elevada, produciéndose un exceso notable de los nacimientos sobre
las muertes y por ende una aceleración del incremento. Al final, las dos tasas
brutas han descendido a valores más pequeños y también lo ha hecho su ritmo de
crecimiento.
TBN
TBM
r
r
r
Años
r = TBN - TBM
Tasas brutas de natalidad, mortalidad y crecimiento
Fuente: Herrera,L. Introducción a la Demografía. Cuba. ENSAP 1999
93
2.3 La fecundidad
La fecundidad es el componente de cambio poblacional que más incide en el
tamaño y estructura por edades de una población. Una elevación de la fecundidad
durante un período de tiempo, da lugar tanto a un aumento de la tasa de
crecimiento, como a un aumento de la proporción de personas en edades más
jóvenes, en relación con la población total, produciendo un rejuvenecimiento de la
misma. A la inversa, la disminución continuada de la fecundidad, produce un
descenso de la tasa de crecimiento acompañada del aumento de la proporción, de
personas adultas, dando lugar con ella a un proceso de envejecimiento.
Es importante conocer que la fecundidad se relaciona con el tamaño de la
población femenina en edad fértil en sentido directo, por lo cual siempre se debe
valorar el tamaño que tiene esta subpoblación. Se considera período fértil el
comprendido desde los 15 hasta los 49 años, estas son las edades fértiles de la
vida de una mujer.
Se conoce como fecundidad la capacidad real de reproducirse.
Se conoce como fecundidad natural aquella que ocurre en poblaciones donde no
se introduce de manera consciente procedimientos para limitar la descendencia y
como fecundidad dirigida, la que se produce en comunidades que han
introducido conscientemente métodos para regular la concepción.
Otras categorías vinculadas con el tema lo son: la fertilidad que es la capacidad
potencial de reproducirse una población, está relacionada con aspectos
biológicos y la Natalidad que no es más que los nacimientos vivos ocurridos en
una población.
Evolución histórica:
La tendencia general mundial es a la disminución. Este descenso comenzó en
Francia a principios del siglo XVIII. El resto de los países se fueron sumando
paulatinamente a este comportamiento esta lista la encabezaron los más
desarrollados ya que existe una relación inversa entre desarrollo socioeconómico
y niveles de fecundidad.
Este descenso se hace muy marcado a principio del siglo XX y abarca a todo el
planeta, durante la década del 60 la reducción no fue importante, en la década de
los 70 se expanden los programas de planificación familiar en la mayoría de los
países, estos programas logran una mayor consolidación en los años 80 donde se
observa un mayor descenso de los niveles de fecundidad.
94
Sin embargo, existen grandes diferencias entre regiones y países. En los países
nórdicos y Europa los niveles tan bajos constituyen un problema para esas
poblaciones, lo que ha motivado que los gobiernos tracen políticas de
incentivación de la natalidad. Sin embargo en otras regiones del mundo como
África los niveles se mantienen elevados.
En la región de las Américas existen importantes diferencias, el área Andina y
México presentan las tasas mas altas de fecundidad, mientras que América del
Norte y el Caribe los niveles más bajos. Los países de más alta fecundidad en la
región son: Guatemala, Haití, Honduras, Nicaragua, Bolivia, y los de niveles más
bajos Canadá, Cuba, Islas Turcas y Estados Unidos
Factores que influyen en la fecundidad
Son múltiples los factores que influyen en el comportamiento de la fecundidad y
se clasifican en extrínsecos e intrínsecos.
Factoresextrínsecos, diferenciales de la fecundidad o variables intermedias.
1- Situación conyugal
2- Nivel de instrucción
3- Zona de residencia
4- Grupo social
5- Incorporación de la mujer al trabajo
6- Urbanización
7- Nupcialidad
8- Divorcialidad
Factores intrínsecos (la fecundidad depende directamente de ellos)
a- Fisiológicos
1- Fecundabilidad, que es la probabilidad de que una mujer casada o unida
sea concebida en el transcurso de un ciclo menstrual.
2- Probabilidad que una concepción finalice en un nacido vivo
3- Esterilidad
4- Intervalo de recuperación ovulatoria luego del parto. .
b- Factores de comportamiento.
1- Lactancia materna
2- Frecuencia de las relaciones sexuales
3- Métodos de prevención de nacimientos
95
Fuentes de información
Las estadísticas de natalidad estudian el número y la distribución de los
nacimientos en una colectividad.
Todos los países disponen de sistemas de registros de nacimientos y leyes que lo
hacen cumplir. El registro civil es la fuente principal de información sobre
nacimientos y el documento básico la inscripción de nacimiento. Existe un
certificado de nacimiento estandarizado que incluye tres diferentes tipos de datos:
sobre el recién nacido, sobre el ambiente y sobre los padres.
Existen otras fuentes que se utilizan con fines específicos dirigidos casi siempre
por intereses investigativos, algunas de estas son:
- Registros de instituciones públicas y privadas que atienden partos.
- Médicos o paramédicos que atienden partos a domicilio
- Certificados de defunción de fallecidos en los primeros días de vida y que
no han sido notificados como nacimientos.
Medición de la fecundidad
1- Tasa bruta de Natalidad
Es el menos refinado de los indicadores de la fecundidad, como puede apreciarse
por su expresión de cálculo, se trata de una tasa bruta, lo que limita las
comparaciones al estar afectada por la estructura de población por edad. Además
de incluir en el denominador personas que no participan en el evento que se está
midiendo (niños y ancianos).
TBN =
P
N x 1000 habitantes
Donde:
N = total de nacidos vivos
P = población estimada a mitad de período
Tiene como ventaja que es de fácil cálculo. Sus valores oscilan entre 11 y 50
nacimientos x 1000 habitantes, por debajo de 20 se consideran niveles bajos de
fecundidad.
Veamos la tasa de Cuba para el año 2000
TBN =
11187673
143528 = 12.8 x 1000
En el año 2000 se produjeron en Cuba 12.8 nacimientos por cada 1000
habitantes.
96
2- Tasa de fecundidad general
Generalmente las medidas de fecundidad están restringidas a la población
femenina, pues es fácil de medir y controlar el comportamiento por este sexo,
además de jugar un papel protagónico en este evento.
TGF =
4915−P
N x 1000 mujeres de 15 a 49 años
Ya en el denominador aparece la población expuesta al riego de procrear, aunque
a la hora de hacer comparaciones, por ser un grupo de edad tan amplio, pueden
existir diferencias en la estructura por edad entre territorios que afecten las
comparaciones.
Sus valores oscilan entre 30 y más de 100 nacimientos por 1000 mujeres en edad
fértil ( 15 a 49 años). Valores por debajo de 60 se consideran bajos.
Cuba en el año 2000 tenía una tasa de 47.3 nacimientos por 1000 mujeres en
edad fértil.
3- Tasa de fecundidad por edad
Es de gran importancia y utilidad pues la fecundidad tiene un comportamiento
diferencial por edad y permite conocer el aporte de cada grupo de edad al nivel de
la fecundidad. Generalmente son bajos los niveles en las menores de 20 y en las
mayores de 35 años donde precisamente son mayores los riesgos de morbilidad y
mortalidad para la madre y el niño. La edad óptima para la maternidad se dice que
es de 20 a 29 años.
Los países desarrollados no solo tienen bajos niveles de la fecundidad, sino, que
los grupos de 25 a 29 y 30 a 34 años son los que mas aportan a la fecundidad.
TFE =
quenalesgruposquinemeninaporpoblaciónf
lessquinquenaosporgruponacidosviv
x 1000 mujeres del grupo de
edad.
Es muy útil el análisis gráfico de estas tasas por medio de un polígono de
frecuencia, y se conoce como curva de fecundidad.
La curva alcanzará su mayor nivel (cúspide) en correspondencia con el grupo de
edad que tenga mayor nivel de la fecundidad y se clasifican en:
- Curva de cúspide temprana pico de 20 a 24 años
- Curva de cúspide tardía pico de 25 a 29 años
- Curva de cúspide dilatada pico de 20 a 29 años
El gráfico que aparece a continuación fue tomado de Introducción al análisis
demográfico de Lorenzo Herrera.
97
Tasas de fecundidad por edades
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
15 20 25 30 35 40 45
Edad
Tasa
1975
1985
1996
Observe como en el año 75 Cuba tenía una curva de fecundidad de cúspide
temprana y con el de cursar del tiempo no solo los niveles de fecundidad
descendieron para todos los grupos etáreos, sino, que la importancia y el aporte
del grupo de 25 a 29 años se ha ido incrementando, y la cúspide tiende ha ser
dilatada.
4- Tasa global de fecundidad
Es el número de hijos que en promedio tendría cada mujer de una cohorte
hipotética de mujeres que:
- Que durante su periodo fértil tuviera sus hijos de acuerdo a las tasas de
fecundidad por edad observadas en un momento dado
- No estuvieran expuestas al riego de la mortalidad desde el nacimiento
hasta el término del período fértil
Para su cálculo se suman las tasas de fecundidad por edad (sin el 10 n ) y se
multiplican por 5 que es la amplitud de los grupos de edad.
TGF = 5 ∑
=
49
115i
TFE
Veamos el ejemplo de Cuba para el año 2000
98
Edad de la madre Tasa de fecundidad
por edad ( x 1000)
15-19 52.3
20-24 98.4
25-29 88.5
30-34 52.5
35-39 20.1
40-44 3.0
45-49 0.1
Total 47.3
TGF = 5 (0.0523 + 0.0984 + 0.0885 + 0.0525 + 0.0201 + 0.003 + 0.0001)
TGF = 1.57 hijos por mujer
5-Tasa bruta de reproducción
Expresa el número promedio de hijas por mujer y cumple los mismos supuestos
que la tasa global de fecundidad y los cálculos son los mismos, solo que el
resultado final se multiplica por la proporción de nacimientos femeninos que
ocurren en la población.
En la población tiende a producirse 105 nacimientos masculinos por cada 100
femeninos, como vimos en el capitulo de población, de donde la proporción de
nacimientos femeninos seria:
K =
205
100 = 0.4878
De donde la tasa bruta de reproducción sería:
TBR = TGF X K
En el caso de Cuba tendríamos:
TBR = 1.57 X 0.4878
99
TBR = 0.77 hijas por mujer
Cuando esta tasa alcanza valores inferiores a 1.03 no se logra el reemplazo
generacional, y de mantenerse por un tiempo prolongado esta situación traería
como consecuencia un decrecimiento de la población.
6-Tasa neta de reproducción
Es el número promedio de hijas que tendría una mujer pero teniendo en cuenta los
riesgos de muerte.
Para su cálculo hay que tener de una tabla de mortalidad para la población
femenina, la función de probabilidad de supervivencia para cada grupo de edad
También define las condiciones de reemplazo de una generación por otra. Si el
valor de la tasa es menor que la unidad, una hija por mujer, no se garantiza el
reemplazo generacional y de mantenerse esta situación por varios años, al igual
que ocurría con la tasa bruta de reproducción, la población deja de crecer.
2.4 La mortalidad
Las estadísticas de mortalidad tienen el objetivo de conocer el número de
defunciones habidas en determinada población durante un período determinado
de tiempo y su distribución de acuerdo a diferentes características de la población
dónde ocurren.
Defunción es la cesación permanente de las funciones vitales con posterioridad al
nacimiento. Es un hacho vital único en la vida de un individuo, lo que facilita su
registro y análisis.
Evolución histórica
Desde el siglo XVIII, la mortalidad ha venido experimentando un descenso
mantenido de sus niveles, independiente deque su comportamiento no sea igual
en todos los países.
Entre los factores más generales e importantes que se invocan como
responsables de esta reducción tenemos:
100
- Adelantos técnicos que permiten una mejor alimentación y situación
económica
- Saneamiento del medio ambiente y creación de servicios de atención
médica
- Promulgación de legislaciones sociales y laborales más justas, mejorando
el ambiente laboral y la educación de los pueblos
- Disminución de las enfermedades infecciosas por vacunación, medidas
sanitarias en general, y control de grandes epidemias
- Avance espectacular de los conocimientos médicos y otras ciencias
Uso de las estadísticas de mortalidad
En sentido general podemos decir que los datos de mortalidad son fundamentales
para la planificación, ejecución y avaluación de los programas de salud a todos los
niveles, local, regional e internacional.
También los datos de mortalidad son de interés para las esferas de la
administración pública y a nivel individual por las implicaciones legales.
De manera un poco más precisa veamos su uso en la salud Pública:
- Vigilancia epidemiológica
La vigilancia epidemiológica es el conjunto de actividades encaminadas a
permitir en forma continua el seguimiento de un determinado problema de
salud, así como sus determinantes y factores de riesgo, a fin de tomar
medidas de control de manera oportuna y evaluar sus resultados.
Por ser la vigilancia epidemiológica un instrumento para la toma de
decisiones relativas a medidas de control, es necesario la utilización
inmediata de los datos en el momento en que se generen.
No se puede esperar la consolidación y el envío de los datos a nivel de
estado o nación para hacer uso de los mismos, pues la información pierde
oportunidad. Por ejemplo a veces la primera información sobre un caso de
cólera o fiebre amarilla se obtiene del certificado de defunción y no del
sistema de información de morbilidad.
Por otra parte la investigación epidemiológica de un caso puede modificar el
diagnostico y servir como un instrumento para evaluar y mejorar la calidad
delo registros.
Debe por tanto existir un intercambio de información bidireccional entre las
áreas de vigilancia epidemiológica y los responsables de las estadísticas de
mortalidad.
101
- Evaluación
Sirve para evaluar:
• Cobertura y calidad delos servicios, como por ejemplo la mortalidad
materna, la mortalidad intra hospitalaria, la mortalidad por infecciones
nosocomiales.
• Programas, conociendo la tendencia después de la implantación
• Acciones específicas, como el tratamiento de enfermedades graves a
través da la letalidad.
• Tecnologías, por ejemplo, conociendo la supervivencia por diferentes
tipo de tratamientos
- En el análisis de la situación de salud
Los indicadores de mortalidad, aún en la actualidad, constituyen una de las
formas más seguras y completas para medir la situación de salud aunque de
forma indirecta.
Conociendo cuándo, dónde cómo y de qué mueren los integrantes de una
población podemos aproximarnos a saber como viven los mismos y a partir de
ahí su situación de salud.
Fuentes de datos
Una de las ventajas que tienen las estadísticas de mortalidad es precisamente
la disponibilidad de fuentes, para la obtención de la información.
La información de mortalidad se obtiene fundamentalmente a partir de los
registros o sistemas de información
Son realmente antiguos, el primer registro surge en Inglaterra en el siglo XVI
por un decreto promulgado pos Enrique VIII en el cual se ordenaba que en
todas las iglesias se guardara en un archivo permanente los bautismos, las
defunciones y los matrimonios. El avance de estoa registros y su
perfeccionamiento se comenzó en el siglo XIX.
El documento base de donde se obtiene la información para la entrada al
registro es el certificado de defunción
Existen dos certificados:
- certificado de defunción, que se llena a las defunciones de 28 días y más
de edad
- certificado de defunción perinatal, que se llena a las defunciones fetales de
20 semanas de gestación o 500 gramos de peso hasta los nacidos vivos
que fallecen hasta los 27 días de nacidos
102
La causa de muerte que se tabula es la causa básica, que es la enfermedad o
lesión que inicia la serie de procesos morbosos que conducen directamente a
la muerte. Existen otras causas que son las contribuyentes y asociadas.
Otro elemento a tener en cuenta en la producción de las estadísticas de
mortalidad es la codificación de las causas de muerte sobre la base de la
Clasificación Internacional de Enfermedades ( CIE)
Los intentos de listar, ordenar y clasificar las enfermedades, para que estas
sean comparables dentro de diferentes regiones de un país y entre países,
datan de mediados del siglo XIX con los primeros intentos hechos por William
Farr. A finales de este propio siglo, Bertillón propone una lista, una clasificación
que fue revisada y adaptada oficialmente para todos los países en el 1900
A partir de la 6ta versión (en 1948 se creó por parte de la recién fundada OMS,
un Comité de Control y Revisión de la CIE, que es un órgano de trabajo
permanente) la clasificación se vuelve más amplia y ya se incluyen las
enfermedades. Actualmente ya está vigente la X revisión.
Errores
Los errores que con más frecuencia se cometen en los registros es por falta de
cobertura (que el sistema llegue a todos lo lugares que debe llegar y cubra a
toda la población que debe cubrir) e integridad (que se registre todo lo que se
debe registrar).
Estos errores conducen a otros como:
- subregistros
- sobreregistros
- mala calidad en el llenado de los datos que recoge el certificado de
defunción
- errores de flujo y terminación
Diferenciales de Mortalidad
La mortalidad tiene un comportamiento diferencial por causas biológicas y por
causas externas.
En las causas externas influyen las condiciones de vida, el estilo de vida y múltiple
factores de índole socioeconómica.
Dentro de las causas externas la edad y el sexo son los principales factores
103
Edad. La mortalidad es alta al principio y fin de la vida. Es muy alta en la primera
hora de vida, en el primer día, sigue siendo alta en la primera semana, luego
desciende aunque se mantiene con niveles elevados durante el primer año de
vida.
Alcanza sus niveles más bajos entre los 5 y 9 y 10 a 14 años, comenzando de
nuevo un ascenso ininterrumpido, alcanzando sus niveles más altos en los grupos
de edades más avanzados.
Si se realiza un polígono de frecuencia con las tasas de mortalidad por edad
encontraríamos que:
- en los países muy pobres es muy alta el primer año de vida y al final de la
vida y la curva tiene forma de U
- En los países desarrollados, aunque en el primer año de vida el riesgo de
muerte sigue siendo alto, no es tan marcado como al final de la vida y la
forma de la curva es de una J inclinada.
Sexo. Existe una sobremortalidad masculina para casi todas las edades. Esta
diferencia se hace muy evidente en la esperanza de vida al nacer por sexo, donde
la mujer es más longeva que el hombre, diferencia que se hace más marcada en
los países de mayor desarrollo.
En los países pobres esta diferencia es menor y se piensa que sea, en parte, por
el desgaste biológico de las mujeres debido a la alta paridad y también porque las
malas condiciones de vida la afectan mucho mas por sus roles de género.
Indicadores tradicionales
Son y seguirán siendo la base de los estudios de mortalidad, al margen de otros
enfoques como los de evitabilidad.
1. Tasa de mortalidad general . Es fácil de obtener los datos que incluye su
cálculo, y de fácil interpretación. Permite comparar la mortalidad con un solo
valor, pero para ello es necesario estandarizar la tasa porque como tasa bruta,
está afectada por la estructura por edad.
TBM =
oblacióntotaldelap
uncionestotaldedef x 1000 hab.
104
Este mismo hecho produceun efecto paradójico, en los países más ricos la
tasa tiene valores más altos, porque la población es más vieja, cuando sus
riesgos de muerte son en realidad más bajos que la de los países pobres.
2. Tasa de mortalidad por edad. Permite evaluar las variaciones de los riesgos de
muertes en las distintas edades. Es de fácil cálculo y generalmente la
información de fácil obtención. Permite la comparación sin estandarizar porque
se trata de tasas específicas. Sin embargo cuando no se analiza por grandes
grupos de edad puede ser complejo el manejo de tantos indicadores.
TME x =
Xrupodeedadepoblaciond
Xrupodeedadsdedefuncione
lg
lg x 1000 hab
En realidad las tasas quinquenales y decenales no se utilizan para análisis
directo, sino, como materia prima para el cálculo de otros indicadores y la
aplicación de otras técnicas como veremos más adelante.
3. Tasa de mortalidad por sexo. Generalmente se asocia a la edad y a las causas
de defunción
- Por edad y sexo evidencia el comportamiento de la mortalidad por estas
dos variables a la vez como por ejemplo la sobremortalidad masculina en el
adulto joven por muertes violentas
TMES =
eedadysexoeesegrupodpoblaciónd
sexoesporedadydefuencion
x 1000 hab.
- Por sexo y causa también muestra el comportamiento diferencial por estas
dos variables, como es el caso de la sobremortalidad femenina por diabetes y
accidentes vasculares encefálicos.
TMSC =
eesesexopoblaciónd
ausaXsporsexoycdefuncione x 10, 000 o 100 000 hab.4.
105
4. Mortalidad por causa. Permite identificar de que se mueren los integrantes
de una comunidad y actuar consecuentemente. Las causas de defunción
suelen clasificarse en exógenas, aquellas que están vinculadas con la acción
negativa del medio, como la desnutrición y las de etiología infecciosa, que
tienen una importancia relativa mayor en los países pobres y endógenas
donde la influencia del medio es menor y prevalecen los aspectos de carácter
biológico, como las enfermedades crónicas no infecciosas, de mayor
trascendencia en los países ricos.
También el estudio de la mortalidad por causas permite evaluar la calidad de
la información. De suerte que si la calidad es buena las cinco primeras
causas de defunción deben constituir el 50 % del total de defunciones y las
10 primeras el 65 %.
5. Mortalidad proporcional. Mide el pero de las defunciones (proporción ó %)
con determinadas características con relación al total de defunciones.
Mortalidad proporcional =
uncionestotaldedef
rísticaunacaracteuncionesdetotaldedef *
x 100 def.
• Sexo, edad, causa
Tiene la ventaja de ser de simple cálculo y no necesitar el dato de la
población expuesta al riesgo.
Con relación a la mortalidad proporcional por edad existe un indicador que
se conoce como índice de Swarrop y Wemura que tiene la siguiente
expresión de cálculo:
ISW =
uncionestotaldedef
añosymássdedefuncione 50 x 100 defunciones
Es de fácil cálculo y mide de cierta forma las condiciones de vida de un
territorio, en los países desarrollados debe ser el 60 o 70 % de todas las
defunciones.
Tiene la desventaja que como se trata de un grupo de edad tan amplio
puede estar afectado por la estructura por edad de la población.
Indicadores especiales:
106
Bajo este rubro agrupamos un conjunto de indicadores que tiene casi todos
en común que el denominador en el total de nacidos vivos, como una
aproximación a las reales poblaciones expuestas al riesgo que se está
midiendo, al no estar siempre disponible esa información.
6. Mortalidad infantil. Es un indicador de suma importancia porque cuantifica
el riego de muerte en un grupo de edad muy especial, el menor de un año,
donde no sólo son altos los niveles sino que las causas varían dentro de
ese periodo tan corto de la vida.
Históricamente se le ha considerado como un indicador que mide de
manera indirecta el desarrollo socio económico de un territorio, de ahí que
le riesgo de muerte sea muy bajo en los países ricos y muy elevado en los
pobres.
Sin embargo en la actualidad se considera que el indicador es realmente
sensible a los cambios en las condiciones de vida cuando estas son
precarias, pero en territorios donde se ha logrado un cierto desarrollo y la
tasa presenta valores bajos, por debajo de 20 defunciones por 1000
nacidos vivos, ya no es tan sensible a los cambio en las condiciones de
vida.
Actualmente se plantea que la reducción rápida de altos niveles de
mortalidad infantil, refleja generalmente la eficacia y la cobertura de
acciones específicas del sector salud, más que una mejoría de las
condiciones de vida de la población.
TMI =
idosvivostotaldenac
unañosmenoresdedefuncione x 1000 nacidos vivos
Como el riego de muerte y las causas que lo originan son diferentes dentro
del primer año de vida, se divide este periodo en tres momentos que son
conocidos como los componentes de la mortalidad infantil, y para cada
uno de ello se calcula una tasa, que como todas tienen como denominador
el menor de un año son aditivas, o sea la suma de la tasa de los tres
componentes nos da el valor de la mortalidad infantil.
El primer componente es la mortalidad neonatal precoz, que abarca las
defunciones que ocurren en los nacidos vivos antes de los 7 días de vida.
107
TMNP =
idosvivostotaldenac
díassmenoresdedefuncione 7 x 1000 nacidos vivos
En este período de la vida predominan las causas de muerte de tipo
endógeno, que son difícilmente evitables como las malformaciones
congénitas, hipoxia, membrana hialina y otras.
Con el análisis de este componente estamos evaluando la calidad de la
atención obstétrica durante el embarazo y en el momento del parto, así
como la calidad de la atención neonatológica.
El segundo componente es la mortalidad neonatal tardía que incluye las
defunciones ocurridas desde los 7 hasta los 27 días de vida. En este
período se mezclan las causas de tipo endógeno con las cusas tipo
exógeno, al ponerse ya en contacto el niño con el medio.
TMNT =
idosvivostotaldenac
díasasdedefuncione 277 x 1000 nacidos vivos
Este indicador sirve para evaluar tanto la calidad de la atención obstétrica y
neonatológica como la atención pediátrica.
El tercer y último componente es el postneonatal que incluye las
defunciones de 28 días en adelante, pero sin llegar al año de vida. En este
componente las causas que predominan son las de tipo exógeno, pues el
niño, lábil por su edad, ya entra en contacto con las adversidades del
medio. Es por eso que cuando un país comienza a descender la tasa de
mortalidad infantil la hace primero a expensa de este componente, por que
incluye causas más fáciles de evitar. Con vacunación, cobertura de la
asistencia médica y mejorando la alimentación se logran grandes
descensos.
TMP =
cidosvivostortaldena
díassdemásdedefuncione 27 x 1000 nacidos vivos
El análisis de este componente permite evaluar la calidad de la atención
pediátrica fundamentalmente.
108
Por tener los componentes un comportamiento diferencial, en cuanto a las
causas de defunción y su potencial evitabilidad, se ha establecido un patrón
ideal de aporte de cada uno de los mismos a la mortalidad infantil en
general.
El aporte porcentual de cada uno debe ser como si muestra a continuación:
Neonatal precoz 60%
Neonatal tardía 10%
Postneonatal 30%
Veamos la mortalidad infantil para Cuba en el año 2000
TMI =
143528
1039 = 7.2 x 1000 nacidos vivos
TMNP =
143528
445 = 3.1 x 1000 nacidos vivos
TMNT =
143528
207 = 1.4 x 1000 nacidos vivos
TMP =
143528
387 = 2.7 x 1000 nacidos vivos
Observe como la suma de las tasas de cada uno de los componentes es
igual al valor de la mortalidad infantil general:
3.1+1.4+2.7 = 7.2
Veamos ahora el aporte porcentual de cada uno de ellos
Neonatal precoz 445 43%
Neonatal tardía 207 20%
Postneonatal 38737%
Mortalidad infantil 1039 100%
109
Cuba aunque tiene niveles muy bajos de mortalidad en el menor de un año,
tiene al parecer reservas de reducción en el componente postneonatal y
neonatal tardío, donde ya en el niño comienzan a influir las condiciones de
vida y aparecen con mas fuerza las causas exógenas, más fáciles de evitar.
Por supuesto que ahora se impondría un análisis detallado del
comportamiento por causas dentro de cada componente.
Mortalidad perinatal. El período perinatal, es el período comprendido desde
la 27 semanas de gestación hasta los 6 días de vida después del
nacimiento. Es bueno aclarar que la X CIE extiende el período a las 22
semanas de gestación.
Incluye causas de defunción predominantemente de tipo endógeno como
anomalías congénitas, otras relacionadas con la gestación, el parto, y la
salud de la madre.
La tasa tiene dos componentes:
- Defunciones fetales tardías, son aquellas en las que el producto de la
concepción fallece intra útero o en el momento del parto, por lo que se
considera un “nacido muerto” e incluye a las defunciones desde las 28
semanas de gestación o 1000 gramos de peso.
- Comparte con la mortalidad infantil el componente neonatal precoz, por
consiguiente incluye los nacidos vivos que fallecen en los primeros 6 días
de vida.
TMPN=
rdíassfetalestadefuncioneosnacidosviv
sprecocessneonataledefuncionerdíassfetalestadefuncione
+
+
x1000 nv
Este indicador permite evaluar tanto la calidad de la atención obstétrica
prenatal como durante el parto así como las condiciones de salud y
nutrición de la madre, aspectos genéticos y la atención neonatológica.
7. Mortalidad del menor de 5 años. Es un indicador muy importante sobre
todos para países en desarrollo, pues permite evaluar el efecto de la
desnutrición, las enfermedades infecciosas y parasitarias, que se extienden
hasta esta edad.
TMM5 =
idosvivostotaldenac
añossmenoresdedefoncione 5
x 1000 nacidos vivos
110
8. Mortalidad materna. Muerte materna se define como “ la defunción de una
mujer mientras este embarazada o dentro de los 42 días posteriores a la
terminación del embarazo, independientemente de la duración y el sitio del
embarazo, pero debido a las denominadas causas de muertes directas “
Muerte materna directa se considera aquellas relacionadas o agravadas por
el embarazo o su atención o como suelen también definirse: complicaciones
del embarazo, parto o puerperio, y muertes maternas indirectas, las que
son debidas a causas accidentales o incidentales.
TMM =
idosvivostotaldenac
irectassmaternasddefuncione
x 100 000 nacidos vivos
Evalúa la calidad y cobertura de los servicios de salud tanto la atención
prenatal como la calidad de la atención al parto. En los países desarrollados
la tasa es inferior a 10 x 100 000 nacidos vivos, mientras que en los más
pobres llega a alcanzar valores de 100 y 150 x 100 000 nv.
9. Letalidad. Este indicador mide la gravedad de las enfermedades, el
pronóstico de las mismas, de tal suerte que expresa del total de enfermo
que porcentaje se espera que fallezca.
Tasa de letalidad =
acausaermosporestotaldeenf
sasporunacaudefuncione x 100
Es una tasa muy estable, un cambio brusco implica o la toma de una
medida importante con gran impacto en la evolución de la enfermedad, o un
deterioro de la atención o las condiciones de vida, o simplemente mala
calidad de la información.
111
10. Esperanza de vida. Es el mejor indicador para resumir el comportamiento
de la mortalidad. Surge de la aplicación de un modelo o técnica
demográfica, la tabla de vida o de mortalidad.
Se parte de las tasas de mortalidad por edad y sexo que tiene una
población determinada para un año específico o trienio y se supone que
esas probabilidades de muerte que se obtienen a partir de las tasas se les
apliquen a una cohorte hipotética de nacimientos.
Entre las funciones (indicadores) que brinda la tabla, una de las más
importantes es la esperanza de vida a una edad exacta X. Este indicador
expresa cuantos años en promedio se espera que viva una persona que
esta sometida a los riesgos (tasas)) con los que se calculó la tabla.
Cuando se calcula a la edad exacta cero se tiene la esperanza o
expectativa de vida al nacer
Para los países desarrollados el valor supera los 70 años, Japón sobrepasa
los 80 años y los más pobres apenas superan los 50 años.
Por sexo se pone de manifiesto la sobremortalidad masculina, más
acentuada en los países ricos, generalmente la diferencia por sexo es de 4
o 5 años a favor por supuesto de las féminas.
Es un indicador sintético del desarrollo socioeconómico y del nivel de salud
y tiene la ventaja que para las comparaciones, no se ve afectado por la
estructura por edad de la población.
Tasas ajustadas o estandarizadas
Como hemos mencionado varias veces, las tasas brutas, crudas, totales o
generales, en las que en el denominador se encuentra la población total, no
pueden compararse sin tener en cuenta que, puede esta comparación estar
sesgada, por la diferente estructura de población entre los territorios a comparar o
un mismo territorio en diferentes periodos de tiempo.
Veamos el método directo de tipificación para la comparación de tasas globales
de mortalidad.
Observe en la tabla que se muestra a continuación como la provincia A tiene una
tasa de mortalidad general mayor que la provincia B y sin embargo sus tasas
específicas por edad son menores
112
Tasas de mortalidad por edad. Provincias A y B 1999.
Edades Provincia A
Tasa x 1000
Provincia B
tasa x 1000
< 1 año 9.7 11.2
1-4 0.6 0.8
5-14 0.2 0.4
15-49 1.5 1.5
50-64 8.1 8.4
65 y más 50.0 49.7
Total 7.2 5.8
Este comportamiento aparentemente paradójico, se debe al efecto confusor que
está produciendo la estructura por edad de la población. Las poblaciones con una
estructura más vieja, tienen mayores tasas de mortalidad que los territorios que
tiene una estructura de población más joven, pues al tener más efectivos de
población en edades más avanzadas, donde los riesgos de muerte son también
superiores, hacen un aporte mayor al número total de defunciones.
Es por eso que los países desarrollados que presentan una población más
envejecida tienen tasas de mortalidad general mayores que los países pobres con
estructuras de población más jóvenes. Así las tasa de mortalidad general de
Japón es mayor que la de Haití
Observe como la población de la provincia A, la de mayor tasa de mortalidad
general, tiene una estructura de población más vieja, 10.2% de efectivos de
población con 65 años y más mientras que la B sólo tiene el 7.4%.
Distribución de la población por provincia
Grupo de
edad
Provincia A
Población y porcentajes
Provincia B
Población y porcentajes
< 1 año 10 100 1.6 11 900 1.7
1 - 4 38 700 6.0 44 400 6.5
5 - 14 86 600 13.5 107 300 15.6
15 - 49 359 400 56.2 397 900 57.9
50 - 64 78 400 12.3 74 500 10.8
65 y más 65 500 10.2 51 200 7.4
Total 638 700 100.0 687 200 100.0
La forma por tanto de hacer comparables ambos territorios es lograr que
hipotéticamente y por medio de un artificio matemático las dos provincias tengan la
113
misma estructura de población para poder ver el efecto puro de la diferencia de la
mortalidad.
Por eso lo primero es definir una población tipo o estándar, que puede ser la de un
tercer país o región, la de una población ficticia o hipotética que se puede crear
sumando la de los territorios a comparar, o la de una de las regiones en estudio, que
es la alternativa que vamos a utilizar en el ejemplo.
Tomamos como población tipo la de la provincia B, y la preguntaría que tendremos
que responder es: ¿Cuál sería la mortalidad de la provinciaA si esta tuviese la
población de B?
Para ello sometemos los grupos de población de B a los riesgos de morir de A,
multiplicando las tasas especificas por edad, sin multiplicar por 1000, por los
efectivos de población correspondientes y así obtenemos las defunciones
esperadas o que cabría esperar que tuviese la provincia A si tuviese la estructura de
población de B, como se observa en la tabla que aparece a continuación
Edades
Provincia A
Tasa x 1000
Provincia B
Población
Defunciones esperadas
< 1 año 9.7 11 900 0.0097 x 11900 = 115
1-4 0.6 44 400 0.0006 x 44400 = 27
5-14 0.2 107 300 0.0002 x 107300 = 21
15-49 1.5 397 900 0.0015 x 397900 = 597
50-64 8.1 74 500 0.0081 x 74500 = 603
65 y más 50.0 51 200 0.05 x 51200 = 2560
Total 7.2 687 200 3923
Con el total de defunciones esperadas se calcula la tasa general ajustada o
tipificada:
TBM de la población A St =
687200
3923 = 5.7 x 1000 habitantes
Nótese como la tasa disminuyó a 5.7 y al compararla con la de B sus riesgos de
muerte son realmente menores, la diferencia entre las tasas era debido a la
diferencia en la estructura de población.
Efecto residual = 5.8-5.7= 0.1, diferencia real de la mortalidad
Efecto estructural = 7.2 – 5.7= 1.5, efecto de la estructura de población
114
Mortalidad evitable
Es conocido que los indicadores de morbilidad, reflejan de una manera más fiel la
situación de salud de una población. Sin embargo, el hecho de que ellos no puedan
ser obtenidos con la misma facilidad y sobre todo con la confiabilidad que ofrecen los
datos sobre mortalidad - ya que en la mayoría de los países los registros de
mortalidad son desde hace muchos años de carácter obligatorio, y tienen una alta
cobertura e integridad - hace que aún en la actualidad, se utilicen con más
frecuencia que los datos de morbilidad. 1
Se han hecho grandes esfuerzos, orientados a la elaboración de estadísticas de
morbilidad, a partir de datos hospitalarios y ambulatorios y, en ocasiones, de
investigaciones a nivel poblacional. Generalmente estas estadísticas siguen siendo
parciales y muy costosas, aún en nuestro país, donde se dispone de datos de
morbilidad para las enfermedades de declaración obligatoria (EDO) y las
dispensarizadas que lleva el médico de la familia, aunque esta última, generalmente
se limita a tres causas: hipertensión arterial, asma y diabetes mellitus, por eso
aunque es fundamental la utilización de datos de morbilidad, discapacidad y otros
aspectos del estado de salud, las estadísticas de mortalidad siguen siendo
indispensables. Los indicadores de mortalidad, aún en la actualidad, constituyen una
de las formas más seguras y completas para el Análisis de la Situación de Salud.
En el presente siglo, la reducción sostenida de los niveles de mortalidad en el
mundo, es un hecho inobjetable. En la medida que los niveles de mortalidad
alcanzan valores muy bajos, se hace más difícil continuar su reducción y entonces
se hace necesario la identificación de brechas reducibles de mortalidad o reservas
de reducción de la misma.
De lo anterior se desprende en primer lugar que no debemos limitarnos en los
análisis a asumir las divisiones político - administrativas, como un todo homogéneo,
sino buscar en su interior grupos de población con condiciones de vida diferentes y,
por consiguiente, con niveles de mortalidad diferentes. En segundo lugar, se impone
utilizar como complemento de los indicadores tradicionales (tasa de mortalidad
general por causa, sexo, grupo edad y mortalidad proporcional) que seguirán siendo
la piedra angular para el análisis, otros indicadores y enfoques que permitan
identificar con mayor precisión, esas reservas de mortalidad: la mortalidad evitable.
Mortalidad prematura
El propósito de la Salud Pública, debe encaminarse, primordialmente no a disminuir
la cifra total de fallecidos, sino, a aumentar el número de años que una persona
pueda vivir en óptimas condiciones, es decir, gozando de salud, y por ende, de una
participación activa en la sociedad.
115
El establecimiento de prioridades en los diferentes programas de salud, de acuerdo
con el número de muertes que ocurren por las distintas enfermedades o
desviaciones de la salud, deben se consideradas más que por ese mero hecho, por
las edades a las que fallezcan los integrantes de una población, puesto que
constituye un factor sustancial, al valorar la importancia de un problema de salud
determinado.
De esta manera puede afirmarse, que a la prevención de una entidad que ocasiona
muchas pérdidas dentro de contingentes poblacionales jóvenes y socialmente
activos, debe atribuírsele una mayor prioridad que a otras causas de defunción que
ocasionan cifras similares de muerte entre personas de edad avanzada. Así, la
importancia relativa de las causas de muerte se modifica notablemente, cuando se
analiza de acuerdo con el número de años de vida potencialmente perdidos antes de
una edad dada (mortalidad prematura), mortalidad que, además, es considerada
potencialmente evitable o reducible.
El concepto de años de vida potenciales perdidos fue introducido por primera vez por
Dempsey en 1947, con el fin de comparar la mortalidad por tuberculosis con las
debidas a enfermedades del corazón y cáncer. Para cada defunción ella calculó, los
años de vida que quedaban hasta llegar a la esperanza de vida prevaleciente.
Romeder, en 1977 desarrolló este concepto y perfeccionó este indicador y es
nuevamente reanalizado y promovido su uso por el Centro para el Control de
Enfermedades (CDC) de Atlanta en 1980.
Existen diferentes posiciones para establecer la duración del tiempo perdido debido
a una muerte prematura. De ahí que existan diferentes alternativas de cálculo para
obtener el número de años de vida perdidos, pasaremos a analizar a continuación la
forma más sencilla y difundida de cálculo
Establecer un potencial límite de vida arbitraria.
Los años potenciales de vida perdidos (AVPP) son calculados, definiendo un
potencial límite de vida y calculando los años perdidos debido a cada muerte, como
el potencial límite menos la edad al fallecer.
La fórmula para la estimación del número de años de vida potencialmente perdidos
en una población sería:
116
( )∑
=
=
−
lX
óX
ii xLdx
10
donde:
i grupos de edad
dxi defunciones a la edad media del intervalo o grupo de edad i
xi edad media del grupo de edad i
L potencial límite de vida ó edad límite
Un amplio rango de edades límites se ha utilizado en la práctica, desde los 60 hasta
los 85 años. Los argumentos, aunque varían a la hora de elegir el límite arbitrario,
están fuertemente asociados a la esperanza de vida al nacer. Dempsey
concretamente propuso, que fuese la esperanza de vida al nacer del país o región en
cuestión.
En los países más desarrollados del mundo, la esperanza de vida la nacer, supera a
los 70 años, mientras que en las regiones más pobres y atrasadas, no llega a los 60
años. Quizá es por ello, que el valor intermedio de 65 años, se considera el más
utilizado para calcular los AVPP y es el propuesto por el CDC de Atlanta.
No obstante otros autores como Romeder y Mc Whinnie, consideran que el límite
ideal es 70 años, una edad menor la consideran demasiado baja, como por ejemplo
los 65 años, pues plantean que una proporción importante de personas, están
todavía activas a esta edad.
Aunque se puede ser flexible en la selección de la edad límite, lo que si hay que
tener presente es que no pueden establecerse comparaciones al variar esta edad,
pues varía el valor del indicador.
Veamos el ejemplo del cálculo de número de años de vida perdidos utilizando 65
años como límite arbitrario de edad.
117
Mortalidad por accidentes. Cuba 1999
Edad
(1)
Defunciones
(2)
Edad
media
(3)
( L-x i )
(4)
Dx i . ( L-x i )
No de
AVPP
(2 x 4)
<1 38 0.5 64.52451
1 a 4 83 3 62 5146
5 a 9 87 7.5 57.5 5002.5
10 a 14 116 12.5 52.5 6090
15 a 24 335 20 45 15075
25 a 34 678 30 35 23730
35 a 44 535 40 25 13375
45 a 54 419 50 15 6285
55 a 64 335 60 5 1675
Total 78829.5
El primer paso es calcular la edad media de los grupos de edad, xi, para ello
encontramos la marca de clase de cada intervalo o grupo mediante la semi suma de
los límites de clase:
L. inf + L. sup/ 2
Para el grupo de 1-4 sería:
1+4/2= 5/2 = 2.5
A esa marca de clase se le agrega 0.5 que sería la mitad de 1 año, el tiempo
transcurrido hasta cumplir la próxima edad exacta de 5 años que es límite inferior
del siguiente intervalo de clase.
2.5 + 0.5 = 3
De esa forma asumimos que las defunciones de cada grupo de edad tenían al
morir la edad media de cada intervalo de clase. Las 83 defunciones ocurridas en el
grupo de 1 a 4 años para nuestros fines tenían al morir 3 años. Así se procede con
todos los grupos de edad (columna 3).
El siguiente paso es calcular cuantos años ha dejado de vivir una persona que al
fallecer tenga la edad media de cada grupo etáreo. Esos años dependerán de que
edad se utilice como límite arbitrario, nosotros ya dijimos que vamos a trabajar con
65 años.
En la columna 4 aparecen esos resultados:
118
Ejemplo:
65-0.5= 64.5
65- 3= 62
El último paso es calcular el número de años dejado de vivir por todas las
defunciones ocurridas por grupo de edad. Para el grupo de los menores de 1año
una defunción a esta edad ha perdido 64.5 años, pero en el caso de los accidente
para el país el al año 1999 se produjeron 38. Para conocer cuantos años se
dejaron de vivir por las 38 defunciones reportadas se multiplican por 64.5 años
que es lo que dejo de vivir una. Los resultados se muestran en la última columna
de la tabla. En total se dejaron de vivir por accidentes para Cuba en ese año
78829.5 años
Otro aspecto controvertido ha sido, la inclusión o no del menor de un año.
En la década del 70 y parte de los 80, la tendencia era, la exclusión del menor de un
año, para lo que se esgrimían los siguientes argumentos:
Primero, que las causas de defunción en el menor de un año, son causas muy
específicas para este período de la vida, y responden a causas muy diferentes de las
defunciones a otras edades. Además, en regiones de baja mortalidad infantil habría
una sobrecarga en AVPP por enfermedades ya muy poco evitables, como las
anomalías congénitas y afecciones originadas en el período perinatal.
Segundo, cada defunción de niños menores de un año, duplicarían el aporte en
AVPP, en comparación con los fallecidos entre 30 y 40 años. Esto, plantean, sería
una sobrestimación del valor aceptado por la sociedad, ya que se considera que la
mortalidad de niños menores de un año es menos perturbadora que la mortalidad de
los niños de mayor edad y la de los adultos, además de ser defunciones fácilmente
reemplazables.
En los últimos años, se ha generalizado la inclusión de las muertes a partir del
nacimiento, pues si bien es cierto que son los que más aportan al indicador, también
son los que menos vivieron. Por otra parte, si el indicador es utilizado para identificar
y priorizar problemas, con el objetivo de decidir acciones concretas, el menor de un
año, no debe ser excluido de estos análisis.
Sin embargo, todo parece indicar que en países con niveles muy bajos de mortalidad
infantil, como es el caso de Cuba, el hecho de incluir o no el menor de un año en el
cálculo de los AVPP, prácticamente no cambia los resultados.
119
Indicadores de mortalidad prematura.
A partir del número de años de vida potenciales perdidos calculados por cualquiera
de los procedimientos ya señalados, se impone, para poder realizar el análisis de la
mortalidad prematura el cálculo de algunas medidas de resumen o indicadores, de la
misma manera que se realiza en el análisis de la mortalidad.
Mortalidad prematura proporcional
Representa la importancia relativa de determinado grupo. Se calcula la proporción o
el por ciento que representan las muertes prematuras de un determinado grupo:
edad, sexo, o causa de defunción, sobre el total de años de vida potencialmente
perdidos, de esta forma se puede evidenciar cuál o cuáles grupos de edad aportan
más a la mortalidad prematura en general, o por sexo, o cuál o cuáles causas de
defunción tienen una importancia relativa mayor.
A manera de ejemplo:
Recordando el cálculo de los porcentajes, para las enfermedades del corazón:
263843/966127= 0.02730 x 100 = 27.30%
Porcentaje de años de vida perdidos según estándar (AVPES) por causas. Cuba
1999
AVPES
Causa No.
AVPES
%
AVPES
Enfermedades del corazón 263843 27.30
Tumores malignos 257487 26.65
Enfermedades cerebrovasculares 98696 10.21
Accidentes 139159 14.40
Influenza y neumonía 60854 6.29
Enfermedades de las arterias.
Arteriolas y vasos capilares
29523 3.05
Diabetes mellitus 24627 2.50
Suicidio y lesiones auto infligidas 63555 6.57
Bronquitis, enfisema y asma 8599 0.89
Cirrosis y otras enfermedades
crónicas del hígado
19784 2.04
Total 966127 100.00
Más de la mitad de los años de vida perdidos para Cuba en 1999, fueron debidos a
enfermedades del corazón y tumores malignos.
120
Un caso particular de la mortalidad prematura proporcional es el denominado
"perdidas biosociales", entendido como tal, a los años de vida potencialmente
perdidos entre las edades de 20 a 59 años, por cuanto se trata de una subpoblación
que participa activamente en las esferas económicas y sociales de un país, y que por
otro lado comprende los grupos de edades fértiles.
Estructura de las pérdidas biosociales para las cinco primeras causas de
defunción. Cuba 1996.
AVPES
Causa
No.
AVPES
%
AVPES
Enfermedades del corazón 68629 24.8
Tumores malignos 98879 35.8
Enfermedades cerebrovasculares 28053 10.1
Accidentes 68957 24.9
Influenza y neumonía 11739 4.2
Total 180659 100.0
Dentro de las cinco causas de defunción, los tumores malignos, los accidentes y las
enfermedades del corazón son las causas que más pérdidas biosociales aportan,
precisamente por su alta frecuencia en el adulto joven.
Tasas de Mortalidad Prematura:
A partir del número de años perdidos se puede calcular una tasa, dividiendo este
número por el número de habitantes y multiplicándolo por 1000, 10000 ó 100000,
siendo más común el uso por mil habitantes.
Desde el punto de vista estadístico, en caso de calcular el número de años perdidos
utilizando un límite arbitrario, 65 ó 70 años, lo correcto es usar como denominador la
población hasta la edad límite (hasta 65 ó 70 años), pero en la práctica suele
utilizarse la población total.
Se puede calcular, al igual que en la mortalidad, tasas generales, por causas, sexos
y grupos de edad.
Tasas Tipificadas.
Al igual que las tasas de mortalidad, las tasas de muerte prematura pueden ser
estandarizadas, puesto que también son influenciadas por la estructura de edad de
121
la población. Dicho procedimiento tendría sentido solamente para la comparación de
tasas generales y por causas específicas con otras áreas.
El método de tipificación que se utiliza es el método directo, por lo tanto, la tasa de
mortalidad prematura ajustada por edad corresponde al número de años de vida que
se perdería en la población real si esta tuviera la misma estructura de edad que la
población de referencia.
Una vez obtenidas las "defunciones esperadas" en la población bajo estudio, se
procede a obtener el número de años de vida perdido por cualquiera de los
procedimientos antes señalado.
En el ejemplo que aparece a continuación, para algunas causas seleccionadas de
muertes violentas, se calcularon tasas de AVPP, incluyendo el menor de un año y
utilizando como edad límite los 65 años, en tres estratos formados por agrupaciones
de municipios de la provincia Santiago de Cuba, que se clasificaronsegún sus
condiciones de vida: el estrato A como el de mejores condiciones de vida, el B de
regulares condiciones y el C de malas de condiciones.
Para poder comparar la mortalidad prematura de los tres estratos y evitar el sesgo
que puede introducir la diferencia en la estructura de población, se tipificaron las
tasas por el método directo.
Tasas* de AVPP tipificadas por causas seleccionadas de muertes violentas y
estratos. Santiago de Cuba. 1989-1991
Muertes Violentas Estrato A Estrato B Estrato C
No.
AVPP
Tasa
AVPP
No.
AVPP
Tasa
AVPP
No.
AVPP
Tasa
AVPP
Suicidios
1905.0 4.24 1825.0 5.90
1602.5
6.93
Accidentes de
transporte 2892.0 6.43 2474.0 7.99 1629.5 7.05
Caídas accidentales 255.0 0.57 207.5 0.67 170.0 0.74
Otros accidentes 4573.0 10.17 4244.5 13.72 2740.5 11.86
* Tasas por 1000 habitantes
El estrato A, el de mejores condiciones de vida, es en el que menos años de vida se
pierden por las cuatro causas analizadas. Las muertes violentas, como causa
exógena, están muy influenciadas por el efecto negativo del medio, en este caso, por
el efecto negativo de las condiciones de vida adversas.
Razón de años de vida potencialmente perdidos.
122
La razón de años de vida potenciales perdidos (RAVPP), es el equivalente a la razón
estandarizada de mortalidad (REM), que se utiliza para el análisis de la mortalidad
general cuando se quiere comparar dos regiones o una misma región o población en
dos momentos diferentes para evidenciar la "ganancia" o "exceso" de mortalidad.
Al igual que la REM, las defunciones esperadas, serian las defunciones que se
esperarían que ocurrieran en una determinada población, si estuviese sometida a los
niveles de mortalidad, a los riesgos de morir de la población en estudio.
Con las defunciones esperadas se procede al cálculo de los años de vidas
potenciales perdidos. La razón sería:
Si el valor de la razón es 1, ambos territorios tiene igual mortalidad prematura. Si el
valor obtenido es mayor que 1, se está produciendo un exceso de mortalidad
prematura en el territorio bajo estudio, si fuese menor que la unidad, la mortalidad
prematura es menor el territorio bajo estudio en comparación con el de referencia.
Este resultado también puede expresarse por cien (x 100).
Veamos un ejemplo:
En un estudio realizado en la provincia de Camagüey sobre mortalidad y condiciones
de vida 11 se clasificaron los municipios de la provincia según sus condiciones de
vida en tres estratos, el estrato A el de mejores condiciones de vida, el C el de
peores condiciones de vida y el B que ocupa una posición intermedia.
Para comparar la mortalidad prematura por muertes violentas se calculó la RAVPP.
Razón de AVPP por muertes violentas según estratos. Camagüey 1991-1993
Estratos AVPP Observados AVPP Esperados Razón
B respecto a A 2872 3209 0.90
C respecto a A 5295 4482 1.18
C respecto a B 5295 4042 1.31
Al comparar el estrato menos favorecido con el de mejores condiciones de vida, se
encontró un exceso de mortalidad prematura de un 18%, es decir, si el estrato C
hubiese estado sometido a los riesgos de morir de A, se hubiera producido un 18%
menos de defunciones a destiempo. Situación similar se presentó al comparar el
estrato C con el B.
Agrupaciones de causas de muerte por criterio de evitabilidad.
La característica (variable) de mayor importancia para el análisis de los datos de
mortalidad es la causa de muerte. No basta identificar quién, cuándo y dónde está
123
más expuesto al riesgo de muerte, si no que lo fundamental es saber de qué se
muere más. 1
Una de las primeras tareas necesaria para el análisis de los datos, es su
organización sistemática. Los intentos de listar, ordenar y clasificar las enfermedades
data de 1855 con los trabajos de Farr y Bertillón en 1893. A partir de 1898 esta
última fue adoptada como Clasificación Internacional de Enfermedades (CIE).
Actualmente ya contamos con la X revisión aunque aún se mantiene vigente la IX
revisión.
La CIE brinda diversas listas, abreviadas y detalladas para la tabulación de la
información sobre morbilidad y mortalidad. La selección de una u otra lista depende
del tipo de análisis a realizar.
Otra forma o eje de agrupación de las causas de muerte, de gran importancia en
Salud Pública, es el criterio de evitabilidad, orientado hacia la definición de
prioridades y la evaluación de resultados de acciones y programas de salud; con la
finalidad de evitar la muerte temprana y prolongar la vida, al prevenir en unas
ocasiones las enfermedades y en otras tratarlas oportuna y adecuadamente, una vez
que se han presentado.
Esta nueva agrupación de causa de muerte fue desarrollada por Taucher en el año
1978, en el Centro Latinoamericano de Demografía (CELADE). Los criterios de
evitabilidad se definieron de acuerdo con el conocimiento científico y los progresos
médicos alcanzados en ese momento.
Los criterios de evitabilidad de las causas de muerte pueden variar de acuerdo con el
momento histórico en que se trabaja, con la disponibilidad de tecnologías o recursos,
y con la experiencia de un determinado país o región.
Así, en el año 1988 Ríos y Tejeiro modifican la propuesta realizada por Taucher,
como parte de un trabajo sobre Perfiles de Salud y Evolución de la Mortalidad en
Cuba.
Esta nueva propuesta quedó formada por seis grupos.
1. Defunciones evitables por tratamientos preventivos o vacunas:
Carbunco, difteria, tosferina, tétanos, poliomelitis aguda y sus secuelas, viruela,
sarampión, rabia humana, enfermedades venéreas.
2. Defunciones evitables por diagnóstico precoz y tratamiento oportuno:
Peste, infecciones meningocócicas, tumores malignos de la piel, mama, cuello
de útero y próstata, diabetes mellitus, avitaminosis y otras deficiencias
nutricionales, anemias, meningitis, epilepsia, fiebre reumática activa y
124
enfermedades reumáticas crónicas del corazón, bronquitis, enfisema y asma,
úlcera péptica, gastritis y duodenitis, apendicitis, obstrucción intestinal y hernia,
colelitiasis y colecistitis, nefritis aguda y otras nefritis, infección del riñón, cálculo
del aparato urinario.
3. Defunciones evitables por la aplicación de medidas higiénicas y saneamiento del
medio y educación sanitaria:
Cólera, fiebre tifoidea, fiebre paratifoidea, y otras salmonelosis, disentería bacilar
y amebiasis, enteritis y otras enfermedades diarréicas, fiebre amarilla, hepatitis
infecciosa, tifus y otras rickettsiosis, anquilostomiasis y otras helmintiasis.
4. Defunciones evitables por la aplicación de medidas combinadas:
Todos los tipos de tuberculosis, brucelosis, angina estreptocócica, y escarlatina,
erisipelas y otras enfermedades bacterianas, paludismo, esquistosomiasis,
hidatidosis y filariasis, infecciones respiratorias agudas, neumonía vírica y otras
neumonías, cirrosis hepática, enfermedades relacionadas con el embarazo,
parto o puerperio, enfermedades del recién nacido y causas violentas.
5. Defunciones difícilmente evitables con los conocimientos y el desarrollo
tecnológico actual:
Tumores malignos, excepto el cáncer de piel, mama, cuello del útero y próstata,
esclerosis múltiple, otras enfermedades del sistema nervioso y de los órganos de
los sentidos, enfermedades cardiovasculares, enfermedades de las arterias,
arteriolas y vasos capilares, influenza y anomalías congénitas.
6. Resto de las defunciones.
En este grupo se incluyen aquellas causas de muerte que no clasifican en
los cinco grupos anteriores.
Para agrupar las causas de las defunciones bajo este criterio, se parte de una
primera división de las muertes en evitables y no evitables y la formación de cuatro
grupos con las muertes evitables, según las diferentes medidas que se pueden
tomar para evitarlas.
En su artículo Rios y Tejeiros aclaran que las palabras prevención, educación,
evitables e inevitables, se emplean para rotular o dartítulos cortos a los grupos y
no con la pretensión de reducir a un esquema los conceptos amplios que implican en
la realidad.
Los criterios de prevención y educación sanitaria son aplicables a todos los grupos,
pues aún en las enfermedades denominadas inevitables o difícilmente evitables, el
control de factores de riesgo, el cambio de hábitos nocivos para la salud y otras
125
medidas preventivas son capaces de disminuir o evitar enfermedades crónicas y
degenerativas, y prolongar la vida socialmente activa del ser humano.
En la distribución de las muertes en los distintos grupos se incluye el total de causas
de muerte, se asigna a uno de los cinco primeros grupos toda muerte cuya causa
presente alguna razón lógica para su inclusión y se dejan para el sexto grupo el
resto de las defunciones, las que no pueden identificarse con ninguno de los
grupos anteriores.
Por las particularidades que presenta la mortalidad en el menor de un año, se
propone en el año 1985 por el Ministerio de Salud Argentino una lista de causas de
muerte con el enfoque de evitabilidad para este grupo de edad, la cual estuvo
asesorada por la Dra. Taucher.
Precisamente, por tener la mortalidad infantil un comportamiento diferencial por
componente, la clasificación propuesta incluye dos listas de agrupaciones de causas
de defunciones, para el componente neonatal (menor de 28 días) y para el
postneonatal (28 días y más).
Para los menores de 28 días se proponen ocho grupos, cinco de ellos para las
muertes evitables:
Reducibles por buen control del embarazo
Reducibles por buena atención en el parto
Reducibles por diagnóstico y tratamiento precoz
Otras reducibles
Parcialmente reducibles por buen control del embarazo
No evitables
Desconocidas
Otras causas
Para el componente postneonatal el número de grupos se reduce a 7, de ellos 4
corresponden causas evitables:
Reducibles por prevención
Reducibles por diagnóstico y tratamiento precoz
Otras reducibles
Parcialmente reducibles
No evitables
Desconocidas
126
Otras causas
Como parte de un estudio realizado en la Facultad de Salud Pública, sobre
mortalidad infantil, se revisó y sometió a consideración del Grupo Nacional de
Pediatría y del Departamento Materno Infantil del Ministerio de Salud Pública, la lista
propuesta por Argentina a la cual se le realizaron algunas modificaciones para los
menores de 28 días para unos pocos rublos incluidos en los grupos: Reducibles por
tratamiento precoz y tratamiento oportuno, Otras reducibles y no evitables. La lista
detallada aparece en el Anexo 3.
La utilización de agrupaciones de causas de muerte según criterios de evitabilidad
puede utilizarse para el cálculo de indicadores tradicionales, como la mortalidad
proporcional, tasas de mortalidad general, por causas, y específicas por edad y sexo,
pero también son de gran utilidad para ampliar los estudios con enfoques de
evitabilidad utilizando indicadores como la REM. Y los de mortalidad prematura, que
miden específicamente mortalidad excesiva y a destiempo, mortalidad evitable per
se.
2.5 La morbilidad
Existen diversas definiciones de morbilidad. Una, a nuestro juicio, de las mas
completas es la que considera la morbilidad como el conjunto de enfermedades,
traumatismos y sus secuelas, incapacidades y otras alteraciones de la salud
diagnosticadas o detectadas en la población durante un intervalo de tiempo
determinado.
Por lo complejo de su estudio, y los diferentes alcances que se puede tener al
abordarla, es aconsejable definir para cada estudio en particular lo que se
entenderá como morbilidad.
Concepto de Estadísticas de Morbilidad
Es la información numérica sobre enfermedades, traumatismos y sus secuelas,
incapacidades y otras alteraciones de la salud diagnosticadas o detectadas en la
población durante un período de tiempo.
Sistema de Información Estadística de Morbilidad: Son los procedimientos
encaminados a la recolección, procesamiento y presentación de información sobre
estadísticas de morbilidad.
Utilidad: Interviene en todas las etapas de la gerencia en salud. La información
sobre morbilidad contribuye a identificar aspectos importantes relacionados con
los diferentes componentes del estado de salud de la población.
Es de suma importancia en la planificación, ejecución y evaluación de programas
e intervenciones de salud.
127
En la planificación:
a) Permiten conocer las afecciones que aquejan a la población.
b) Permiten conocer el riesgo de enfermar.
c) Permiten conocer la gravedad de las afecciones.
En la ejecución:
La recolección activa de la información de morbilidad permite detectar los eventos
que aparecen y tomar las medidas pertinentes para controlar o erradicar
enfermedades y prevenir las que están a su alrededor.
Las estadísticas de morbilidad permiten conocer la carga de enfermedad presente
en la población. La carga de enfermedad es un concepto incorporado por la
Organización Mundial de la Salud a partir de cual se estiman no solo acciones
curativas y preventivas sino también la calidad de vida, la esperanza de vida, el
redimensionamiento de los servicios y sistemas de salud.
En la evaluación y proceso de toma de decisiones:
A través de la medición del cumplimiento e impacto de los programas se puede
garantizar la ganancia de la salud. El proceso de toma de decisiones se hace más
eficiente y efectivo con el uso de buenas estadísticas de morbilidad.
En la investigación:
En la investigación epidemiológica, sirve para determinar el modo de transmisión
de la enfermedad, el periodo de incubación, la severidad de la infección y los
aspectos inmunológicos así como para conocer el cuadro epidemiológico de un
territorio. Son utilizadas también en otros tipos de investigación en áreas clínicas,
ensayos biológicos, pruebas de medicamentos y vacunas, por citar algunos
ejemplos.
En la docencia:
Son utilizadas sistemáticamente en la docencia de pregrado y postgrado.
En general, las estadísticas de morbilidad son útiles para:
a) Conocer el número de personas que sufren de una enfermedad en particular,
con qué frecuencia y en cuánto tiempo.
b) La demanda que hacen esas enfermedades sobre los recursos médicos y que
pérdidas financieras causan.
c) Fatalidad y gravedad de las enfermedades.
128
d) Si las medidas de prevención son eficaces.
e) Distribución de las enfermedades según edad, sexo, ocupación, etc. y
comportamiento en el tiempo.
f) Relación entre el control de la enfermedad y la atención médica brindada.
Dificultades más importantes en el estudio de la morbilidad.
El estudio de la morbilidad y su medición por las estadísticas sanitarias, es un
proceso complejo dada la propia complejidad de la morbilidad. La morbilidad es un
fenómeno dinámico y con una carga importante de subjetividad. Por ejemplo: Una
persona puede estar enferma y no percatarse de ello, por tanto no demandara
atención medica y permanecerá oculto a diferentes fines, entre ellos, el
estadístico. Una persona puede estar enferma de varias patologías a la vez o
poseer un diagnostico presuntivo que cambia o se corrobora al realizarse estudios
específicos y he ahí una gran dificultad para la medición del evento.
Aspectos conceptuales a considerar en el estudio y medición de la morbilidad:
1- Proceso salud-enfermedad: Es un proceso dialéctico, no existe una línea
divisoria claramente definida entre salud y enfermedad y es difícil determinar lo
que cada persona considera como equilibrio biosicosocial.
2- Anormalidad y normalidad: Un individuo puede tener salud, es decir gozar de
equilibrio biosicosocial y estar enfermo de algo que no le molesta.
Hay enfermedades que permiten establecer medidas para definir lo normal de
lo anormal por ejemplo, se puede considerar como hipertensión cuando la
tensión arterial está por encima de las cifras establecidas, sin embargo, una
persona puede sentirse biencon una tensión arterial elevada.
3- Problemas del Diagnóstico: Se puede considerar que un individuo está
enfermo atendiendo a:
a) Opinión del paciente de estar enfermo.
b) Que sea diagnosticado a través de examen físico del médico.
c) Que sea diagnosticado a través de pruebas complementarias.
4- Enfermos o Enfermedades: Un individuo puede estar enfermo de diarrea y
asma al mismo tiempo, hay que definir si se recoge el número de
enfermedades que en este caso son dos o de enfermos que es uno, es decir
definir que medir: enfermos o enfermedades.
Si se recogen las enfermedades hay que tomar en consideración el momento
de su comienzo, de esta forma puede ser de tres maneras distintas:
129
a) La enfermedad comienza antes del periodo de recogida de datos y termina
dentro de éste.
b) La enfermedad comienza y termina dentro del periodo de recogida de la
información.
c) La enfermedad comienza dentro del periodo de recogida de la información y
termina después.
De acuerdo a la decisión que en cuanto a estos criterios se tomen
determinaran que se medirá y conocerá realmente: casos nuevos o total de
casos.
5- Frecuencia e Incidencia. Esto se relaciona con la problemática antes descrita a
fin de establecer que tipo de medición se hará.
Las formas clásicas de medición en Morbilidad se basan en los siguientes dos
conceptos:
Incidencia: Casos nuevos de una enfermedad en un periodo y lugar dado.
Prevalencia: Total de casos de una enfermedad en un periodo y lugar dado.
Incluye los casos nuevos como los que ya existían antes del periodo de estudio
y permanecen enfermos.
6- Pesquisaje o demanda: Hay que definir si se registran solamente los pacientes
que solicitan atención médica en los servicios de salud o se hace una
búsqueda activa de la enfermedad como es el caso de los programas de salud
que implican entre sus acciones el pesquisaje masivo.
7- Consultas o Reconsultas: Es necesario definir si solo se registraran las
consultas donde se hizo el diagnóstico o todas las que se hagan durante el
transcurso de una enfermedad.
Fuentes de Información
Para obtener información sobre morbilidad rara vez resulta suficiente el uso de
una sola fuente de información, lo más usual es la consulta de mas de una de las
existentes. Por ejemplo las salidas del sistema de información de defunciones y
defunciones perinatales que informan sobre las causas de muerte, si bien aportan
conocimiento sobre morbilidad, es sobre la morbilidad más severa, la que termina
generalmente con un desenlace fatal. Algo similar ocurre cuando se utiliza como
fuente de información las salidas del sistema de egresos hospitalarios ya que se
accede a la morbilidad que requiere hospitalización, también por lo general mas
severa. Al consultar la fuente información que constituyen las salidas del sistema
de enfermedades de declaración obligatoria, conocemos también parcialmente la
130
morbilidad que aqueja a la población ya que los datos se refieren
fundamentalmente a las enfermedades transmisibles.
Se enumeran a continuación las fuentes habituales de información de morbilidad:
Morbilidad general:
Mortalidad General
Diagnósticos de egresos hospitalarios
Diagnóstico de consultas ambulatorias
Exámenes masivos a la población
Enfermedades Transmisibles
Enfermedades Dispensarizadas
Otras sujetas a registros especiales (cáncer, tuberculosis)
Registros de enfermedades sujetas a pesquisaje.
Morbilidad específica relativa a parte o segmentos especiales de la población:
Grupos de Edad:
a) Menores de un año, menores de 5 años, mayores de 5 años, tercera edad,
adolescentes y otros.
b) Morbilidad perinatal, morbilidad de embarazadas, de adultos y de otros grupos
de edad.
c) Mortalidad y Morbilidad laboral y escolar.
d) Morbilidad según sexo, escolaridad, zona de residencia, características
geográficas y socio económicas.
Medición de la Morbilidad.
La medición de la morbilidad se realiza utilizando los indicadores de uso mas
frecuente en la actividad de las estadísticas continuas:
Números absolutos
Proporciones y porcentajes
Razones
Tasas
Algunas tasas propias de la morbilidad:
Tasa de incidencia acumulada =
oblacióntotaldelap
osnnuevostotaldecas x 10 n
131
Expresa el riesgo de contraer una enfermedad en una población dada en un
periodo de tiempo.
Otra tasa de incidencia lo es la denominada densidad de incidencia que mide la
morbilidad en función de “personas años”
Tasa de prevalencia =
oblacióntotaldelap
ermedadosdeunaenftotaldecas x 10 n
Expresa el riesgo de padecer una enfermedad en una población dada en un
periodo dado.
Tanto las tasas de incidencia como de prevalencia se pueden hacer específicas
por edad y sexo.
2.6 Estadísticas de recursos y servicios
Conceptos de estadísticas de Recursos y Servicios
Estadísticas de Recursos: Información numérica cuantificable acerca de los
recursos con que cuenta el Sistema Nacional de Salud para cumplir sus propósitos
y elevar el estado de salud de la población.
Los recursos pueden ser:
• Humanos.
• Medios de producción.
• Bienes Producidos.
• Equipos.
• Unidades de salud.
• Locales de consultas.
• Camas para ingresos.
• Sillones estomatológicos.
• Instituciones y locales para la formación de personal calificado de salud.
• Medios de transporte.
• Otros.
Estadísticas de Servicios: Es la información numérica cuantificable sobre los
servicios de salud que se prestan con los recursos disponibles para mejorar el
estado de salud de la población.
Utilidad de las estadísticas de recursos y servicios:
132
Las estadísticas de recursos y servicios son de gran utilidad en la administración
científica durante todas sus etapas.
Planificación: Según los principales problemas de salud se deben planificar los
recursos y servicios necesarios para su solución.
En la ejecución se mide la eficacia y eficiencia de los medios en el proceso.
Para el análisis del costo beneficio de los servicios prestados con los recursos
existentes.
Medición de Recursos y Servicios.
Se utilizan los indicadores habituales en la actividad de las estadísticas continuas:
Números absolutos
Razones
Proporciones y porcentajes
Tasas
Los indicadores de recursos se agrupan usualmente de la siguiente manera:
a) Indicadores que miden los recursos existentes.
Este grupo de indicadores tienen como propósito expresar el volumen de recursos
existentes.
Ejemplo:
• Número de médicos.
• Médicos por habitantes.
• Camas por médicos.
Puede relacionarse el volumen de recursos existentes con la población
beneficiada, o con los servicios prestados o relacionar recursos entre sí, Ej.
médicos por cama hospitalaria, enfermeras por médicos, estomatólogos por sillón.
b) Indicadores que miden el aprovechamiento de los recursos.
Este grupo de indicadores tiene como propósito expresar el uso que de los
recursos se hace.
Ejemplos:
133
• Consultas por médicos, este indicador es usado para medir la productividad
médica.
• Aprovechamiento de los salones de operaciones. Puede relacionarse el total
de horas que estuvo ocupado el salón entre el total de horas planificadas o del
total de salones, cuantos están funcionando y que tiempo.
• Aprovechamiento de la cama hospitalaria. Por su importancia y complejidad
serán tratados mas adelante con profundidad.
Con frecuencia se relaciona información de recursos y de servicios a fin de
obtener mayor expresividad en los indicadores. De hecho es conveniente
incorporar a la practica del análisis de estos indicadores la relación entre recursos
y servicios prestados, como única vía de medir la eficiencia del proceso de gestión
así como percatarse oportunamente de las necesidades de cada comunidad para
ajustar los recursos en funciónde los servicios cada vez que sea necesario.
Indicadores que miden el aprovechamiento de la cama hospitalaria
La cama hospitalaria es un recurso de importancia y guía para el quehacer en el
nivel de atención secundario y terciario. A partir de este recurso se establecen
plantillas, presupuestos y demás recursos para la actividad hospitalaria que
actualmente gasta más del 60 por ciento del presupuesto del sector salud
.
Es de gran importancia para la administración de salud, medir el aprovechamiento
de la cama a fin de un desempeño gerencial exitoso y un aprovechamiento optimo
del alto presupuesto que la atención hospitalaria lleva implícito. Es de suma
importancia para evaluar la calidad y cantidad de servicios de hospitalización se
ofrecen a la población.
Los indicadores de aprovechamiento de la cama hospitalaria llevan implícitos
definiciones básicas para su construcción y calculo. Estas son:
Dotación normal de camas: Son las camas que dispone el hospital en un periodo
de tiempo.
Cama real: Es aquella cama que se encuentra realmente instalada y dispuesta las
24 horas del día para recibir una persona, este ocupada o no. Se excluyen las
camas de Cuerpo de Guardia, trabajo de parto, cuartos de emergencia o cuidados
especiales, observación, reconocimiento, banco de sangre, investigaciones
radiológicas o endoscopias, intervenciones menores, recién nacidos normales y
las camas del personal que reside en el hospital.
Egreso: Paciente que habiendo ocupado una cama real del hospital la abandona
ya sea vivo o fallecido.
134
Día Cama: Es la disponibilidad de una cama real por 24 horas del día.
Días Cama: Suma de los día cama de un día.
Día paciente: Es la unidad de servicio prestado por el hospital a un paciente
ingresado en un día. O sea es el periodo de servicio prestado a un paciente
hospitalizado comprendido entre las horas de censo de dos censos consecutivos,
siendo contado el día de alta solamente en el caso de que un paciente ingrese y
egrese en el mismo día.
Los censos se realizan cada día en un hospital, generalmente en horas de la
noche. Debe ser a una hora fija. En este se enumeran las camas ocupadas o no y
los pacientes existentes. El censo o ronda nocturna del hospital es una actividad
básica del movimiento hospitalario de una unidad.
Días paciente: Es la suma de los día paciente en un día. Un hospital habrá
prestado en un día cualquiera, tantos días paciente como pacientes permanezcan
ingresados a las doce de la noche o a la hora del censo, mas un día paciente por
cada persona que ingresa y egresa en el mismo día.
Días Estadía: Es el tiempo transcurrido desde el momento que el paciente ingresa
hasta que realiza su egreso. La unidad de tiempo que se utiliza es el día. Si el
paciente permanece ingresado solo unas horas, tendrá a los efectos de la
medición, un día de estadía. La estadía, al abandonar el paciente el hospital, se
considerara el día de egreso o el de ingreso, nunca ambos.
Los indicadores de uso más frecuente en la medición del aprovechamiento del
recurso cama son:
Promedio de Estadía (PE): Es el promedio de días de asistencia hospitalaria
recibida por cada paciente en un periodo de tiempo dado. Mide cuantos días en
promedio está hospitalizado un paciente desde su ingreso hasta su egreso.
El PE es el indicador más importante de la utilización de las camas. Es el más
consistente y de mayor poder discriminatorio.
Intervalo de Sustitución (IS): Es el tiempo promedio que una cama permanece
desocupada entre el egreso de un paciente y el ingreso de otro. Cuando un
hospital tiene un IS de un día, se encuentra en dificultades para dar servicio a la
comunidad.
Intervalo de Rotación (IR): Mide el número de pacientes que en promedio rotan
por una cama en un período determinado de tiempo.
Índice de Ocupación o Índice Ocupacional (IO): Establece la relación entre los
pacientes ingresados y la capacidad real de las camas de un servicio u hospital.
135
Es el indicador de menor poder discriminatorio. Nunca debe ser analizado
aisladamente de los otros.
Promedio de Ocupación de Camas al Año (POCA): Número promedio de días que
una cama se mantiene ocupada al año.
No es aconsejable analizar aisladamente cada uno de estos indicadores, la
interpretación integral de los mismos es capaz de brindar una información mucho
más clara del aprovechamiento de la cama hospitalaria.
El aprovechamiento optimo de la cama se reflejaría a partir de estos indicadores y
de modo general de la siguiente manera: Promedio de Estadía corto, intervalo de
sustitución de dos o más días, índice de rotación elevado y un también elevado
índice ocupacional. Cada hospital o servicio según su tipo o nivel, tiene patrones
de comportamiento particulares de estos indicadores. Por ejemplo, por lo general
los hospitales gineco obstétricos son de corta estadía, alto índice ocupacional y de
rotación. Al descender la natalidad por ejemplo o incorporarse tecnologías
medicas modernas que acortan el periodo de hospitalización, los indicadores
muestran menor aprovechamiento de las camas y se impone redimensionar el
servicio u hospital. El aumento de la capacidad resolutiva de las estructuras de la
Atención Primaria de Salud debe acortar también los periodos de hospitalización
en todo tipo de hospital, fundamentalmente en los Clínico Quirúrgicos y Generales.
Los hospitales psiquiátricos tienen por lo general, larga estadía, alto índice
ocupacional y bajo índice de rotación. Obviamente en esto influye la morbilidad
que atienden.
Existe más de una fórmula para el cálculo de cada uno de estos indicadores según
si se trata de unidades o servicios de corta o larga estadía. A continuación
aparecen las más utilizadas.
Egresos
pacientes DíasPE =
Egresos
estadía DíasPE =
cama Días
pacientes DíasIO =
período del días x reales camas de Promedio
IR X PEIO =
Egresos
sdesocupada CamasIS =
IO
PEón x desocupaci %IS =
reales camas de Promedio
EgresosIR =
ISPE
período del DíasIR
+
=
136
Los indicadores de servicio se agrupan de la siguiente manera:
a) Indicadores que expresan la cantidad de servicios prestados.
Ejemplos:
• Número de consultas
• Consultas por habitantes. Relaciona servicios con población beneficiaria.
b) Indicadores que expresan la calidad de los servicios prestados.
Ejemplos:
100x
egresos de Total
iashospitalar sdefuncione de Númerobruta ortalidadM =
100x
egresos de Total
aciónhospitaliz de horas 48 de más de iashospitalar sDefuncioneneta ortalidadM =
100x
osanestesiadcasos de Total
anestesiapor sDefuncioneanestésica ortalidadM =
2.7 Clasificación internacional de enfermedades (cie)
1– Importancia del acto de clasificar
Es un acto necesario para el estudio de cualquier fenómeno, es la base de la
generalización científica y desde el punto de vista metodológico es esencial para
unificar definiciones y sistemas de clasificación.
2– Definición de Clasificación Internacional de Enfermedades
Es un sistema de categorías numéricas, es decir, códigos numéricos asignados a
entidades nosológicas establecidas previamente o sea, la nomenclatura médica
con la finalidad de recuperar información para dar salida a diferentes propósitos.
3– Breve recuento histórico
La primera clasificación fue realizada por Bertillón en 1900 y se aplicó
tempranamente en Cuba en 1901.
Se han realizado revisiones cada diez años aproximadamente pero se ha tratado
de hacer los grandes cambios cada veinte años para proteger la información
procesada sin prescindir de las mejorías que se introducen en las revisiones en
correspondencia con el desarrollo tecnológico del mundo.
137
Ya se encuentra diseñada la X edición de la CIE. Son muchos los países del
mundo que ya la están utilizando como es el caso de Cuba.
4– Utilidad de la ClasificaciónInternacional de Enfermedades.
• Permite el conocimiento organizado de las causas de muerte, traumatismos,
enfermedades y lesiones clasificadas de acuerdo a diferentes intereses.
• Logra uniformidad en la terminología y definiciones lo que permite realizar
comparaciones entre países.
• Permite conocer las causas que conducen directamente a la muerte y las que
desencadenan el proceso.
• Contribuye a desarrollar una labor preventiva eficiente.
• Contribuye a elevar la calidad de la atención médica
5– Aspectos básicos para el uso y aplicación de la Clasificación Internacional de
Enfermedades.
• Llenado correcto del certificado de defunción y otros registros que se someten
a codificación como la hoja de egreso hospitalario.
• Correcta codificación de las enfermedades.
En Cuba, el certificado de defunción y la hoja de egreso son llenadas solo por el
médico de esta forma, sobre todo en el certificado de defunción, se trata de
garantizar que se consignen las causas de muerte a través de un proceso lógico y
científico con el concurso de los conocimientos de este profesional autorizado para
que se garantice la calidad de la información estadística.
La codificación por su parte se realiza por personal técnico, en el caso de los
certificados de defunción en las direcciones provinciales y luego se revisan en la
Dirección Nacional de Estadística mientras las hojas de egreso hospitalario se
codifican en los hospitales también por personal técnico.
La codificación correcta se logra por la habilidad y conocimiento de los técnicos
codificadores y por la utilización de las reglas de codificación que posee la CIE.
138
Tema 3- Introducción a la Teoría de Probabilidades.
Introducción
Si su único propósito como investigador, es describir los resultados de un
experimento concreto, los métodos analizados en el curso anterior, sobre
Estadística Descriptiva, pueden considerarse suficientes. No obstante, si lo que
pretende es utilizar la información obtenida para extraer conclusiones generales,
sobre la población de la cual fue seleccionada la muestra estudiada, entonces
estos métodos constituyen sólo el principio del análisis, y debe recurrir a métodos
de inferencia estadística, los cuales implican el uso inteligente de la teoría de la
probabilidad.
Comenzaremos este tema interpretando la noción de probabilidad y la
terminología subyacente a esta área de las matemáticas, ya que la probabilidad
constituye por sí misma un concepto básico que refleja su relación con la faceta
del mundo exterior que pretende estudiar: los fenómenos aleatorios, los cuales
obedecen unas ciertas reglas de comportamiento. De alguna manera, el concepto
de probabilidad, se relaciona o nos recuerda las propiedades de la frecuencia
relativa.
Nos centraremos posteriormente, en el eslabón que une la teoría de la
probabilidad y la estadística aplicada: la noción de variable aleatoria, mostrando
de esta manera, como puede emplearse la teoría de la probabilidad para sacar
conclusiones precisas acerca de una población sobre la base de una muestra
extraída de ella, y que muchos de los estudios estadísticos son de hecho, estudios
de las propiedades de una o más variables aleatorias.
Tal como hemos citado anteriormente, en las aplicaciones prácticas es importante
poder describir los rasgos principales de una distribución, es decir, caracterizar los
resultados del experimento aleatorio mediante unos parámetros. Llegamos así al
estudio de las características asociadas a una variable aleatoria introduciendo los
conceptos de valor esperado y varianza, relacionándolos con los conceptos de
media y varianza de una variable estadística.
El cálculo de probabilidades nos suministra las reglas para el estudio de los
experimentos aleatorios o de azar, constituyendo la base para la estadística
inductiva o inferencial.
No pretendemos atiborrarlo de fórmulas de cálculo, tampoco pasarnos todo el
tema realizando ejercicios sobre urnas con bolas rojas y blancas, nuestro interés
Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.
139
es presentar los contenidos, básicamente, de manera intuitiva, de manera que el
aspecto probabilístico de la inferencia estadística pueda ser fácilmente
comprendido.
3.1 Probabilidad. Conceptos básicos.
La teoría de probabilidades tiene su origen en la solución de problemas
relacionados con los juegos de azar, los cuales tienen sus precedentes en épocas
muy remotas.
Desde mediados del siglo XVII y hasta nuestros días, el cálculo de probabilidades
ha sufrido un proceso de transformaciones sucesivas, hasta alcanzar métodos
aplicables a la solución de problemas complejos, que el desarrollo científico
técnico plantea al hombre.
Muchas son las ciencias que emplean los resultados de esta disciplina, entre ellas
se destacan la Física, la Química, la Biología, todas las ramas de la ingeniería,
etc. Los progresos teóricos de esta rama de la matemática, han abierto nuevos
campos de aplicación en Estadística. Así vemos que, en el campo de la salud
pública es muy frecuente el uso de las probabilidades, no solo en el ámbito de la
investigación, sino también en la práctica profesional cotidiana.
Cuando decimos que la oportunidad que tiene un paciente de sobrevivir a una
intervención quirúrgica es de 50%. O bien, que un médico está 90% seguro de
que un paciente tiene tal enfermedad. Estos ejemplos, entre otros tantos que
escuchamos a diario, nos muestran el empleo del concepto de probabilidad en el
marco de la salud pública.
Seguro se está preguntando ¿qué entendemos por probabilidad?. Pues bien, le
diré que existen varias definiciones, las que pudieran resultar algo complicadas
dado el carácter matemático de las mismas. Apelamos a su intuición y capacidad
de razonamiento lógico.
Ante todo Ud. debe saber, que las probabilidades constituyen la medida numérica
de la verosimilitud o el grado de certidumbre de ocurrencia real de un fenómeno.
Actualmente, existen dos puntos de vista mediante los cuales pueden ser
abordadas las probabilidades: objetivo y subjetivo. El primero se basa en que la
teoría de probabilidad permite descubrir las leyes que rigen una serie de
fenómenos que se presentan en la práctica, cuyo análisis y estudio conducen al
conocimiento de la realidad objetiva; mientras que el segundo, sostiene que la
probabilidad mide la confianza que un individuo tiene en la certeza de una
proposición particular, es decir, que las conclusiones basadas en esta teoría no
reflejan la realidad objetiva, sino el conocimiento del observador sobre el
fenómeno que estudia.
Aunque este último punto de vista ha gozado de gran popularidad, los estadísticos
con orientación tradicional aún no la aceptan del todo.
140
El concepto de probabilidad objetiva puede ser visto desde dos enfoques
principales: el empírico y el teórico.
El enfoque teórico se corresponde con la llamada probabilidad clásica o a priori
y puede ser definida como sigue:
Sea E un experimento aleatorio con N resultados igualmente posibles y mutuamente
excluyentes, y si m de estos resultados poseen una característica A, la
probabilidad de ocurrencia de A se define como la relación entre el número de
estos resultados favorables a A (m) y el número total de resultados posibles del
experimento(N). Se denota:
P(A) =
N
m
¿Por qué a priori?, Ya que no necesita ser realizado el experimento para conocer
la probabilidad de ocurrencia de los resultados posibles.
Ahora bien, para trabajar con el cálculo de probabilidades es necesario fijar
previamente cierta terminología. Vamos a introducir parte de ella en las próximas
líneas.
Experimentos y sucesos aleatorios
Cuando en un experimento no se puede predecir el resultado final, hablamos de
experimento aleatorio. Éste debe cumplir los siguientes requisitos:1. Se puede repetir indefinidamente, siempre en las mismas condiciones;
2. Antes de realizarlo, no se puede predecir el resultado que se va a obtener;
3. En cada repetición se obtiene un resultado que pertenece a un conjunto
conocido previamente de resultados posibles. A este conjunto, de resultados
posibles, lo denominaremos espacio muestral o conjunto fundamental y lo
denotaremos normalmente mediante la letra E. Los elementos del espacio
muestral, cada uno de los resultados posibles, se denominan sucesos
elementales (e1, e2, …, en).
El desconocimiento de todas las circunstancias que describen el experimento
aleatorio, causa la incertidumbre del resultado. Esto motiva la aparición de
interrogantes sobre dicho resultado, a su vez estas preguntas determinan un
subconjunto de sucesos elementales. A estos subconjuntos suele llamárseles
eventos o sucesos aleatorios, existiendo una probabilidad de ocurrencia
asociada a éstos.
141
Observe que los sucesos elementales son sucesos aleatorios compuestos por un
sólo elemento, es decir, solo un resultado posible. Por supuesto los sucesos
aleatorios son más generales que los elementales, ya que son conjuntos que
pueden contener no a uno sólo, sino a una infinidad de sucesos elementales, e
incluso no contener ninguno.
Dos o más sucesos son llamados mutuamente excluyentes, si la ocurrencia de
cualquiera de ellos excluye la ocurrencia del(os) otro(s), es decir, no pueden
ocurrir simultáneamente. Así tenemos que los sucesos elementales son
mutuamente excluyentes, mientras que los sucesos aleatorios pueden en
ocasiones no serlo, lo que significa que algunos de sus elementos coinciden.
Ilustremos estos conceptos con un ejemplo simple.
Ejemplo 1
Si realizamos el experimento aleatorio de lanzar un dado al aire, tenemos los
siguientes resultados posibles: E = {1, 2, 3, 4, 5, 6}
El conjunto E es el espacio muestral de este experimento y cada uno de sus
elementos son sucesos elementales. Ahora, las preguntas ¿el resultado será un
número par?, ¿Un múltiplo de tres? o ¿un número mayor que dos?, definen,
respectivamente, los siguientes subconjuntos (sucesos aleatorios) del espacio
muestral E: A = {2, 4, 6} B = {3, 6} C = {3, 4, 5, 6}
Observe que todos los elementos de E son mutuamente excluyentes, pues si sale
el 1 no puede simultáneamente salir otro valor, mientras que los sucesos
aleatorios mencionados no son mutuamente excluyentes, si por ejemplo sale el
número 6, habrán ocurrido los tres sucesos simultáneamente: A, B y C. Esto no es
así siempre, por ejemplo, un suceso D es definido por la pregunta ¿el resultado
será un múltiplo de 5?, tendrá los siguientes elementos: D = {5}
Como verá, A y D son mutuamente excluyentes, al igual que B y D, no sucediendo
así con C y D.
A continuación veremos como se realiza el cálculo de probabilidades en este
ejemplo, según la definición clásica.
En este caso N = 6 (las 6 caras del dado), y si el dado está perfectamente
balanceado, es decir, no está trucado, la probabilidad de ocurrencia de cada uno
de los resultados posibles será la misma para todos e igual a:
6
1
Esta es la probabilidad de ocurrencia de los sucesos elementales, veamos qué
sucede con los sucesos aleatorios. Pues muy simple, la probabilidad de
ocurrencia de cada uno de ellos está determinada por las probabilidades
individuales de sus elementos:
P(A) =
6
1 +
6
1 +
6
1 =
2
1
6
3
=
142
Para los demás es similar:
P(B) =
3
1
6
2
= P(C) =
3
2
6
4
= P(D) =
6
1
Otro concepto importante es el de suceso contrario o complemento. Hasta
ahora hemos hablado de probabilidad de ocurrencia de un suceso cualquiera A,
denotada por P(A), no se ha preguntado ¿cuál será la probabilidad de que A no
ocurra?, si es así, se diré que la no ocurrencia de un suceso (A) es a lo que suele
llamársele su complemento o el suceso contrario de A y se denota como no A, o
más comúnmente como A y su probabilidad está dada por:
P( A ) = 1- P(A)
Veamos en el ejemplo 1. El complemento de los sucesos A, B, C y D será:
A = {1, 3, 5} B = {1, 2, 4, 5}
C = {1, 2} D = {1, 2, 3, 4, 6}
Las respectivas probabilidades puede calcularlas fácilmente. Le invitamos a que
las calcule.
La definición clásica de probabilidad tiene dos desventajas: las palabras
"igualmente posibles" pueden ser sinónimas de “igualmente probables”, por lo que
estamos definiendo exactamente la probabilidad con sus propios términos,
además, este concepto supone que el número de resultados posibles es finito, lo
que no ocurre frecuentemente en la práctica.
Por esta razón ha sido propuesta una definición estadística de probabilidad,
también llamada frecuencia relativa de probabilidad o probabilidad a
posteriori, que se corresponde con el método empírico.
Pues sí, nos referimos a la misma frecuencia relativa que estudió en estadística
descriptiva. A continuación le aclaro esto.
Cuando repetimos un experimento aleatorio, un número grande de veces, y
registramos la frecuencia de ocurrencia de un resultado e, se observa que en la
medida que el número de experimentos aumenta, las frecuencias relativas con las
que ocurre ese suceso e, Fr (e), tiende a converger hacia cierta cantidad que
denominamos probabilidad de e. Veamos un ejemplo.
Ejemplo 2
En el siguiente gráfico, se presenta la evolución de la frecuencia relativa del
número de caras obtenido en el lanzamiento de una moneda en 100 ocasiones
(simulado por una computadora, no pensará que lanzamos la moneda 100 veces).
En principio la evolución de las frecuencias relativas es errática, pero a medida
que el número de tiradas aumenta, tiende a lo que entendemos por probabilidad
143
de cara, es decir, tiende a 0.5 (fíese que esta moneda está perfectamente
balanceada).
Figura 1.1.1- Tendencia de la frecuencia relativa del número de caras
obtenido en lanzamientos sucesivos de una moneda.
De acuerdo a lo anterior:
La probabilidad estimada o probabilidad empírica de un suceso, se toma como la
frecuencia relativa de la ocurrencia del suceso, cuando el número de
observaciones es muy grande.
¿Por qué a posteriori?, pues porque a diferencia de la definición clásica, en este
caso para calcular la probabilidad de ocurrencia de un suceso es necesario
realizar el experimento un número grande de veces, después de lo cual es que se
conocerá dicha probabilidad.
Esta definición también tiene dificultades en la práctica, pues se requiere realizar
un número infinito de veces un experimento para calcular una probabilidad. Por
ejemplo, lanzar infinitas veces un dado para ver que las frecuencias relativas de la
aparición de cada cara convergen a 1/6. Esto puede suplirse en la práctica
realizando el experimento un número suficientemente elevado de veces, hasta que
tengamos la precisión que requieran nuestros cálculos.
Sin embargo, los experimentos aleatorios a veces no pueden ser realizados, como
es el caso de calcular la probabilidad de morir jugando a la ruleta rusa con un
revólver: No es posible (o no se debe) calcular esta probabilidad repitiendo el
144
experimento un número indefinidamente alto de veces para aproximarla mediante
la frecuencia relativa. Para ello existen métodos mucho más seguros, como es la
definición axiomática de probabilidad, lo cual escapa del alcance de este texto, si
Ud. está interesado en profundizar en el tema puede consultar la bibliografía
citada al final del texto.
Por lo pronto, de acuerdo con los objetivos del libro, nos quedamos con la
definición estadística de probabilidad. De hecho, prácticamente todo lo
concerniente a probabilidades en el campo de la salud se obtiene de forma
empírica, basándonos en el comportamiento pasado de los fenómenos. Por
ejemplo, la probabilidad de supervivencia de un enfermo de cáncer, se basa en el
conocimiento de los porcentajes de supervivencia de pacientes con características
similares, conel mismo nivel de la enfermedad y sometidos al mismo tratamiento.
Como puede ver, estos porcentajes no son más que la expresión porcentual de la
frecuencia relativa de este suceso.
El método empírico es también la base del antiguo método de diagnóstico, según
el cual es más verosímil (probable) que un paciente tenga una enfermedad común
que una rara.
Es importante aclarar, que esta definición supone estabilidad en las circunstancias
o factores que determinan el suceso en sí. En el ejemplo anterior, si se modifica
alguno de esos factores como incluir pacientes con diferentes niveles de la
enfermedad o sometidos a diferentes tratamientos, estas probabilidades empíricas
ya no son válidas.
La clave está en que la probabilidad, basada en antiguos resultados, es cierta
ahora y en el futuro, solamente en circunstancias semejantes.
Habrá notado, que las probabilidades pueden ser expresadas tanto en forma
fraccional como porcentual. Ambas formas son válidas y equivalentes, así por
ejemplo, una probabilidad del 20% es lo mismo que de 0.2. Pero, ¿cómo
interpretar su valor?, Para interpretar el valor de una probabilidad es necesario
recurrir al concepto frecuencista de la misma, por ejemplo, P(A) = 0.2 significa que
de cada 100 repeticiones del experimento se espera como promedio que ocurra
20 veces el evento A.
Ahora bien, independientemente de cómo se exprese, existen propiedades
básicas que cumple la probabilidad de cualquier suceso e, P (e). Estas son:
− La P (e) es un número no negativo y menor o igual que 1 (entre 0 y
100%), esto no te es ajeno puesto que las probabilidades son
proporciones y ya conoce las propiedades de una proporción.
0 ≥ P (e) ≤ 1
− La suma de las probabilidades de ocurrencia, de todos los resultados
posibles de un experimento aleatorio, es igual a 1 (100%).
P(e1) + P(e2) + …+ P(en) = 1
145
Esta es la propiedad de exhaustividad, se refiere al hecho de que el
observador de un proceso probabilístico, debe contemplar todos los
resultados posibles, y cuando se toman todos, la suma de sus
probabilidades siempre es igual a 1. Ahora comprende por qué la
probabilidad del complemento de un suceso es 1 menos la probabilidad de
ese suceso, pues según esta propiedad:
P(A) + P( A ) = 1
− Si dos eventos E1 y E2, son mutuamente excluyentes. La probabilidad
de ocurrencia de uno o el otro es igual a la suma de sus
probabilidades individuales.
P(E1 o E2) = P(E1) + P(E2)
Si no son mutuamente excluyentes el cálculo se torna algo complejo.
3.2 Variables aleatorias
Hasta aquí, al analizar los resultados de un experimento o fenómeno aleatorio,
hemos establecido la correspondencia entre los posibles resultados y la noción de
probabilidad de ocurrencia de un determinado resultado o conjunto de resultados
(sucesos aleatorios), de todos los posibles. Como consecuencia, a cada resultado
o suceso aleatorio está asociado un número real, que es su probabilidad.
La noción de variable aleatoria está asociada al concepto de probabilidad de
ocurrencia de un suceso, y es también una correspondencia que se establece
entre cada resultado de un fenómeno o experimento aleatorio y un número real
determinado.
En el proceso de investigación científica y en particular en la investigación
biomédica, es frecuente expresar el resultado de un experimento aleatorio en
forma numérica, pues resulta más fácil utilizar valores numéricos en lugar de
trabajar directamente con los elementos de un espacio muestral. De este modo
aparece el concepto de variable aleatoria como sigue:
Una variable aleatoria (v.a) es toda función que atribuye un único número real a
cada suceso elemental del espacio muestral de un experimento aleatorio.
Es decir, una variable aleatoria (v.a) es simplemente, la formalización matemática
de alguna de las variables reales que estamos habituados a tratar. Cuando se
trata de un carácter cuantitativo, la variable aleatoria correspondiente se define
mediante su aplicación idéntica, mientras que si es un carácter cualitativo se
emplea una convención numérica conveniente.
146
Esto puede aplicarse tanto si el resultado del experimento es una cantidad que
varía como si se trata de un resultado categórico.
Por lo tanto, una variable aleatoria será definida como una cantidad variable que
expresa el resultado de un experimento aleatorio.
Dicho de otro modo, se define una variable aleatoria haciendo corresponder a
cada uno de los sucesos aleatorios, un número real cualquiera, de modo que esta
transformación nos permita definir diferentes operaciones aritméticas con sus
elementos.
ESTAS VARIABLES SE DENOTAN CON LAS ÚLTIMAS LETRAS DEL ALFABETO, EN
MAYÚSCULAS (X, Y, Z).
Ejemplo 3
Si el experimento consiste en observar el sexo de un recién nacido, es posible que
nos interese determinar el número de varones que se obtienen de un total de 3
nacimientos.
El espacio muestral de este experimento estará formado por todas las formas
posibles en que pueden ocurrir 3 nacimientos en cuanto a sexo. Le explico mejor,
cada uno de los 3 nacimientos puede ser de 2 formas: hembra (H) o varón (V), por
lo tanto si queremos saber de cuántas formas pueden ocurrir los 3 nacimientos
tendríamos 8 posibilidades, 2 del primero, multiplicado por 2 del segundo,
multiplicado a su vez por 2 del tercer nacimiento: 2x2x2= 811.
Veamos claramente; los resultados pueden ser:
E = {VVV, HHH, VHH, VVH, HVV, HHV, HVH, VHV}
Como puede ver, resulta bastante complejo trabajar con este espacio muestral tal
como es, imagínese si aumentamos el número de nacimientos, sería el caos. Por
lo tanto será mucho más conveniente que el suceso “hembra" sea representado
por el 0 y el suceso “varón” por el 1, de esta forma se define una variable aleatoria
X como el número de varones, de la siguiente forma:
X = {0, 1, 2, 3}
Así pues hagamos corresponder el espacio muestral anterior con los valores de X:
0 ⇒ HHH
1 ⇒ VHH, HVH
2 ⇒ VVH, VHV y HVV
3 ⇒ VVV
MÁS ADELANTE RETOMAREMOS ESTE EJEMPLO.
11 Esto es de teoría combinatoria, que no creo necesario abundar mucho, si lo desea
puede consultar la bibliografía citada al final del tema.
147
AHORA BIEN, EL CALIFICATIVO DE ALEATORIA NO SE DEBE AL HECHO DE QUE SE ATRIBUYE
DE MODO IMPREVISIBLE UN VALOR CUALQUIERA A UN ELEMENTO DEL ESPACIO MUESTRAL,
YA QUE ESTE VALOR ESTÁ DETERMINADO DE FORMA PRECISA. LO QUE ES ALEATORIO EN
REALIDAD, ES QUE AL HACER EL EXPERIMENTO, NO SABEMOS QUÉ RESULTADO PUEDE
OCURRIR.
EN FUNCIÓN DE LOS VALORES QUE TOME LA VARIABLE, ÉSTA PUEDE CLASIFICARSE EN
DISCRETA O CONTINUA DEL SIGUIENTE MODO:
Variable aleatoria discreta: Es aquella que sólo puede tomar un número finito o
numerable de valores. Por ejemplo, el sexo de un recién nacido.
Variable aleatoria continua: Es la que puede tomar un número infinito no
numerable de valores. Por ejemplo, la talla, y en general variables que expresan
tiempo, medidas de longitud, peso, etc.
Si sobre los elementos de E existe una distribución de probabilidad, ésta se
transmite a los valores que toma la variable X. Es decir, toda v.a. conserva la
estructura probabilística del experimento aleatorio que describe.
Retomando el ejemplo 1.2.1, supongamos que la probabilidad de que nazca un
niño varón es similar a la de que nazca una hembra, e igual a 0.5 (no es así
realmente). ¿Cómo serán las probabilidades de los valores de X? Bueno en este
caso como las probabilidades de cada sexo son iguales, entonces los elementos
de E son igualmente probables, por lo que se puede aplicar el concepto de
probabilidad clásico. Veamos: E tiene 8 resultados posibles, así que la
probabilidad correspondiente a cada uno será igual a 1/8. Por ejemplo.
El resultado VVV, su probabilidad se calcula así:
8
1
2
1
2
1
2
1
=××=)(VVVP
De forma similar para el resto de los resultados. Ahora calculemos las
probabilidades de X:
P(X=0) = 81 recuerdaque X = 0 solo cuando E= HHH
P(X=1) = 83 X = 1 cuando E = HVH, VHH y HHV
P(X=2) = 83 X = 2 cuando E = VVH, VHV y HVV
P(X=3) = 81 X = 3 solo cuando E = VVV
Vamos a estudiar a continuación los conceptos más importantes relacionados con
la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a.
discreta y v.a. continua.
148
3.3 Distribución de probabilidad de una variable aleatoria.
El concepto de variable aleatoria nos permite, como vimos en el ejemplo 1.2.1,
definir y denotar sucesos, y aún más, calcular la probabilidad de éstos, a través de
la probabilidad de ocurrencia de los valores originales. Así pues, la distribución de
probabilidad de una variable aleatoria puede ser definida de acuerdo al tipo de v.a
de la siguiente forma:
Distribución de probabilidad de una v.a discreta: se define como el conjunto de
todos los valores de la variable, junto con sus correspondientes probabilidades.
Puede ser representada tanto tabular como gráficamente.
Veamos la distribución de probabilidades de la variable X: número de varones en
tres nacimientos, vista anteriormente en el ejemplo 1.2.1.
Tabla 1.2.1 – Distribución de probabilidad del número de varones en 3
nacimientos.
Valores de X (x) P (X = x)
0 0.125
1 0.375
2 0.375
3 0.125
1.000
Figura 1.2.1 – Representación gráfica de la distribución de probabilidad del
número de varones en 3 nacimientos.
Como puede observar, la representación gráfica de la función de probabilidad se
realiza mediante un diagrama de barras análogo al de la distribución de
149
frecuencias relativas para variables discretas. Donde la longitud de cada barra
equivale al valor de probabilidad del correspondiente valor de x. Veamos un
ejemplo con más categorías.
Ejemplo 4
Supongamos que como parte del diagnóstico de salud del área, necesitas conocer
el número de personas por familia, para ello tomas una muestra de 50 familias y
en cada una de ellas registras la variable de interés. Construyamos la distribución
de probabilidad para esta variable en dicha población.
Tabla 1.2.2 – Distribución de probabilidad del número de personas por familia
en una población de 50 familias.
Número de
personas
Frecuencia
absoluta P(X=x)
1 1 0.02
2 4 0.08
3 6 0.12
4 5 0.10
5 9 0.18
6 10 0.20
7 7 0.14
8 4 0.08
9 2 0.04
10 2 0.04
50 1.00
Se habrá dado cuenta que esto es análogo a la distribución de frecuencias
relativas, pero sustituyendo las frecuencias relativas por probabilidades. Por lo
tanto, podemos pensar en las distribuciones de probabilidad como las formas
teóricas o ideales de las distribuciones de frecuencia relativa, cuando el número
de observaciones es grande (poblaciones).
150
Figura 1.2.2 – Representación gráfica de la distribución de probabilidad del
número de personas por familia en una población de 50 familias.
En ambos ejemplos se observa que la longitud de cada barra vertical indica la
probabilidad para el valor correspondiente de x. Se puede usar alternativamente la
representación gráfica o tabular, no necesariamente las dos. Observará también
que todos los valores de P(X=x) son positivos, menores que 1, y la suma de los
mismos es igual a 1. Estas características no son particulares de estos ejemplos,
sino que se cumplen para todas las distribuciones de probabilidad de variables
discretas.
Esta distribución sirve para hacer afirmaciones (conclusiones) sobre la variable
aleatoria en la población, hacer pronósticos y planificar medidas de prevención,
entre otras cosas.
Las ideas vistas anteriormente, pueden extenderse al caso en que la variable
pueda asumir un conjunto continuo de valores. En este caso el concepto de
distribución de probabilidad es más complejo.
Cuando la variable es continua, no tiene sentido hacer una suma de las
probabilidades de cada uno de los términos, ya que el conjunto de valores que
puede tomar la variable es no numerable. En este caso, lo que generaliza de
modo natural el concepto de suma es el de integral. Por otro lado, para variables
continuas no tiene interés hablar de la probabilidad de un valor específico de la
variable, P(X = x), ya que esta debe valer siempre 0, para que la suma infinita no
numerable de las probabilidades de todos los valores de la variable no sea
infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en v.a.
continuas, al de función de probabilidad de una v.a. discreta. Este concepto es el
de función de densidad de una v.a. continua, que se define como sigue:
151
A una función no negativa, f(x), se le llama distribución de probabilidad (función
de densidad de probabilidad) para la variable aleatoria continua X, si el área total
delimitada por su curva y el eje de las x, es igual a 1 y si la subárea delimitada por la
curva, el eje de las x y por las líneas perpendiculares levantadas sobre dos puntos
cualesquiera a y b da la probabilidad de que X esté entre los puntos a y b.
Para que se comprenda mejor, considere los datos presentados en la tabla 1.3.3 y
la figura 1.3.3
Ejemplo 5
La talla de un recién nacido acostumbra a tener valores entre 47 y 53 cm., pero
no todas estas tallas son igualmente probables, como bien se sabe, lo habitual son
tallas próximas a los 50 cm. Lo cual se puede observar tanto en la distribución de
frecuencias de la tabla 1.3.3 como en el histograma de la figura 1.3.3, alrededor
del 60% de los niños se sitúan entre 49 y 51 cm de talla.
Tabla 1.3.3 – Distribución de frecuencias de la talla de 100 recién nacidos.
Talla
(cm)
Frecuencia
absoluta
Frecuencia
relativa
Frecuencia
acumulada
46 1 0.01 0.01
47 6 0.06 0.07
48 10 0.10 0.17
49 18 0.18 0.35
50 25 0.25 0.60
51 23 0.23 0.83
52 10 0.10 0.93
53 7 0.07 1.00
Total 100 1.00
152
Figura 1.3.4 – Histograma de la talla (cm.) de 100 recién nacidos.
Como se recordará, las subáreas del histograma corresponden a las frecuencias
de ocurrencia de los valores de la variable entre los límites de la escala horizontal
de subáreas, por lo tanto el área total se corresponde con el total de
observaciones. En caso de representar frecuencias relativas en vez de absolutas,
las subáreas se corresponderán con los valores de probabilidad de cada clase
representada y por supuesto el área total será igual a 1.
Imagínese ahora una situación donde el número de valores de la variable aleatoria
es muy grande y la dimensión de los intervalos de clase es muy pequeña, digamos
que contamos con la talla de todos los RN del país durante un año
(aproximadamente 150 000), en este caso el histograma resultante tendrá mayor
cantidad de intervalos y si se conectan los puntos medios de las celdas del mismo
se obtendrá una curva suave como la distribución continua representada en la
figura 1.3.4.
Estas curvas se utilizan para representar gráficamente las distribuciones de v.a
continuas, lo cual tiene implicaciones importantes cuando se trabaja con
distribuciones de probabilidad. En primer lugar, el área bajo la curva es igual a 1,
como lo es para el histograma, y en segundo lugar, la frecuencia relativa de
ocurrencia para los valores entre dos puntos específicos cualesquiera (a y b),
sobre el eje de las X, es igual al área total delimitada por la curva, el eje de las X y
las rectas perpendiculares levantadas sobre ambos puntos, tal como lo muestra la
figura 1.3.5. Siendo la probabilidad de que la variable tome valores entre a y b, y
se denota por: P(a < X < b)
153
Figura 1.3.5 – Distribución de probabilidad de las tallas al nacer.
A esta función f(x), se le llama función de densidad de probabilidad de X.
Por ser f una función integrable, la probabilidad de un punto es nula, es decir, la
probabilidad de un valor específico de la v.a es cero, puesto que un valor
específico se representa por un punto en el eje de las abscisas y el área encima
de un punto es igual a cero. Por ello al calcular la probabilidadde un intervalo no
afectará nada el que éste sea abierto o cerrado por cualquiera de sus extremos,
pues estos son puntos y por tanto de probabilidad nula.
Así pues: P(a < X < b) = P(a ≤ X ≤ b)
Figura 1.3.6 – Gráfico de una distribución de probabilidad continua que
muestra el área entre a y b.
Para calcular las áreas bajo la curva y obtener de ese modo las probabilidades de
presentarse algún intervalo específico de valores de la variable, se utiliza el
proceso de integración, lo cual escapa al alcance de este texto por su grado de
complejidad.
En la práctica existe una serie de distribuciones teóricas, tanto para variables
discretas como para variables continuas, que sirven de modelo para representar
las distribuciones empíricas más frecuentemente encontradas; y con el uso de
éstas no se necesita hallar ninguna integral, pues al alcance de todos existen los
valores de probabilidad tabulados para cada distribución teórica, solamente Ud.
154
debe aprender a usarlas convenientemente. Además, puede apelar al software
estadístico.
A continuación presentaremos, de forma muy resumida, algunas de las
distribuciones de probabilidad teóricas que a nuestro juicio son las más usadas en
las investigaciones que se realizan en el ámbito de la Salud Pública. Así que le
recomendamos que preste mucha atención porque esta es la base para
comprender la inferencia estadística.
Pero antes debe conocer algunas “medidas de resumen” para las variables
aleatorias. Así, la distribución de probabilidad de una v.a puede resumirse con la
media aritmética, llamada en este caso esperanza matemática o valor esperado, y
la varianza, las que se denotan por E(X) y V(X), respectivamente. Su cálculo,
análogo al de una distribución de datos, se efectúa con las probabilidades de cada
valor, en lugar del número de veces (frecuencia) con que el valor aparece en la
muestra. Estas medidas constituyen los parámetros de la distribución.
En aras de simplificar, veremos sus formas de cálculo en cada distribución en
particular que estudiaremos seguidamente.
3.4 La distribución Binomial.
Entre las distribuciones de probabilidad discretas, una de las más empleadas es la
Binomial, por estar asociada a problemas de muestreo. Para realizar su estudio
comenzaremos por una distribución más simple, cuyos parámetros serán
utilizados para determinar la ley de probabilidad Binomial, esta es la llamada
distribución Bernoulli.
En la práctica diaria, se presentan muchos problemas cuyo resultado, solo puede
ser uno de dos categorías posibles, mutuamente excluyentes. Por ejemplo, vida o
muerte, enfermo o no, varón o hembra, fuma o no, etc. Esta clase de
experimentos, recibe el nombre de experimentos Bernoulli y sus resultados suelen
denominarse como éxito y fracaso. La asignación del éxito o fracaso a las
categorías originales, depende de los objetivos y de las características del
experimento en particular, no existen reglas precisas al respecto. Pero sí es muy
importante definirlo adecuadamente y de forma clara, pues de esto dependerá la
interpretación de los resultados, como verá más adelante.
En este caso las categorías de la variable original serán denotadas por 0 y 1,
usando el valor 1 para el éxito.
Ejemplo 6
El sexo de un recién nacido puede considerarse como un experimento Bernoulli,
quedando conformada la siguiente variable aleatoria X:
1 = varón
X =
0 = hembra
155
La probabilidad de ocurrencia de cada resultado, será precisamente, la
probabilidad de éxito y la probabilidad de fracaso, denotadas por las letras p y q
(minúsculas), respectivamente. De modo que:
p = P(X = 1)
p + q = 1 por lo tanto: q = 1 - p
Pues p y q son las probabilidades de sucesos mutuamente excluyentes y q es el
complemento de p.
El valor esperado y la varianza de esta distribución Bernoulli son:
E(X) = p y V(X) = pq
Ahora bien, cuando repetimos n veces un experimento Bernoulli, de forma
independiente, en cada uno de ellos obtendremos uno de los dos resultados
posibles: éxito o fracaso. Así, podemos estar interesados en conocer la
probabilidad de ocurrencia de un número k de éxitos, en n repeticiones del
experimento. Para esto se construye una variable Binomial, que puede ser
definida como sigue:
Variable aleatoria Binomial: es el número de éxitos obtenidos en n repeticiones
independientes de un experimento Bernoulli. La que sigue una ley de distribución
Binomial con parámetros n y p. Y se denota como:
X ~ B (n, p)
Donde: n = número de repeticiones.
p = probabilidad de éxito, la cual se mantiene constante a través de
las n repeticiones.
Esta variable tomará valores entre 0 y n, es decir el número de éxitos puede ser
ninguno (cero), uno, dos, y así sucesivamente hasta n (todos). Su valor esperado
y varianza están dados por:
E(X) = np y V(X) = npq
El número de éxitos esperado, E(X), será el producto de la cantidad de
repeticiones por la probabilidad de ocurrencia de un éxito, esto es algo bastante
intuitivo.
Retomemos el ejemplo 1.2.1, la variable X definida como el número de varones
en tres nacimientos, es una variable Binomial, si consideramos el nacimiento de
un varón como el éxito (lo cual es así en algunas regiones). En este caso n = 3, el
número de nacimientos, y p = 0.5, recuerda que asumimos que la probabilidad de
nacer varón era similar a la de nacer hembra, e igual a 0.5, por tanto esta variable
se distribuye Binomial con parámetros 3 y 0.5.
156
X ~B (3, ½)
A su vez X = {0, 1, 2, 3} y su valor esperado y varianza serán:
E(X) = 3∗½ = 3/2 = 1.5 V(X) = 3/2∗1/2= ¾=0.75
Esto es absurdo, pues es imposible que nazca un varón y medio, pero se debe
tener en cuenta que esta es una operación matemática con un número
fraccionario (probabilidad), por lo que un resultado como éste no es nada raro,
entonces utilice el sentido común y realice la aproximación correspondiente.
Este ejemplo es poco ilustrativo dado el pequeño número de repeticiones,
aumentemos los nacimientos a 100, ahora el valor esperado será
aproximadamente de 50 varones por cada 100 nacimientos.
También pueden calcularse las probabilidades de que ocurran k nacimientos
varones, P(X=k), lo cual nos puede servir en la práctica, para planificar algún
servicio en particular que se relacione con el sexo.
Estos cálculos se realizan mediante una fórmula matemática no muy compleja,
pero escapa del alcance de este texto. Por otro lado, existen valores de
probabilidad tabulados para diferentes valores de n y p, que podrá encontrar en la
bibliografía citada al final del tema, con explicaciones sencillas de cómo usarlas.
3.5 La distribución de Poisson.
Esta distribución teórica ha sido ampliamente usada en Biología y Medicina.
Constituye, junto a la Ley Binomial, las distribuciones discretas más comúnmente
empleadas.
La distribución de Poisson es el resultado de un conjunto de suposiciones acerca
de un proceso implícito para formar un conjunto de observaciones numéricas.
Este proceso surge al contar el número de eventos o sucesos, distribuidos al azar,
que ocurren en un espacio o intervalo de tiempo dado. Cumpliendo los siguientes
requisitos:
− Las ocurrencias de los eventos son independientes, es decir, la
ocurrencia de un evento en un intervalo de tiempo o espacio, no
tiene efecto en la probabilidad de una segunda ocurrencia del evento
en el mismo o en algún otro intervalo.
− Es posible la ocurrencia del evento, teóricamente, un número infinito
de veces dentro del intervalo.
− La probabilidad de una sola ocurrencia del evento en un intervalo
dado es proporcional a la dimensión del intervalo.
− En cualquier fracción infinitesimal (muy, pero que muy pequeña) del
intervalo, la probabilidad de más de una ocurrencia del evento es
insignificante.
157
De esta forma:
Una variable que se distribuyePoisson se define como el número de veces que
ocurre un evento en un intervalo de tiempo o en un espacio dado. Se denota como:
X ∼ P (λ)
Se lee: la variable12 X se distribuye Poisson con parámetro lambda. Donde lambda
(λ), es el número promedio de ocurrencias por unidad de tiempo. A la vez que
constituye el valor esperado y la varianza de la distribución.
E(X)= λ V(X)= λ
Esta distribución es una aproximación a la Binomial para el caso de n muy grande
y p muy pequeña de forma tal que λ = np no sea una magnitud grande. Se
plantea que la aproximación es buena cuando np ≤ 5.
Existen fórmulas para calcular la probabilidad de cualquier número de eventos,
pero no es necesario que la utilice, en la práctica se emplean los valores tabulados
para diferentes valores de lambda, que podrá encontrar en la bibliografía citada al
final del tema. Ilustremos con un ejemplo.
Ejemplo 7
El número de personas que acuden al cuerpo de guardia de un policlínico, con
crisis aguda de asma bronquial, entre las 12 de la noche y las 6 de la mañana,
constituye una variable aleatoria que sigue aproximadamente un proceso Poisson.
El parámetro lambda, en este caso, está determinado por el número promedio de
casos por intervalo, el cual se obtiene de la observación anterior de ese fenómeno.
Esta información es útil para la dirección de dicho centro, pues conociendo las
probabilidades de ocurrencia de k número de casos por intervalo de tiempo
pueden planificar el abastecimiento de medicamentos destinados al tratamiento de
esta enfermedad, además de hacer pronósticos y predicciones.
3.6 La distribución normal.
Hasta el momento hemos visto distribuciones de probabilidad discretas, veamos a
continuación algunas distribuciones de variables continuas, entre las que la
distribución normal constituye la más empleada en estadística.
La mayoría de las variables continuas que se presentan en la práctica diaria (peso,
talla, colesterol sanguíneo, presión arterial, etc.), pueden ser modeladas mediante
esta distribución13, a pesar de que ellas no siguen exactamente una distribución
12 Se habrá fijado que usamos casi siempre la letra X para denotar a las variables,
esto lo hacemos por comodidad, cuando se trabaja con más de una variable en un
mismo ejercicio entonces es necesario diferenciar.
13 Streiner y Norman (1998) plantean que las distribuciones estrictamente
normales son tan raras en la naturaleza como los dientes de gallina.
158
normal. Además, la ley normal tiene gran interés en estadística inferencial, pues
sirve como modelo para describir la distribución muestral de las medias, como
veremos en los temas siguientes. También, muchos de los estadígrafos
empleados en los contrastes de hipótesis, que trataremos en temas posteriores,
siguen esta distribución, a la vez que muchos de los tests estadísticos que
veremos, dan por supuesto que los datos provienen de una distribución normal.
La distribución normal está definida como la función de distribución de
probabilidad de una variable X, cuya representación gráfica se muestra en la figura
1.6.1, y se denota por:
X ∼ N (µ, σ2 )
Donde:
µ es la media aritmética o valor esperado
σ2 es la varianza
Figura 1.6.1 – Representación gráfica de la función de densidad de la
distribución Normal.
Como se aprecia en la figura 1.6.1, la curva normal tiene forma de campana y
como toda función de densidad de probabilidad el área bajo la curva es igual a 1.
De aquí podemos deducir las características fundamentales de esta distribución:
1. Es simétrica respecto a la media
2. Tiene su punto máximo en la media
3. La media, la mediana y la moda son iguales entre sí
4. El área total bajo la curva es igual a 1 y como es simétrica, el 50% del área
está a la derecha e izquierda de la media.
5. Siempre es positiva
6. Las colas de la curva están cada vez más próximas al eje x a medida que
nos alejamos de la media, pero nunca lo alcanzan.
7. Si se levantan dos perpendiculares a una distancia de una desviación
estándar desde la media hacia ambos lados, el área delimitada por la curva,
el eje x y las perpendiculares será aproximadamente del 68%. Si hacemos
159
lo mismo pero con dos desviaciones estándar, el área será
aproximadamente del 95%.
8. Los parámetros µ (mu) y σ (sigma), determinan completamente la forma de
la distribución. Para cada valor de µ y σ habrá una distribución normal
diferente. Así vemos en la figura 1.6.2 que diferentes valores de µ,
trasladan la curva horizontalmente sobre el eje X, mientras que σ,
determina el grado de apuntamiento de la curva (a menor desviación
estándar, menos dispersión alrededor de la media y por lo tanto más alta la
curva) figura 1.6.3.
Figura 1.6.2 – Tres distribuciones normales con diferentes medias pero
igual variabilidad.
Figura 1.6.3 - Tres distribuciones normales con diferentes desviaciones
estándar y con la misma media.
Para calcular áreas bajo la curva normal y así calcular las probabilidades de que la
variable X tome valores en un intervalo dado, se hace necesario el uso de
integrales. Pero en la práctica esto se hace fácilmente utilizando tablas
estadísticas.
Como podrá suponer, no existen tablas para cada una de las posibles
distribuciones que se pueden presentar en la práctica, la solución a esta
problemática es la existencia de una distribución normal especial, llamada Normal
160
estándar o típica, que se caracteriza por tener media cero y varianza uno, figura
1.6.4. Ésta se denota por:
X ∼ N (0, 1)
Los valores de probabilidad para esta distribución se encuentran tabulados, y a
partir de ella se pueden obtener los valores correspondientes a cualquier otra
distribución normal, mediante la estandarización. La tabla A del Apéndice, es una
muestra de estas tablas.
Figura 1.6.4 - Áreas bajo la curva normal estándar.
Así, cualquier variable aleatoria que se distribuya aproximadamente normal, puede
ser estandarizada y transformada en una normal estándar, mediante la siguiente
fórmula:
σ
µ−
=
XZ ~ N (0, 1)
Entonces, a cada valor de X se le hace corresponder un valor de la distribución
normal estándar cuyas probabilidades son equivalentes, ya que:
X ~ ( )
σ
µ−
=⇒σµ
XZN 2, ~ N (0, 1)
A continuación, veremos varios ejemplos de cálculo de probabilidades utilizando la
tabla de valores de la normal estándar, pero antes debe recordar, que en la
distribución normal, como en toda distribución continua, la probabilidad para un
valor específico de X es cero, lo que se halla es la probabilidad para intervalos.
Así tenemos, que se pueden calcular las probabilidades de que la variable X tome
valores en un intervalo (a, b), P(a ≤ X ≤ b), o para cualquier otro intervalo, por
ejemplo P(X≤a), P(X≤b), P(X≥a), etc. Algunas de las cuales se encuentran
representadas en la figura 1.6.5.
161
Figura 1.6.5 – Subdivisiones del área bajo la curva normal
Ilustremos el uso de la tabla A del Apéndice. En esta tabla se muestra el área a la
derecha de cualquier valor que tome la variable Z (normal estándar), como se
representa en la figura adjunta a la tabla. Vemos que la columna de la izquierda,
se corresponde con los valores de z, mientras que en la derecha, encontramos
los valores correspondientes al área bajo la curva, a la derecha de z. Fíjese que le
damos los valores de z solo con un decimal, pero debe saber que existen tablas
mucho más explícitas.
Veamos, si queremos conocer el área a la derecha de z = 0.1, miramos en la
columna derecha que le corresponde un valor de 0.4602, este se interpreta como
la probabilidad de que la variable Z tome valores mayores o iguales que 0.1, P(Z ≥
0.1).
Ahora, si quisiera saber ¿cuál es la probabilidad de valores menores o iguales a
0.1, P (Z ≤ 0.1)?, que problema, la tabla no tiene esa información. Ah! Sabe como
resolvemos esto, muy simple, recuerde que esta es una distribuciónsimétrica,
además el área bajo la curva es igual a 1, entonces:
P (Z ≤ 0.1) = 1- P(Z ≥ 0.1)
P (Z ≤ 0.1) = 1- 0.4602 = 0.5398
Otro problema, la tabla solo da los valores para Z ≥ 0, ¿cómo calcular el área a la
derecha de un valor de Z negativo?. Nada complicado, ya sabe que se trata de
una distribución simétrica y que a ambos lados de la media se encuentra el 50%
del área, por lo tanto:
P(Z ≤ -z)= P(Z ≥ z)
Entonces P(Z ≤ -0.1) = 0.4602
Mire que curioso, la probabilidad de Z menor que –0.1 es igual a la probabilidad
de Z mayor que 0.1, esto lo verá mejor en la figura 1.6.6
Ahora, la probabilidad de Z mayor que – 0.1 es igual a la probabilidad de Z menor
que 0.1. Parece un trabalenguas, pero si se fija en las figuras entenderá
perfectamente.
P(Z ≥ -0.1) = P(Z ≤ 0.1)
162
Figura 1.6.6 Distribución normal estándar
A modo de resumen le doy algunas reglas básicas para esta tabla14.
P(Z ≥ z) = valor tabulado
P(Z ≤ z) = 1 – P(Z ≥ z)
P(Z≥ - z) = P(Z ≤ z)
P(Z ≤ - z) = P(Z ≥ z)
Estas sólo son algunas reglas que te brindamos, pero existen muchas otras
formas de obtener los mismos resultados, debes usar tu sentido común e
improvisar. Juguemos un poco con la tabla para que te entrenes en su uso:
Probabilidad de que Z sea menor que 1: Es el área a la izquierda de 1, se
denota como:
P(Z ≤ 1) = 1- P(Z ≥ 1) = 1-0.1587 = 0.8413.
Se representa en la figura 1.6.7
Probabilidad de Z mayor que 2 pero menor que 3:
P(2 ≤ Z ≤ 3) = P(Z ≥ 2) – P(Z ≥ 3)
Es decir, necesitamos el área entre la curva, el eje x y dos perpendiculares en los
valores 2 y 3. La tabla da el área total a la derecha de z = 2, entonces le resto el
“pedacito” correspondiente al área a la derecha de z = 3 y obtengo el área entre 2
y 3. Figura 1.6.8
P(2 ≤ Z ≤ 3) = 0.02275 – 0.00135 = 0.0214
Probabilidad de Z mayor que –1 y menor que 1.5:
P(-1 ≤ Z ≤ 1.5) = P(Z ≥ -1) – P(Z ≥ 1.5)
=1 - P(Z ≥ 1) - P(Z ≥ 1.5)
14 Si utiliza otra tabla puede ser diferente, esto depende del área que esté
tabulada, si la izquierda o la derecha. A la vez que domina una, entiende
cualquiera.
163
=1 – 0.1587 – 0.0668 = 0.7745
Ver figura 1.6.9
Ahora ya puede calcular probabilidades de otras distribuciones normales, es decir,
estandarizando las variables.
Figura 1.6.7 Probabilidades de (Z ≥ 1) y (Z ≤ 1)
Figura 1.6.8 – Curva normal estándar. Probabilidad de (2 ≤ Z ≤ 3)
Figura 1.6.9 – Curva normal estándar. P(-1≤ Z ≤ 1.5)
Ejemplo 9
Se conoce que las cifras de glucosa en sangre tienen una distribución
aproximadamente normal, con media 100 (mg/100 mL) y desviación estándar 40.
164
¿Cuál es la probabilidad de que al seleccionar una persona de dicha población
tenga su nivel de glucosa por encima de 120?
Primero, la variable X se define como el nivel de glucosa en sangre de las
personas. Ésta se distribuye normal:
X ~ N(100, 1600)
Nos piden la probabilidad de X mayor que 120: P(X ≥ 120). Tenemos que
estandarizar la variable:
Z = (120 – 100) /40 = 20/40 = 0.5
Entonces la P(X ≥ 120) = P (Z ≥ 0.5) y por lo tanto:
P(X ≥ 120) = 0.3085
R/ La probabilidad de que al seleccionar una persona de dicha población su nivel
de glicemia sea mayor que 120 es del 30.85 %. Figura 1.6.10
Figura 1.6.10 – Equivalencia entre el área de la curva normal (0, 1) y la
normal (100,1600)
Aunque la importancia de esta distribución en el campo de la estadística es
indiscutible, podrás darse cuenta que no es una ley inherente a todas las variables
continuas que conoces. A pesar de que muchas de ellas tienen una distribución
aproximadamente normal, no es posible encontrar en la naturaleza una
distribución exactamente normal, no obstante al utilizar la ley normal para modelar
estas variables, es posible establecer afirmaciones de probabilidad más útiles y
convenientes que si empleáramos una distribución más compleja.
Relación entre la distribución Normal, Binomial y de Poisson.
Cuando en una distribución Binomial n es grande y p y q no están muy cercanas a
cero, ésta puede aproximarse a la distribución normal, lo que facilitaría
enormemente los cálculos de probabilidades asociadas. Observe en la figura 1.3.2
que si unimos los extremos superiores de cada barra vertical, obtenemos una
curva parecida a la normal.
165
Entonces, en la medida que n aumenta y p se mantiene constante, la
aproximación será cada vez mejor. De forma general se plantea que hay buena
aproximación cuando n es mayor o igual que 30. Si p está cercana a 0.5, se
considera bueno un tamaño muestral incluso mayor que10, en la medida que p se
aleja de 0.5, se necesitarán mayores tamaños muestrales.
Ahora bien, sabemos que la distribución de Poisson es una aproximación a la
Binomial cuando n es grande y p es pequeña, por lo tanto también puede ser
aproximada a la normal.
3.7 Otras distribuciones de probabilidad.
Además de las distribuciones ya estudiadas, existen otras de amplio uso en
estadística inferencial, entre las que se destacan la t de Student y la Ji cuadrado
(χ2), muy usadas ambas en la realización de pruebas de hipótesis y en la
construcción de intervalos de confianza, como veremos más adelante.
A continuación abordaremos, brevemente, las características principales de cada
una de ellas.
La distribución Ji cuadrado (χ2)
Esta distribución deriva de la distribución normal. Surge cuando tenemos n
variables independientes, que siguen aproximadamente una distribución normal
estándar (X1, X2,.., Xn). La variable resultante de sumar los cuadrados de éstas,
sigue una distribución Ji cuadrado con n grados de libertad. Se denota como.
X ∼ χ2 (n gl)
Su representación gráfica puede verse en la figura 1.7.1, para diferentes grados de
libertad.
166
No necesariamente deben ser distribuciones normal estándar, también pueden ser
variables estandarizadas.
Figura 1.7.1 Representación gráfica de la función de densidad de la distribución Ji
cuadrado para diferentes grados de libertad.
Se trata de una función positiva, no puede tomar valores negativos, pues como
podrá suponer, se deriva de la suma de valores elevados al cuadrado. Su forma
depende de los grados de libertad, con tendencia a aproximarse a la curva normal
en la medida que aumentan los grados de libertad. Al igual que la normal y
cualquier distribución continua, el área bajo la curva es igual a 1, pero no es
simétrica.
Su valor esperado y varianza son:
E(χ2) = n y V(χ2) = 2n
Los grados de libertad se refieren, al número de términos independientes que es
necesario, para obtener el valor de la variable χ2.
Una propiedad importante, es que la Ji cuadrado con un grado de libertad, es igual
al cuadrado de la normal estándar.
Esta distribución es muy empleada para probar hipótesis, cuando los datos están
en forma de frecuencias. Estos procedimientos se estudian bajo el título de
pruebas de bondad de ajuste, como verá en cursos posteriores. Siendo más
adecuado su uso, cuando estamos en presencia de variables categóricas.
La cantidad χ2, es una medida del grado de congruencia entre las frecuencias
observadas y las esperadas, bajo el cumplimiento de una hipótesis dada, esto lo
entenderá mejor cuando veamos la aplicación concreta de dicha distribución.
167
Por ahora, baste que conozca que existen tablas con los valores de los percentiles
de esta distribución, para diferentes magnitudes de n. La tabla C del Apéndice es
un ejemplo de éstas. Como puede ver están representados los valores de algunos
percentiles15 de χ2 para diferentes grados de libertad. Por ejemplo, el percentil 95
de la χ2 con 12 gl = 21.0
La distribución t de Student.
Este modelo teórico, al igual que la Ji cuadrado, se deriva del modelo normal, pero
es un proceso algo complejo. Se denota por la letra t minúscula, y su forma
gráfica se representa en la figura 1.7.2.
Figura 1.7.2 – Función de densidadde la distribución t de Student con un grado de
libertad.
Como puede ver es muy similar a la curva normal estándar, pero más dispersa, su
media también es cero. Es simétrica respecto a la media, su forma depende de los
grados de libertad, así en la medida que aumentan los grados de libertad mayor es
la aproximación a la normal. Los grados de libertad tienen el mismo significado
que en la Ji cuadrado.
Puede tomar valores tanto positivos como negativos, y al igual que toda
distribución continua, el área bajo la curva es igual a uno.
Su valor esperado y varianza:
E(t) = 0 y V(t) =
2n
n
−
Al igual que la Ji cuadrado existen tablas con los percentiles de ella, los que son
empleados en las pruebas de hipótesis y en la construcción de intervalos de
confianza. La tabla B del Apéndice es un ejemplo de estas tablas, en ella se
muestran los valores de la distribución t para diferentes grados de libertad,
15 Los más frecuentemente usados para pruebas de hipótesis.
168
correspondientes a los percentiles más empleados en inferencia estadística,
veremos su uso en la medida que sea necesario y así se entenderá mejor.
Bibliografía
1. Armitage P, Berry G. Statistical Methods in Medical Research. 3rd ed.
Oxford: Blackwell Scientific Publications, 1994
2. Altman DG. Practical statistics for medical research. London: Chapman
and Hall. 1992
3. Daniel WW. Bioestadística. Base para el análisis de las ciencias de la
salud. 3ra edición. México. D. F: Limusa; 1997
4. Norman GR, Streiner DL. Bioestadística. España: Hartcourt Brace; 1998
5. Spiegel MR. Teoría y problemas de Estadística. La Habana: Pueblo y
educación; 1977
6. Doménech Massons, JM. Métodos estadísticos en ciencias de la salud.
Unidad didáctica 3. Barcelona: Signo; 1995
7. Swinscow, TVD. Statistics at square one. 9th edition. BMJ publishing
group; 1997
8. Dawson-Saunders B, Trapp R G. Bioestadística. 2da ed. El manual
moderno. México; 1999.
9. Mtnez Canalejo H. Principios Básicos de la Teoría de Probabilidades.
Ed. Pueblo y Educación. La Habana; 1989
10. Armitage P, Berry G. Estadística para la Investigación Biomédica.
Doyma, Barcelona, 1992.
11. Hamilton LC. Modern Data Analysis. Brooks/Cole Publishing Company,
Pacific Grove, 1990.
12. Martín Andrés A, Luna Del Castillo JD. Bioestadística para las Ciencias
de la Salud. Norma, Granada, 1994.
13. Marascuilo LA, Serlin RC. Statistical Methods for the Social and
Behavioral Sciences. W.H. Freeman and Company, Nueva York, 1988.
14. Versión electrónica del manual de la Universidad de Málaga.
Bioestadística: métodos y aplicaciones. Málaga; 1998.
169
Tema 4 - Introducción a la Inferencia Estadística
Generalmente, al realizar un estudio se desea arribar a conclusiones acerca de la
naturaleza de una población. Al ser la población grande y no poder ser estudiada
en su integridad en la mayoría de los casos, las conclusiones obtenidas deben
basarse en el examen de solamente una parte de ésta, lo que nos lleva, en primer
lugar a la justificación, necesidad y definición de las diferentes técnicas de
muestreo, estudiadas en el tema anterior. Toca el turno al proceso de
generalización, la inferencia estadística.
La inferencia estadística es el procedimiento por medio del cual se llega a
conclusiones acerca de una población mediante los resultados que se obtienen a
partir de una muestra extraída de ella.
Pero, existe un inconveniente a la hora de dar estas conclusiones: el error
aleatorio. Cualquier medición basada en una muestra de individuos presentará
alguna diferencia respecto del verdadero valor como consecuencia de la
aleatoriedad del proceso.
El investigador solo estudia una de las posibles muestras que pueden obtenerse
de la población objeto de estudio. Y en cada una de éstas, la variable de interés
puede presentar diferentes valores simplemente por azar. Las técnicas
estadísticas se basan en el hecho de que esta variabilidad propia del muestreo,
sigue unas leyes conocidas, por lo que puede ser cuantificada.
La Estadística inferencial permite determinar la probabilidad de que una
conclusión sacada a partir del análisis de los datos de una muestra sea cierta,
siempre que se hayan utilizado métodos apropiados para la selección de la
muestra.
En este tema introducimos los elementos de estadística inferencial necesarios
para realizar este proceso de generalización de la muestra a la población, que se
aplicarán a dos indicadores particularmente sencillos y muy empleados: la media y
la proporción.
Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M.
Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.
170
4.1 - Distribuciones muestrales.
El primer término al que debemos hacer referencia es el de estimador.
Dentro de este contexto, será necesario asumir un estimador como una variable
aleatoria con una determinada distribución, que se expresa en función de la
muestra estudiada, con el objetivo de aproximar el valor de un parámetro
poblacional desconocido; y que será la pieza clave en las dos amplias categorías
de la inferencia estadística: la estimación y el contraste o prueba de hipótesis.
El concepto de estimador, como herramienta fundamental, lo caracterizamos
mediante una serie de propiedades que nos servirán para elegir el ``mejor" para
un determinado parámetro de una población, así como algunos métodos para la
obtención de ellos, tanto en la estimación puntual como por intervalos. Esto lo
veremos más adelante.
Es de vital importancia que entiendas claramente en qué consisten las
distribuciones muestrales, ya que este concepto es la clave para comprender la
inferencia estadística. Así pues, la distribución muestral de un estimador se ha
definido como sigue.
La distribución de frecuencias de todos los valores posibles que puede asumir un
estimador, calculados a partir de muestras del mismo tamaño, extraídas
aleatoriamente de la misma población, se llama distribución muestral de ese
estimador.
Podemos referirnos a una distribución de medias, de proporciones, de varianzas,
etc.
Las distribuciones muestrales pueden construirse empíricamente a partir de
poblaciones finitas y discretas. Mediante el siguiente procedimiento:
1. De una población finita de tamaño N, se extraen de manera aleatoria
todas las muestras posibles de tamaño n.
2. Se calcula el estimador de interés para cada muestra.
3. Se listan en una columna los diferentes valores observados del
estimador y en otra columna las frecuencias correspondientes de cada
valor observado.
171
Como es de suponer, esto en la práctica es una tarea colosal y en el caso de
poblaciones infinitas es imposible. Por tanto este problema debe ser resuelto por
medio del uso de la Matemática. Pero no se asuste que los procedimientos
aplicados para ello no vamos a analizarlos en este texto. Baste saber que las
distribuciones muestrales pueden deducirse matemáticamente.
Ahora bien, para cualquier distribución de probabilidad se tiene interés en conocer
tres cosas básicas: su valor esperado (media), la varianza y su apariencia gráfica.
En este punto cabe señalar que todos los procedimientos de estadística inferencial
se basan en el supuesto de muestreo simple aleatorio, sin importar que se haya
empleado otro método de selección, lo que se considera por algunos como una
deficiencia de esta rama de la estadística, y en estos momentos se encuentra en
proceso de discusión y análisis por los grandes estadísticos. Dejemos que ellos se
ocupen de ese problema y sigamos nosotros con nuestro tema.
Pues bien, dado que se trata de muestras elegidas al azar, lo más frecuente es
que los valores promedio observados (proporción p y media x ) sean valores
cercanos a los verdaderos parámetros de la población (proporción π y media µ).
No obstante, el error aleatorio propio del muestreoproduce algunas muestras con
valores de p y x alejadas de π y µ respectivamente.
Note que a los valores muestrales de la variable se les denota por letras romanas
mientras que a los parámetros poblacionales con letras griegas, esto evita
confusiones y favorece la comprensión de los conceptos que se definirán más
adelante.
En el siguiente cuadro se brinda una lista de la nomenclatura utilizada.
Término
estadístico Muestra Población
Media x µ (mu)
Proporción p π (pi)
Desviación
estándar s
σ (sigma)
Diferencia D δ (delta)
Esperamos que sirva de guía y no haya confusión a lo largo del tema, a partir de
ahora emplearemos esta nomenclatura.
172
4.1.1 - Distribución muestral de la media.
Apliquemos el concepto de distribución muestral, introducido anteriormente, al
caso concreto de la media muestral.
La distribución de frecuencias de las medias x observadas en todas las muestras
posibles de tamaño n, extraídas al azar de una población de media µ y varianza σ2
conocidas, recibe el nombre de distribución muestral de medias.
Como vimos en el tema anterior, la media muestral bajo el supuesto de muestreo
sucesivo de tamaño n de una población con N elementos, se convierte en una
variable aleatoria que sigue una distribución normal.
x ∼ N ( µ,
n
2σ )
Esta distribución tiene las siguientes características:
1. Su valor esperado es igual a la media poblacional
E ( x ) = µ
2. Su varianza es igual a:
Var ( x ) =
n
2σ
3. El error estándar de la media muestral viene dado por:
EE x =
nn
σσ
=
2
4. Su representación gráfica se muestra a continuación en la figura 4.1.1.
Figura 2.1.1 – Distribución de la media muestral y la respectiva distribución
normal.
173
En la medida que aumenta el tamaño de muestra la variabilidad de la media tiende
a disminuir y por lo tanto la curva tiende a ser más aguda.
Es importante señalar que la media muestral sigue una distribución normal cuando
la distribución de la variable en la población sigue una ley normal, y cuando el
tamaño de muestra n es grande aunque la distribución de la variable en la
población no siga una ley normal. Esto se debe al teorema central del límite, que
explica las leyes de los errores causales, según la cual, cuando el error asociado a
un determinado fenómeno es el resultado de muchos errores independientes, se
observa que la distribución de ese error es parecida a la ley normal. Esta ley fue
descubierta por De Moivre.
El significado de la distribución de De Moivre reside en que la suma de una gran
cantidad de variables aleatorias independientes, arbitrariamente distribuidas,
siempre tiene una distribución aproximadamente normal. La distribución de dicha
suma será más cercana a la normal cuanto mayor sea el número de variables
aleatorias.
Este teorema constituye la razón por la cual muchas distribuciones muestrales
pueden aproximarse por la ley normal a partir de un cierto tamaño de muestra.
Al llegar a este punto surge una pregunta lógica. ¿Cuán grande debe ser la
muestra para que el teorema central del límite sea aplicable? Una regla empírica
establece que, en la mayoría de las situaciones prácticas, una muestra de tamaño
30 es suficiente.
El conocimiento de la distribución muestral de la media y de sus características, es
muy importante cuando se desea realizar inferencias a partir de medias, ya sea
comparar las medias de dos poblaciones o comparar una media con una magnitud
específica, como veremos en las próximas secciones.
4.1.2 Distribución muestral de la proporción
Ya vimos el caso en que la variable era continua y por tanto el estadístico de
interés era la media, veamos ahora cuando estamos interesados, como sucede
frecuentemente, en una característica categórica, siendo la proporción muestral el
estadístico para estas situaciones.
La distribución muestral de la proporción se puede obtener experimentalmente de
la misma forma que vimos para la media. Lo cual prácticamente no se realiza,
claro está.
174
Así tenemos que:
El conjunto de los valores de una proporción p, observados en todas las posibles
muestras de tamaño n, extraídas aleatoriamente, de una población de N
elementos con proporción π, recibe el nombre de distribución muestral de la
proporción.
Esta distribución sigue una ley Binomial con las siguientes características:
1. Su valor esperado es igual a la proporción poblacional
E (p) = π
2. Su varianza es igual a:
Var (p) = ( )
n
ππ −1
3. El error estándar de la proporción p está dado por:
EEp = ( )
n
ππ −1
Pero, cuando la muestra es grande, la distribución de las proporciones de la
muestra es aproximadamente normal de acuerdo al teorema central del límite.
Considerándose en la práctica que la distribución de las proporciones muestrales
observadas se aproxima satisfactoriamente a una ley normal de media π y
varianza ( )
n
ππ −1 , si el tamaño muestral cumple que nπ ≥ 5 y n (1- π) ≥5.
De aquí se deduce que en la medida que π se acerque a 0.5 el tamaño de muestra
necesario será menor que cuando está cerca de 0 o de 1. De forma general se
considera adecuado un tamaño muestral de 50 o más.
Al igual que en el caso de la media, el conocimiento de todos estos elementos
son muy útiles al hacer inferencias sobre proporciones, como veremos en las
próximas líneas.
4.1.3 – Distribución muestral de la diferencia entre medias y proporciones.
Vimos las distribuciones de la media y la proporción, pero resulta de interés
conocer que sucede con las diferencias entre medias y entre proporciones. Es
muy simple, veamos.
A menudo estamos interesados en comparar dos poblaciones en cuanto a una
variable en particular. Cuando ésta es continua estamos entonces interesados en
175
la diferencia entre las medias de dicha variable para ambas poblaciones, si la
variable es categórica, entonces nos interesa la diferencia entre las proporciones
correspondientes, es decir.
)( 21 xx − y ( p1 - p2 ) respectivamente.
Ahora bien, estas diferencias bajo el supuesto de muestreo sucesivo del mismo
tamaño16, de cada población, se comportarán como variables aleatorias que
siguen una distribución de probabilidades conocida.
En el caso de las medias, sigue una distribución normal con media igual a la
diferencia entre ellas a escala poblacional (µ1 - µ2) y varianza igual a la suma de
las varianzas de cada media:
)( 21 xx − ∼ ( ) ⎟⎟
⎠
⎞
⎜
⎜
⎝
⎛
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛ σ
+
σ
µ−µ
2
2
2
1
2
1
21 ,N nn
De forma análoga, en el caso de las proporciones tenemos que sigue una
distribución aproximadamente normal si los tamaños muestrales n1 y n2 son
grandes.
(p1 – p2) ∼N ( )
( ) ( )
⎟⎟
⎟
⎠
⎞
⎜⎜
⎜
⎝
⎛
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛ π−π
+
π−π
π−π
2
22
1
11
21
11
,
nn
4.2 - Estimación de parámetros.
En esta sección analizaremos la estimación, que es la primera de las dos áreas
generales de la Estadística inferencial, la segunda, pruebas de hipótesis, la
estudiaremos en la próxima sección.
El proceso de estimación implica calcular, a partir de los datos de una muestra,
algún estadístico que se ofrece como una aproximación del parámetro
correspondiente de la población de la cual fue extraída la muestra (media,
proporción, etc.).
Un parámetro es cualquier indicador descriptivo de una población.
Como vimos anteriormente, se denomina estimador de un parámetro, a la variable
aleatoria calculada a partir de la muestra aleatoria y que tiene por objetivo
aproximar el valor del parámetro poblacional desconocido.
16 Se refiere al mismo tamaño de muestra para cada población, pudiendo ser
diferentes de una población a la otra.
176
Observe que el estimador no es un valor concreto sino una variable aleatoria, ya
que aunque depende unívocamente de los valores de la muestra observados, la
elección de la muestra es un proceso aleatorio.Una vez que la muestra ha sido
elegida, se denomina estimación al valor numérico que toma el estimador sobre
esa muestra.
Entre las características deseables para esta nueva variable aleatoria (que
usaremos para estimar el parámetro desconocido) tenemos las siguientes:
− Consistencia: Cuando el tamaño de la muestra crece arbitrariamente, el
valor estimado se aproxima al parámetro desconocido.
− Carencia de sesgo: El valor medio que se obtiene de la estimación para
diferentes muestras debe ser el valor del parámetro.
− Eficiencia: Al estimador ser una variable aleatoria, no puede exigírsele
que para una muestra cualquiera se obtenga como estimación el valor
exacto del parámetro. Sin embargo podemos pedirle que su dispersión
con respecto al valor central (varianza) sea tan pequeña como sea
posible.
− Suficiencia: El estimador debería aprovechar toda la información
existente en la muestra.
Veremos que es posible calcular dos tipos de estimaciones para cada uno de
estos parámetros: una estimación puntual y una estimación por intervalos.
Una estimación puntual es un solo valor numérico empleado para estimar el
parámetro correspondiente de la población.
Una estimación por intervalos o confidencial consta de dos valores numéricos
que definen un intervalo que, con un grado de confianza específico, se considera
que incluye al parámetro por estimar.
Este parámetro será habitualmente una proporción en el caso de variables
dicotómicas, y la media o la varianza para variables continuas.
4.2.1 Estimación puntual
La estimación puntual es muy simple, consiste en escoger el mejor estimador para
el parámetro en cuestión.
La media de la muestra, la proporción de la muestra, la diferencia entre las medias
de dos muestras y la diferencia entre las proporciones de dos muestras, son cada
177
uno de ellos estimadores insesgados de sus parámetros correspondientes. Esta
propiedad está implícita cuando se dijo que los parámetros eran las medias de las
distribuciones muestrales correspondientes. Por lo que se les considera como la
estimación puntual de cada uno de estos parámetros.
Ahora bien, es muy importante considerar aquí algo que vimos en el tema anterior,
y es la diferencia que existe entre población objeto y población muestreada. La
población objeto es la que realmente se desea estudiar, mientras que la
muestreada es de la que se extrajo la muestra, no siempre ambas coinciden,
desafortunadamente. Los procedimientos de inferencia estadística permiten inferir
respecto a la población muestreada (siempre y cuando se hayan empleado
técnicas de muestreo correctas). Por lo que esto debe ser tenido muy en cuenta a
la hora de hacer las estimaciones.
4.2.2 Estimación confidencial (por intervalo).
La técnica de la estimación confidencial consiste en asociar a cada muestra un
intervalo que se sospecha que debe contener al parámetro. A éste se le denomina
intervalo de confianza.
La estimación confidencial ofrece una información más amplia que la simple
estimación puntual, lo cual suele ser muy ventajoso. Por ejemplo, dos
investigadores estiman la proporción de fumadores de la población donde reside
cada uno, construyen los siguientes intervalos de confianza (IC) al 95%:
Población A (56,4%; 63.6%)
Población B (23.5%; 96.5%)
En ambos casos la estimación puntual es del 60% (punto medio del intervalo), sin
embargo en la población A la estimación es mucho más precisa que en la B donde
la proporción de fumadores es un valor del amplio rango que va desde un 23.5%
hasta un 96 %. Si nos hubiéramos referido solamente a la estimación puntual
podíamos haber pensado que en ambas poblaciones la prevalencia de fumar es
similar. El IC nos ofrece además de la estimación puntual, información acerca de
la precisión con que hicimos nuestra estimación.
Evidentemente esta técnica no tiene por qué dar siempre un resultado correcto. A
la probabilidad de que hayamos acertado al decir que el parámetro estaba
contenido en dicho intervalo se la denomina nivel de confianza.
En la sección siguiente abordaremos el procedimiento para la construcción de IC
para los parámetros más usados. De esta forma se podrá comprender mejor los
conceptos antes expuestos.
178
4.3 Intervalos de confianza
Ya vimos en la sección anterior que la estimación de parámetros poblacionales
puede hacerse tanto de forma puntual como por intervalos, siendo esta segunda
forma más informativa es la preferida por muchos investigadores. A continuación
veremos cómo se pueden construir estos IC para algunos parámetros.
Los Intervalos de Confianza se construyen con la información obtenida en la
muestra estudiada, utilizando la estimación puntual de dicho parámetro, teniendo
en cuenta el error aleatorio o de muestreo y por supuesto la distribución muestral
del estimador.
4.3.1 Intervalo de confianza para la media
Si conocemos la media x , de una determinada variable continua, observada en
una muestra, sabemos que este valor es la mejor estimación puntual del
parámetro µ. No obstante, es deseable conocer su precisión, es decir, lo próximo
o alejado que x puede estar del verdadero valor µ. Como sabemos, la precisión
depende fundamentalmente del tamaño muestral: cuanto mayor sea el tamaño de
la muestra, más precisa será la estimación, y también depende de la variabilidad
de los datos, σ2.
Así pues, la estimación puntual de µ, y de cualquier parámetro, debe ir
acompañada de su precisión e, indicadora de las posibles diferencias entre el
valor estimado y el verdadero valor del parámetro.
De esta forma, el intervalo de confianza 1- α del parámetro µ, es el intervalo x ± e
alrededor de la estimación puntual x , que tiene una probabilidad grande (1- α) de
contener en algún punto del intervalo la desconocida µ.
Al valor 1- α, se le llama confiabilidad o nivel de confianza, suele ser
considerada como 0.95 (95%) o mayor, pues en estadística por convenio, se
considera que una probabilidad es grande cuando su valor es igual o superior a
0.95. Por su parte, el valor es un indicador del riesgo de que el intervalo de
confianza no contenga el verdadero valor del parámetro µ, fijándose
habitualmente en 0.05 (5%), α se denomina nivel de significación.
Recordemos que el error estándar de la media se define como:
EE x = n
σ
Y que el error de muestreo e se define, en este caso, como:
179
e =
n
Z σα 2
De aquí que el IC para µ esté dado por:
x ± e ⇒ x ±
n
Z σα 2
Donde Zα/2 es el valor de la distribución normal estándar que se corresponde con
un área a su izquierda igual a α/2, es decir, el valor de Z para el que se cumple que:
P (Z < z) = α/2. Este valor de Z recibe el nombre de percentil17 α/2.
Figura 2.3.1 Percentiles α/2 y 1- α/2 de la distribución normal estándar.
Veamos en la figura siguiente su representación gráfica.
La distribución normal es simétrica respecto a la media, y en el caso de la normal
estándar (µ=0) el percentil Zα/2 es igual al percentil Z 1 - α/2 solo con signos
diferentes.
-Z α/2 = Z 1 - α/2
Por ejemplo, para un valor de α igual a 0.05 (5%), α/2 = 0.025, significa que el área
bajo la curva normal a la izquierda de Zα/2 y a la derecha de Z1-α/2 es igual a 0.025.
Si buscas en la tabla A del Apéndice podrás ver que a este valor de probabilidad
le corresponde un valor de Z = -1.96 y 1.96 respectivamente, es decir los
percentiles 2.5 y 97.5 de la distribución normal estándar. Veamos el gráfico de la
figura 2.3.2.
17 Los percentiles son aquellos valores de la variable que dividen a una serie
ordenada de datos(en este caso la distribución) en 100 partes iguales, existiendo
entonces 99 percentiles.
180
Figura 2.3.2 – Áreas bajo la curva de la distribución normal estándar.
Al área comprendida entre estos dos percentiles se le llama región de confianza,
se correspondecon un IC al 95% para la normal estándar.
Es decir, cuando construimos un IC con una confiabilidad de 100(1- α) %, significa
que encontramos dos valores de esa distribución de manera tal, que entre ellos se
encuentra el 100(1 - α) % de los valores que toma la variable.
De forma similar puedes calcular los percentiles para otros valores de alfa, te
adelanto que para α = 0.01, el valor correspondiente de Z es 2.58 (percentil 99.5).
El procedimiento anterior para construir IC para la media, se basa en que la
variable original sigue aproximadamente una distribución normal y que se conoce
la varianza poblacional σ2. Esto en la práctica es casi imposible, es muy raro
conocer la varianza poblacional y no conocer la media, pues ésta es necesaria
para obtener la varianza. ¿Qué hacer?, gracias al teorema central del límite si la
muestra es grande (≥30) garantizamos que la distribución de las medias
muestrales sea aproximadamente normal, además el estadístico:
Z =
n/σ
µ-x
utilizado para estandarizar la distribución de las medias muestrales, sigue una
distribución normal, incluso en el caso de que no se conozca la varianza
poblacional σ2, siempre que el tamaño muestral sea grande, en estos casos se
sustituye el valor de σ2 por el de la varianza muestral s2.
En aquellos casos en que la muestra sea pequeña, no se conozca la varianza
poblacional σ2, y (o) la variable no sigue una distribución normal es necesario
emplear otras fórmulas para construir el IC para la media, que involucran a la
distribución t de Student. No se asuste que es muy similar a lo visto anteriormente,
sería así:
x ± e ⇒ x ± t (1 - α / 2)
n
s
Como se ve, la diferencia radica en el uso de s sustituyendo a σ, y en lugar del
percentil 1- α / 2 de la normal estándar usamos el mismo percentil pero de la
distribución t de Student con n-1 grados de libertad. Veamos un ejemplo.
181
Ejemplo 4.3.1
Se ha medido el volumen diario de bilis, expresado en litros, en 10 individuos
sanos, obteniéndose los siguientes resultados: 0,98; 0,85; 0,77; 0,92; 1,12;
1,06; 0,89; 1,01; 1,21; 0,77.
Estimemos la producción diaria media de bilis en individuos sanos suponiendo
que la muestra ha sido obtenida por muestreo aleatorio simple sobre una
población normal.
x = 9580
10
589 .. ==∑
n
x i
s2 =
( )
02131.0
2
=
−∑
n
xXi
Por lo tanto el error estándar de la media es:
EE x = 04620
10
1460 .. ==
n
s
Calculemos el error de muestreo, con una confiabilidad del 95%, teniendo en
cuenta que se trata de una muestra pequeña y no conocemos la varianza
poblacional:
xEEte )/( ×= α− 21 = 2.2622 x 0.0462 = 0.1045
El valor del percentil t 1 - α / 2, surge de buscar en la tabla B del Apéndice el valor
correspondiente de la distribución t para 9 (n – 1) grados de libertad, que el área
bajo la curva a su derecha es de (1 - α / 2), es decir, el percentil 97.5 para α igual a
5% y por tanto una confiabilidad del 95 %. Como podrás observar en dicha tabla
se muestran los valores de algunos percentiles de la distribución t para diferentes
grados de libertad.
Entonces un IC al 95% para la producción media de bilis poblacional será:
x ± e = 0.958 ± 0.1045 = (0.8535 ; 1.0625)
Note que el IC es bastante estrecho lo cual habla a favor de su precisión, a menor
amplitud mayor precisión. El error relativo es aproximadamente el 11% y se
calcula:
%91.10100*
958.0
1045.0
=
182
Se obtuvo esta precisión relativamente buena con tan pequeño tamaño muestral,
porque la variabilidad de las observaciones es pequeña. Veamos otro ejemplo.
Ejemplo 4.3.2
Un investigador está interesado en estimar el nivel promedio de una enzima, en
una población humana determinada. Para ello tomó una muestra de 25 sujetos y
obtuvo una media muestral x =22. Se sabe que los niveles de esta enzima
siguen una distribución normal con varianza σ2 = 45.
Con esta información podemos construir un IC al 95 % para la media poblacional
de dicha enzima. Podemos emplear la distribución normal pues se conoce la
varianza poblacional y la variable se distribuye normal. Entonces:
EE x = 3416.125
45
==
n
σ
e = Z 1 - α / 2 x EE x = 1.96 x 1.3416 = 2.63
El IC al 95 % para µ será:
x ± e = 22 ± 2.63 = (19.37 ; 24.63)
Siendo el error relativo del 12 % aproximadamente:
95.11100
22
63.2
=∗ ≈ 12 %
¿Cómo se interpretan estos intervalos de confianza? En estos ejemplos en que la
confiabilidad fue del 95 %, se dice que, al repetir el muestreo, aproximadamente el
95% de los IC construidos mediante las fórmulas vistas, incluyen la media
poblacional, esta es la interpretación probabilística. La interpretación práctica
plantea que se tiene un 100(1 - α) % de confianza de que el intervalo único
calculado, contenga la media poblacional. En el ejemplo 4.3.2 diremos que se
tiene un 95 % de confianza de que el nivel medio poblacional de dicha enzima se
encuentre entre 19.37 y 24.63.
Es importante tener en cuenta el error relativo, ya que nos indica el grado de
precisión de nuestras estimaciones. Como comprenderás, cuando se construye un
IC, se hace con una confiabilidad determinada de forma arbitraria por el
investigador, por lo tanto, si comparamos las estimaciones realizadas por dos
investigadores sobre un mismo parámetro, utilizando el mismo nivel de confianza,
no es lo mismo un error relativo del 10 % que del 15%, el primer caso ofrecerá
mayor crédito que el segundo a pesar de que en ambos casos coincidan los
183
respectivos % de confianza de que los intervalos calculados contengan al
parámetro poblacional.
Ya estamos en condiciones de construir intervalos de confianza para la media
poblacional.
4.3.2 Intervalo de Confianza para la diferencia entre las medias de dos
poblaciones.
También se pueden construir IC para la diferencia entre las medias de dos
poblaciones, para ello utilizamos el mismo procedimiento anterior pero adaptado a
la distribución muestral de dicha diferencia.
Ya vimos que el estimador ( 21 XX − ), proporciona una estimación insesgada de
(µ1 - µ2), que es la diferencia entre las medias de las poblaciones. La varianza del
estimador es (σ12 / n1) + (σ22 / n2). También aprendimos que este estimador sigue
aproximadamente una distribución normal, de modo que en muchas ocasiones se
emplea la teoría adecuada a las distribuciones normales para calcular el IC para la
diferencia entre las medias de dos poblaciones.
Cuando se conoce la varianza de las dos poblaciones, el IC al 100(1 - α ) % para
(µ1 - µ2) está dado por:
( 21 XX − ) ± Z 1 - α / 2
2
2
2
1
2
1
nn
σσ
+
Esta fórmula se aplica si la variable se distribuye normal y aún cuando no es así
pero las muestras son grandes.
Si las muestras son pequeñas y (o) no se conocen las varianzas poblacionales
entonces hay dos maneras de construir los IC:
( 21 XX − ) ± t 1 - α / 2
2
2
2
1
2
1
n
s
n
s
+ caso en que se suponen varianzas diferentes.
( 21 XX − ) ± t 1 - α / 2
2
2
1
2
n
s
n
s pp + caso que se suponen varianzas iguales
En ambos casos se utiliza el percentil de la distribución t con (n1 + n2 - 2) grados de
libertad. En el caso en que se suponen varianzas iguales se calcula la varianza
muestral de manera conjunta para ambas muestras y se denota por sp2.
184
( ) ( )
2
11
21
2
22
2
112
−+
−+−
=
nn
snsns p
4.3.3 – Intervalos de confianza para una proporción.
De manera análoga al caso de la media, también se pueden construir intervalos de
confianza para una proporción poblacional π.
De forma general los IC se construyen mediante la siguiente fórmula:
Estimador ± error de muestreo
Sabemos que la proporción muestral p, es un estimador insesgado de la
proporción poblacional π. Vimos también que cuando el tamaño muestral es
grande, es decir, n.p y n(1-p) son mayores que 5, la distribución muestral de p es
aproximadamente normal. Por lo tanto,se puede calcular un IC al 100(1-α)% de
confiabilidad para π, empleando la siguiente fórmula:
p ± Z (1 - α / 2)
n
pp )1( −
Este intervalo se interpreta de forma similar al caso de la media, tanto de forma
probabilística como práctica.
Ejemplo 4.3.4
En una determinada región se tomó una muestra aleatoria de 125 individuos, de
los cuales 12 padecían afecciones pulmonares.
Estimemos la proporción de afecciones pulmonares en dicha región. Primero
calculamos la proporción muestral p, pues sabemos que será nuestra estimación
puntual de π.
096.0
125
12
==p
Calculemos ahora un IC al 95% para la proporción poblacional de afecciones
pulmonares.
0.1476) ; (0.0444
0516.0096.0
125
)096.01(096.096.1096.0 ±=−∗±=± ep
Veamos cuánto es el error relativo de nuestra estimación.
185
75.53100*
096.0
0516.0
= %
Como puede ver la amplitud del intervalo parece pequeña, sin embargo el error
relativo es mayor que el 50 % de la estimación.
En la figura 2.3.3 se representa este IC de forma gráfica.
Figura 24.3.2 IC al 95% para la proporción poblacional de afecciones pulmonares.
Observa la equivalencia entre la distribución normal estándar y la distribución
muestral de la proporción. Dentro de esos límites se encuentra el 95% de los
valores estimados de π bajo el supuesto de muestreo sucesivo.
4.3.4 - IC para la diferencia entre dos proporciones.
En ocasiones se tiene interés en conocer la diferencia entre las proporciones de
dos poblaciones (π1-π2). Para ello el estimador puntual viene dado por (p1 – p2).
Para calcular un IC al 100(1-α) % emplearemos la fórmula general antes vista:
Estimador ± error de muestreo
Entonces en este caso será:
(p1 – p2) ±
( ) ( )
2
22
1
11
2/1
11
n
pp
n
pp
Z
−
+
−
−α
La interpretación de este intervalo se realiza de forma similar a los ya vistos.
Por ejemplo, en un estudio sobre prevalencia de hábitos tóxicos se obtuvo que las
proporciones (P1 y P2) de fumadores de dos áreas de salud son: 0.23 y 0.15
respectivamente, para una diferencia de 0.08. A continuación construiremos un IC
186
al 95% para dicha diferencia, si sabemos que los tamaños de muestra (n1 y n2)
fueron de 350 y 475 sujetos, respectivamente.
( ) ( ) ( )
475
15.0115.0
350
23.0123.096.108.0 −+−±
( )135.0 ; 025.0055.008.0 ⇒±
Entonces podemos concluir, con una confiabilidad del 95%, que la diferencia entre
las proporciones de fumadores de dichas áreas se encuentra en el intervalo
calculado.
4.4 Pruebas de hipótesis.
Al igual que en el caso de la estimación, el propósito de las pruebas de hipótesis
es ayudar al médico, investigador o administrador a tomar una decisión en torno a
una población, al examinar una muestra de ella.
Pueden presentarse en la práctica, situaciones en las que exista una teoría
preconcebida relativa a una característica de la población sometida a estudio. Tal
sería el caso, por ejemplo si pensamos que un tratamiento nuevo puede tener un
porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los
niños de distintas comunidades tienen la misma talla. Este tipo de circunstancias
son las que nos llevan al estudio de la parte de la Estadística Inferencial que se
recoge bajo el título genérico de Contraste de Hipótesis.
El contraste de hipótesis no es tan distinto a la estimación, de hecho es posible
emplear los IC para llegar a las mismas conclusiones que se alcanzan con una
prueba de hipótesis, como veremos más adelante.
Una hipótesis, se define simplemente como una proposición acerca de una o más
poblaciones. En general las hipótesis se refieren a los parámetros de las
poblaciones para las cuales se hace la proposición. Por medio de las pruebas de
hipótesis se determina si tales proposiciones son compatibles o no con los datos
disponibles.
Los investigadores se interesan en dos tipos de hipótesis: de investigación y
estadísticas. Las primeras18 son aquellas suposiciones o conjeturas que motivan la
investigación, éstas conducen directamente a las segundas, las que se establecen
de forma tal que pueden ser evaluadas por medio de técnicas estadísticas
18 La mayor parte de las investigaciones que realizas, por el nivel de
conocimientos que generan, sólo incluyen hipótesis de trabajo.
187
adecuadas. Implica, en cualquier investigación, la existencia de dos teorías o
hipótesis estadísticas, que denominaremos hipótesis nula e hipótesis alternativa,
que de alguna manera reflejarán esa idea a priori que tenemos (hipótesis de
investigación) y que pretendemos contrastar con la ``realidad''.
De la misma manera aparecen, implícitamente, diferentes tipos de errores que
podemos cometer durante el procedimiento. No debe olvidarse que,
habitualmente, el estudio y las conclusiones que obtengamos para una población
cualquiera, se habrán apoyado exclusivamente en el análisis de sólo una parte de
ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores,
dependerá, por ejemplo, el tamaño de la muestra requerida.
Desarrollamos en esta sección los contrastes de hipótesis para los parámetros
más usuales que venimos estudiando en las secciones anteriores: medias y
proporciones, para una o dos poblaciones. Pero antes, veremos un algoritmo
general para realizar pruebas de hipótesis que contiene 9 pasos19:
1. Datos20: Es necesario definir el tipo de datos que se analizará, pues de ello
depende el tipo de prueba a aplicar. Se debe precisar si son variables
cuantitativas o no, etc.
2. Suposiciones: De manera similar al proceso de estimación, se necesita evaluar
el cumplimiento de una serie de suposiciones o supuestos que son importantes
para decidir el tipo de prueba a realizar. Por ejemplo, respecto a la normalidad
de la distribución de la población, igualdad de varianzas, independencia de las
muestras, etc.
3. Hipótesis: Se trabaja con dos hipótesis estadísticas, como dijimos
anteriormente, que deben enunciarse de manera explícita. La primera es la
llamada hipótesis nula, es la que debe probarse y se designa como Ho.
Suele denominarse como hipótesis de no diferencia, ya que es una proposición
de no diferencia respecto a condiciones que se suponen ciertas en la
población. En general se establece con el propósito de ser rechazada. En
consecuencia, el complemento de la hipótesis del investigador se convierte en
el enunciado de la hipótesis nula.
La otra hipótesis planteada es la llamada hipótesis alternativa, H1, constituye
el complemento de la nula, se plantea en correspondencia con la hipótesis del
investigador. Esta hipótesis no es directamente sometida a prueba pero resulta
conveniente plantearla puesto que es la más verosímil cuando la prueba
19 Modificado de Daniel 1997
20 Se refiere al tipo de variables.
188
estadística nos conduce a rechazar Ho. Si Ho no se rechaza, se dirá que los
datos no proporcionan evidencia suficiente que cause el rechazo. De
rechazarse, se dice que los datos disponibles no son compatibles con Ho.
4. Estadígrafo de prueba: Es un estadístico que se puede calcular con los datos
de la muestra. Como regla, existen muchos valores posibles que puede asumir
el estadístico de prueba y el valor particular observado depende de la única
muestra estudiada. Dependiendo de la magnitud del estadígrafo se procederá
o no al rechazo de Ho, como veremos más adelante. Una fórmula general para
un estadígrafo de prueba, empleada en muchas pruebas de hipótesis (PH), es
como sigue:
Estadígrafo de prueba =
estimador del estándar error
supuesto parámetro-estimador
5. Distribución del estadígrafo de prueba: Hemos señalado, que la clave para la
estadística inferencial es la distribución muestral. Veremos en cada caso
particular qué distribución sigue el estadígrafo de prueba.
6. Regla de decisión: Todos los valores posiblesque el estadígrafo de prueba
puede asumir, constituyen puntos sobre el eje horizontal del gráfico de la
distribución de dicho estadígrafo, y se dividen en dos grupos: los valores
“compatibles” con la Ho (región de aceptación) y los “no compatibles” con Ho
(región crítica o de rechazo). La regla de decisión señala que se debe rechazar
la Ho si el valor del estadígrafo de prueba, calculado a partir de los datos
obtenidos en la muestra, es uno de los valores de la zona de rechazo, y que no
se debe rechazar en caso contrario.
El intervalo de aceptación o más precisamente, de no rechazo de la hipótesis
nula, se establece fijando una cantidad α, suficientemente pequeña
denominada nivel de significación, de modo que la probabilidad de que el
estadístico del contraste tome un valor fuera del mismo (región crítica) cuando
la hipótesis nula es cierta sea igual a α . Esto se ha de entender como sigue:
Si H0 es correcta el criterio de rechazo sólo se equivoca con probabilidad α,
que es la probabilidad de que una muestra dé un valor del estadístico del
contraste extraño (fuera del intervalo de aceptación).
LA DECISIÓN DE RECHAZAR O NO LA HIPÓTESIS NULA ESTÁ AL FIN Y AL CABO BASADO
EN LA ELECCIÓN DE UNA MUESTRA TOMADA AL AZAR, Y POR TANTO ES POSIBLE
COMETER DECISIONES ERRÓNEAS. LOS ERRORES QUE SE PUEDEN COMETER SE
CLASIFICAN COMO SIGUE:
189
Error de tipo I: es el error que consiste en rechazar H0 cuando es cierta. La
probabilidad de cometer el error es lo que anteriormente hemos denominado
nivel de significación. Es una costumbre establecida denotarlo siempre con la
letra griega α. Suele tomarse un valor pequeño de α para hacer que la
probabilidad de rechazar la H0 sea pequeña. Los valores que frecuentemente
se utilizan son 0.01, 0.05 y 0.1.
Error de tipo II: es el error que consiste en no rechazar H0 cuando es falsa. La
probabilidad de cometer este error la denotamos con la letra β.
En general, aunque se tome un valor pequeño para α, no se tiene control
sobre β, a pesar de saber que en la mayoría de las situaciones prácticas es
mayor que α. No obstante, nunca se sabe si cometimos uno de estos errores,
cuando se rechaza o no la Ho, ya que se desconoce el verdadero estado de
las cosas a nivel poblacional.
Los errores de tipo I y II están relacionados del siguiente modo: Cuando α
decrece β crece. Por tanto no es posible lograr que se hagan tan pequeños como
queramos ambos errores simultáneamente. De este modo es siempre necesario
privilegiar a una de las hipótesis, de manera que no será rechazada, a menos que
su falsedad se haga muy evidente. En los contrastes, la hipótesis privilegiada es
H0, que sólo será rechazada cuando la evidencia de su falsedad supere el umbral
del 100(1 - α)%.
Al tomar α muy pequeño tendremos que β se puede aproximar a uno. Lo ideal a la
hora de definir un test es encontrar un compromiso satisfactorio entre α y β
(aunque siempre a favor de H0). La manera que tiene el investigador de reducir el
valor de β y mantener α constante es aumentar el tamaño de la muestra.
Denominamos potencia de un contraste a la cantidad 1-β.
A continuación se muestran las posibles acciones que como investigador usted
puede emprender para varias condiciones de una prueba de hipótesis y las
condiciones en que se produce cada tipo de error.
190
Acción posible Condición de
la hipótesis
nula No rechazar H0 Rechazar H0
Verdadera Correcto
Probabilidad 1 - α
Error tipo I
Probabilidad α
Falsa Error tipo II
Probabilidad β
Correcto
Probabilidad 1 - β
En el momento de elegir una hipótesis privilegiada podemos en principio dudar
entre si elegir una dada o bien su contraria. Criterios a tener en cuenta en estos
casos son los siguientes:
• Simplicidad científica: A la hora de elegir entre dos hipótesis
científicamente razonables, tomaremos como H0 aquella que sea
más simple.
• Las consecuencias de equivocarnos: Por ejemplo al juzgar el
efecto que puede causar cierto tratamiento médico que está en fase
de experimentación, en principio se ha de tomar como hipótesis nula
aquella cuyas consecuencias por no rechazarla siendo falsa son
menos graves.
7. Cálculo del estadígrafo de prueba: A partir de los datos contenidos en la
muestra, se calcula un valor del estadígrafo de prueba y se compara con las
regiones de aceptación y rechazo que ya fueron especificadas.
8. Decisión estadística: La decisión consiste en el rechazo o no de la hipótesis
nula, se rechaza Ho si el valor del estadígrafo cae en la zona de rechazo.
9. Conclusión: Las conclusiones de una prueba de hipótesis debemos
expresarlas en términos de rechazo o no rechazo de Ho, o en los términos
equivalentes de valor significativo21 y no significativo. Un resultado no
significativo sólo indica que es compatible con la Ho porque la discrepancia
observada puede ser explicada por el error aleatorio, esto no demuestra que la
Ho sea cierta, simplemente que los datos no aportan suficiente evidencia para
dudar de la validez de Ho. Por lo tanto ante este resultado debe mantenerse la
Ho hasta tanto se obtengan otras pruebas.
Por el contrario, un resultado estadísticamente significativo, indica que no es
compatible con la hipótesis nula, porque es muy poco probable que la
discrepancia observada haya sido producida por el error aleatorio del muestreo.
En este caso se rechaza Ho por poco verosímil. Notar que se habla de rechazo y
no rechazo, no siendo este último sinónimo de aceptación.
21 Un resultado significativo se refiere a diferencias no atribuibles al azar.
191
Lo importante es ser muy cuidadoso a la hora de dar conclusiones, el que se
rechace la Ho no implica necesariamente que la alternativa sea verdadera,
además tampoco se puede llegar a un juicio de causalidad por este motivo.
Además, la decisión estadística no debe interpretarse como definitiva, ella solo es
una parte de la evidencia que influye sobre la decisión administrativa o clínica,
como veremos más adelante.
A continuación estudiaremos pruebas de hipótesis específicas basadas en estos
comentarios generales.
4.4.1 Pruebas de hipótesis a partir de medias.
Existen dos condiciones básicas en que realizamos PH a partir de medias: para
una sola población y para dos poblaciones. Veremos cada caso por separado,
a la vez que nos detendremos en las particularidades de cada una. Pero antes,
debes conocer que las pruebas de hipótesis se pueden realizar de forma unilateral
y bilateral, en dependencia de la forma en que son enunciadas las hipótesis nula y
alternativa. Así, una PH bilateral es aquella en que sólo interesa conocer la
existencia de diferencias, sin definir el sentido de éstas, como ocurre en el caso
unilateral.
4.4.1.1 La media de una sola población.
Esta situación surge cuando al investigador le interesa probar que la media µ de
una determinada variable en una población es igual o diferente a un valor
determinado µ0. Estas pruebas pueden realizarse en tres condiciones diferentes
que veremos a continuación:
1. La población22 se distribuye normal con varianza conocida.
2. La población se distribuye normal con varianza desconocida.
3. La población no se distribuye normal.
Aunque la teoría para las condiciones 1 y 2 se basa en que la población sigue una
distribución normal, en la práctica es común aplicar este proceder aún cuando la
población sólo está distribuida aproximadamente normal. Esto es satisfactorio
siempre que la desviación de la normalidad sea moderada.
22 Suele decirse que la población se distribuye normal, pero en realidad nos
referimos a la distribución de la variable en la población. Así aparece en todos los
textos.
192
1- Población normal con varianza conocida.
Suponemos que X∼N (µ, σ2) donde σ2 es conocida y queremos contrastar si es
posible que µ (desconocida) sea en realidad ciertovalor µ0 fijado. Esto es un
supuesto teórico que nunca se dará en la realidad pero servirá para introducir la
teoría sobre contrastes.
Prueba de dos colas con varianza conocida:
La prueba se escribe entonces como:
Ho: µ = µ0
H1: µ ≠ µ0
Estadígrafo de prueba:
n
x
Z
σ
µ0−=
Si H0 es cierta, este estadígrafo tiene una distribución normal estándar. Le
llamaremos al valor de Z obtenido en la muestra Z observado y lo denotaremos
como Zo
Fijemos ahora el nivel de significación α, de manera que queden definidas las
zonas de aceptación y de rechazo (crítica) respectivamente. Así, tomaremos como
región crítica C, a los valores que son muy extremos y con probabilidad α en total,
o sea:
P(Zo ≤ Z α / 2) = α / 2
P(Zo ≥ Z 1-α / 2) = α / 2
Recuerda que Z α / 2 = - Z 1- α / 2
Lo anterior implica que:
P(-Z 1- α / 2 ≤ Zo ≤ Z 1- α / 2) = 1- α siendo esta la zona de
aceptación.
Entonces la región crítica C consiste en:
C = Zo, tal que |Zo| > Z 1- α / 2
Luego rechazaremos la hipótesis nula si:
|Zo| > Z 1- α / 2
193
Aceptando en consecuencia la hipótesis alternativa (figura 2.4.1).
Puedes observar en la figura 2.4.1, que la región de rechazo de la hipótesis nula
es la sombreada. Se rechaza H0 cuando el estadígrafo Zo toma un valor
comprendido en la zona sombreada de la gráfica pequeña, N(0, 1), o
equivalentemente, cuando el estadígrafo x toma un valor en la zona sombreada
de la gráfica grande, N (µ0, σ2).
Figura 2.4.1 representación gráfica de las zonas de aceptación y rechazo de la Ho
Test unilateral (de una cola) con varianza conocida
Consideremos un contraste de hipótesis donde ahora las hipótesis se enuncian:
Ho: µ = µ0 A veces se escribe Ho: µ ≥ µ0
H1: µ < µ0 H1: µ < µ0
El estadígrafo de prueba es el mismo del caso anterior, pues la Ho es igual.
Como región crítica consideraremos aquella formada por los valores
extremadamente bajos de Zo, con probabilidad α, es decir:
P(Zo ≤ Zα) = α implica P(Zo ≥ Zα) = 1 - α
Entonces la región de aceptación, o de modo más correcto, de no rechazo de la
hipótesis nula es (figura 2.4.2): Zo ≥ Zα; y por consiguiente, se rechaza Ho si: Zo
< Z α
Así pues, se rechaza la hipótesis nula, cuando uno de los estadísticos Z o x toma
un valor en la zona sombreada de sus gráficas respectivas.
194
Figura 2.4.2 Zonas de aceptación y rechazo para test unilateral.
Es evidente que si en el contraste de significación, hubiésemos tomado como
hipótesis alternativa su contraria, es decir:
Ho: µ = µ0 O también Ho: µ ≤ µ0
H1: µ > µ0 H1: µ > µ0
Por simetría con respecto al caso anterior, la región donde no se rechaza la
hipótesis nula es (véase la figura 2.4.3 y contrástese con la 2.4.2): Zo ≤ Z 1 - α, lo
que implica que se rechaza Ho si: Zo > Z1 - α
Figura 2.4.3 - Regiones de aceptación y rechazo para el test unilateral contrario al anterior.
2- La variable se distribuye normal con varianza desconocida.
Test de dos colas con varianza desconocida
Sea X∼N (µ, σ2) donde ni µ ni σ2 son conocidos y queremos realizar el
contraste
Ho: µ = µ0
H1: µ ≠ µ0
195
Al no conocer σ2 va a ser necesario estimarlo a partir de su estimador insesgado:
la varianza muestral,S2. Por ello la distribución del estimador del contraste será
una t de Student, con n-1 grados de libertad.
Si H0 es cierta implica:
n
s
x 0µ−=oT ∼ t n - 1 gl
Consideramos como región crítica C, a las observaciones de To extremas:
P(To ≤ t n - 1, α / 2) = α / 2
P(To ≥ t n - 1, 1 - α / 2) = α / 2
Recuerde que la distribución t es simétrica respecto a la media y tiene media 0,
por lo que:
t n - 1, α / 2 = -t n - 1,1 - α / 2
Todo lo anterior implica que:
P(t n - 1, α / 2 ≤ To ≤ t n - 1, 1 - α / 2) = 1 - α
o sea
C = (To < - t n - 1, α / 2 ó To > t n - 1, 1 - α / 2 )
De forma similar al caso anterior, para dar una forma homogénea a todos los
contrastes de hipótesis es costumbre denominar al valor del estadístico del
contraste calculado sobre la muestra como valor observado y a los extremos de la
región crítica, como valores teóricos, en este caso Tt. Definiendo entonces:
Tt = t n – 1 , 1 - α / 2
El resultado del contraste es el siguiente (figura 2.4.4):
Figura 2.4.4 - Región crítica para el contraste bilateral de una media con varianza
desconocida.
196
Entonces, si: |To| ≤ Tt ⇒ no rechazamos H0
|To| >Tt ⇒ rechazamos Ho
Test de una cola con varianza desconocida
Si realizamos el contraste
Ho: µ = µ0
H1: µ < µ0
El estadígrafo de prueba es el mismo que en el caso bilateral, pero el valor teórico
se modifica al igual que la zona crítica (figura 2.4.5).
Tt = t n - 1, α
De forma tal que: To ≥ Tt ⇒ no rechazamos Ho
To < Tt ⇒ rechazamos Ho y aceptamos H1
Figura 2.4.5 - Región crítica para uno de los contrastes unilaterales de una media con varianza
desconocida.
Para el contraste contrario: Ho: µ = µ0
H1: µ > µ0
Definimos To y Tt como anteriormente y el criterio a aplicar es (véase la figura
2.4.6): Tt = t n-1, 1- α
Figura 2.4.6 - Región crítica para el contraste unilateral de una media contrario al anterior.
Varianza desconocida.
197
De aquí que: Si To ≤ Tt ⇒ no rechazamos Ho
Si To > Tt ⇒ rechazamos Ho y aceptamos H1
Ejemplo 4.4.1
Conocemos que la talla (X) de los individuos de una ciudad, se distribuye
aproximadamente normal. Deseamos contrastar con un nivel de significación de
α=0.05 si la talla media es diferente de 174 cm. Para ello nos basamos en el
estudio de una muestra de 25 personas. Se obtuvo el siguiente resultado:
x = 170cm y s = 10cm
Solución:
El contraste que se plantea es:
Ho: µ = 174 cm
H1: µ ≠ 174 cm
Como puede verse, se trata de un test con varianza desconocida, planteado de
forma bilateral, entonces el estadígrafo de prueba será:
2
2
4
25
10
174170
−=
−
=
−
=oT ∼ t 24 gl
La regla de decisión estará dada por el valor teórico del estadígrafo:
Tt = t 24, 1 - α / 2 = t 24, 0.975 = 2.0623
Comparemos ahora el valor observado con el teórico:
|To| = 2 < Tt = 2.06 ⇒ No rechazamos Ho
Por lo tanto, aunque podamos pensar que ciertamente el verdadero valor de µ no
es 174, no hay una evidencia suficiente para rechazar esta hipótesis al nivel de
confianza del 95%. En la figura 2.4.7 vemos que el valor de To no está en la
región crítica (aunque ha quedado muy cerca), por tanto al no ser la evidencia en
contra de H0 suficientemente significativa, esta hipótesis no se rechaza.
23 Revisa la tabla B del Apéndice.
198
Figura 2.4.7 – Región de rechazo de la hipótesis nula: µ = 174, del ejemplo 2.4.1
Ejemplo 4.4.2
Consideramos el mismo ejemplo anterior. Visto que no hemos podido rechazar el
que la talla media de la población sea igual a 174 cm, deseamos realizar el
contraste sobre si la talla media es menor de 174 cm.
Solución:
Ahora el contraste es Ho: µ = 174 cm
H1: µ < 174 cm
De nuevo la técnica a utilizar consiste en suponer que H0 es cierta y ver si el valor
que toma el estadígrafo T es aceptable bajo esta hipótesis, con un nivel de
confianza del 95%. Se aceptará la hipótesis alternativa (y en consecuencia se
rechazará la hipótesis nula) si:
To < t 24, α = -t 24, 1 - α = t 24, 0.95 = -1.7124
Recordamos que el valor de To obtenido fue de:
24 Revisar la tabla B del Apéndice.
199
To = -2 < Tt = -1.71
Por ello hemos de rechazar la hipótesis nula y por tanto, aceptar la alternativa
(véase la figura 2.4.8).
Figura 2.4.8 – Región crítica para el estadígrafo t del ejemplo 2.4.2.
Podemos observar en el gráfico, que el valor To está en la región crítica, por tanto
existe una evidencia significativa en contra de H0,y a favor de H1.
Es importante observar este hecho curioso: Mientras que en el ejemplo anterior no
existía una evidencia significativa para decir que µ ≠174 cm, el ``simple hecho" de
plantearnos un contraste que parece el mismo pero en versión unilateral nos
conduce a rechazar de modo significativo que µ =174 cm y aceptamos que µ <
174 cm. Esto no es raro que suceda, de hecho se plantea que al usar pruebas
unilaterales las diferencias encontradas suelen ser mucho más significativas que si
se aplica el test bilateral. Por ello, es aceptable la actitud conservadora de muchos
investigadores que sistemáticamente emplean contrastes bilaterales.
3- Población que no presenta una distribución normal.
Si, como ocurre con frecuencia, la muestra en la cual se basa la prueba de
hipótesis acerca de la media de una población proviene de una distribución
desconocida o diferente de la normal, si la muestra es grande, mayor o igual que
30, es posible aplicar el teorema del límite central y usar el mismo estadígrafo Z
visto con anterioridad, incluso en el caso en que no conocemos la varianza se
puede sustituir ésta por la varianza muestral.
n
s
x
Z 0
µ−
= ~ N (µ0 , n
s )
El resto del contraste se realiza de forma similar a lo visto anteriormente.
Observaciones
Es necesario que aclaremos algunos aspectos antes de concluir, los cuales serán
válidos para el resto de la sección.
1. Test Bilateral Vs Unilateral: Una prueba se denomina bilateral o de dos
colas, cuando la hipótesis alternativa está planteada sin especificar el sentido
de la diferencia. Mientras que en el caso unilateral o de una cola se
especifica el sentido o la dirección de la diferencia esperada. En el primer caso
la zona de rechazo está dividida en dos partes, a ambos extremos de la
distribución siendo las probabilidades a cada lado igual a α/2, para que entre sí
200
sumen un total de α. Mientras que en el caso unilateral la zona crítica se
encuentra hacia un extremo o el otro de dicha distribución, cuya área es igual a
α. La decisión de cuál test emplear depende del objetivo de la investigación.
2. Valor de p (probabilidad) asociado al estadígrafo: Para llegar a una
conclusión sobre el resultado de la prueba podemos utilizar, además del valor
directo del estadígrafo de prueba, la llamada p asociada al estadígrafo, que
seguro has oído hablar de ella. El valor p para la prueba, es la probabilidad de
obtener, cuando Ho es cierta, un valor del estadígrafo mayor o igual (según la
dirección de la diferencia) que el observado a partir de la muestra. Suele
usarse con mayor frecuencia que el valor del estadígrafo, incluso se exige en la
publicación de artículos científicos de algunos editores. Por supuesto que las
conclusiones son equivalentes. En este caso se compara el valor de p con el
valor de α prefijado y si:
p < α ⇒ se rechazará Ho
Este valor lo puede obtener de las tablas de las distribuciones teóricas del
estadígrafo, pero los programas estadísticos de computación suelen darlo con
exactitud.
3. Pruebas de hipótesis por medio de intervalos de confianza: Se pueden
realizar pruebas de hipótesis empleando para ello los intervalos de confianza
vistos en secciones anteriores, cuyos resultados son equivalentes al test de
hipótesis tradicional. Consisten básicamente, en calcular un IC para el
parámetro que se desea contrastar, empleando el mismo nivel de significación
que en el test, entonces la regla de decisión será basada en si el Intervalo
contiene o no al valor del parámetro hipotetizado, de ser así no se puede
rechazar la Ho, en caso de no contenerlo se rechazará la Ho y se aceptará la
hipótesis alternativa, siendo la probabilidad de cometer el error tipo I igual a α.
Recuerde que el parámetro a contrastar puede ser un valor único o la
diferencia entre dos valores. En general, cuando se prueba una hipótesis nula
por medio de un intervalo de confianza bilateral, se rechaza Ho en el nivel α de
significación, si el parámetro supuesto no está contenido dentro del intervalo de
confianza del 100(1-α)%.
4. Elección del test25: Como estudiamos, se pueden probar las mismas hipótesis
empleando diferentes estadígrafos: prueba Z y prueba t, la escogencia de uno
25 El término test es un anglicismo comúnmente empleado en la literatura
consultada, por lo que decidimos utilizarlo en este contexto.
201
de ellos dependerá del cumplimiento de las suposiciones26 necesarias para
cada caso. No lo olvide.
Hemos tratado de ser explícitos y a la vez de no complicar mucho las cosas para
facilitar la comprensión del contenido, aún así se puede notar que no es un tema
sencillo. Lo explicado hasta el momento se puede aplicar a otras pruebas de
hipótesis que veremos a continuación.
Pruebas para las medias de dos poblaciones
La prueba de hipótesis que comprende la diferencia entre las medias de dos
poblaciones, se utiliza con mayor frecuencia para determinar si es razonable o no
concluir que las dos son distintas entre sí. Al igual que en el caso de una sola
población se distinguen diferentes situaciones:
1. Muestras pareadas
2. Muestras independientes
Ambas situaciones serán abordadas por separado y teniendo en cuenta otras
particularidades.
1- Muestras pareadas.
Se dice que dos muestras están pareadas si la probabilidad de que la variable en
estudio tome un valor en el iésimo sujeto de la muestra 2, depende del valor del
iésimo sujeto de la muestra 1. Te aclaro, el objetivo de seleccionar muestras
pareadas es eliminar al máximo las fuentes de variación por medio de la formación
de parejas similares con respecto a tantas variables como sea posible, pero nunca
respecto a la variable de estudio. Así se pueden formar muestras pareadas de
diferentes formas, por ejemplo, todos los estudios donde se compara
observaciones de una variable en dos o más momentos diferentes sobre los
mismos individuos, cada medición constituye una muestra y el interés está en la
diferencia antes – después. También, en los estudios de casos y testigos suelen
formarse parejas del mismo sexo o grupos de edades, etc.
En estos casos, en lugar de llevarse a cabo el análisis con las observaciones
individuales, se puede utilizar como variable de interés la diferencia entre los pares
individuales de observaciones. Las hipótesis se enuncian generalmente de la
siguiente forma:
Ho: µ1= µ2 ⇒ µ1 - µ2 = 0
H1: µ1 ≠ µ2
26 El cumplimiento de los supuestos puede verificarse mediante la realización de
pruebas estadísticas, o sencillamente darlos por sentado.
202
Entonces, para cada pareja se registra la diferencia d, de esta forma es posible
calcular la diferencia media d , como la media aritmética de las diferencias
observadas y la desviación estándar de dichas observaciones sd. Así, el promedio
poblacional de las diferencias se denota por µd y es igual a la diferencia entre (µ1 -
µ2), que en este caso es cero.
Estadígrafo de prueba:
n
s
d
t
d
dµ−=
Si Ho es cierta el estadígrafo se distribuye t de Student con n-1 grados de
libertad.
La regla de decisión: se rechaza Ho si: |To| > Tt n-1, 1 - α / 2
Este es el caso bilateral que es el recomendado.
Ejemplo 4.4.327
A continuación se muestran los valores correspondientes al puntaje de ansiedad
para 10 pacientes recibiendo un medicamento (M) y un placebo (P) en orden
aleatorio.
Puntaje de
ansiedad Diferencia Pte.
M P d = M - P
1 19 22 -3
2 11 18 -7
3 14 17 -3
4 17 19 -2
5 23 22 1
6 11 12 -1
7 15 14 1
8 19 11 8
9 11 19 -8
10 8 7 1
27 Este es un ejemplo didáctico, en la práctica puede ser abordado por una prueba
no paramétrica
203
Calculemos la diferencia promedio y su desviación estándar:
3.1
10
13
−=
−
== ∑n
d
d i 68.20
9
1.186
1
)( 22 ==
−
−
= ∑
n
dd
S i
Calculemos el estadígrafo de prueba
9.0
439.1
3.1
10
55.4
03.10 −=−=−−=
−
=
n
s
d
To
µ
Busquemos en la tabla B del Apéndice el valor teórico de T:
Tt = t n - 1, 1 - α / 2 = t 9, 0.975 = 2.821
Como puedes ver |To| = 0.9 < Tt = 2.821
Por lo tanto no se puede rechazar Ho, podemos concluir que no existen evidencias
que hagan pensar que el medicamento sea efectivo para disminuir la ansiedad a
pesar de que las diferencias parecen favorecer al medicamento.
Observaciones:
Este caso es bastante frecuente en la práctica. Cuando el tamaño muestral es
grande, n>30, la distribución t puede aproximarse a la normal, no importa la
distribución de la variable en la población ni tampoco es necesario conocer la
varianza poblacional. De esta forma, siempre que el tamaño muestral lo permita,
se puede sustituir en la regla de decisión el percentil de la distribución t por el
correspondiente de la normal estándar. A continuación te muestro una guía para la
regla de decisión en caso bilateral y unilateral.
Tabla 2.4.1- regla de decisión PH para dos medias.
Hipótesis alternativa Regla de decisión
Rechazar Ho si:
µd > 0
(µ1 > µ2)
|To| > Z ( 1- α )
µd < 0
(µ1 < µ2)
|To| < Z ( 1- α )
µd ≠ 0
To| > Z ( 1 - α / 2 )
204
2- Muestras independientes
Suposiciones generales: las muestras son aleatorias e independientes, la variable
es continua y se distribuye normal, además las observaciones son independientes.
Hipótesis: Ho: µ1= µ2 ⇒ µ1 - µ2 = 0
H1: µ1 ≠ µ2
La hipótesis alternativa puede enunciarse también en forma unilateral:
H1: µ1 > µ2 ⇒ µ1 - µ2 > 0 ó H1: µ1 < µ2 ⇒ µ1 - µ2 < 0
Si las varianzas poblacionales son conocidas el estadígrafo de prueba es:
2
2
2
1
2
1
21
nn
xxZ
σσ +
−
= se distribuye normal estándar
En el numerador no se incluye µd porque bajo Ho µd = 0.
En el caso de varianzas desconocidas hay dos posibilidades:
a) Varianzas desconocidas pero se supone que son iguales
b) Varianzas desconocidas pero se supone que son diferentes.
El estadígrafo de prueba en cada caso es:
a)
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+
−
=
21
2
21
11
nn
s
xxT donde
)1()1(
)1()1(
21
2
22
2
112
−+−
−+−
=
nn
snsn
s
Este estadígrafo se distribuye t de Student con (n1 + n2 –2) grados de libertad
b)
2
2
2
1
2
1
21
n
s
n
s
xxd
+
−
=
Se distribuye t de Student con υ (nu) grados de libertad, pero si el tamaño de las
muestras es grande se distribuye normal estándar; Que suerte! porque la fórmula
para calcular los grados de libertad se las trae.
205
En cada caso la regla de decisión puede enunciarse a partir de la tabla 2.4.1, solo
tiene que adecuarlo a la distribución específica de cada estadígrafo.
4.4.2 Pruebas de hipótesis a partir de proporciones.
Las pruebas de hipótesis a partir de proporciones se realizan casi en la misma
forma utilizada cuando nos referimos a las medias, cuando se cumplen las
suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o
bilaterales dependiendo de la situación particular.
La proporción de una población
Las hipótesis se enuncian de manera similar al caso de la media.
Ho: π = π0
H1: π ≠ π0
En caso de que la muestra sea grande n>30, el estadígrafo de prueba es:
n
pp
p
Z
)1(
0
−
−
=
π
se distribuye normal estándar.
Regla de decisión: se determina de acuerdo a la hipótesis alternativa (si es
bilateral o unilateral), lo cual puede hacerse facilmente auxiliándose de la tabla
2.4.1.
En el caso de muestras pequeñas se utiliza la distribución Binomial. No lo
abordaremos por ser complicado y poco frecuente su uso.
Diferencia entre las proporciones de dos poblaciones
La situación más frecuente es suponer que existen diferencias entre las
proporciones de dos poblaciones, para ello suelen enunciarse las hipótesis de
forma similar al caso de las medias:
Ho: π1 = π2 ⇒ π1 - π2 = 0
H1: π1 ≠ π2
Puede la hipótesis alternativa enunciarse unilateralmente.
El estadígrafo de prueba para el caso de muestras independientes:
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+
−
=
21
21
11
nn
pq
pp
Z donde
21
21
nn
aa
p
+
+
=
206
Siendo a1 y a2, el número de sujetos con la característica objeto de estudio en las
muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para
cada muestra, se calcula una p conjunta para ambas muestras bajo el supuesto
que no hay diferencias entre ambas proporciones y así se obtiene la varianza
conjunta. Recuerda que q = 1-p.
Está de más que decir que este estadígrafo se distribuye normal estándar.
La regla de decisión se determina de manera similar a los casos ya vistos
anteriormente.
Si las muestras son pareadas nuestro interés no estará en las observaciones
individuales sino en la pareja, es decir, tendremos n parejas de sujetos, para cada
uno de los sujetos registramos la presencia o ausencia de cierta característica A
que se desea estudiar, por ejemplo enfermo o no, así tendremos cuatro
posibilidades:
Muestra
1 2
Número de pares
A A A
A No A B
No A A C
No A No A d
Esta misma información podemos resumirla en una tabla de contingencia de dos
filas y dos columnas, llamada tabla de 2x2 y muy empleada en investigación
epidemiológica.
Tabla 2x2 para muestras pareadas
Muestra 2
Muestra 1
A No A
Total
A a b a+b
No A c d c+d
Total a+c b+d N
De esta forma podemos calcular las proporciones de sujetos con la característica
en cada muestra:
n
bap +=1 n
cap +=2
207
El objetivo de la prueba es comparar estas dos proporciones, como estimadores
insesgados de las respectivas proporciones poblacionales π1 y π2. En este caso,
la diferencia entre estas dos proporciones depende de aquellos pares
discrepantes, es decir, los pares donde solo uno de los miembros de la pareja
presenta la característica.
n
cb
n
ca
n
bapp −=+−+=− 21
Las hipótesis se enuncian de forma similar al caso de muestras independientes.
Ho: π1 = π2 ⇒ π1 - π2 =0
H1: π1 ≠ π2
Recuerde que la H1 también puede plantearse de forma unilateral.
Si la Ho es cierta entonces b - c =0 y el estadígrafo de prueba es:
cb
cbbZ
+
+−
=
2/1
)(2/1
Este estadígrafo se distribuye normal estándar si el tamaño de muestra es grande,
en caso de muestras pequeñas se emplea la prueba no paramétrica28 de Mc
Nemar, cuyo estadígrafo de prueba es:
χ2=
cb
cb
+
−− 2)1|(| se distribuye χ2 con 1 grado de libertad.
La regla de decisión depende del planteamiento de la H1, sea bilateral o unilateral.
La puede construir basándose en lo que ha aprendido.
Observaciones:
1. Aunque parezca absurdo, debe aclararse que las pruebas de hipótesis se
realizan sobre los parámetros poblacionales desconocidos, es decir, sólo tiene
sentido realizarlas cuando se estudia una muestra de la población objeto y
deseamos hacer inferencias hacia el total poblacional. Si se estudia el total de
28 Una prueba de hipótesis no paramétrica, es aquella en que no es necesario el
cumplimiento de las suposiciones propias de las pruebas paramétricas que hemos
visto hasta el momento (distribución normal de la población, muestras aleatorias,
independencia de las observaciones, etc.), por lo tanto para cada prueba que
hemos visto existe su análoga no paramétrica que podrás estudiar en el próximo
curso.
208
los elementos de la población objeto (definida de acuerdo a los objetivos de su
investigación), no tiene sentido realizar PH ni otro tipo de inferencia.
2. Antes de realizar una prueba de hipótesis, debe revisar cuidadosamente las
características de los datos (naturaleza de las variables), la forma de selección
de la muestra y su tamaño, en fin, valorar el cumplimiento de lossupuestos
necesarios para aplicar la prueba adecuada a cada caso. Fijando el nivel de
significación antes de realizar la prueba y no después de obtener el resultado,
al igual que debe valorar seriamente si debe enunciar el problema de forma
bilateral o unilateral antes de realizar la prueba. Violar el cumplimiento de los
supuestos implica que la prueba pierda potencia, pudiendo no encontrarse
diferencias cuando realmente las hay o lo contrario.
3. Existen software que realizan estas y otras muchas pruebas de hipótesis, al
alcance de cualquier persona, esto trae consigo el uso y “abuso” indiscriminado
de las mismas sin un conocimiento sólido del basamento estadístico de cada
prueba. Le recomiendo no se sume a la lista de irresponsables que andan por
ahí haciendo de las suyas con los números, si no está seguro de cual es la
prueba adecuada recurra a los servicios de un bioestadístico.
4. En el caso que se contrasta la diferencia entre dos parámetros, sean medias o
proporciones, debe tenerse en cuenta que el signo del estadígrafo da la
dirección de la diferencia. Si el valor del estadígrafo observado es menor que
cero (negativo), quiere decir que el parámetro 1 es menor que el 2 (parámetro1
– parámetro2), esto se tendrá en cuenta al dar las conclusiones.
5. Por último, ningún test estadístico supera el sentido común y la responsabilidad
profesional, por lo tanto las conclusiones deben basarse no sólo en un
resultado estadísticamente significativo logrado a toda costa de artificios
matemáticos, sino que depende de todo un conjunto de análisis clínico,
epidemiológico, económico, entre otros aspectos que deben ser
adecuadamente balanceados teniendo en cuenta la razón perjuicio-beneficio.
Bibliografía:
1. Bayarre Vea H, Oliva Pérez M. Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte II. La Habana: Finlay;
2001.
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la
Investigación. Maestrías para profesionales de la Atención Primaria de Salud.
La Habana, 2004.
209
Apéndice
Tabla A – Áreas de la distribución normal estándar.
Z Área Z Área
0.0 0.5000 2.0 0.02275
0.1 0.4602 2.1 0.01786
0.2 0.4207 2.2 0.01390
0.3 0.3821 2.3 0.01072
0.4 0.3446 2.4 0.00820
0.5 0.3085 2.5 0.00621
0.6 0.2743 2.6 0.00466
0.7 0.2420 2.7 0.00347
0.8 0.2119 2.8 0.00256
0.9 0.1841 2.9 0.00187
1.0 0.1587 3.0 0.00135
1.1 0.1657 3.1 0.00097
1.2 0.1151 3.2 0.00069
1.3 0.0968 3.3 0.00048
1.4 0.0808 3.4 0.00034
1.5 0.0668 3.5 0.00023
1.6 0.0548 3.6 0.00016
1.7 0.0446 3.7 0.00011
1.8 0.0359 3.8 0.00007
1.9 0.0287 3.9 0.00005
2.0 0.02275 4.0 0.00003
210
Tabla B - Percentiles de la distribución t de student.
g.l t 0.90 t 0.95 t 0.975 t 0.99 t 0.995
1 3.078 6.3138 12.706 31.821 63.657
2 1.886 2.9200 4.3027 6.965 9.9248
3 1.638 2.3534 3.1825 4.541 5.8409
4 1.533 2.1318 2.7764 3.747 4.6041
5 1.476 2.0150 2.5706 3.365 4.0321
6 1.440 1.9432 2.4469 3.143 3.7074
7 1.415 1.8946 2.3646 2.998 3.4995
8 1.397 1.8595 2.3060 2.896 3.3554
9 1.383 1.8331 2.2622 2.821 3.2498
10 1.372 1.8125 2.2281 2.764 3.1693
11 1.363 1.7959 2.2010 2.718 3.1058
12 1.356 1.7823 2.1788 2.681 3.0545
13 1.350 1.7709 2.1604 2.650 3.0123
14 1.345 1.7613 2.1448 2.624 2.9768
15 1.341 1.7530 2.1315 2.602 2.9467
16 1.337 1.7459 2.1199 2.583 2.9208
17 1.333 1.7396 2.1098 2.567 2.8982
18 1.330 1.7341 2.1009 2.552 2.8784
19 1.328 1.7291 2.0930 2.539 2.8609
20 1.325 1.7247 2.0860 2.528 2.8453
21 1.323 1.7207 2.0796 2.518 2.8314
22 1.321 1.7171 2.0739 2.508 2.8188
23 1.319 1.7139 2.0687 2.500 2.8073
24 1.318 1.7109 2.0639 2.492 2.7969
25 1.316 1.7081 2.0595 2.485 2.7874
26 1.315 1.7056 2.0555 2.479 2.7787
27 1.314 1.7033 2.0518 2.473 2.7707
28 1.313 1.7011 2.0484 2.467 2.7633
29 1.311 1.6991 2.0452 2.462 2.7564
30 1.310 1.6973 2.0423 2.457 2.7500
35 1.3062 1.6896 2.0301 2.438 2.7239
40 1.3031 1.6839 2.0211 2.423 2.7045
45 1.3007 1.6794 2.0141 2.412 2.6896
50 1.2987 1.6759 2.0086 2.403 2.6778
60 1.2959 1.6707 2.0003 2.390 2.6603
70 1.2938 1.6669 1.9945 2.381 2.6480
80 1.2922 1.6641 1.9901 2.374 2.6388
90 1.2910 1.6620 1.9867 2.368 2.6316
100 1.2901 1.6602 1.9840 2.364 2.6260
120 1.2887 1.6577 1.9799 2.358 2.6175
140 1.2876 1.6558 1.9771 2.353 2.6114
160 1.2869 1.6545 1.9749 2.350 2.6070
180 1.2863 1.6534 1.9733 2.347 2.6035
200 1.2858 1.6525 1.9719 2.345 2.6006
∞ 1.282 1.645 1.96 2.326 2.576
211
4.5 Introducción al Análisis de Varianza
Introducción
En ocasiones, la alteración de ciertos factores de un experimento, provocan una
alteración de importancia en las mediciones de una variable aleatoria en estudio.
En otras palabras, una variable aleatoria puede mostrar un comportamiento
diferente para distintos niveles de uno o varios factores. Digamos por ejemplo que
el interés de un estudio está en determinar la efectividad de cuatro tipos de dieta
en la reducción del peso corporal. Este último, es una variable aleatoria cuyo
comportamiento puede diferir entre las cuatro dietas (niveles del factor).
¿Cómo comprobar si esto realmente ocurre? Sería lógico establecer cuatro
grupos de sujetos, y someter cada uno a una dieta diferente para luego
compararlos respecto a la media de reducción del peso corporal.
Sin embargo, el uso de técnicas como la t de Student abordadas anteriormente,
para comparar las medias, resultaría inapropiado, ya que ella solo nos sirve para
comparar dos grupos, entonces tendríamos que comparar los grupos de dos en
dos, y realizar un total de seis comparaciones. Esto resultaría más trabajoso,
además que perderíamos información en cada comparación. Pero lo más
importante, al utilizar un nivel de significación determinado para cada prueba,
siendo estas independientes una de otra, incrementamos la probabilidad de
cometer error tipo I para la Hipótesis de igualdad de todas las medias.
Por ejemplo, para realizar las seis comparaciones con la prueba t por separado, si
usamos un nivel de significación α = 0.05 para cada una de ellas, la probabilidad
de no rechazar la hipótesis nula sería 0.95 en cada caso. Al ser las pruebas
independientes entre sí, la probabilidad de no rechazar la hipótesis de no
diferencia en los seis casos, por Regla de Multiplicación para las Probabilidades,
se hallaría: (0.95) 6 = 0.7351. La probabilidad de rechazar al menos una hipótesis
de no diferencia sería entonces, 1 – 0.7351= 0.2649 lo que quiere decir que
cometeríamos error de tipo I en el 26% de los casos que procediéramos de este
modo.
Bayarre Vea H, Ranero Aparicio V M. Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte III. Material Docente.
ENSAP; 2002
212
Ante situaciones como esta, es necesario utilizar una técnica desarrollada en el
pasado siglo por Fisher, denominada Análisis de Varianza. Este técnica
representa una generalización de la t de Student para el caso de k medias y tiene
una amplia aplicación en el análisis de datos derivados del experimento, A lo largo
de este capítulo abordaremos su forma más simple.
Generalidades
El Análisis de Varianza (ANOVA) se define como:
ANOVA: Técnica en la que la variación total de un conjunto de datos se divide en
varios componentes y cada uno de ellos se asocia a una fuente específica de
variación, de manera que durante el análisis es posible encontrar la magnitud con
la que contribuye cada una de esas fuentes a la variación total.
¿Cómo se entiende esta definición? Retomando nuestro ejemplo, la variación del
peso en los sujetos bajo estudio puede deberse a dos razones: en primer lugar, a
la variación entre los grupos de dietas debido al efecto de estas, y en segundo, a
la variación residual atribuible al azar dentro de cada grupo.
Sí las medias varían mucho entre grupos, es decir, más de lo que los sujetos
pueden diferir alinterior de los grupos, será más factible que exista diferencia real
entre ellos.
De esta forma, el Análisis de Varianza se basa en comparar directamente la
cantidad en que varían las medias de los grupos y la cantidad en que varía cada
grupo alrededor de su propia media.
Este tipo de Análisis de Varianza al que indirectamente hemos aludido, es la forma
más simple de ANOVA denominado Análisis Unilateral de Varianzas, ANOVA de 1
vía ó también ANOVA Unidireccional, como suele verse en algunos textos.
El término unilateral se refiere a que solo se investiga un factor. Este último consta
a su vez de k niveles, comúnmente llamados tratamientos. La respuesta
observada, valor de la variable aleatoria, (en el ejemplo es el valor del peso
corporal) corresponde a una población y estas poblaciones son los niveles ó
tratamientos que deseamos comparar.
En la práctica este tipo de análisis se utiliza para probar la hipótesis nula que
indica que tres ó más tratamientos son igualmente efectivos. Entonces el
experimento requiere que se asignen los individuos a los tratamientos de un modo
totalmente aleatorio. Por esta razón se le llama este diseño completamente
aleatorizado. Útil cuando las unidades que reciben tratamiento son homogéneas,
de manera que la única diferencia que se presente se deba al efecto de
tratamientos diferentes.
213
Suposiciones básicas para realizar un Análisis de Varianza.
El diseño completamente aleatorizado al que nos referimos anteriormente es un
requerimiento para el ANOVA unilateral, pero como toda prueba paramétrica,
requiere también del cumplimiento de otros supuestos.
1. La variable objeto de estudio, observada en k poblaciones es cuantitativa
continua.
2. La población de observaciones están distribuidas normalmente y las muestras
son aleatorias e independientes, de tamaño n1, n2,.....nk arbitrarios.
3. En cada muestra las observaciones son aleatorias e independientes.
4. Homocelasticidad, es decir, las Varianzas poblacionales son desconocidas
pero iguales.
Desde luego, antes de comenzar los cálculos del ANOVA debe comprobar el
cumplimiento de los supuestos. Más adelante haremos referencia dicha
comprobación.
En la práctica es difícil encontrar todas las suposiciones satisfechas, siendo a
veces necesario hacer transformaciones a los datos, lo que debe tener en cuenta
sobretodo al informar los resultados. De todas formas, existe un procedimiento no
paramétrico alternativa del ANOVA que se puede utilizar cuando se no se cumplen
los supuestos paramétricos.
Modelo de ANOVA de 1 vía (Diseño Completamente Aleatorizado)
Debido a su simplicidad, este modelo es utilizado ampliamente. Sin embargo, es
importante ser cauteloso, de forma tal que su uso se limite a casos en los cuales
se dispone de unidades experimentales homogéneas. Si no pueden utilizarse
tales unidades, deben buscarse otras vías para incrementar la eficiencia del
diseño.
Sí en un diseño completamente aleatorizado, nj unidades experimentales se
sujetan al j-ésimo tratamiento (j=1,2,..., k) y únicamente se obtiene una
observación por unidad experimental, los datos se representarán como se muestra
en la siguiente tabla:
214
Grupos ó tratamientos
1 2 3 .......... K
x11 x12 x13 .......... x1k
x21 x22 x23 .......... x2k
x31 x32 x33 .......... x3k
. . . .......... .
. . . .......... .
. . . ........... .
Observaciones
xn1 xn2 xn3 .......... xn4
Total T.1 T.2 T.3 .......... T.k T..
Media 1.
_
x 2.
_
x 3.
_
x .......... kx .
_
..
_
x
Siendo:
xij : valor de la observación i en el grupo j
i=1,2,3,...nj j=1,2,3,....k
nj : cantidad de observaciones en el grupo j
∑
=
=
jn
i
jij xT
1
. →Suma de las observaciones en el grupo j ó total por
columna j ó total de observaciones bajo el j-ésimo tratamiento
j
j
j n
T
x
.
.
_
= → Media del grupo ó tratamiento j ó media por columna j.
∑ ∑∑
= ==
==
k
j
n
i
ji
k
j
j
j
xTT
1 11
... → Gran Total
∑
=
=
k
j
jnN
1
→Número total de observaciones
N
T
x .
.
..
_
= →Promedio total o gran media
215
Como puede apreciar en esta tabla, la variable aleatoria en estudio se observa y
se mide en k grupos ó tratamientos, así la comparación se establece entre estos
grupos.
La idea central es que la variación total de todos los valores alrededor de su
promedio total ó gran media ..
_
x se divide en dos componentes: la variación de las
medias del grupo y la variación de los valores alrededor de las medias de sus
grupos.
Un ejemplo sencillo, nos permite entender esta idea:
Observemos la variable edad en dos muestras, una de 10 mujeres y otra de 10
hombres. La media de edad para las mujeres es de 25 años y para los hombres
de 29 años. El promedio total para los 20 sujetos es de 27 años. Sin embargo en
la muestra de mujeres tenemos una persona con 35 años (A). Colocando las
edades en un esquema vemos lo siguiente:
La edad de A se desvía del promedio total en 8 años, a su vez esto se puede
descomponer en dos partes, la desviación de A de la media de su grupo (10 años)
y en la desviación de la media del grupo a que pertenece (media de la muestra de
mujeres) de la gran media ó promedio general (-2) o sea 8=10+(-2).
En el ANOVA consideramos cada valor muestral como descompuesto de esa
misma forma.
Para cada valor individual:
Desviación del valor xij
de la gran media
=
desviación de la
media del grupo a
que pertenece xij de
la gran media
+
desviación de xij de la
media de su grupo
216
Para una muestra completa se traduce de la siguiente forma:
Variación total = variación entre grupos + error
Esta variación entre grupos que representa la cantidad por la cual la media del
grupo difiere de la gran media se conoce como efecto de tratamiento.
En cuanto al error, no significa equivocación, sino la cantidad de la variación total
no explicada por la variación entre grupos, o sea la variación de los miembros de
un grupo respecto a la media de su propio grupo como resultado de variables
desconocidas.
Estas relaciones pueden escribirse simbólicamente de esta forma:
(xij - µ) = (µj - µ) + (xij - µj) (1.1)
siendo:
µj : media del grupo j xij : cualquier valor del conjunto de datos
µ : gran media
Como:
µj - µ = Tj ó efecto del tratamiento j y
xij - µj = eij ó error
Sustituyendo en la expresión 1,1:
(xij - µ) = Tj + eij
Despejando xij obtenemos el modelo de ANOVA de una vía:
xij = µ + Tj + eij i=1,2,3,....nj ; j=1.2.3.....k (1.2)
Este modelo a su vez se divide en dos tipos:
1. Modelo de efecto fijo
2. Modelo de efecto aleatorio
Hablamos de un modelo de efecto fijo cuando se observan todos los niveles del
factor sobre los que se desea inferir. Mientras que un modelo de efectos
aleatorios es aquel en el que existe una población de niveles del factor y solo se
observan resultados en algunos niveles seleccionados aleatoriamente,
pretendiéndose extender las conclusiones a todos los niveles.
A continuación profundizaremos un poco más en estos últimos.
217
Modelo de efecto fijo.
Cuando se estudia la influencia de un solo factor y se toman las observaciones de
los k niveles ó tratamientos de ese factor, cualquier inferencia se aplica solo a
dichos niveles ó tratamientos. Se obtiene entonces un modelo de efectos fijos ó
modelo I.
Este modelo está representado en la siguiente expresión:
xij = µ + Tj +eij i=1,2,3,....nj j = 1,2,3,....k
Donde:
1. Deben cumplirse las suposiciones para el ANOVA mencionado anteriormente
2. Las Tj son constantes desconocidas y ∑Tj = 0 dado que la suma de todas las
desviaciones de µj a partir de sus medias es cero.
3. Como eij =xij - µj , entonces las eij tienen media igual a cero dado que la media
de xij = µj.
4. La varianza de eij = varianza de xij dado que