Logo Passei Direto
Material
¡Estudia con miles de materiales!

Vista previa del material en texto

MAESTRÍA DE SALUD PÚBLICA 
 
 
 
 
 
 
 
MÓDULO 3 
 
ESTADÍSTICA 
 
 
 
 
 
 
 
PROGRAMA 
 
 
 
 
 
 
 
 
 
 
 
La Habana/Caracas 
2007
1
 
 1
 
Módulo 3. Estadística 
Objetivos: 
• Elaborar, procesar, analizar y presentar datos estadísticos derivados de la 
gestión o investigación en salud pública, así como de situaciones 
modeladas análogas. 
• Seleccionar, calcular e interpretar los principales indicadores sanitarios y 
demográficos que se utilizan en la toma de decisión e investigación en 
el ámbito sanitario. 
• Identificar las leyes de distribución de probabilidades más usadas, a 
través del análisis de sus propiedades, para ser aplicadas en procesos 
de inferencia estadística en el ámbito sanitario. 
• Dominar los conceptos básicos de la Inferencia Estadística que permite 
fundamentar y emplear los métodos que se utilizan en el campo de las 
investigaciones de salud y biomédicas. 
Plan Temático: 
3.1 Estadística Descriptiva 
3.2 Estadística de Salud 
3.2 Introducción a la Teoría de Probabilidades 
3.4 Introducción a la Inferencia Estadística 
2
 
 2
Contenido: 
3.1 Conceptos básicos. Distribuciones de frecuencia. Métodos de representación 
estadística: tabular y gráfico. Medidas de resumen para variables 
cualitativas. Medidas de resumen para variables cuantitativas. Análisis de 
Series Cronológicas. Uso de paquetes computacionales. 
3.2 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de 
Salud. Indicadores sanitarios y demográficos más utilizados. Uso de 
paquetes computacionales. 
3.3 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios. 
Variables aleatorias. Distribuciones de probabilidades de una variable 
aleatoria. La distribución Binomial, Poisson, Normal, Ji Cuadrado y t de 
Student. Uso de paquetes computacionales. 
3.4 Distribuciones muestrales de la media, de la proporción y de la diferencia 
entre medias y proporciones. Estimación de parámetros: puntual y por 
intervalos de confianza, para una media, para la diferencia entre dos medias 
poblacionales, así como para la proporción y para la diferencia entre dos 
proporciones poblacionales. Prueba de hipótesis para una media, para la 
diferencia entre dos medias poblacionales. Análisis de la varianza de una 
vía. Prueba de hipótesis para una proporción poblacional y para la diferencia 
entre dos proporciones. Pruebas de homogeneidad e independencia. 
Regresión y Correlación Lineal. Uso de paquetes computacionales. 
Evaluación: 
La evaluación del tema, forma parte del sistema evaluativo del curso; este 
incluye la evaluación, por parte del profesor, de las respuestas a los trabajos 
individuales y de grupo. A ello se le adicionará una prueba escrita de los 
contenidos del tema. La Evaluación Final se realizará mediante la integración 
de todos los componentes de ésta, en escala cualitativa (excelente, bien, 
aprobado, desaprobado) 
3
 
 3
Selección de lecturas 
1. Estadística descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford 
Saing R, Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro 
de Texto de Metodología de la Investigación. Maestrías para 
profesionales de la Atención Primaria de Salud. La Habana; 2004. 
2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material 
Docente. ENSAP; 2000. 
3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M. 
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46. 
4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez 
M. Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129. 
5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a 
la Investigación en Atención Primaria de Salud. Parte III. Material 
Docente. ENSAP; 2002 
Bibliografía Complementaria: 
1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M, 
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática 
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300. 
2. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M, 
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática 
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473. 
3. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M, 
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática 
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454. 
4. Métodos estadísticos para el análisis de datos cualitativos. Análisis de 
Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M, 
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática 
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473. 
 
4
 
 
 
 
 
 
 
 
 
 
 
 
MAESTRÍA DE SALUD PÚBLICA 
 
 
 
 
 
MÓDULO 3 
 ESTADÍSTICA 
 
 
 
GUÍA DE ESTUDIO 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
La Habana/Caracas 
2007 
 
5
 
 1
Guía de Estudio 
 
 
 
Estimado cursista: 
 
La guía que le presentamos a continuación contiene las orientaciones necesarias 
para el estudio, tanto individual como grupal, del módulo de Estadística de la 
Maestría de Salud Pública. Con ella pretendemos contribuir a la formación de las 
habilidades que se esperan alcance al final del mismo. 
La guía consta con la estructura siguiente: orientaciones generales, objetivos 
generales, contenidos, descripción de actividades para cada contenido, entre las 
que se incluyen los trabajos individuales, los trabajos de grupo; y la bibliografía a 
utilizar. Al final de la guía aparece el sistema de evaluación del módulo. 
I. Orientaciones Generales: 
 
Los contenidos de Estadística Descriptiva constituyen los primeros a estudiar en el 
curso. A este tema se le dedicará la mayor cantidad del tiempo del módulo. Le 
siguen los contenidos relacionados con las Estadísticas Sanitarias, elementos de 
la Teoría de Probabilidades, y de la Inferencia Estadística. 
El estudio de cada uno de los contenidos de cada tema deberá comenzar por la 
revisión de la Bibliografía Básica, luego conteste la tarea independiente planteada 
para cada contenido; finalmente reúnase con el resto de los integrantes del grupo 
de estudio y realicen el trabajo correspondiente. 
II. Objetivos generales: 
 
1. Elaborar, procesar, analizar y presentar datos estadísticos derivados de la 
gestión o investigación en salud pública, así como de situaciones modeladas 
análogas. 
2. Seleccionar, calcular e interpretar los principales indicadores sanitarios y 
demográficos que se utilizan en la toma de decisión e investigación en el 
ámbito sanitario. 
3. Identificar las leyes de distribución de probabilidades más usadas, a través 
del análisis de sus propiedades, para ser aplicadas en procesos de 
inferencia estadística en el ámbito sanitario. 
4. Dominar los conceptos básicos de la Inferencia Estadística que permite 
fundamentar y emplear los métodos que se utilizan en el campo de las 
investigaciones de salud y biomédicas. 
6
 
 2
III. Contenidos: 
 
No. Título 
1 Estadística. Conceptos Básicos. Universo y muestra. Variables. Concepto y 
clasificación. Escalas de clasificación. Distribución de frecuencias absolutas, 
relativas y acumuladas. 
2 Representación Estadística. Tablas estadísticas: elementos a considerar en su 
confección. Representación gráfica: errores de elaboración e interpretación. 
Principales tipos de gráficos: barras, pastel, histograma, polígono de 
frecuencia. Uso de paquetes computacionales. 
3 Medidas de resumen para variables cualitativas. Razón, proporción, 
porcentaje, tasa. Definiciones. Tasas brutas y específicas. Cálculo e 
interpretación. Medidas de resumen para variables cuantitativas. Medidas de 
tendencia central: Media aritmética, mediana y moda. Medidas de 
Dispersión: necesidad del estudio de la dispersión. Rango o amplitud. 
Desviación media, varianza, desviación estándary coeficiente de variación. 
Uso de paquetes computacionales. 
4 Análisis de Series Cronológicas: Definición, clasificación e importancia. 
Requisitos para el tratamiento estadístico de las series. Métodos gráficos y 
matemáticos para el análisis de la tendencia. Métodos para el análisis de 
estacionalidad. Uso de paquetes computacionales. 
5 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de Salud. 
Indicadores sanitarios y demográficos más utilizados. Uso de paquetes 
computacionales. 
6 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios. 
Variables aleatorias. Distribución de probabilidad de una variable aleatoria. 
7 Distribuciones muestrales: distribución muestral de la media, de la 
proporción y de la diferencia entre medias y proporciones. 
8 Estimación de parámetros. Estimación puntual y por intervalos de confianza. 
Intervalo de confianza para una media y para la diferencia entre dos medias 
poblacionales. Intervalo de confianza para la proporción y para la diferencia 
entre dos proporciones poblacionales. 
9 Docimasia de Hipótesis. Aspectos generales. Pruebas de hipótesis a partir de 
medias. Pruebas de Hipótesis a partir de proporciones. Análisis de la varianza 
de una vía. Prueba de hipótesis para una proporción poblacional y para la 
diferencia entre dos proporciones. Pruebas de homogeneidad e 
independencia. Regresión y Correlación Lineal. 
 
 
7
 
 3
 
IV. Descripción de actividades independientes y grupales por contenido. 
 
 Contenido 1. 
 
En la Bibliografía Básica del Módulo revise las páginas 3 a la 11. Una vez que 
haya estudiado estos contenidos realice, de forma individual, la tarea (trabajo 
independiente) siguiente: 
 
1. Un grupo de investigadores desea estudiar la satisfacción personal de los 
médicos que brindan sus servicios en cierto estado de la República 
Bolivariana de Venezuela. Para ello, de un total de 1500 médicos que trabajan 
en ese territorio, estudiarán 700. Desean recoger información sobre la edad, la 
calificación profesional, el tiempo de graduado, el sexo, el estado civil y la 
presencia de satisfacción personal. 
 
a) Identifique cuál es la población en estudio y cuál es la muestra, en caso de 
existir. 
b) Identifique las variables a estudiar y clasifíquelas. 
 
2. A continuación le presentamos algunas variables investigadas en un grupo de 
residentes del 1er año de la especialización de Medicina General Integral, con 
la finalidad de controlar el proceso docente-educativo. 
 
– Asistencia a actividades docentes, 
– Existencia de quejas de la población, 
– Calificación en examen parcial (sobre 10 puntos), 
– Sexo, y 
– Edad. 
 
a) Clasifique cada una de las variables estudiadas. 
 
3. A continuación le presentamos la variable temperatura (en grados Celsius) 
clasificada en una escala de intervalos: 
Temperatura 
34 - 36 
37 – 39 
40 – 42 
a) Determine la amplitud del segundo intervalo de clase. 
b) ¿Cuál es el límite de clase inferior del tercer intervalo de clase? 
 
8
 
 4
Luego, realice el trabajo grupal siguiente: 
 
1. Revise uno de los Análisis de la Situación de Salud (ASIS) de la comunidad 
atendida por uno de los integrantes del grupo. Luego conteste las 
interrogantes siguientes: 
 
a) Identifiquen cuál es la población atendida por el colega. 
b) Identifiquen las variables incluidas en el análisis. Clasifíquenlas según su 
naturaleza. 
c) Escoja la información relativa a una de las variables del ASIS y construya 
una distribución de frecuencia: absolutas y relativas. 
 
 Contenido 2. 
 
Revise las páginas 12 a la 24 de la Bibliografía Básica. Una vez que haya 
estudiado estos contenidos realice el siguiente trabajo independiente: 
 
1. A continuación le presentamos los resultados de la medición de creatinina 
sérica en 20 personas del municipio Playa, atendidos en el policlínico “26 
de Julio” en enero de 1999. 
 
Creatinina Sérica 
160,00 170,54 166,00 150,00
160,36 160,20 156,70 151,78
158,20 163,20 154,50 152,00
174,00 165,80 155,00 154,80
170,00 165,90 155,90 156,70
 
 
a) Con la información anterior, construya una escala de intervalos de igual 
amplitud. 
b) Construya un cuadro estadístico. 
c) Interprete los resultados. 
d) Construya un gráfico. Fundamente su elección. 
 
9
 
 5
 
2. El siguiente cuadro muestra información resultante de cierto estudio. Analícelo 
cuidadosamente y emita su criterio al respecto. 
Tabla # 1. Muestra de las madres del Consultorio del Médico de la Familia # 
1925 según el número de hijos tenidos en el último matrimonio. CMF # 1925, 
municipio Contramaestre, provincia Santiago de Cuba, enero de 1962. 
Edad materna 
< 20 > 20 Total # de hijos # % # % # % 
0 8 8.0 14 14.0 22 22.0 
1-3 20 20.0 6 6.0 26 26.0 
3-4 10 10.0 19 19.0 29 29.0 
5-6 10 10.0 6 6.0 16 16.0 
6 y más 2 2.0 7 7.0 9 9.0 
Total 50 100.0 50 100.0 100 100.0 
 
Fuente: Encuesta 
 
3. Para los siguientes títulos de tablas, seleccione el gráfico que mejor la 
represente. 
 
a) Distribución de ancianos según sexo. Tabasco, 2003. 
b) Distribución de médicos de familia según edad y sexo. Campeche, 2002. 
c) Mortalidad materna. Cuba, 1990-1996. 
d) Distribución de recién nacidos según raza. HGD “Dr. A. Neto”, 1998. 
e) Distribución de ancianos según peso. La Habana, 1999. 
 
A continuación, realice el trabajo grupal siguiente: 
 
1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo 
grupal, realicen un análisis crítico de los cuadros y gráficos estadísticos 
confeccionados. Incluya los errores presentes en la confección, así como las 
principales fallas detectadas en la interpretación. Al final de estos análisis 
hagan un informe de una o dos cuartillas, donde se expresen los principales 
errores (sistemáticos) detectados. 
 
2. La información siguiente es parte de los resultados de un estudio realizado en 
escolares del municipio Marianao, provincia Ciudad de La Habana, durante 
1997-1999. 
 
Nombre Sexo Edad 
YHP F 8 
HHD M 7 
GTR F 6 
TRF M 5 
10
 
 6
ADE F 14 
LOI F 11 
YGF M 5 
HTR M 9 
SDE F 10 
GTW F 8 
JFY F 9 
BHG M 8 
FRW M 12 
RTL F 8 
ABV F 9 
JUY M 10 
 
a) Construyan una tabla y un gráfico con estos datos. 
b) Interpreten los resultados. 
 
 Contenido 3. 
 
Lea detenidamente las páginas 25 a la 42 de la Bibliografía Básica. Una vez que 
haya estudiado estos contenidos realice, de forma independiente, la tarea 
siguiente: 
 
1. De los siguientes indicadores, diga su nombre y qué datos necesitaría para 
calcularlos. 
 
a) Riesgo de morir por enfermedades del corazón en Maracay, 2005. 
b) Riesgo de morir por cualquier causa en el estado de Lara, 2004. 
c) Contribución del grupo de 60 años y más a la mortalidad general en 
Venezuela, 2003. 
d) Contribución del sexo femenino a la estructura poblacional de Cuba, 2000. 
e) Riesgo de morir en la primera semana de vida extrauterina. 
f) Riesgo de morir de los enfermos de tuberculosis. 
 
2. Las cifras siguientes corresponden a la estatura (en centímetros) de los 
estudiantes de un aula de cierta escuela. La Dra. Fonseca, a cargo de dicho 
centro, desea resumir esta información con miras a redactar un informe, en el 
cual deben aparecer consignadas las interpretaciones correspondientes a los 
resultados de la media aritmética, la mediana, la moda, el rango, la desviación 
media, la desviación típica y el coeficiente de variación. ¿Podría Ud. ayudar a 
la doctora de referencia en su empeño? 
 
135 134 136 136 134
146 146 147 147 146
123 117 125 124 122
151 148 153 152 148
138 138 138 138 138
140 138 143 141 139
11
 
 7
131 219 132 132 129
145 144 146 146 145
128 126 128 128 127
137 137 137 137 137
 
Realice el trabajo grupal siguiente: 
 
1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo 
grupal, hagan un análisis crítico de las medidas utilizadas para resumir 
variables cualitativas y cuantitativas. 
 
2. En el Informe Anual de Salud del país aparecen algunos de los indicadoresde 
mortalidad. Hagan un análisis de éstos. Comparen, en la medida de lo posible, 
los indicadores del estado donde trabajan con los del país. 
 
 Contenido 4. 
 
Lea detenidamente las páginas 43 a la 63 de la Bibliografía Básica. Una vez que 
haya estudiado estos contenidos realice, de forma independiente, la tarea 
siguiente: 
 
1. Responda verdadero (V) o falso (F) 
 
____ Para construir una serie temporal los hechos deben registrarse 
cronológicamente. 
____ La obtención de la tendencia de una serie, mediante el método de las 
diferencias absolutas es muy buena cuando la serie tiene grandes 
fluctuaciones. 
____ La línea recta que se obtiene mediante el método de los semipromedios 
resulta muy atractiva para observar la tendencia. 
____ Los componentes de la serie, según el método clásico, son: la tendencia, 
estacionalidad, el ciclo y la aleatoriedad. 
 
Realice el trabajo grupal siguiente: 
 
A partir de la información disponible en el estado obtener la tendencia de la 
Mortalidad por las causas y período seleccionados por su profesor. Utilicen para 
ello métodos matemáticos y gráficos. Hagan un informe de no más de dos 
cuartillas con los resultados obtenidos. 
 
 Contenido 5. 
 
Lea detenidamente las páginas 65 a la 119 de la Bibliografía Básica. Una vez que 
haya estudiado estos contenidos realice, de forma independiente, la tarea 
siguiente: 
 
12
 
 8
1. Enumere al menos cinco interrogantes, a las que Ud. puede dar respuesta con 
el uso de las estadísticas de salud, en el contexto de su área de trabajo. 
 
2. ¿Considera importante las estadísticas de salud? Fundamente su respuesta. 
 
3. Mencione tres indicadores de estadísticas vitales. Fundamente la utilidad de 
uno de ellos. 
 
4. A continuación le brindamos la información referente a la población cubana, 
para el año 1999, según edad y sexo. Construya la pirámide poblacional 
correspondiente. 
 
Tabla 1.1 Población cubana según edad y sexo. 1999. 
Sexo Grupos de 
edad 
(años) 
Masculino Femenino 
0 - 4 385573 361824 
5 - 14 882412 839334 
15 – 49 3065649 3063266 
50 – 59 544772 557573 
60 y más 700851 741437 
Total 5579257 5563434 
 Fuente: Anuario estadístico de Cuba. 1999. 
 
7. Se desea comparar la mortalidad de dos estados de la República Bolivariana de 
Venezuela, con el objetivo de investigar las causas de una mayor tasa de 
mortalidad en el primero de éstos. Para ello es necesario controlar el posible 
efecto confusor de las diferentes estructuras por edad de estas poblaciones, 
para lograrlo, los investigadores te solicitan que tipifiques las tasas y te brindan 
la siguiente información. 
 
Primer Estado. Segundo Estado. Grupos 
de edad 
(años) Población Tasas* Población Tasas* 
< 15 442038 0.8 137177 0.7 
15 – 64 1502000 3.5 338000 2.6 
65 y más 247000 55.0 36157 49.7 
Total 2191038 8.8 511334 5.4 
 * tasas por 1000 habitantes 
 
a ) ¿Qué método de ajuste puede usar en este caso?. Fundamente. 
b ) Realice el ajuste por el método que seleccionó en el inciso anterior. 
c ) ¿Cuáles son sus conclusiones? 
13
 
 9
 
8. A continuación aparece información sobre población y defunciones de Cuba 
durante 1 999: 
SEXO POBLACIÓN DEFUNCIONES 
Masculino 5 579 257 43 794 
Femenino 5 563 434 35 692 
Total 11 142 691 79 486 
 
A partir de la información presentada calcule e interprete: 
 Porcentaje de defunciones para el sexo masculino 
 Porcentaje de defunciones para el sexo femenino 
 Tasa de mortalidad para el sexo masculino 
 Tasa de mortalidad para el sexo femenino 
 Tasa bruta de mortalidad 
 
 Contenido 6. 
Lea detenidamente las páginas 120 a la 150 de la Bibliografía Básica. Una vez 
que haya estudiado estos contenidos realice, de forma independiente, la tarea 
siguiente: 
 
1. Responda Verdadero (V) o falso (F), las siguientes afirmaciones: 
 
⎯ La probabilidad clásica puede ser calculada solamente después de 
observar un número elevado de repeticiones del experimento. 
⎯ Un experimento que realizado bajo las mismas circunstancias, se obtiene 
en cada repetición un resultado diferente, se le denomina experimento 
aleatorio. 
⎯ La definición estadística de probabilidad, considera a la frecuencia relativa 
de un evento, como una estimación de la probabilidad de ocurrencia de 
dicho evento. 
⎯ Masculino y femenino, constituyen los sucesos elementales del 
experimento aleatorio consistente, en observar el sexo de un recién 
nacido. 
 
2. Explique con sus palabras, ¿Qué entiende por variable aleatoria?. De tres 
ejemplos de aplicación en el contexto de la Salud Pública. Clasifíquelas. 
 
3. El número de fumadores en tú área de salud es una variable aleatoria. Diga, 
qué tipo de v.a y qué distribución sigue aproximadamente?. 
 
 Contenidos 7 - 9. 
 
Lea detenidamente las páginas 151 a la 266 de la Bibliografía Básica. Una vez 
que haya estudiado estos contenidos realice, de forma independiente, la tarea 
siguiente: 
 
14
 
 10
1. En una muestra de 50 bebés varones de 12 semanas de vida, se obtuvo un 
peso medio de 5.900 gr y una desviación típica de 94 gr. Obtener un intervalo 
de confianza (al 95%) para el peso medio poblacional. Interpreta el resultado. 
 
2. Se desea estimar el peso medio de mujeres de 30 a 40 años. Un estudio 
realizado en 160 mujeres de tales edades da los siguientes resultados: x = 53 
kg y s = 5 kg. Construye un intervalo de confianza al 95 % para el peso 
promedio poblacional. Interpreta el resultado. 
 
3. El director de cierto hospital está interesado en conocer el porcentaje de 
pacientes asmáticos de la población que atiende, para planificar una medida 
preventiva de las crisis. Se estudió una muestra de 250 personas de dicha 
población, encontrándose que de ellos 28 eran asmáticos. Construye un 
intervalo de confianza al 99% para la proporción de asmáticos de dicha 
población. 
 
4. Se conoce que un 20% de los individuos tratados crónicamente con digoxina 
sufren una reacción adversa por causa de ella. A 10 pacientes se les 
administró durante largo tiempo digoxina más otros medicamentos, y de ellos 5 
desarrollaron la reacción adversa. ¿Puede afirmarse que la asociación entre la 
digoxina y los otros medicamentos hace variar el número de reacciones 
adversas? 
 
5. Un 8% de los individuos que acuden a un servicio sanitario son 
hiperutilizadores del mismo (más de 11 visitas al año) y, de entre ellos, un 70% 
son mujeres. De entre los no hiperutilizadores, son mujeres el 51%. ¿Puede 
afirmarse que han variado los hábitos de éstas si, tras una campaña de 
información y control de visitas, de 90 mujeres elegidas al azar 6 resultaron 
hiperutilizadoras? 
 
6. La eliminación por orina de aldosterona está valorada en individuos normales 
en 12 mgs/24 h. por término medio. En 50 individuos con insuficiencia cardíaca 
se observó una eliminación media de aldosterona de 13 mgs/24 h., con una 
desviación típica de 2,5 mgs/24 h. 
a ) ¿Son compatibles estos resultados con los de los individuos normales? 
b ) ¿La insuficiencia cardíaca aumenta la eliminación por orina de 
aldosterona? 
7. En una investigación realizada sobre la Calidad de la Atención, se trata de 
probar la hipótesis de que existe asociación entre la satisfacción de la 
población con el servicio brindado y la calificación del personal. Para ello se 
diseña un estudio, en el que se obtuvo el siguiente resultado: 
 
Satisfacción Calificación 
profesional Si NO 
Total 
Buena 175 15 190 
Regular 15 25 40 
15
 
 11
Mala 10 160 170 
Total 200 200 400 
 
a. ¿Qué prueba de hipótesis Ud. Utilizaría? 
b. Pruebe la hipótesis planteada con anterioridad. 
 
8. Se desea determinar si las cuatro áreas de salud de un municipio, difieren 
respecto al peso medio al nacimiento de niños a término, para ello se 
seleccionaron aleatoriamente una muestra de registros de nacimientos de cada 
área. A continuación se muestran los pesos de los recién nacidos (peso en 
libras): 
Áreas 
A B C D 
6.40 
6.33 
4.96 
8.01 
5.61 
6.53 
5.23 
5.026.93 
6.21 
6.74 
6.01 
7.12 
6.40 
7.35 
5.04 
6.33 
5.66 
5.60 
5.08 
5.10 
4.99 
4.80 
4.97 
6.39 
6.42 
5.10 
5.85 
6.21 
5.24 
4.36 
6.19 
6.0 
 
¿Es posible concluir que las cuatro áreas difieren respecto al peso medio al nacer 
de niños a término? 
Considere un α=0.05 
 
9. Se llevó a cabo un experimento para evaluar el efecto de cierto medicamento 
para disminuir la frecuencia cardiaca en adultos. Los resultados obtenidos se 
brindan al continuación: 
Dosis del medicamento 
(mg) 
Disminución frecuencia 
cardiaca (latidos / minuto) 
0,50 10 
0,75 8 
1,00 12 
1,25 12 
1,50 14 
1,75 12 
2,00 16 
2,25 18 
2,50 17 
2,75 20 
3,00 18 
3,25 20 
3,50 21 
16
 
 12
 
a) Construya el diagrama de dispersión 
b) Estime e interprete el coeficiente de correlación. 
c) Estime e Interprete el coeficiente de determinación. 
d) Obtenga un IC (95%) para β. Intérprete los resultados. 
 
10. Una muestra aleatoria de 24 enfermeras seleccionadas de un registro estatal 
de enfermeras proporcionó la siguiente información acerca de la calificación 
de cada enfermera en el test psicométrico realizado al inicio del curso y su 
calificación final acumulada en la escuela. 
 
 
TEST 
PSICOMÉTRICO 
(X) 
 
CALIFICACION 
ACUMULADA AL 
FINAL DEL 
CURSO 
(Y) 
 
TEST 
SICOMÉTRICO 
(X) 
 
CALIFICACION 
ACUMULADA AL 
FINAL DEL 
CURSO 
(Y) 
 
87 
87 
87 
88 
88 
89 
89 
89 
89 
90 
90 
90 
91 
90 
85 
 
440 
480 
535 
460 
525 
480 
510 
530 
545 
600 
495 
545 
575 
620 
480 
 
91 
91 
92 
92 
92 
93 
93 
94 
94 
94 
94 
95 
80 
89 
90 
 
525 
575 
600 
490 
510 
575 
540 
595 
525 
600 
625 
680 
420 
512 
495 
 
a) Preparar un diagrama de dispersión. 
b) Calcular r 
c) Probar H0:β =0 con α =0.05 
d) Construir el intervalo de confianza del 95% para β. 
 
V. Bibliografía: 
 
La bibliografía disponible para el estudio de los temas del módulo ha sido 
seleccionada de libros y monografías escritos por los profesores del curso y por 
otros miembros del claustro de la maestría. Las principales fuentes de las mismas 
se encuentran en: 
17
 
 13
Básica: 
1. Estadística Descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford Saing R, 
Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro de Texto de 
Metodología de la Investigación. Maestrías para profesionales de la Atención 
Primaria de Salud. La Habana, 2004. 
2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material 
Docente. ENSAP; 2000 
3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M. 
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46. 
4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M. 
Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129. 
5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a la 
Investigación en Atención Primaria de Salud. Parte III. Material Docente. 
ENSAP; 2002 
Complementaria: 
1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M, Bayarre 
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo 
2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300. 
2. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M, Bayarre 
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo 
2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454. 
3. Métodos estadísticos para el análisis de datos cualitativos. Análisis de 
Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M, 
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática 
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473. 
4. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M, Bayarre 
Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo 
2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473. 
VI. Evaluación del Módulo: 
 
La evaluación del tema, forma parte del sistema evaluativo del curso; este incluye 
la evaluación, por parte del profesor, de las respuestas a los trabajos individuales 
y de grupo. A ello se le adicionará una prueba escrita de los contenidos del tema. 
La Evaluación Final se realizará mediante la integración de todos los componentes 
de ésta, en escala cualitativa (excelente, bien, aprobado, desaprobado) 
 
18
 
 
 
 
 
 
 
 
 
 MAESTRÍA DE SALUD PÚBLICA 
 
 
 
 
 
 
MÓDULO 3 
 ESTADÍSTICA 
 
 
 
 
SELECCIÓN DE LECTURAS 
 
 
 
 
 
 
 
 
 
 
La Habana/Caracas 
2007 
19
 
Tabla de Contenido 
 
TEMA 1- ESTADÍSTICA DESCRIPTIVA. ............................................................... 3 
1.1 Estadística. Conceptos básicos..................................................................... 3 
1.2- Representación Estadística. El Cuadro y los Gráficos. ............................ 12 
1.3 - Medidas de resumen para variables cualitativas. .................................... 25 
1.4- Medidas de resumen para variables cuantitativas. ................................... 30 
1.5 - Análisis de Series Cronológicas o Temporales. ...................................... 43 
TEMA 2. ESTADÍSTICAS DE SALUD.................................................................. 64 
2.1 Fuentes de información................................................................................ 65 
2.2 La población .................................................................................................. 68 
2.3 La fecundidad ................................................................................................ 75 
2.4 La mortalidad................................................................................................. 81 
2.5 La morbilidad............................................................................................... 108 
2.6 Estadísticas de recursos y servicios......................................................... 113 
2.7 Clasificación internacional de enfermedades (cie) .................................. 118 
TEMA 3- INTRODUCCIÓN A LA TEORÍA DE PROBABILIDADES. ................. 120 
3.1 Probabilidad. Conceptos básicos.............................................................. 121 
3.2 Variables aleatorias..................................................................................... 127 
3.3 Distribución de probabilidad de una variable aleatoria. .......................... 130 
3.4 La distribución Binomial............................................................................. 136 
3.5 La distribución de Poisson......................................................................... 138 
3.6 La distribución normal................................................................................ 139 
3.7 Otras distribuciones de probabilidad. ....................................................... 147 
20
 
TEMA 4 - INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA ...................... 151 
4.1 - Distribuciones muestrales. ..................................................................... 152 
4.2 - Estimación de parámetros. ..................................................................... 157 
4.3 Intervalos de confianza.............................................................................. 160 
4.4 Pruebas de hipótesis. ................................................................................. 168 
4.5 Introducción al Análisis de Varianza ......................................................... 193 
4.6 Correlación y regresión lineal simple........................................................ 224 
4.7 Introducción a los Métodos no Paramétricos........................................... 254 
 
21
 
 
 
 
 
Tema 1- Estadística Descriptiva. 
 
1.1 Estadística. Conceptos básicos. 
1.1.1 Estadística y estadísticas. 
Debemos distinguir dos acepciones diferentes de la palabra: estadísticas en plural 
se refiere a datos numéricos, por ejemplo, cuando hablamos de estadísticasde 
mortalidad estamos haciendo alusión a datos de mortalidad, estadísticas de 
fecundidad, datos de fecundidad, sin embargo, Estadística en singular es para 
algunos la ciencia, para otros el método que nos brinda las herramientas 
necesarias para la recolección, procesamiento y análisis de la información. 
La Estadística se divide en dos grandes ramas: la Estadística descriptiva y la 
Estadística Inferencial. 
La Estadística descriptiva nos brinda las herramientas necesarias para 
caracterizar un grupo de elementos o unidades de análisis pero sin pretender 
generalizar esos resultados a un grupo mayor, objetivo que sí persigue la 
Estadística inferencial. 
1.1.2 Universo y muestra. 
Otro aspecto que debemos tener presente es qué se entiende por población o 
universo. 
Población es un conjunto de elementos, objetos o unidades de análisis que al 
menos comparten una característica que nos interesa conocer o estudiar. Por 
ejemplo, los niños residentes en Santa Cruz que asistieron a la escuela durante el 
año 1998. Esta población tiene 3 características que la definen, todos los 
elementos que la integran son niños, todos residen en la misma localidad, Santa 
Cruz, y todos tienen que haber asistido a la escuela durante el año 1997. Otro 
ejemplo sería las historias clínicas de un hospital para un periodo de tiempo dado. 
Se debe aclarar que no siempre investigamos personas, en ocasiones se estudian 
animales de experimentación, muestras de tejidos (biopsias) o de sangre, etc, por 
lo que de manera general se suele llamar unidades de análisis a los elementos de 
la población objeto de estudio. 
Es muy importante en una investigación, definir como parte del método, la 
población objeto de estudio de manera que quede claro qué elementos la integran. 
Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin 
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la 
Investigación. Maestrías para profesionales de la Atención Primaria de Salud. 
22
 
La Muestra no es más que una parte cualquiera de la población, un conjunto 
cualquiera no vacío, o sea, que teóricamente incluso un solo elemento de la 
población puede ser considerado como una muestra, aunque en la práctica esto 
ocurra con poca frecuencia. 
Los conceptos de muestra y población son conceptos relativos, lo que en un 
estudio puede ser una población en otro puede ser una muestra. Los niños de 
Santa Cruz que asistieron a la escuela en el año 1997 pueden ser parte de una 
muestra que se haya diseñado para un estudio nacional. 
Veamos algunos ejemplos de población y muestra: 
1. Para determinar si el medicamento X producido en la Fábrica de 
Medicamentos Y tiene la calidad adecuada, se toman 100 tabletas al 
azar de la producción de una semana. Aquí la población es el total de 
tabletas del medicamento X producidas por la fábrica, y la muestra está 
formada por las 100 tabletas que se estudiaron. 
2. Un grupo de investigadores desea estudiar el comportamiento del 
síndrome anémico en el área que atiende el policlínico Sur de la 
provincia Guantánamo, para ello decide tomar a los habitantes de los 
consultorios 66, 50, 17 y 5 a fin de realizarles los exámenes pertinentes. 
En este caso, la población está formada por el total de personas que 
atiende el policlínico, y la muestra por las personas que atienden los 
cuatro consultorios escogidos. 
3. Unos investigadores se proponen estudiar la actitud de las jubiladas de 
cierto consultorio ante el estrés generado por las tareas del hogar, por lo 
que estudiaron a 10 de las 37 jubiladas existentes. Obviamente, la 
población está constituida por las 37 jubiladas, y la muestra por las 10 
señoras estudiadas. 
4. Los mismos investigadores desean estudiar el fenómeno en el área 
atendida por el policlínico, de ahí que estudiarán a las jubiladas de cinco 
consultorios. Ahora, la población es el total de jubiladas que atiende el 
policlínico, y la muestra las jubiladas de aquellos consultorios escogidos. 
La selección de la muestra puede realizarse aplicando técnicas estadísticas con lo 
que se obtiene una muestra probabilística, o simplemente definir la muestra por 
criterio de expertos. 
La determinación correcta de la muestra entraña el cálculo del tamaño muestral 
adecuado para lograr resultados fiables, y la selección del método de muestreo 
apropiado. Para este proceder es recomendable acudir a un Bioestadístico, o 
especialista afín, para recibir asesoría al respecto. 
23
 
1.1.3 Variables. Definición y clasificación 
Un concepto trascendental para la estadística, pues constituye el punto de partida 
para definir métodos de representación a utilizar, medidas de resumen a calcular y 
qué técnicas de análisis se pueden aplicar, es el de variable. 
Consideraremos como variable cualquier característica de la población que puede 
asumir diferentes comportamientos, valores, o grados de intensidad entre los 
diferentes elementos, individuos o unidades de análisis. Por ejemplo la edad es 
una característica que asume diferentes valores de un individuo a otro, el sexo, el 
estado civil, los servicios de un hospital, son todos variables. 
En fin, toda característica inherente a los objetos y fenómenos que nos rodean 
puede ser una variable: los colores de las cosas, la estatura de las personas, la 
altura de las edificaciones, el volumen de los recipientes, la cantidad de autos que 
pasan la noche en un parqueo, o los países ganadores en las Copas Mundiales de 
Boxeo, entre otras. Pero, obsérvese que no son variables por el simple hecho de 
ser características, sino porque pueden asumir valores diferentes en dependencia 
de qué objeto o fenómeno midas, además, éstas no se miden todas de la misma 
manera, unas se miden numéricamente y otras no, de aquí que las variables 
pueden clasificarse en dos grandes grupos: cuantitativas y cualitativas, 
Las variables cualitativas son aquellas que se identifican con cualidades o 
atributos y que no toman valores numéricos. Ej.: el sexo, la nacionalidad, las 
especialidades médicas con que cuenta un centro asistencial y las causas de 
defunción, entre otras. 
Las variables cuantitativas son aquellas en las que las diferencias existentes entre 
los disímiles elementos de la población son medibles numéricamente. Ej. la edad, 
la talla, el peso, el número de camas de un hospital, el número de hijos de una 
familia, etc. 
Las variables cualitativas a su vez se clasifican en nominales y ordinales o 
cuasicuantitativas. Es importante definir que los valores posibles de una variable 
cualitativa se denominan categorías, así la variable sexo tiene dos categorías: 
femenino y masculino, mientras que la variable raza tiene tres o más categorías: 
blanca, negra, mestiza y otras. 
Una variable se considera cualitativa nominal cuando las diferencias en cuanto a 
sus valores entre los elementos no traducen diferencias de magnitudes o de 
intensidad. Son cualidades, atributos que no son medibles numéricamente. Ej.: el 
estado civil y el sexo. Mientras que, las variables cualitativas ordinales son 
aquellas en que las diferencias si bien no son cuantificables, si tienen implícito 
diferencias de magnitud o de intensidad y dan una idea de ordenamiento. Ej. el 
estado de un paciente: grave, de cuidado, mejorado; el estado técnico de una 
vivienda: buena, regular, mala; el estadio de una enfermedad: leve, moderada, 
severa. 
24
 
A su vez las variables cuantitativas también se subdividen en dos subgrupos: 
discretas o discontinuas y continuas. 
Las variables cuantitativas discretas son aquellas que sólo asumen valores 
enteros, por lo general estas variables resultan del conteo. Ej.: el número de hijos, 
una pareja podrá tener 5 hijos, 10 hijos o ningún hijo, pero lo que no podrá tener 
nunca es 1.6 hijos. 
Sin embargo, las variables cuantitativas continuas sí pueden asumir valores 
fraccionarios. Ej.: el peso, la talla, la edad. 
En el siguiente cuadro se resume la clasificación de las variables. 
Nominales 
No existen diferenciasde 
magnitud o intensidad 
entre sus categorías. Cualitativas: 
 
No se miden 
numéricamente Ordinales o 
Cuasicuantitativas 
Llevan implícito 
diferencias de magnitud o 
intensidad entre sus 
categorías, que les 
confiere cierto orden. 
Discretas o 
Discontinuas 
Toman valores siempre 
enteros, de manera que 
entre dos valores enteros 
consecutivos no existen 
posibilidades prácticas ni 
teóricas de que haya 
valores intermedios. 
Variables 
Cuantitativas: 
 
Se miden 
numéricamente 
Continuas 
Entre dos valores enteros 
consecutivos existen 
infinitos valores 
intermedios (al menos 
teóricamente) aunque 
frecuentemente se 
emplean valores enteros. 
 
Identificar el tipo de variables que estudiamos en las unidades de análisis de una 
investigación resulta de vital importancia, ya que todo el procesamiento estadístico 
de los datos depende del tipo de variable. 
Es oportuno aclarar acerca de un error bastante frecuente relacionado con la 
utilización cada vez más creciente del software para el tratamiento estadístico de 
la información. Se trata del mal uso de la codificación, un recurso que brindan los 
paquetes estadísticos, consistente en la asignación de códigos numéricos a las 
variables en estudio, a fin de facilitar su manejo. Por ejemplo, el sexo puede 
25
Administrador
Resaltado
 
tratarse como 1 para el femenino y 2 para el masculino (o viceversa), pero este 
tratamiento no le confiere valor cuantitativo a la variable, puesto que es cualitativa; 
por ende, no se le pueden aplicar procedimientos matemáticos propios de 
variables cuantitativas. 
1.1.4 Escalas de clasificación de las variables 
Una vez identificadas las variables que formarán parte del estudio, el siguiente 
paso que se impone es definir las escalas de clasificación para esas variables. 
Una escala de clasificación no es más que el conjunto de clases o categorías que 
se definen para clasificar la información en función de determinada variable. En el 
caso de las variables cualitativas la propia naturaleza de la variable establece las 
posibles categorías de la escala. Por ejemplo, la variable estado civil puede asumir 
5 categorías en su escala: soltero, viudo, divorciado, acompañado y casado. 
Pueden utilizarse esas 5 o hacer reagrupaciones y definir solo dos categorías en 
función de los intereses que se persiga con el estudio: uniones estables (casado y 
acompañado) y uniones inestables (soltero, divorciado y viudo). En el caso de las 
variables cuantitativas pueden existir diferentes y diversas escalas. 
Sea cual sea la escala que se construya para la clasificación de la información 
debe cumplir con dos requisitos o condiciones para que sea una buena escala. 
En primer lugar que sea exhaustiva, que el número de clases o categorías que la 
constituyen garanticen que todos los elementos que integran la población puedan 
ser clasificados. 
La segunda condición que deben cumplir es que las categorías sean mutuamente 
excluyentes, de forma tal que no quede duda de en qué clase debe ser incluido 
cada uno de los elementos que conforman la muestra o la población. 
A modo de ejemplo: Supongamos que se quiere hacer un estudio de fecundidad y 
una de las variables a estudiar es la edad a la que se produjo el nacimiento. 
Edad. (años) 
20 -25 
25 - 29 
 30 - 34 
35 - 39 
40 - 44 
Si se producen nacimientos en menores de 20 años, algo bastante probable, no 
tendrían una categoría donde ser ubicados por tanto no se cumpliría el principio de 
la exhaustividad, por otra parte si nace un niño cuya madre tiene 25 años no 
sabríamos en que categoría incluirlo, si en la primera o en la segunda, por tanto 
las clases de la escala no son mutuamente excluyentes. 
Las escalas pueden ser cuantitativas o cualitativas, en dependencia de si sus 
categorías pueden ser numéricamente medidas o no. Para las variables 
cualitativas se construyen escalas cualitativas, las que consisten simplemente en 
26
Administrador
Resaltado
Administrador
Resaltado
Administrador
Resaltado
 
identificar los valores de la variable (sus categorías) y clasificar a las unidades de 
análisis de acuerdo a estas categorías, y al igual que las variables, pueden ser 
nominales u ordinales. Por su parte las escalas cuantitativas pueden ser discretas 
o continuas. 
Para las variables cuantitativas se pueden emplear tanto las escalas cualitativas 
como las cuantitativas. Por ejemplo, el peso puede considerarse cualitativamente: 
normopeso o no, o un poco más detallado: bajo peso, normopeso y sobrepeso. En 
el primer caso se trata de una escala cualitativa nominal y ordinal en el segundo. 
Por lo tanto, se puede construir una escala cualitativa a cualquier variable (dentro 
de lo razonablemente lógico), no importa cual sea la naturaleza de dicha variable. 
Claro que, al hacerlo, si se está representando una variable cuantitativa, 
sencillamente se pierde información que pudiera resultar valiosa. 
Para el caso particular de las escalas cuantitativas es necesario identificar algunos 
elementos particulares. 
Las clases o categorías que conforman las escalas cuantitativas se denominan 
intervalos de clase, en el ejemplo anterior de la edad de las madres, esa escala 
está formada por 5 intervalos de clase. 
El menor valor y el mayor valor que delimitan los intervalos de clase se denominan 
límite de clase inferior y límite de clase superior y a aquellos intervalos de clase 
que les falta uno de los límites, ya sea el inferior o el superior, se les llama 
abiertos. 
Así, en el mismo ejemplo 20, 25, 30, 35 y 40, serían los límites inferiores, y 24 
(subsanando el error), 29, 34, 39 y 44, serían los límites superiores, siendo todos 
intervalos cerrados. 
Para cumplir con el criterio de exhaustividad, en este ejemplo de la edad de las 
madres, se hace necesario agregar un intervalo de clase al principio y al final de la 
escala, ya que se puede asumir que deben ocurrir nacimientos por debajo de los 
20 años y por encima de los 44 años, pero cuán joven puede ser la madre o cuán 
mayor, lo desconocemos. En este caso que no tenemos bien definido que limite 
inferior asumir, simplemente lo omitimos y creamos un intervalo de clase abierto: 
19 años o menos, o menor de 20 años. Lo mismo pudiera ocurrir con el último 
intervalo, y sería, 45 años o más. 
Las escalas pueden ser cerradas o abiertas, en virtud de que todos sus intervalos 
sean cerrados o no. Algunos autores denominan semiabiertas o semicerradas a 
aquellas escalas en las que uno de sus intervalos, ya sea el primero o el último 
son abiertos; reservando el término abierta para las escalas en que ambos 
intervalos son abiertos. 
Analicemos en detalles la construcción de escalas cuantitativas. Ya comentamos 
que esta escala de clasificación está compuesta por varias divisiones ordenadas 
llamadas Intervalos de clase, los cuales están delimitados por límites de clase 
superior e inferior, que son los valores mayor y menor que los enmarcan, 
27
Administrador
Resaltado
Administrador
Resaltado
Administrador
Resaltado
 
respectivamente. A su vez los intervalos pueden ser cerrados o abiertos en 
dependencia de si poseen los dos límites de clase o uno solo. 
Para ilustrar las ideas planteadas, mostramos una escala cuantitativa de 
intervalos, abierta y los intervalos utilizados: 
Edad (años) 
< 20 ⇐ Intervalo de clase abierto 
20 – 24 
25 – 29 
30 – 34 
35 – 39 
40 - 44 
 Intervalos de clase cerrados 
45 y más ⇐ Intervalo de clase abierto 
 
Los intervalos pueden o no tener igual amplitud, aunque se prefiere lo primero, ya 
que facilita enormemente el trabajo posterior con los datos. La amplitud o 
recorrido (A) de un intervalo de clase es la longitud de éste. Su cálculo puede 
hacerse de distintas maneras, veamos algunas: 
1. Hallar la diferencia de los límites de clase del intervalo de 
referencia y, luego, adicionarle una unidad al resultado obtenido. 
Así, para el segundo intervalo de la ilustración anterior: 
A = (24 – 20) + 1 = 5. 
2. Otra forma de cálculo es contando losnúmeros enteros que se 
encuentran entre los valores límites, incluyendo éstos. Así, para 
el segundo intervalo de la ilustración anterior, la amplitud sería el 
conteo de 20, 21, 22, 23 y 24, es decir, A = 5. 
Obviamente, estos ejemplos son válidos cuando los límites de las escalas son 
números enteros. 
Para construir una escala cuantitativa con intervalos de igual amplitud, se deben 
seguir los siguientes pasos: 
1. Determinar el recorrido de la serie (R). Esto se logra restando el valor mínimo 
al máximo. En el ejemplo dela Edad de la madre en años, el Rango será igual 
a la diferencia de la edad mayor (madre de mayor edad) y la edad menor 
(madre más joven) del grupo estudiado. 
2. Establecer el número mínimo de intervalos deseado. Esta decisión es 
personal, se determina en dependencia de las necesidades y los objetivos de 
cada investigación. No siempre este es el número definitivo de intervalos, 
ocasionalmente se requiere de un intervalo adicional. 
3. Calcular la amplitud (A) de los intervalos. Para ello, se divide el rango obtenido 
en el paso 1 por el número de intervalos fijado en el paso anterior. Es 
recomendable redondear para convertir la amplitud en un número entero, lo 
que facilitará la construcción de la escala. 
28
 
4. Delimitar los límites inferiores (LI) de los intervalos. Partiendo del valor mínimo 
de la serie, sumar la amplitud de los intervalos (A) y se obtendrá el LI del 
intervalo siguiente, a este se le suma la amplitud (A) y se obtiene el 
subsiguiente, y así hasta llegar al último intervalo de la escala. 
5. Delimitar los límites superiores (LS). Se obtiene sustrayendo (restando) una 
unidad al LI siguiente. En el caso del LS del último intervalo, se obtiene 
sumándole la amplitud al último LI, y luego restando al resultado una unidad. 
A fin de fijar ideas, veamos la construcción de una escala paso a paso. A 
continuación se tiene una lista con los pesos (en libras) de 20 adolescentes, y se 
desea agruparlos en una escala cuantitativa con intervalos de igual amplitud. 
Nro. Peso Nro. Peso Nro. Peso Nro. Peso 
1. 160,00 6. 170,54 11. 166,00 16. 150,00 
2. 160,36 7. 160,20 12. 156,70 17. 151,78 
3. 158,20 8. 163,20 13. 154,50 18. 152,00 
4. 174,00 9. 165,80 14. 155,00 19. 154,80 
5. 170,00 10. 165,90 15. 155,90 20. 156,70 
 
Para visualizar mejor el rango es conveniente ordenar la serie1 de datos de menor 
a mayor: 
Nro. Peso Nro. Peso Nro. Peso Nro. Peso 
1. 150,00 6. 155,00 11. 160,00 16. 165,90 
2. 151,78 7. 155,90 12. 160,20 17. 166,00 
3. 152,00 8. 156,70 13. 160,36 18. 170,00 
4. 154,50 9. 156,70 14. 163,20 19. 170,54 
5. 154,80 10. 158,20 15. 165,80 20. 174,00 
 
Como puede verse el valor mínimo es 150, y el máximo 174, de manera que la 
escala se construirá de la siguiente manera: 
1. El recorrido de la serie es R = 174.00 – 150.00 = 24. 
2. Establecemos como mínimo 4 intervalos de clase. 
3. La amplitud que tendrán los intervalos es A = 24 / 4 = 6. 
4. Límites inferiores se muestran a continuación: 
Intervalo Límites inferiores 
1. 150 
2. 150 + 6 = 156 
3. 156 + 6 = 162 
4. 162 + 6 = 168 
 
1 Se le llama serie de datos al conjunto de valores de una variable obtenidos en un 
estudio, por ejemplo todos los pesos de los pacientes estudiados. 
29
 
5. Límites superiores: 
Intervalos Límites superiores 
1. 156 - 1 = 155 
2. 162 - 1 = 161 
3. 168 - 1 = 167 
4. 174 - 1 = 173 
Hasta este punto, la escala será 150-155, 156-161, 162-167, 168-173, 
completando así los cuatro intervalos deseados. Pero como puede comprobarse, 
en los datos existe un valor que supera 173, de ahí que sea necesario añadir un 
intervalo de clase al número predicho con el objetivo de lograr la exhaustividad de 
la escala: 
Límite inferior del quinto IC: 168 + 6 = 174 
Límite superior del último intervalo: 174 + 6 - 1 = 179 
Finalmente, la escala es la siguiente: 
Peso (libras) Nro. % 
150 – 155 7 35 
156 – 161 6 30 
162 – 167 4 20 
168 – 173 2 10 
174 – 179 1 5 
Total 20 100 
 
Observa que esta escala cumple con los requisitos planteados al inicio de este 
epígrafe, es decir, es exhaustiva y sus intervalos son excluyentes entre sí. 
1.1.5 Distribuciones de frecuencias absolutas, relativas y acumuladas. 
Una vez definidas las variables y su escala de clasificación, el siguiente paso sería 
clasificar la información, obtener el número de elementos que corresponden a 
cada una de las clases de la escala, es decir, la frecuencia absoluta de cada 
clase, con lo que estamos resumiendo la información original. 
Cuando tenemos una escala de clasificación y la frecuencia absoluta calculada 
estamos en presencia de una distribución de frecuencias para esa variable. 
Además de la frecuencia absoluta también se puede obtener la frecuencia relativa. 
Esta se obtiene dividiendo la frecuencia absoluta de cada clase entre el total de 
observaciones, el valor que se obtiene se conoce por el nombre de proporción y si 
este resultado se multiplica por cien (x 100) estaremos en presencia del por ciento 
o porcentaje, que es una medida de la contribución que hace cada clase, la 
importancia relativa con relación al total de observaciones, al total de la población 
o al tamaño de la muestra. Veamos un ejemplo: 
30
 
Edad 
(años) 
Frecuencia 
 absoluta 
Frecuencia relativa 
Proporción % 
Frecuencias acumuladas 
Absoluta Relativa 
 20–24 20 0.29 29 20 29 
 25–29 18 0.27 27 38 56 
 30–34 15 0.22 22 53 78 
 35–39 10 0.15 15 63 93 
 40–44 5 0.07 7 68 100 
Total 68 1.00 100 
 
Observe que la suma de todas las frecuencias absolutas es igual al total de 
observaciones, y la suma de todas las frecuencias relativas es igual a 1 o a 100 en 
dependencia de si se trabaja con proporciones o porcentajes. 
También pueden calcularse las frecuencias acumuladas absolutas o relativas. 
Para ello se suman las frecuencias de todas las clases que anteceden a la clase 
para la cual se esta realizando el cálculo. La frecuencia acumulada del primer 
intervalo de clase coincide con la absoluta o relativa del mismo, pues como es 
obvio nadie la antecede y la del último intervalo es el total de observaciones 1 o 
100. 
Veamos un ejemplo. La frecuencia absoluta acumulada del tercer intervalo de 
clase sería: 20 + 18 + 15 = 53 y la relativa en forma de por cientos: 29 + 27 + 22 = 
78 %. Compruebe el resto de los cálculos con el ejemplo de la tabla anterior. 
Las frecuencias absolutas y relativas pueden calcularse tanto para variables 
cualitativas como para las cuantitativas, sin embargo como es fácil de apreciar las 
frecuencias acumuladas sólo pueden calcularse para las variables cuantitativas. 
Resumiendo, las distribuciones de frecuencias pueden clasificarse en: 
 
- Absoluta 
 
 
- Relativa Distribuciones 
De frecuencias 
- Acumulada
 
- Absoluta 
- Relativa 
 
 
1.2- Representación Estadística. El Cuadro y los Gráficos. 
Al realizar una investigación se obtiene información sobre las variables del estudio. 
Sin embargo, por lo general es tanto el volumen de información registrada que se 
necesita utilizar alguna técnica que permita presentarla de manera resumida. 
Existen dos formas de presentar la información resumida: la tabla o cuadro 
estadístico y los gráficos. 
31
 
1.2.1 – La tabla o Cuadro estadístico. 
Un cuadro estadístico es un recurso que emplea la Estadística con el fin de 
presentar información resumida, organizada por filas y columnas. 
El cuadro tiene la finalidad de representar distribuciones de frecuencias, medidas 
de resúmenes y series cronológicas. 
1.2.1.1 Partes del cuadro estadístico. 
Varios son los elementos que integran una tabla o cuadro2 estadístico. 
Seguidamente presentamos cada uno de ellos: 
– Presentación (Identificacióny Título) 
– Cuerpo de la tabla 
– Fuente 
– Notas explicativas 
 
1. Identificación. Consiste en otorgar un orden consecutivo a los cuadros, 
comenzando por el número uno, v.g. Cuadro 1, Cuadro 2, etc. 
2. Título. Debe ser completo y conciso. Para ser completo, el título debe responder 
a las preguntas qué, cómo, dónde y cuándo. Reconozcamos en un ejemplo 
cada una de estas preguntas: 
Cuadro 1. Distribución de fallecidos según grupos de edad y sexo. La Habana, 
1999. 
Un análisis del título anterior permite conocer que: 
- Distribución de fallecidos es de qué trata el cuadro. 
- Los grupos de edad y sexo son el cómo se midió, es decir, a través 
de cuáles variables. 
- La Habana es dónde se realizó el estudio. 
- 1999 es cuándo se realizó el estudio. 
Observe que las variables se presentan después del vocablo “según”, aunque 
alternativamente puede usarse el término “por” o “de acuerdo a”. 
También es conveniente plantear que, en ocasiones, no es necesario dar 
respuestas a estas cuatro interrogantes en un título, en cuyo caso sólo deberá 
responderse al qué y al cómo. Ello ocurre cuando se está representando 
información obtenida en una investigación y, en el informe final o el artículo, ya se 
ha consignado en algún apartado anterior al de Resultados (Métodos), dónde y 
cuándo se realizó el estudio, y por supuesto todos los cuadros representan la 
 
2 Cuadro o Tabla de manera indistinta, pero no debiera usarse alternativamente en 
un mismo trabajo: uno o el otro. 
 
32
 
información del mismo lugar y período, si no es así es necesario señalarlo en cada 
caso. 
El otro elemento, la concisión, consiste en escribir justamente lo necesario. Se 
deben eliminar las preposiciones y artículos que no ayuden a la comprensión del 
título del cuadro. No obstante, no debe sacrificarse el mensaje redactando un título 
“telegráfico”, no se debe ser lacónico pues ello dificultaría la comprensión de lo 
que se quiere decir. 
3. Cuerpo del cuadro. Es el cuadro en sí mismo, formado por un arreglo de filas y 
columnas, y espacios llamados celdas, que se forman del cruce de una fila con 
una columna, por ejemplo: 
Columna matriz Fila de encabezamiento Total 
xx xx xx 
xx xx xx 
xx xx xx 
Total xx xx 
 
La columna matriz se utiliza para consignar la variable con su escala de 
clasificación. En caso de que el cuadro represente más de una variable, por la 
columna matriz representarás la que tenga más clases o categorías o la que 
constituye la causa, en estudios de causalidad. 
En la fila de encabezamiento se presentan las distribuciones de frecuencias, las 
medidas de resúmenes o la otra variable. La fila y columna últimas se dedican a 
los totales. 
Los cuadros estadísticos suelen clasificarse según el número de variables que 
representan en: 
Cuadros 
 
• Unidimensionales: una variable. 
• Bidimensionales: dos variables. 
• Multidimensionales: tres o más variables. 
 
 
Deben ser autoexplicativos, o sea, que se expliquen por sí mismos, por lo que se 
debe evitar presentar demasiada información en ellos en aras de ganar claridad. 
En general, como forma de presentación se utilizan cuadros uni y bidimensionales, 
reservándose el uso de los multidimensionales para fines de trabajo. 
4. Fuente. Se refiere al documento3 de donde se extrajo la información 
presentada. Por lo general, las fuentes de información se clasifican en: 
 
3 Cuando decimos documento no hacemos distinción de su soporte, puede estar 
impreso, en formato digital, etc. 
33
 
Fuentes 
 
Primarias: aquellas de las que el investigador 
obtiene directamente la información utilizando 
diversas técnicas y métodos, v.g. la encuesta. 
 
Secundarias: aquellas que existen 
independientemente del estudio y el investigador 
sólo las utiliza, v.g. el Registro de Nacimientos, 
las historias clínicas. 
 
 
Resulta válido y oportuno aclarar que en la tabla sólo se consignarán Fuentes 
Secundarias. 
Recuerda que una fuente es un documento. Frecuentemente esto se olvida, y se 
consignan erróneamente como fuentes algunos locales, departamentos, entre 
otros, como la Oficina Nacional de Estadísticas, el Archivo del policlínico, etc. 
5. Notas explicativas o aclaratorias. Se utilizan cuando se desea aclarar algo, por 
lo general del título o del cuerpo de la tabla. 
1.2.1.2 Errores más frecuentes 
No son pocos los errores que se cometen, voluntaria o involuntariamente, en la 
confección de los cuadros estadísticos. A continuación presentamos una lista de 
los más comunes, revisarla puede contribuir a no incurrir en ellos. 
I. Errores en la presentación. 
– Cuadros sin identificación. 
– Título o encabezamiento incorrecto o inadecuado: 
– Telegráfico: título demasiado pequeño, carente de claridad. 
– Ampuloso: título demasiado extenso, que incluye vocablos que no 
aportan nada a la claridad del texto. 
II. Errores del cuerpo. 
Errores de cálculo. 
Disposición incorrecta de los datos. 
Mostrar solamente medidas relativas (frecuentemente 
porcentajes) u otras medidas de resumen. 
Cuadros sobrecargados. 
III. Errores en la fuente. 
No citar la fuente cuando es secundaria. 
34
 
Citar la fuente cuando es primaria. 
Consignar como fuente aquello que no es un documento 
(oficinas, departamentos, centros, etc.) 
1.2.1.3 ¿Cómo leer un cuadro estadístico? 
Realmente parece algo tan trivial, que muchas personas lo pasan por alto muchas 
veces, lo que puede conllevar a interpretaciones erróneas del cuadro —o en el 
peor de los casos, a no entenderlo—. Para evitar el fiasco, echemos una ojeada al 
orden propuesto: 
1. Leer cuidadosamente el título, así se sabrá exactamente de qué trata 
el cuadro. 
2. Leer las notas explicativas. Obviamente, las mismas mejoran 
considerablemente la comprensión del cuadro. 
3. Informarse de las unidades de medida utilizadas. 
4. Fijarse en el promedio total o porcentaje general del grupo. 
5. Relacionar el promedio total con el porcentaje de cada una de las 
variables estudiadas. 
6. Relacionar los promedios o porcentajes de las variables estudiadas. 
1.2.2 Representación gráfica. 
Otra manera de presentar la información estadística es a través de los gráficos. 
Ellos pueden resultar muy útiles, aunque en ocasiones un uso incorrecto los 
convierte en instrumentos estériles. Son complemento de los cuadros, por ende, 
deben ser más autoexplicativos que ellos. 
1.2.2.1 Características generales de los gráficos 
Generalmente se inscriben en los ejes de coordenadas cartesianas o ejes 
rectangulares, los cuales: 
– Deben poseer la misma longitud, aceptándose como máximo que el eje X 
exceda hasta 1.5 veces al eje Y. Esto evita la introducción de falacias. 
– Deben estar rotulados. Generalmente, por el eje X se presenta(n) la(s) 
variable(s) con su escala de clasificación; en el eje Y, la distribución de 
frecuencias o medida de resumen utilizada. 
– De ser posible, el origen de los ejes debe ser en el punto (0,0). 
– Deben utilizarse números redondos. 
– Debe evitarse el exceso de divisiones de los ejes. 
 
Figura 1. Ejes cartesianos 
o rectangulares 
 
35
 
En la actualidad, con el advenimiento de las nuevas tecnologías informáticas, han 
proliferado los programas que permiten la construcción de gráficos estadísticos. Al 
utilizarlos, se debe tomar la precaución de analizar cuidadosamente el tipo de 
información que se quiere representar, pues la mayoría de ellos ofrece varias 
posibilidades de representación, quedando al juicio propio escoger la más 
adecuada. 
1.2.2.2 Partes del gráfico 
Todo gráfico estadístico está constituido por varios elementos, los cuales 
mencionamos a continuación. 
– Presentación (Identificación y Título) 
– Gráfico propiamente dicho 
– Fuente 
– Notas explicativas 
– Leyenda 
 
1. Identificación: consiste en numerar los gráficos consecutivamente, por 
ejemplo: Gráfico 1, Gráfico 2, etc. 
2. Título: el de la tabla que lo originó. 
3. Gráfico propiamente dicho: severán los distintos tipos de gráficos en el 
epígrafe siguiente. 
4. Fuente: la tabla que lo originó. 
5. Notas explicativas: su uso es similar a lo descrito en las tablas. 
6. Leyenda: su fin es identificar los elementos del gráfico (barras, sectores, 
etc.) con su correspondiente origen. 
 
1.2.2.3 Gráficos para representar variables en escalas cualitativa y 
cuantitativa discreta 
A continuación le presentamos un grupo de gráficos que se estudiarán en este 
epígrafe, atendiendo al número de variables que representan. 
Número de 
Variables 
 
Tipo de Gráfico 
 
1 Barras simples, Pastel o Circular 
2 Barras múltiples, Barras compuestas 
 
Gráfico de barras simples 
Uso: Es un gráfico formado por barras separadas que representan a las categorías 
de la variable en estudio. Se utiliza cuando queremos representar una variable 
36
 
cualitativa o cuantitativa discreta, y la información se dispone en frecuencias 
absolutas o relativas, o en medidas de resumen. 
Elementos a considerar en su construcción 
1. Disponer las barras separadas entre sí, para dar la idea de discontinuidad de 
la variable representada. 
2. El ancho de las barras será opcional, pero debe ser el mismo para todas. 
3. La separación entre barras debe ser igual a la mitad del ancho de ellas. 
4. Si la variable es nominal, ordene las barras en orden creciente o decreciente, 
en dependencia de su gusto. 
5. Utilice tantas barras como categorías tenga la variable. 
6. Puede colocar las barras en el eje vertical o en el horizontal. Comúnmente se 
utiliza el eje horizontal. 
7. Este gráfico se origina a partir de tablas unidimensionales. 
Ejemplo: Un grupo de investigadores desea conocer el comportamiento de la 
vulnerabilidad psicosocial en ancianos de un área de salud. Para ello aplica el 
cuestionario de vulnerabilidad-bienestar psicosocial del Dr. R. Pérez y obtiene los 
siguientes resultados: 
Cuadro 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio 
Playa, 1994. 
Vulnerabilidad 
Psicosocial Número Porcentaje 
Ausente 20 25.00 
Baja 25 31.25 
Media 20 25.00 
Alta 15 18.75 
Total 80 100.00 
 
Gráfico 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio 
Playa, 1994. 
 
 
 
 
 
 
 
 
 
 
 
 
 
0
5
10
15
20
25
30
35
Ausente Baja Media Alta
Vulnerabilidad
%
Fuente: Tabla 1
37
 
Gráfico de pastel, de sectores o circular 
Uso: Este gráfico se utiliza cuando queremos representar una variable cualitativa o 
cuantitativa discreta, y la información se dispone en porcentaje. Básicamente, es 
un círculo dividido en sectores que representan las categorías de la variable. 
Elementos a considerar en su construcción 
1. La totalidad de la información se representa por el número total de grados de 
un círculo (360º). 
2. Para obtener los grados correspondientes a cada categoría, se multiplica 3.6º 
por la frecuencia relativa utilizada. 
Ejemplo: Utilizando la información del ejemplo anterior, y haciendo los cálculos 
pertinentes, el gráfico quedaría de la siguiente forma: 
Cálculos previos: 
Vulnerabilidad Porcentaje (%) 3.6º x %
Ausente 25.00 90.0º 
Media 31.25 112.5º 
Baja 25.00 90.0º 
Alta 18.75 67.5º 
Total 100.00 360º 
 
Gráfico 2. Distribución de ancianos según vulnerabilidad psicosocial. Municipio 
Playa, 1994. 
Fuente: Tabla 1. 
 
Nota: Con toda intención representamos los mismos datos por dos formas gráficas 
diferentes (barras simples y pastel), así confirmamos la posibilidad de utilizarlos 
indistintamente, aunque si la variable tiene más de cinco categorías, es preferible 
usar las barras simples. 
Ausente
Baja
Media
Alta
38
 
Gráfico de barras múltiples 
Uso: Este gráfico se utiliza cuando queremos representar dos variables, que 
pueden ser: cualitativas o cuantitativas discretas ambas, o una cualitativa y la otra 
cuantitativa discreta; y la información se dispone en frecuencias absolutas o 
relativas, o en medidas de resumen. Los datos se representan mediante barras 
agrupadas, como se verá a continuación. 
Elementos a considerar en su construcción 
1. Dispondrá grupos de dos, tres o más barras, es decir, barras dobles, triples, 
etc. 
2. El número de grupos a formar dependerá del número de categorías 
consignadas en la columna matriz o en la fila de encabezamiento, según su 
gusto. 
3. La separación entre cada grupo de barras es aproximadamente la mitad del 
ancho del grupo. 
4. Este gráfico se origina a partir de tablas bidimensionales. 
Ejemplo: El siguiente gráfico resume la información de 300 niños de un Círculo 
Infantil atendido por un médico de familia, atendiendo a las variables sexo y raza. 
Tabla 2. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón 
Encantado”. Municipio Playa, 1999. 
Sexo 
Masculino Femenino Raza 
No. % No. % 
Blanca 79 42.9 60 51.7 
Negra 63 34.2 34 29.3 
Mestiza 42 22.8 22 19.0 
Total 184 100.0 116 100.0 
 
Fuente: Libro de matrícula del Círculo Infantil “El Camarón Encantado”. Curso 
1999-2000. 
Gráfico 3. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón 
Encantado”. Municipio Playa, 1999. 
0
10
20
30
40
50
60
%
Masculino Femenino Sexo
Blanca
Negra
Mestiza
Fuente: Tabla 2
39
 
Gráfico de barras compuestas 
Uso: Al igual que el gráfico anterior, utilice este cuando se quiera representar dos 
variables: ambas cualitativas o cuantitativas discretas, o una cualitativa y la otra 
cuantitativa discreta; y se disponga de la información en frecuencias relativas. 
Aquí, la información perteneciente a una variable se representa en su totalidad en 
una sola barra. 
Elementos a considerar en su construcción 
1. Cada barra representa el ciento por ciento de la información del grupo 
representado. 
2. El ancho de las barras queda a su gusto, pero debe ser el mismo para todas. 
3. La separación entre las barras es aproximadamente la mitad del ancho. 
4. Lo originan tablas bidimensionales. 
Ejemplo: Utilizando la información del ejemplo anterior, el gráfico quedaría de la 
siguiente forma: 
Gráfico 4. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón 
Encantado”. Municipio Playa, 1999. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1.2.2.4 Gráficos para representar variables en escala cuantitativa continua 
A continuación le presentamos un grupo de gráficos que se estudiarán en este 
epígrafe, atendiendo al número de variables que representan. 
 
Número de 
Variables 
 
Tipo de Gráfico 
 
1 Histograma de frecuencias, ojiva* 
2 Polígono de frecuencias 
* No abordaremos este gráfico por su infrecuente uso en nuestro ámbito. 
0%
20%
40%
60%
80%
100%
Masculino Femenino Sexo
Mestiza
Negra
Blanca
Fuente: tabla 2. 
40
 
Histograma 
Uso: Este gráfico consiste en barras adyacentes, y se utiliza cuando queremos 
representar una variable cuantitativa continua, y la información se dispone en 
frecuencias absolutas o relativas, o en medidas de resumen. 
Elementos a considerar en su construcción 
1. Las barras o rectángulos se disponen unidos para dar idea de continuidad. 
2. El ancho dependerá de la amplitud de los intervalos de clase en que se 
clasifica la variable en estudio. 
3. La altura de cada IC se obtiene mediante el cociente frecuencia 
absoluta/amplitud. 
4. Por el eje X se consigna el límite de clase inferior de cada intervalo. 
5. Lo originan tablas unidimensionales. 
Ejemplo: A continuación presentamos los resultados de un estudio relacionado 
con las edades maternas. 
Tabla 3. Distribución de recién nacidos según edad materna. HGO “E. Hernández, 
julio, 1999. 
 
Edad materna Número Porcentaje 
15 – 19 12.2 
20 – 24 70 18.9 
25 – 29 50 13.5 
30 – 34 80 21.6 
35 – 39 125 33.8 
Total 370 100.0 
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999. 
 
Gráfico 5. Distribución de recién nacidos según edad materna. HGO “E. 
Hernández”, julio, 1999. 
0
5
10
15
20
25
30
35
40
15 20 25 30 35
Edad
%
Fuente: Tabla 3
41
 
Polígono de frecuencias 
Uso: Este gráfico se utiliza cuando queremos representarhasta dos variables, de 
las que al menos una debe ser cuantitativa continua y la otra (en caso de ser dos 
variables) cualitativa o cuantitativa discreta, y la información se dispone en 
frecuencias absolutas o relativas, o en medidas de resumen. Está formado por una 
o dos curvas que representan a cada variable estudiada. 
Elementos a considerar en su construcción 
1. Se pueden construir histogramas inicialmente, y luego marcar los puntos 
medios de cada intervalo de clase, los cuales al unirse forman una curva. 
2. Habrá tantas curvas como categorías tenga la variable discontinua. 
3. Lo originan tablas uni o bidimensionales. 
Ejemplo: A continuación presentamos los resultados de un estudio relacionado 
con las edades maternas y el sexo de los recién nacidos. 
Tabla 4. Distribución de recién nacidos según edad materna y sexo. HGO “E. 
Hernández”, julio, 1999. 
Sexo 
Masculino Femenino Edad materna 
No. % No. % 
15 – 19 25 12.8 20 11.4 
20 – 24 34 17.4 36 20.6 
25 – 29 31 15.9 19 10.8 
30 – 34 29 14.9 51 29.1 
35 – 39 76 38.9 49 28.0 
Total 195 100.0 175 100.0 
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999. 
 
Gráfico 6. Distribución de recién nacidos según edad materna y sexo. HGO “E. 
Hernández, julio, 1999. 
 
Fuente: tabla 4 
0
5
10
15
20
25
30
35
40
45
15 20 25 30 35 Edad
%
Masc.
Fem.
42
 
Para representar de manera conjunta dos variables cuantitativas continuas, se 
emplea el gráfico de puntos o de dispersión, que no será abordado en este 
epígrafe ya que su uso está asociado a otras técnicas de análisis estadístico que 
no están contempladas en los objetivos del curso. 
1.2.2.5 Gráficos para representar variables en el tiempo 
A continuación le mostramos el gráfico aritmético simple, utilizado en el estudio de 
las series cronológicas o temporales, como algunos las llaman. No obstante, es 
bueno saber que hay quienes utilizan como gráfico de trabajo el de barras simples 
para el tratamiento de fenómenos vistos en el tiempo. 
Gráfico aritmético simple (GAS) 
Uso: Este gráfico se utiliza para representar una variable a través del tiempo. 
Elementos a considerar en su construcción 
1. Cada categoría o clase de la variable se representa por una curva. 
2. En el eje de las abscisas se consignará el año, mes, semana, etc., según la 
unidad en que se mida el tiempo. 
3. En ocasiones, cuando los ejes no ajustan, se utiliza una escala 
semilogarítmica para su construcción. 
Ejemplo: A continuación le presentamos la mortalidad perinatal de Cuba desde 
1990 hasta 1998. 
Tabla 5. Mortalidad perinatal según componentes. Cuba, 1990–1998. 
 
Mortalidad 
Neonatal Fetal* Años 
No. Tasa No. Tasa
1990 861 4.6 1897 10.1 
1991 811 4.6 1708 9.7 
1992 720 4.6 1532 9.6 
1993 601 4.0 1506 9.8 
1994 598 4.0 1442 9.7 
1995 586 3.9 1424 9.6 
1996 456 3.2 1304 9.2 
1997 461 3.0 1462 9.5 
1998 435 2.8 1519 10.0 
 Tasa por 1 000 NV y defunciones fetales de 1 000 gramos y más 
*: 1 000 gramos y más 
 
Fuente: Anuario Estadístico de Cuba. 1998. 
 
43
 
Gráfico 7. Mortalidad perinatal según componentes. Cuba, 1990–1998. 
Fuente: tabla 5 
 
A modo de resumen se puede apreciar en el siguiente cuadro los tipos de gráficos 
de acuerdo a la escala de la variable y al número de variables a representar. 
 
 
Escala Número de variables Tipo de gráfico 
1 Barras simples Pastel o circular Cualitativa 
cuantitativa discreta 
2 Barras múltiples Barras compuestas 
1 Histograma Polígono de frecuencias Cuantitativa 
continua 
2* Polígono de frecuencias 
* una variable es cuantitativa continua y la otra puede ser cualitativa o 
cuantitativa discreta 
 
1.3 - Medidas de resumen para variables cualitativas. 
Como hemos visto con anterioridad, en la investigación se utilizan variables 
cualitativas, bien por su naturaleza, o por la escala empleada. Por supuesto, una 
vez que la información se recogió, es necesario calcular alguna medida de 
0
2
4
6
8
10
12
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
Años
Tasa
Neon.
Fetal
44
 
resumen cuyo resultado es un indicador que deberá analizarse en un momento 
posterior. 
1.3.1 Razón e Índice. Definición. Cálculo e interpretación 
Una razón es la relación por cociente que se establece entre el número de 
unidades de análisis que pertenecen a un grupo o categoría (a) y el número de 
unidades de análisis que pertenecen a otra categoría (b) de la misma variable o 
no. Su expresión general es: 
b
a . 
Es una medida de fácil cálculo y comprensión. La explicaremos con un ejemplo: 
Supongamos que de los 400 recién nacidos (RN) de un municipio en cierto 
período, 300 presentaron los ojos oscuros (OO), en tanto que sólo 100 los tenían 
claros (OC). Aplicando la expresión general, la razón OO/OC es: 
3
100
300
OCconRN
OOconRN
b
a
R ==== 
 
Nota: Utilizamos la letra R por razones didácticas, realmente la razón no tiene 
símbolo propio. 
La razón ojos oscuros/ojos claros es de 3; o lo que es lo mismo, 3:1. 
Pero, ¿qué significa este resultado? Expresa que hay tres recién nacidos con ojos 
oscuros por cada recién nacido de ojos claros en ese municipio y en ese período. 
Note que el numerador y el denominador son disjuntos, es decir, no se 
interceptan, no están contenidos uno en el otro. Ello le ayudará a establecer las 
diferencias con las medidas de resumen que se estudiarán a continuación. 
Además, la razón siempre toma valores mayores o iguales que cero y con 
bastante frecuencia es menor que 1, lo que dificulta la interpretación. 
Si se multiplica el resultado de una razón por 100, entonces el nuevo indicador se 
denomina índice, de tal suerte que en el ejemplo anterior el índice sería 300. En 
otras palabras, en el municipio de referencia, en el período estudiado, por cada 
100 bebés de ojos claros hay 300 de ojos oscuros. 
El índice resulta más fácil de interpretar que la razón, sobre todo cuando la razón 
original es menor que 1. Por ejemplo, si nos interesa la razón inversa al ejemplo 
anterior: 
Razón OC/OO = 33.0
300
100
= 
 
En este caso la interpretación sería muy compleja, en cambio al calcular el índice 
correspondiente: 
Índice OC/OO = 3.33100*
300
100
= 
45
 
 
Interpretando ese índice podemos decir que en el municipio de referencia, durante 
el período estudiado, nacieron aproximadamente 33 bebés con ojos claros por 
cada 100 bebés con ojos obscuros. 
1.3.2 Proporción y Porcentaje. Definición. Cálculo e interpretación 
Una proporción es la relación por cociente que se establece entre el número de 
unidades de análisis que pertenecen a un grupo o categoría (a) de una variable y 
el total de las unidades de análisis estudiadas (n). Su expresión general es: 
ba
a
+
. Si se multiplica su resultado por 100, se obtendrá el porcentaje. 
Suele expresarse en el denominador (a+b) en lugar de n para destacar que el 
numerador está incluido en el denominador, a diferencia de la razón. 
Seguiremos utilizando el ejemplo del epígrafe anterior. ¿Lo recuerda? Pues bien, 
determinemos la proporción de niños con ojos oscuros (300) en la población de 
recién nacidos (400): 
75.0
4
3
400
300
====
+
=
RNdeTotal
OOconRN
ba
aP 
 
Alternativamente, puedes calcular el porcentaje correspondiente: 
 
%0.75100
400
300
100
RNdeTotal
OOconRN
100P =×=×=× 
 
Los resultados anteriores significan que tres de cada cuatro recién nacidos tienen 
los ojos oscuros; o que 75 de cada 100 recién nacidos tiene los ojos oscuros. 
¿No le resultan familiares estas nuevas medidas, o sea, la proporción y el 
porcentaje? Ya debe estarse preguntando la diferencia que existe entre éstas y la 
distribución de frecuencias relativas estudiada. Nada más claro: no es que sean 
parecidas, son exactamente las mismas, pero restringidas a variables cualitativas. 
Observe que el porcentaje le permite analizar el aporte, el peso específico o la 
importancia relativa de cada categoría respecto al total. 
1.3.3 Tasas 
Siempre que se necesite medir el riesgo de que acontezca cierto fenómeno en una 
población determinada,se dispone de un indicador valioso y único: la tasa. 
Una tasa es una relación por cociente que expresa el riesgo de que ocurra cierto 
evento en una población y período determinados. Está compuesta por tres 
elementos, a saber: 
k
rdenominado
numeradorTasa ×= 
46
 
 
Veamos cuáles son esos elementos: 
– El numerador contiene el número de veces que ocurrió determinado fenómeno 
en un área geográfica y en un período determinados. 
– El denominador indica el número de habitantes de la población en la cual 
puede ocurrir el fenómeno. 
– k es un múltiplo de 10 cuyo uso está justificado por el hecho de que 
habitualmente el resultado del cociente es un número fraccionario, y al 
multiplicarlo por una potencia de 10 se facilita enormemente la lectura y 
comprensión del indicador. 
Esta es una medida que expresa el riesgo de ocurrencia del evento estudiado, en 
la población involucrada, en el tiempo y lugar establecidos. 
Una particularidad realmente útil de las tasas es que se pueden calcular tanto para 
la totalidad de la población, como para parte de ella (por ejemplo, para el grupo de 
edad de cinco a nueve años, para los estudiantes, para los residentes del área 
rural, y así por el estilo); por otra parte, se pueden calcular las tasas para todas las 
causas, o solamente para una de ellas (o un grupo de ellas). De este modo, se 
tendrán calculadas tasas brutas, crudas, generales o globales si se tratara de 
tasas que involucren a toda la población o al total de causas; al tiempo que se 
habrán calculado tasas específicas si incluyen a una parte de la población o a una 
causa o grupo de ellas. 
Así las cosas, estamos en plena facultad de hallar tasas brutas de mortalidad, de 
natalidad, o bien específicas por edad, por sexo, por edad y sexo a la vez, entre 
muchas otras. Teniendo a la disposición los datos adecuados, se puede hallar una 
tasa tan específica como se desee. 
Existe en punto cardinal en el manejo de las tasas: la población expuesta al riesgo 
en cuestión. Como ya se sabe, este es el denominador de la ecuación, y de su 
correcta determinación depende la fidelidad del cálculo. Nunca serán suficientes 
las medidas que tomemos para asegurarnos de estar empleando el dato acertado. 
No se piense que es muy difícil saber si uno está errado o en lo cierto, el problema 
radica en que muchas veces se pasa por alto este “detalle” de forma involuntaria. 
Probablemente se habrá preguntado: «Bueno, ¿y qué tanto problema con el 
denominador?» ¡Ah! Es que ahí radica el quid de la cosa. Recuerde que calcula 
una tasa para medir el riesgo de ocurrencia de un evento o fenómeno en una 
población, pero no en cualquier población, sino en la población expuesta a ese 
riesgo. Esto quiere decir que sólo podrá calcular la tasa de mortalidad por cáncer 
de útero en las mujeres de cierta ciudad, puesto que sería imposible calcularla en 
los hombres; del mismo modo que no puede calcular la tasa de morbilidad por 
cáncer de pulmón de los habitantes de Pueblo Mocho en 1999, utilizando para ello 
a los habitantes que tenía el pueblo en 1979, o a los habitantes de Palma Mocha 
en 1999. Esto es realmente algo muy importante. 
47
 
También hay que notar que las poblaciones están sometidas a constantes 
cambios en lo que a su número atañe, determinados por los nacimientos y 
defunciones y por los movimientos migratorios (emigración e inmigración), que 
provocan que no sea la misma a lo largo de todo el año. De ahí que, por convenio, 
se tome la población existente a mediados del período4 o población media para el 
cálculo de las tasas. 
Por otra parte, se debe tener especial cuidado al calcular tasas para poblaciones 
pequeñas, como las que usualmente manejan los Consultorios, pues suelen 
volverse inestables, ya que cualquier evento “mueve“ mucho la tasa, y a veces no 
guarda relación el resultado obtenido con la magnitud del evento acontecido. 
Las tasas que más importancia revisten para nuestro desempeño en el campo de 
la Salud Pública son las relacionadas con la natalidad, mortalidad y morbilidad, 
entre otras, las que serán estudiadas en detalle en el tema siguiente, tanto su 
fórmula de cálculo como la interpretación. 
Es conveniente insistir en que las medidas de resumen vistas anteriormente, 
(razón - índice, proporción - porcentaje) sobre todo el porcentaje, no son medidas 
de riesgo, el riesgo lo mide la tasa. 
Con el cálculo de la proporción o el porcentaje lo que estamos midiendo es la 
importancia relativa, lo que aporta, el peso que tiene cada categoría de la escala 
de la variable con relación al total. Esta medida tiene un uso muy difundido y es 
de gran utilidad, tiene la ventaja de poder comparar poblaciones con totales 
diferentes porque todo se lleva a una base común que es 100. 
Sin embargo, en ocasiones se le da un uso al porcentaje que desborda sus 
posibilidades de análisis, y se cometen graves errores al interpretar los resultados 
de un estudio. 
Veamos un ejemplo. 
Defunciones perinatales según edad gestacional de la madre. Ciudad de la 
Habana. 2003. 
Edad Gestacional 
(Semanas)
Defunciones 
No. % 
20-27 31 6.2 
28-32 108 21.2 
33-36 124 25.6 
37-41 197 39.7 
42 y más 36 7.3 
Total 496 100.0 
 
4 Corrientemente se toma la población del 30 de junio. 
48
 
 Fuente: Registro de nacimientos, Dir. Prov. de Salud, CH 
Pudiera resultar llamativo, para quien no conozca bien estas medidas, que el 
mayor por ciento de defunciones se concentra en las edades óptimas para parir, 
39.7% de defunciones entre las 37 y 41 semanas de gestación. 
 
Este resultado es lógico, pues es precisamente en estas edades de gestación 
donde ocurre un mayor número de nacimientos. 
Lo que ocurre es que se está pensando en función del riesgo, por todos es 
conocido, que desde el punto de vista clínico, el riesgo que tiene un niño de 
fallecer es menor cuando se produce el parto a término que cuando ocurre con 
pocas semanas de gestación. En este caso lo más conveniente es calcular las 
tasas específicas de mortalidad en función de los nacimientos ocurridos en cada 
grupo de edad gestacional, tal como se muestra a continuación. 
 
 Defunciones Nacimientos 
 Edad gestacional 
No. % No. tasa x 1000 
20–27 31 6.2 81 382.7 
28–32 108 21.2 817 132.2 
33–36 124 25.0 1912 64.8 
37–41 197 39.7 29713 6.6 
42 y más 36 7.3 2848 12.6 
Total 496 100.0 35371 14.0 
 
Observe como los valores más altos de las tasas, los mayores riesgos, se 
encuentran en los menores tiempos de gestación, y a medida que las semanas de 
gestación aumentan las tasas van disminuyendo para alcanzar su valor más bajo 
de las 37 a las 41 semanas, y finalmente ascender ligeramente en los partos post-
término con 42 semanas y más. 
1.4- Medidas de resumen para variables cuantitativas. 
En el epígrafe anterior vimos cómo resumir las variables cualitativas, ya lo fuesen 
por naturaleza o porque manejamos los datos en escala cualitativa. La información 
cuantitativa también es dable de ser resumida, con las consabidas ventajas que de 
ello se generan, pues corrientemente es necesario representar un conjunto de 
datos por un número que —en la medida de lo posible— logre describir a dicho 
conjunto. Para obtenerlo, se dispone de dos grandes grupos de medidas de 
resumen: de tendencia central y de variación, las cuales veremos a continuación. 
Antes de comenzar 
En este apartado nos valdremos de algunas notaciones matemáticas para 
representar las fórmulas de cálculo de los distintos indicadores. 
49
 
Con el ánimo de refrescar la memoria, mencionamos los elementos propios del 
lenguaje matemático que empleamos. 
Para representar las distintas variables utilizamos las letras del alfabeto. Por 
ejemplo, si medimos la edad y la talla de cinco individuos, pudiésemos referirnos a 
la primera como la variable X, y a la segunda como la variable Y, de ahí que cadavez que hagamos alusión a X, sabemos que en realidad estamos hablando de la 
edad de las personas estudiadas (si fuera Y, entonces hablamos de la talla). Vale 
aclarar que para escoger las letras no hay una regla específica, eso queda a su 
decisión. 
Supongamos que los resultados del estudio fueron los siguientes: 
Edad 
(años) 
Talla 
(cm) Individuos 
X Y 
Ana 24 130.0 
Juan 26 120.0 
Rosa 27 140.0 
Pedro 25 150.0 
Teresa 23 110.0 
 
Por otra parte, pudiera referirse a la edad por las letras ed, o algo por el estilo. Lo 
que debe quedar claro, es a qué se refiere con la simbología utilizada, pues X 
puede significar edad en un estudio, pero sexo en otro, por citar un ejemplo. 
Ahora bien, llegamos a otro punto que necesita ser definido. Para referirse a las 
edades de los cinco individuos, y suponiendo que las representó por la letra X, 
pudieran escribirse entre otras tantas formas: 
X(Ana) = 24 X(Rosa) = 27 X(Teresa) = 23 
X(Juan) = 26 X(Pedro) = 25 
 
Como se ha visto, es un procedimiento bastante tedioso el utilizar los paréntesis u 
otra forma similar de identificación de los datos. En su lugar, se pueden usar los 
subíndices, resultando algo por el estilo: X1 = 24, X2 = 26, X3 = 27, X4 = 25, X5 = 
23. De la misma forma, las tallas serían: Y1 = 130, Y2 = 120, Y3 = 140, Y4 = 150, 
Y5=110. 
También resultan muy útiles los subíndices generales (por lo general son letras), 
los cuales hacen alusión a un grupo de valores de la variable. Por ejemplo, para 
decir que hay cinco valores de la edad, puedes escribir: Xi (i = 1, 2, 3, 4, 5); o lo 
que es lo mismo: Xi (i = 1,…, 5). Observe que lo anterior no dice que la variable 
toma los valores 1, 2, 3, 4 ó 5, sino que hay cinco mediciones de la misma, 
¿claro? 
Supongamos ahora que sumamos todos los valores de la variable peso, entonces 
se escribiría lo siguiente: 
50
 
X1 + X2 + X3 + X4 + X5 = 650 
 
En el caso que nos ocupa, resulta fácil y rápida esta forma de escritura, pero si 
fuesen, digamos, ¡200! valores… 
En esta situación, se utiliza la letra griega sigma mayúscula Σ, que representa el 
símbolo de sumatoria, el cual antecede a la variable en cuestión y se acompaña 
de dos anotaciones: una encima y otra debajo, como lo siguiente: ∑
=
n
1i
iX . Esto se 
lee como “la suma de las Xs desde i hasta n”, o sea, las Xs cuyos subíndices van 
desde los valores especificados en i, o sea desde 1 hasta n. 
Retomando el ejemplo anterior, hubieses escrito ∑
=
5
1i
iX . Si quisieras sumar 
solamente los tres valores del centro, entonces escribirías: ∑
=
4
2i
iX . 
De la misma forma, ∑
=
5
1i
iiYX significa X1 Y1 + X2 Y2 + X3 Y3 + X4 Y4 + X5 Y5 = 
(24·130) + (26·120) + (27·140) + (25·150) + (23·110) = 16 300. 
Al mismo tiempo, recordamos que elevar al cuadrado un número es multiplicarlo 
por sí mismo, y se representa por el supraíndice 2, o sea, 132 = 169 (porque 13·13 
= 169). Entonces, ∑
=
5
1i
2
iX es la representación matemática de lo siguiente —
utilizando los datos del ejemplo—: 21X + 
2
2X + 
2
3X + 
2
4X + 
2
5X = 24
2 + 262 + 272 + 
252 + 232 = 576 + 676 + 729 + 625 + 529 = 3125. 
La operación inversa de elevar al cuadrado es extraer la raíz cuadrada, que se 
representa por el símbolo de radical , quedando bajo la barra horizontal a lo que 
se le extrae la raíz cuadrada. De ahí que 4 = ±2, porque 2·2 = 4, pero –2 · –2 = 4 
también, por lo que debe especificarse en buena lid el símbolo ±. Para algunos 
datos del ejemplo anterior: 24 = ±4.89; 26 = ±5.09; 27 = ±5.19. 
Por último, seguramente recordará que el valor absoluto o modular de un número 
es él mismo sin el signo asociado, esto es, se toma la magnitud positiva del 
número. Se representa por dos barras verticales que enmarcan al número 
deseado, v.g. 3 = 3, y 3− = 3. 
1.4.1 Medidas de tendencia central: Media, Mediana y Moda. 
Seguramente, lo primero que estará preguntándose es: « ¿Por qué de tendencia 
central?». Bueno, es que ellas están constituidas por un número alrededor del 
cual se agrupan las observaciones de la serie de datos y que ocupa el centro 
aritmético o geométrico de ella, aunque eso no significa que el número deba estar 
51
 
representado en la serie (de hecho, muchas veces no ocurre así). Veamos en 
detalle cada una de estas medidas. 
1.4.1.1 La media aritmética 
Puede encontrar la medida que vamos a presentar con diversos nombres, entre 
ellos los más utilizados son promedio, promedio aritmético e incluso simplemente 
media. Al respecto debemos aclarar que existen otras medias que no son 
aritméticas, pero cuando decimos media a secas, nos referimos a la aritmética. 
La media aritmética es una cifra que se obtiene al sumar todos los valores 
observados y dividirlos por la cantidad de valores. Por supuesto que todos 
estamos muy acostumbrados al cálculo del promedio. Se denota por los símbolos 
µ (letra griega mu) ó X (se lee equis media), el primero se utiliza cuando 
trabajamos con toda la población objeto de estudio y el segundo cuando 
trabajamos con una muestra de la población, que es lo más frecuente, por lo que 
utilizaremos éste. La media conserva las unidades de medida de la variable en su 
estado original, o sea, que la media de un grupo de edades en años se expresará 
asimismo en años. 
La fórmula de cálculo de la media es: 
n
X
X
n
1i
i∑
== 
 
Veamos un ejemplo. Supón que deseas conocer la estatura media de cinco 
adolescentes de tu consultorio. Estas son las observaciones (datos) de la 
medición de cada uno de ellos (en cm): 
 
170.0 150.0 130.0 160.0 140.0 
 
5
140160130150170X ++++= = 150 cm 
 
Este resultado indica que, en promedio, los adolescentes miden 150 centímetros. 
Sencillamente, no hemos hecho otra cosa que decir: «más o menos, los 
muchachos miden 150 centímetros». 
Entre las propiedades de la media tenemos las siguientes: 
1. Es fácilmente comprensible por la mayoría de las personas (o, al menos, es 
fácil de explicar su significado); 
2. Siempre existe, y puede calcularse para cualquier grupo de datos numéricos; 
3. Es única, o sea, un grupo de datos sólo tiene una media; 
4. Toma en cuenta a todos los valores de la serie de forma individual, esto es, 
recorre la serie completa. 
52
 
Esta última resulta ser sumamente importante, pues la media calculada representa 
a todos los valores de la serie, siendo precisamente lo que se quería lograr. Ahora 
bien, no siempre esto resulta beneficioso, como se verá en el próximo ejrmplo: 
imagínese que se deseaba saber la edad promedio de las personas reunidas en 
un salón de cierto Círculo Infantil, para lo cual se escogió al azar uno de los que 
poseía dicho centro. En el momento de la medición, se encontraban presentes en 
el salón escogido siete bebés y la educadora que los cuidaba, siendo sus edades 
las siguientes (m: meses, a: años): 
18m 10m 12m 16m 20m 12m 14m 34a 
Edad media: 510 meses/8 = 63.75 meses = 5.3 años 
Ahora tenemos que, en promedio, las personas allí reunidas tenían 64 meses de 
edad (¡Bueno, 5 años es algo más fácil de entender!) ¿Crees que sea cierto ese 
dato? Claro que no, está bastante lejos de la realidad, mas no está mal hecho el 
cálculo. Matemáticamente es impecable, pero la lógica dice que algo falló. 
El motivo por el que apareció un resultado tan dispar es la presencia de un dato 
discordante en el conjunto: la edad de la educadora. Cuando en una serie de 
datos encuentras algún dato que se aparta de los demás de forma llamativa, 
entonces puedes nombrarlo dato(s) aberrante(s). Si calculásemos la media con las 
edades de los pequeños solamente, entonces hubiese sido de 15 meses. 
En resumen, si los datos son relativamente homogéneos, la media aritmética es 
una buena medida de resumen; pero si existen valores muy alejados de la 
mayoría (datos aberrantes), entonces se distorsiona mucho y deja de reflejar la 
realidad existente, por lo que debe emplearse otro tipo de medida de tendencia 
central, la mediana. 
Nota: la fórmula analizada anteriormente solo puede emplearse cuandolos datos 
son simples5, si los datos ya están agrupados en una tabla de distribución de 
frecuencias es necesario emplear otra fórmula de cálculo que es un poco más 
compleja por lo que decidimos no abordarla, ya que generalmente en la 
investigación es el propio investigador quien agrupa los datos. De todas formas 
esto puedes consultarlo en la bibliografía que se encuentra referida al final del 
tema. 
1.4.1.2 La Mediana 
La mediana es otra de las medidas de tendencia central. Al igual que la media, 
puede ser utilizada para describir el “centro” de un grupo de datos. No tiene un 
símbolo específico que la denote; nosotros usaremos Me o mediana en lo 
adelante. 
La mediana es la observación que divide a una serie ordenada de datos en dos 
partes iguales, o sea, es la observación que ocupa la posición central de una 
serie ordenada. 
 
5 O sea, datos no agrupados en tabalas ni distribuciones de frecuencias. 
53
 
De lo antedicho se deduce que lo primero que tienes que hacer para calcular la 
mediana es ordenar la serie, ya sea en orden creciente o decreciente. Luego, 
buscarás cuál de los valores es la mediana, lo cual dependerá del número total de 
observaciones o datos que tengas. 
Si tienes un número n impar de observaciones, la del centro es la medida 
buscada, como lo es 32 en esta serie: 41, 40, 36, 32, 26, 21, 20. Fíjate que a 
ambos lados de la mediana hay la misma cantidad de números. 
En este caso, por simple observación llegaste al resultado, pero puedes valerte de 
calcular 
2
1n + para saber la posición de la mediana, comenzando a contar por 
cualquiera de los dos extremos de la serie. En el ejemplo anterior el resultado es 
(7+1)/2 = 4, y el cuarto puesto lo ocupa el 32, no importa por cuál extremo 
comienzas a contar. 
La contrapartida ocurre cuando el total de datos es un número par; entonces la 
mediana es la media aritmética de los valores del centro de la serie, como sucede 
en el ejemplo: 20, 24, 33, 39, 45, 51, 75, 80. Los valores del centro son 39 y 45, su 
media es 42, y es este el valor de la mediana de esa serie. 
No debe causar extrañeza tal proceder, pues si aplicásemos la fórmula de la 
posición, entonces la mediana ocuparía el lugar (8+1)/2 = 4.5, esto es, la mitad 
entre los números 4 y 5 de la serie. Ocupando los valores 39 y 45 los lugares 4º y 
5º respectivamente, entonces 42 es el centro entre ellos. ¿De acuerdo? 
Se puede presentar la situación de que tengamos una serie con varios valores 
iguales, como 50, 54, 56, 56, 56, 56, 60, 62. Aquí la mediana es 56, claro está. 
Recuerde que ella es el valor central del grupo, y sería un atentado abierto a la 
lógica cuestionarse cuál de los 56 es la mediana. 
También puede calcularse la mediana para datos agrupados, de manera similar a 
la media, lo que puede consultarse en la literatura básica y complementaria al final 
del tema. 
La mediana posee las propiedades siguientes: 
1. Su cálculo es sencillo; 
2. Siempre existe, y puede calcularse a cualquier conjunto de datos numéricos; 
3. Es única; 
4. No se afecta fácilmente por valores extremos. 
La cuarta propiedad hace que se prefiera esta medida sobre la media en 
situaciones en que existan valores aberrantes. Ahora bien, en la mayoría de los 
casos —lógicamente, salvo los citados— se prefiere la media como medida de 
tendencia central. 
Para ilustrar lo planteado en la cuarta propiedad, volvamos al ejemplo de las 
edades de los niños del Círculo Infantil y su educadora. Si calculamos la mediana 
de esos datos, ésta sería: 
54
 
Datos ordenados: 10, 12, 12, 14, 16, 18, 20, 34 
Mediana: (14 + 16) / 2 = 15 meses, resultado que sí refleja con certeza 
el centro de los datos. 
Quizá una desventaja imputable a la determinación de la mediana radica en el 
ordenamiento previo de las observaciones, faena que pudiese devenir tediosa y 
hasta impracticable de ser un número considerable de datos, pero recuerda las 
potencialidades que te brindan los programas existentes en el mercado actual, que 
facilitan enormemente el trabajo6 al calcular la mayoría de estos indicadores. 
1.4.1.3 La Moda 
Ahora se conocerá una medida realmente sencilla, tanto de determinar como de 
interpretar. Es muy intuitiva, y consiste en el valor, clase o categoría que aparece 
con más frecuencia en una serie de datos; o sea, es el que más se repite. Por 
ejemplo, si de seis pacientes, tres tienen 20 años, y los otros tienen 18, 21, y 25 
respectivamente, entonces se diría que 20 años es la moda, o edad modal. 
La mayor ventaja de la moda radica en que no requiere cálculo alguno, para 
beneplácito de algunos que no cuentan a las Matemáticas entre su círculo de 
amistades. Sin embargo, puede que no exista, e incluso puede no ser única. Por 
ejemplo, la serie 2, 5, 6, 6, 6, 7, 8, 8, 8, es una serie bimodal, pues cuenta con el 
seis y el ocho como modas. 
1.4.2 - Medidas de Dispersión. 
En el epígrafe anterior se estudiaron algunas medidas que proporcionan 
información de una serie de datos numéricos, con la característica que un solo 
número es el encargado de esto. Quizá podría parecer que con las medidas de 
tendencia central sería suficiente para resumir y describir un conjunto de datos, sin 
embargo, múltiples circunstancias exigen la descripción de otros rasgos de los 
datos existentes, tal es el caso de la dispersión o variabilidad que trataremos a 
continuación. 
1.4.2.1 Necesidad del estudio de la dispersión. 
Comencemos con un ejemplo, a continuación te mostramos los resultados de la 
frecuencia cardíaca (FC), en latidos cardíacos por minuto, de 100 pacientes 
ingresados en el Servicio de Medicina Interna de cierto hospital: 
FC Nro. pacientes 
21 – 40 1 
41 – 60 17 
61 – 80 38 
81 – 100 40 
101 – 120 4 
Total 100 
 
6 No tiene que acudir obligatoriamente a un paquete estadístico especializado: por 
ejemplo, Microsoft® Excel realiza cálculos como el que nos ocupa. 
55
 
 
La media aritmética de estos datos agrupados está dada por: 
3.76
100
7630X == 
Por lo que se puede decir que, en promedio, los pacientes estudiados tenían una 
frecuencia cardiaca de 76 latidos por minuto. 
Ahora bien, a partir de esta información el médico a cargo de la sala (que no fue 
quien hizo el estudio) pudiera realizar el siguiente análisis: «tomando en cuenta la 
FC media, no tengo motivos para preocuparme por la salud de los pacientes, 
pues, en general, ostentan cifras dentro de límites normales; por ende, tenemos 
que encaminar nuestros esfuerzos hacia otros problemas». 
¿Qué puede opinarse acerca de esto? Sí, estamos de acuerdo en principio, no 
está nada mal, ya que interpretó correctamente el indicador. Pero, hay algo que 
debe recordarse: la realidad es que, hasta donde él sabe, puede que la mayoría 
de los pacientes sea la que tiene frecuencias cardiacas en los límites 
considerados normales; pero puede que sea solamente la mitad, mientras la otra 
mitad permanezca en franca bradicardia (o taquicardia). Claro, este es uno de los 
casos “extremos”, mas el hecho de que sea algo poco probable no significa que 
sea imposible. De hecho, notar que en el ejemplo, el intervalo de clase que 
ostenta mayor frecuencia absoluta (40) es el de 81 a 100 latidos por minuto, o sea, 
no es precisamente el que contiene a la media. 
Veamos otra situación. Fíjese en estas dos series cuyas medias y medianas 
coinciden (53). Sin embargo, no podríamos decir que son semejantes, si tomamos 
en cuenta sus datos: 
Serie A: 50, 51, 52, 53, 54, 55, 56 
Serie B: 23, 33, 43, 53, 63, 73, 83 
Por supuesto que no podemos. En la serie A los datos están más juntos, están 
más cercanos (distan una unidad entre sí), lo que no ocurre en la serie B, cuyos 
datos están mucho más alejados entre sí. Si se analizan las distancias entre las 
observaciones y su media, en la serie A la primera y última observaciones están a 
tres unidades del centro de la serie, mientras que en la otra esas observaciones 
distan 30 unidades de sumedia. ¿Claro? 
Ante una situación parecida, se necesitan otros parámetros acerca de la serie, 
como aquellos que miden cuán alejadas o agrupadas están las observaciones 
unas de otras o de la media. 
El grado de agrupación o alejamiento de los datos de una serie es lo que recibe el 
nombre de variabilidad, variación, esparcimiento o dispersión de los datos, la cual 
puede ser absoluta o relativa. Con el fin de estudiarla, esto es, de conocer hasta 
qué punto las observaciones están agrupadas o esparcidas, la Estadística nos 
facilita las medidas de variabilidad, variación, esparcimiento o dispersión, las 
cuales verás en este epígrafe. 
56
 
1.4.2.2 Medidas de variabilidad absoluta 
El Rango o Amplitud 
Esta es la más sencilla de las medidas de dispersión. Consiste en la diferencia 
entre el mayor valor de la serie y el menor, o sea, restar ambos valores. Por 
ejemplo, la amplitud de los datos de la serie A —vista en el acápite anterior— es 
de 56 - 50 = 6, y la de la serie B es de 60. 
Como ves el rango o amplitud es una medida muy fácil de determinar. Da una idea 
rápida de la variabilidad de un grupo de observaciones. No es muy descriptiva de 
la misma porque sólo toma en cuenta los valores extremos de la serie, veamos el 
siguiente ejemplo: 
Serie A: 150, 160, 170, 180, 190, 200 
Serie B: 150, 190, 197, 198, 199, 200 
Resulta obvio que ambas tienen la misma amplitud (50), pero salta a la vista que 
ambas no tienen la misma dispersión. En la primera, los valores se sitúan de 
forma bastante dispersa entre los extremos; en la segunda la mayoría está 
cercana al valor mayor de la serie. 
Si queremos describir de manera más eficiente la dispersión de un conjunto de 
datos, tendremos que emplear otras medidas de dispersión más específicas. 
La desviación media 
Al hablar de dispersión, lo hacemos la mayoría de las veces tomando en cuenta a 
la media aritmética del conjunto de observaciones. Así, cuando decimos que la 
dispersión de una serie es pequeña, es porque los datos están agrupados en la 
cercanía de su media, siendo grande si los datos están alejados de ella. Esto 
sienta las bases para utilizar como referencia las distancias (diferencias) para 
referirnos a la dispersión, o sea, que sería procedente definirla en función de las 
distancias que existen entre los valores de la serie y su media. Estas distancias 
pueden ser vistas como la desviación entre los elementos en cuestión; con otras 
palabras, si hay mucha distancia, decimos que se desvió mucho el número de la 
media, y así por el estilo. 
Si promediásemos las desviaciones entre cada número y la media, o sea, 
sumarlas y dividirlas por la cantidad de números de la serie, obtendríamos una 
medida de la variación promedio del conjunto de datos dada por: 
n
)XX(
n
1i
i −∑
= 
 
57
 
Por desgracia, realizar este cálculo te sería tan provechoso como no hacer 
ninguno, pues el resultado final siempre es cero7, debido a razones matemáticas. 
Por ejemplo, considera la siguiente serie: 2, 3, 4, 5, 6. Su media es 4, y si 
calculásemos lo planteado: 
0
5
0
5
210)1()2(
5
)46()45()44()43()42(
==
+++−+−
=
−+−+−+−+− 
La solución a este inconveniente es hallar la diferencia modular de las 
desviaciones, de esa manera sólo se tomará en cuenta la magnitud de dichas 
desviaciones, esto es, hallar el módulo de las diferencias. De esta forma, se estará 
calculando la desviación media (DM) o desviación promedio, cuya fórmula para 
datos simples es: 
n
XX
DM
n
1i
i∑
=
−
= 
donde: 
- Xi son las observaciones de la serie (i = 1,…, n); 
- X : media aritmética de la serie; 
- n: total de observaciones. 
Ilustremos lo antedicho calculando la desviación media de las siguientes 
mediciones del peso (en libras) que corresponden a cinco estudiantes de un área 
de salud. 
150.5, 180.8, 145.3, 127.9, 130.5 
Ante todo, calcule la media: 
147
5
5.1309.1273.1458.1805.150X =++++= libras 
Luego halle las desviaciones de cada observación con respecto a la media: 
Xi |Xi - X | 
150.5 3.5 
180.8 33.8 
145.3 1.7 
127.9 19.1 
130.5 16.5 
 74.6 
Finalmente, DM = 74.6 ÷ 5 = 14.92 libras. 
 
7 Estriba en que la media de las desviaciones es justamente la media misma. 
Como escapa a los propósitos de este curso entrar en formalismos matemáticos, 
si estás interesado puedes acudir a la literatura especializada para indagar al 
respecto. 
58
 
Calculada la medida deseada, se puede decir que, el peso de los estudiantes se 
desvía casi 15 libras de la media de 147 libras. 
 
Particularicemos en algo: si se tratase de una serie con valores aberrantes, se 
debió calcular la mediana en vez de la media; entonces utilice la mediana para 
calcular la desviación media, sustituyendo la media en la fórmula por la mediana. 
La desviación media es una medida que se utiliza poco en la práctica, sobre todo 
si son muchos datos o si éstos tienen muchos lugares decimales, pero 
principalmente debido a razones de índole matemática que no abordaremos en 
este curso. De todas formas, optamos por darla a conocer con el fin de que se 
logre entender cabalmente las medidas que veremos a continuación. 
La varianza y la Desviación Estándar 
Como se recordará, para calcular la desviación media nos vimos obligados a 
utilizar las diferencias modulares para obtener un resultado válido, pues de lo 
contrario no se obtenía nada. Pues bien, existe otra medida que se vale de elevar 
al cuadrado las desviaciones de los datos con respecto a su media. Dicha medida 
recibe el nombre de varianza o variancia. Se denota por los símbolos S2 ó σ2 (letra 
griega sigma minúscula al cuadrado), al igual que con la media, la distinción entre 
ellos se refiere a muestra y población, respectivamente. De momento, usaremos el 
primero. Su cálculo (para datos simples) se verifica según la fórmula: 
( )
n
XX
S
n
1i
2
i
2
∑
=
−
= 
donde: 
- Xi son las observaciones de la serie (i = 1,…, n); 
- X : media aritmética de la serie; 
- n: total de observaciones. 
Esta medida logra describir adecuadamente la dispersión del conjunto de datos, 
pero tiene un inconveniente: su resultado se expresa en las unidades de medida 
de la variable elevadas al cuadrado, algo harto engorroso y difícil de entender en 
la mayoría de las situaciones prácticas, y por demás disonante en relación con la 
medida de tendencia central utilizada. Sería algo así como años cuadrados, o 
pesos cuadrados. 
A fin de eliminar este aparente escollo, se puede hallar la raíz cuadrada positiva 
del número obtenido, con lo que tendremos de vuelta las unidades originales, 
obteniendo así una medida denominada desviación típica o estándar8, que es la 
medida de variación más ampliamente utilizada en el mundo de las estadísticas. 
Su símbolo es S (por ser la raíz cuadrada de la varianza), aunque se utiliza 
 
8 Aunque en muchos textos se utiliza standard, preferimos utilizar la traducción al 
castellano del término. 
59
 
también DS (desviación standard) o SD (standard deviation). Tiene, además, la 
ventaja de que hasta las calculadoras de bolsillo —las científicas, claro está— la 
calculan, y casi la totalidad de los paquetes estadísticos existentes en el mercado 
del software. 
Vamos a calcular la desviación estándar de la serie del ejemplo de los pesos (en 
libras) del acápite anterior. 
150.5, 180.8, 145.3, 127.9, 130.5 
X = 147 libras 
Xi (Xi - X )2 
150.5 12.25 
180.8 1142.44 
145.3 2.89 
127.9 364.81 
130.5 272.25 
 1794.64 
 
S2 = 1794.64 ÷ 5 = 358.93 libras2 
 
S = 94.1893.358 = libras 
 
Con el resultado obtenido puede decirse que, en promedio, los datos se desvían 
de la media en casi 19 libras. 
En gran parte de las situaciones del mundo biomédico, y basándose en elementos 
de la Estadística Inferencial9, se pueden utilizar la desviación estándar y la media 
para construir intervalos en los que se encuentran la mayor parte de los datos. Por 
ejemplo, en el intervalo cuyo extremo inferior sea X –SD y el superior sea X + 
SD, o sea, [ X – SD; X + SD], se encuentra cerca del 68% del total de las 
observaciones. Si construimos el intervalo con el duplo de la SD: [ X – 2·SD; X + 
2·SD], entonces ahí estará cerca del 95% de los datos; y utilizando el triplo de la 
SD, el intervalo contendrá entonces a más del 99% (99.73%) de las 
observaciones. 
Si los datos están agrupados, el cálculo de la varianza se realiza de manera 
diferente pero no lo abordaremos, esto puedes consultarlo en la literatura básica al 
final del tema. 
Si la serie posee valores aberrantes, usted se ve obligado a utilizar la mediana, 
por lo que ahora debe sustituir la media por la mediana en la fórmula para calcular 
la varianza y la desviación típica. 
 
9 Nos referimos a la normalidad de las poblaciones. Este es un tema que va más 
allá de los objetivos del presente curso. 
60
 
1.4.2.3 Medidas de variabilidad relativa 
En muchas ocasiones es necesario comparar la dispersión entre dos o más 
conjuntos de datos, y sucede que las variables tienen diferentes unidades de 
medida. Con las medidas de dispersión estudiadas no se puede llegar a una 
conclusión válida acerca de la comparación en las desviaciones de los datos. 
El coeficiente de variación 
Ante casos como el descrito con anterioridad, es imprescindible contar con una 
medida de variabilidad relativa, como el coeficiente de variación (CV), que expresa 
a la desviación típica como porcentaje de la media, y su cálculo se realiza 
mediante: 
100
X
SDCV = 
 
Observa que, por tener la desviación estándar y la media las mismas unidades de 
medida, quedan canceladas dichas unidades, de ahí que el coeficiente de 
variación no tenga unidades propias10, lo que facilita la comparación. 
En el ejemplo siguiente, si se comparan las desviaciones estándar de los dos 
grupos, pudiera creerse que ambos tienen igual dispersión, lo cual es un error 
pues no se pueden comparar Kg. con cm: 
Grupo 1: peso medio = 60 Kg.; SD = 4 Kg. 
Grupo 2: talla media = 170 cm.; SD = 4 cm. 
Sin embargo, al calcular la medida recién conocida, entonces: CV peso = 6.6% y 
el CV talla = 2.3 %. Con lo que vemos algo bien diferente, pues en realidad el 
grupo 1 tiene casi tres veces más dispersión en su peso que el grupo 2 respecto a 
la talla. 
Hay algo importante que usted debe saber, cuando se trata de una sola unidad de 
medida, es decir, comparar la dispersión de dos grupos de estudio respecto a la 
misma variable medida en la misma unidad de medida, se puede comparar 
directamente la desviación típica (varianza) o la desviación media de ambos 
grupos estudiados, en este caso es un error comparar los coeficientes de 
variación, ya que el CV depende de los valores de las observaciones en sí 
mismas, es decir, si comparo dos grupos de pacientes respecto a la talla en cm 
puede suceder lo siguiente: 
Grupo 1: talla promedio = 60 cm; SD = 4 cm 
Grupo 2: talla promedio = 170 cm; SD = 4 cm 
En este ejemplo ambos grupos tienen el mismo grado de dispersión respecto a la 
talla, ya que poseen igual desviación estándar, pero habrán notado que las medias 
son bien diferentes, el grupo 1 a juzgar por su talla promedio son lactantes, 
 
10 Con otras palabras, el coeficiente de variación es adimensional. 
61
 
mientras que el grupo 2 pueden ser jóvenes o adultos de cualquier edad. 
Calculemos el CV en cada caso: 
CV1 = 6.6 % 
CV2 = 2.3 % 
Aparentemente el grupo 1 es mucho más disperso respecto a la talla que el grupo 
2, lo cual no es cierto, sucede que tienen diferentes valores de talla, el grupo 2 es 
mucho más alto que el grupo 1, lo que se manifiesta en el promedio, pero en la 
desviación estándar esto no queda reflejado, ya que es la diferencia promedio de 
cada valor respecto a la media, no importa si esos valores son altos o bajos, ya 
que su media también será alta o baja. Es decir, en el grupo 1 la talla de cada 
paciente, como promedio, se desvía de la talla media unos 4 cm, al igual que en el 
grupo 2. ¿Claro? 
1.5 - Análisis de Series Cronológicas o Temporales. 
Los eventos de salud relacionados con las poblaciones residentes en cualquier 
área geográfica transcurren en el tiempo, por ello, es de capital importancia 
estudiar su comportamiento a lo largo de éste. La evolución temporal de estos 
eventos se puede conocer a través del análisis de las llamadas series temporales, 
a las cuales dedicaremos este capítulo. 
Una serie temporal, serie de tiempo o serie cronológica, pues de cualquiera de 
estas formas puede llamársele, se define como el conjunto de mediciones sobre el 
estado de una variable (el evento de salud considerado) ordenados en el tiempo1. 
Las series temporales pueden clasificarse según la forma en que se ofrecen los 
valores de las mediciones en dos tipos: 
• Continuas: cuando los valores se ofrecen de forma permanente, de manera tal 
que cada uno de ellos representa el estado de la variable en un instante, el 
cual puede ser tan pequeño como teóricamente se quiera suponer. 
• Discretas: cuando los valores se ofrecen para intervalos de tiempo, 
generalmente homogéneos y donde representan la magnitud acumulada del 
estado de la variable durante ese intervalo. 
Estas últimas son las más utilizadas en Salud y en este contexto solamente 
analizaremos las de este tipo. Un ejemplo de una serie discreta puede ser la 
compuesta por las tasas anuales de mortalidad por enfermedades del corazón en 
Cuba en los últimos 20 años o las tasas de incidencia mensual de hepatitis de una 
provincia en un quinquenio. 
Las series temporales tienen además otra característica, que hace muy difícil su 
tratamiento mediante los métodos estadísticos habituales, pues en la mayoría de 
éstos se exige el cumplimiento del supuesto de independencia de las 
observaciones, mientras que las series generalmente se caracterizan por la 
dependencia existente entre observaciones sucesivas. Dicho de otro modo, puede 
62
 
existir una correlación entre las tasas de incidencia de determinada enfermedad 
en períodos consecutivos de tiempo. 
Existen muchas razones para estudiar una serie, por ello son de gran importancia 
en nuestro medio pues entre otras cosas sirven para: 
 Describir las características más sobresalientes de cualquier evento en el 
tiempo. 
 Predecir el comportamiento futuro de un evento de salud según su conducta 
pasada. 
 Estudiar el mecanismo que genera la serie. 
 Evaluar impacto de las intervenciones realizadas sobre determinado problema 
de salud. 
 Contribuir a la prevención de problemas de salud. 
 Controlar la calidad de los programas de salud. 
 Planificar recursos. 
Ahora bien, antes de comenzar a trabajar con cualquier serie es necesario 
evaluar algunos aspectos relacionados con la calidad de la misma, los cuales 
pueden determinar el que ésta no tenga suficiente valor como para ser analizada. 
Pudieran considerarse como los requisitos básicos que deben cumplirse antes de 
comenzar el tratamiento de la serie y son: la consistencia, la comparabilidad, la 
estabilidad, la existencia de valores aberrantes y la periodicidad. 
1.5.1 –Requisitos de la Serie Temporal 
Consistencia de la serie. 
La característica fundamental para poder juzgar sobre la consistencia de una serie 
está dada por la invariabilidad en el método de observación o recolección de los 
datos, quiere esto decir que cualquier modificación que se efectúe en los mismos 
puede determinar inconsistencias. Las series confeccionadas con mediciones 
obtenidas por métodos rudimentarios pueden ser muy buenas siempre y cuando 
éstos se mantengan estables, pues lo que verdaderamente se necesita es que el 
método empleado sea capaz de medir las fluctuaciones del evento en el tiempo y 
no tanto la verdadera magnitud del fenómeno. Evidentemente, obtener una serie 
consistente en salud no resulta fácil pues existen muchas fuentes de variaciones 
como son: 
1. Cambios en las definiciones y clasificacionesempleadas. Es necesario 
cerciorarse de que las clasificaciones y definiciones utilizadas a lo largo de la 
serie sean iguales, las modificaciones impuestas por la Clasificación 
Internacional de Enfermedades y Causas de Muerte deben ser tenidas en 
consideración así como la no utilización de definiciones imprecisas. 
2. Modificaciones en las formas de recogida y procesamiento de los datos. Deben 
tomarse en cuenta las variaciones que pueden producirse cuando se implantan 
63
 
nuevos sistemas de información estadística o cuando se sustituyen los 
métodos manuales de procesamiento por los computacionales. 
3. Modificaciones en los criterios de diagnóstico de las enfermedades. El 
incremento en la capacidad diagnóstica debido al perfeccionamiento de las 
técnicas y a la mayor cantidad de conocimientos, trae como consecuencia que 
cuando se analiza un período largo de tiempo pueden existir modificaciones en 
los criterios utilizados y producirse por lo tanto variaciones en el número de 
casos que en ninguna medida representan la evolución real de la enfermedad. 
4. Calidad de los registros. Nunca se insiste lo bastante en la calidad de los 
registros y sin embargo, estos constituyen la piedra angular sobre la cual 
descansa el estudio de las series; la calidad de los mismos depende del 
personal que registra el dato, de su preparación y disciplina así como de su 
estabilidad y experiencia en la actividad. 
5. Modificaciones en la cobertura del sistema. Cuando se producen cambios en la 
cobertura del sistema, ya sea por incremento de las instituciones o de la fuerza 
laboral, debe esperarse un incremento en el número y frecuencia de los 
eventos de salud, debidos simplemente al aumento del pesquisaje; no tomar 
en cuenta lo anterior puede llevar a conclusiones fatales acerca del 
comportamiento de cualquier fenómeno. 
6. Calidad del diagnóstico. Al igual que con la calidad de los registros debe ser 
una preocupación constante del que va a procesar una serie, el inquirir sobre la 
calidad con que se han efectuado los diagnósticos, pues independientemente 
del desarrollo tecnológico, existe un componente muy subjetivo en esto dado 
por la preparación y dedicación de quienes realizan esta tarea. 
7. Modificación de las características demográficas de la población subyacente. 
Los cambios producidos en la población subyacente ya sean con relación a su 
volumen o a su composición, pueden influir en los eventos de salud 
considerados y hacer aumentar o disminuir los valores de los indicadores 
utilizados, por lo tanto deben ser tenidos en cuenta. 
8. Características del mecanismo de notificación: Hemos incluido este aspecto, 
pues aunque no determina realmente la inconsistencia de la serie, si produce 
modificaciones en el comportamiento de la misma las cuales deben ser 
tomadas en cuenta. Si la serie está conformada mediante los valores 
obtenidos por un mecanismo de notificación, una de las cosas que pueden 
suceder es que los canales normales por donde fluye la información impongan 
un retraso en la llegada de los datos desde las unidades de base hasta los 
centros de recopilación finales. En este caso se encuentran las enfermedades 
que requieren para su notificación final de exámenes de laboratorio complejos 
los cuales solamente se realizan en instituciones de carácter nacional (por 
ejemplo el SIDA o las enfermedades inmunoprevenibles). 
 
64
 
Este retraso en la información produce una serie con valores incompletos de la 
variable hacia el final de los períodos de tiempo considerados y esto se traduce 
gráficamente por la presencia de una meseta artificial en una curva epidémica. 
Para corregir este sesgo se han propuesto varios métodos que pueden ser 
consultados en la literatura2,3,4 Otro de los problemas relacionados con las 
notificaciones y que puede inducir a error en la interpretación de la serie, es el 
producido por el efecto del calendario de recogida de la información, pues este 
determina un incremento de casos en los intervalos de tiempo donde usualmente 
se cierran las informaciones. Generalmente se observan a finales de trimestres, 
semestres y años. Finalmente tenemos el problema que surge cuando las 
notificaciones se realizan según la fecha de diagnóstico y no según fecha de 
primeros síntomas. Es muy importante conocer esta característica, sobre todo 
para enfermedades que tienen un período de transmisibilidad corto y 
especialmente si se quiere predecir el momento de mayor riesgo para su 
adquisición. 
Comparabilidad de los valores de la serie. 
Un aspecto importante en el trabajo con series es el de asegurar la comparabilidad 
de los valores temporales de la variable, pues cuando ésta se refiere a un evento 
que ocurre en una población cuya magnitud fluctúa con el tiempo, es necesario 
obtener una medida de relación que permita independizar al valor de la medición 
de dicho cambio. Por este motivo no se recomienda trabajar con números 
absolutos a menos que se esté seguro de que la población se ha mantenido 
invariable a lo largo del período analizado. 
Generalmente se utilizan tasas o índices. Sin embargo, al emplear estas medidas 
relativas debe garantizarse la calidad del cociente en ambos términos. La calidad 
del numerador viene dada fundamentalmente por la utilización de la misma 
definición para los casos y por el cumplimiento de los aspectos mencionados al 
hablar de la consistencia. La calidad del denominador, depende de la coincidencia, 
para todos los intervalos de tiempo que se estudian, de las características de las 
poblaciones empleadas (la misma zona geográfica, mismo grupo de edad, mismo 
sexo, etc.). 
Estabilidad de la serie. 
Una serie inestable puede producirse cuando se trata con eventos poco frecuentes 
o con aquellos cuya magnitud es prácticamente despreciable con relación a la 
población en la cual ocurren. En este caso están incluidas las enfermedades raras 
o las que tienen una baja prevalencia. La utilización de medidas relativas cuando 
el valor de las mismas está muy cerca del cero trae como consecuencias 
dificultades para la obtención de los intervalos de confianza y que pueden originar 
intervalos absurdos. Cuando el número de casos de una enfermedad es muy 
pequeño en un intervalo de tiempo, esto se puede corregir agrupando los casos y 
ofreciéndolos en intervalos de tiempos mayores, por ejemplo usando meses en 
vez de semanas. 
65
 
Existencia de valores aberrantes. 
Los valores que se apartan mucho del conjunto de valores de su entorno o de los 
pertenecientes a iguales períodos de tiempo deben ser considerados como 
aberrantes o anómalos, pueden presentarse al observar el gráfico de la serie 
como saltos aislados hacia arriba o hacia abajo, bien diferenciados de sus 
vecinos. La aparición de estos valores puede tener varias explicaciones y es muy 
importante decidirse por una de ellas. 
Gráfico 1 
Blenorragia.Cuba,1970-2000
0
50
100
150
200
250
300
350
400
450
19
70
19
71
19
72
19
73
19
74
19
75
19
76
19
77
19
78
19
79
19
80
19
81
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
años
Ta
sa
s 
po
r 1
00
 0
00
 h
ab
.
valor aberrante
 
 
Pueden deberse a errores tales como: introducción incorrecta de los datos en la 
computadora, mala trascripción del dato original así como datos originales 
deficientes debido a errores en su obtención en la unidad de procedencia. Las 
dificultades de este tipo deben ser corregidas de inmediato. En el Gráfico 1 se 
muestra un ejemplo de valor aberrante presentado por la serie de incidencia anual 
de blenorragia de Cuba en el año 1993. 
Cuando el valor aberrante no es producido por un error entonces debe ser 
sustituido. La sustitución de estos valores se realiza declarándolos como datos 
perdidos, pues casi todos los programas computacionales tienen opciones para 
tratar con este tipo de dato (missing data o missing value). Entre las más utilizadas 
están las siguientes:1. Sustitución por la semisuma de los valores vecinos. Esta es la forma más 
sencilla y habitual de sustituir un valor aberrante sobretodo cuando se trata de 
casos aislados. 
66
 
2. Sustitución por la media aritmética general de la serie. Este método puede ser 
la mejor manera de estimar un dato siempre y cuando la serie no tenga 
grandes fluctuaciones. 
Aún cuando existen numerosas posibilidades para la sustitución de los datos 
gracias a los paquetes computacionales, a veces la mejor forma de reemplazar un 
dato aberrante es utilizando el valor sugerido por un experto, aún cuando puede 
decidirse también no utilizarlo en absoluto. 
Gráfico 2 
Meningitis Bacteriana. Cuba,1982-2000
0
5
10
15
20
25
30
35
40
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
años
Ta
sa
 p
or
 1
00
 0
00
 h
ab
.
vacunación
 
Ahora bien, existen situaciones a las cuales están asociados los datos aberrantes 
y que no deben pasarse por alto, por ejemplo, un conjunto de valores anormales 
puede significar que se está produciendo un cambio en los niveles de la serie 
debido a modificaciones en la magnitud real del evento o a errores sostenidos en 
el mecanismo de observación o medición, en ambos casos ese requiere de una 
investigación complementaria antes de continuar el análisis. En el gráfico 2 se 
observa la modificación del nivel de la serie producida en la serie de Meningitis 
Bacteriana a partir del inicio de la vacunación contra la meningitis meningocóccica 
tipo B. 
Periodicidad de la serie. 
La periodicidad de la serie no es más que el intervalo regular de tiempo al final del 
cual obtenemos una medición resultante del estado de la variable. La decisión de 
cual es la que mejor conviene a nuestro estudio, está en dependencia de los 
objetivos que se persigan, pues si se desea conocer el comportamiento histórico 
de un fenómeno, entonces lo más razonable es utilizar series con una periodicidad 
anual, en cambio si se quiere hacer la vigilancia de determinada enfermedad 
transmisible resulta más apropiado el empleo de series semanales. 
67
 
 
El gráfico de la serie 
Hemos dejado este asunto para el final, pero no porque sea el menos importante, 
pues el estudio de cualquier evento en el tiempo tiene que comenzar 
necesariamente por la exploración de su representación gráfica. La observación 
de ésta permite apreciar los detalles más relevantes de la serie así como detectar 
los valores anormales. 
El gráfico por excelencia para una serie de tiempo es el llamado Gráfico Aritmético 
Simple (GAS), donde en el eje de las abscisas se inscriben los momentos de 
tiempo considerados y en el eje de las ordenadas los valores de la variable 
obtenidos para cada uno de los intervalos. Generalmente se utilizan las escalas 
aritméticas para ambos ejes aunque pueden emplearse escalas semilogarítmicas. 
Gráfico 3. Escala Aritmética 
INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.
 CUBA 1988-1994
0
4
8
12
16
20
1988 1989 1990 1991 1992 1993 1994
Años
Ta
sa
 x
 1
00
 0
00
 h
ab
.
0 a 14
15 a 49
50 y mas
Total
 
Fuente: Registro Nacional de Cáncer 
Los gráficos con escalas semilogarítmicas son muy útiles para representar la 
variación relativa del fenómeno estudiado, lo cual suele ser de mayor interés para 
el epidemiólogo que la propia variación absoluta. Generalmente se utilizan para 
representar series de datos que tienen magnitudes diferentes. Si con esta escala 
el evento representado aparece como una línea recta esto permite suponer que 
existe una evolución constante (crecimiento o decrecimiento) del indicador 
empleado y la pendiente de esa recta pone de manifiesto la magnitud de esa 
evolución. 
 
68
 
Gráfico 4 Escala Semilogarítmica 
 
INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.
 CUBA 1988-1994
1
10
100
1988 1989 1990 1991 1992 1993 1994
Años
Ta
sa
 x
 1
00
 0
00
 
0 a 14
15 a 49
50 y mas
Total
 
 
Fuente: Registro Nacional de Cáncer 
 
Cuando se analizan dos series de datos y ambas aparecen como rectas paralelas 
puede concluirse que los eventos representados tienen una variación similar. La 
escala semilogarítmica posee además la cualidad de hacer evidente las 
verdaderas variaciones, aunque éstas sean ligeras. 
1.5.2 - Los componentes de la serie. 
Una vez que se ha concluido que la serie en estudio tiene las cualidades 
necesarias para poder ser analizada como tal corresponde proceder al análisis. El 
enfoque clásico del estudio de series parte de considerar la existencia de un 
proceso que gobierna el comportamiento de la variable en cuestión, el cual 
determina los valores observados en cada momento de tiempo. La idea que 
subyace bajo este enfoque determinista es una extrapolación de los modelos 
matemáticos que describen los fenómenos físicos y los cuales permiten calcular el 
valor de cualquier cantidad dependiente del tiempo con exactitud. 
Desgraciadamente, casi ningún fenómeno de la vida en general y mucho menos 
de Salud puede ser abordado de esta forma, pues factores desconocidos pueden 
producir variaciones insospechadas, aún para los propios fenómenos físicos. La 
magnitud y tipo de los cambios sociales, biológicos, físicos o químicos que ocurren 
son tan infinitos como el propio tiempo. No obstante, se acostumbra a buscar una 
expresión analítica que sea función de éste para explicar el comportamiento de la 
variable, en otras palabras el modelo que gobierna la serie es una función del 
tiempo. 
69
 
Esta función está compuesta, según el enfoque clásico, por cuatro elementos o 
componentes de la serie y se considera que todo cambio que se opera en ella es 
resultado de la influencia de todos o de alguno de estos componentes, que son: 
tendencia, estacionalidad, ciclo y aleatoriedad; los cuales describiremos a 
continuación: 
• Tendencia (T). También conocida como la tendencia secular, no es más que el 
movimiento suave, regular y casi siempre lento, el cual tiende a mantenerse 
por períodos largos de tiempo, por lo que generalmente se estudia en varias 
décadas. La tendencia de una serie es la orientación general que parecen 
seguir sus valores o el cambio de su valor medio o nivel en el tiempo. Los 
cambios seculares o históricos son de gran importancia para los epidemiólogos 
pues permiten apreciar cual ha sido el comportamiento del evento en períodos 
anteriores, sin embargo, numerosos acontecimientos pueden influenciar las 
tendencias de las enfermedades a lo largo del tiempo (costumbres higiénicas 
de la población, nuevos métodos terapéuticos, medidas preventivas como las 
vacunas), los cuales no deben olvidarse al observar la tendencia para permitir 
la correcta valoración de la misma. En Gráfico 5 se aprecia la tendencia 
decreciente de la mortalidad en el sexo masculino para el grupo de 1-4 años en 
Cuba. 
Gráfico 5. 
 
 Mortalidad: 1-4 años . Sexo Masculino.
 Cuba (1986-1996)
60
65
70
75
80
85
90
86 87 88 89 90 91 92 93 94 95 96
Fue nte : Dire cción Nacional de Es tadís ticas .
Ta
sa
s 
x 
10
00
00
 h
ab
ita
nt
es
 
• Estacionalidad (E). Se le conoce también como variación estacional y se trata 
de las fluctuaciones periódicas y rítmicas de la variable en lapsos de tiempo 
más cortos, generalmente asociadas con las estaciones aunque por extensión 
se aplican a cualquier intervalo de tiempo dentro del año. Las variaciones 
70
 
estacionales de los eventos de salud resultan de gran interés para los 
epidemiólogos pues las causas que las motivan son numerosas y van desde 
las modificaciones estacionales de la flora y la fauna hasta la circunstancias, 
que debidas enteramente a la mano del hombre, juegan un papel en la 
producción de las enfermedades, como son los incrementos que se producen 
en los accidentes automovilísticos y la muerte por ahogamiento durante los 
períodos vacacionales. En el Gráfico 6 podemos observar como se repiten los 
momentos de alza en las atenciones médicas por EDA aproximadamentedurante los meses de verano en cada año. 
 
Gráfico 6. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Ciclo (C). La variación cíclica también es periódica, aunque los intervalos de 
tiempo involucrados son mucho más largos, este componente solamente 
puede apreciarse, de existir, en series muy extensas. Numerosas son las 
enfermedades transmisibles para las cuales ha sido descrita la variación 
cíclica, por ejemplo el alza quinquenal de la varicela o de la hepatitis. Un 
ejemplo de esto puede verse en Gráfico 7 donde aparecen las tasas de 
incidencia de varicela en Cuba en los últimos 32 años. 
 
EDA. Cuba, 1990-1999
0
50000
100000
150000
200000
250000
300000
350000
400000
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99 10
6
11
3
12
0
12
7
meses
A
te
nc
io
ne
s 
M
éd
ic
as
71
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Gráfico 7 
 
• Aleatoriedad (A). Se trata del movimiento irregular de la serie determinado por 
el azar, impredecible, accidental. El enfoque clásico atribuye la presencia de 
este elemento en el comportamiento de la variable a errores de observación, 
medición o transmisión de los datos y por lo tanto imposible de modelar en ese 
contexto. Tradicionalmente se obtiene por exclusión de los otros y se le llama 
″residuo aleatorio″. En el gráfico 8 se aprecia un ejemplo de una serie donde 
solamente se manifiesta el componente aleatorio. Observe que en esta serie 
no es posible discernir ningún patrón como los que cabría esperar en presencia 
de tendencia, ciclo o estacionalidad. 
 
Varicela. Incidencia anual. Cuba,1964-1999
0
20000
40000
60000
80000
100000
120000
140000
19
64
19
66
19
68
19
70
19
72
19
74
19
76
19
78
19
80
19
82
19
84
19
86
19
88
19
90
19
92
19
94
19
96
19
98
72
 
Gráfico 8 
Casos semanales del evento X 
0.00
10.00
20.00
30.00
40.00
50.00
60.00
70.00
80.00
90.00
100.00
1 11 21 31 41 51 61 71 81 91 10
1
11
1
12
1
13
1
14
1
15
1
 
 
1.5.3- Métodos para el tratamiento de series. 
Existen numerosos métodos para trabajar con las series temporales y la utilización 
de uno u otro está en dependencia de los objetivos propuestos y de las 
características de las mismas. No se recomienda hacer más complejo de lo 
necesario este proceso pues si lo que se pretende demostrar puede lograrse 
mediante un método simple, éste resultará mejor que uno más complejo, sobre 
todo, si no se poseen los recursos tecnológicos que generalmente son necesarios 
para el empleo de métodos más complicados. 
A continuación explicaremos algunas de las formas más simples para estudiar la 
tendencia y la estacionalidad, la clasificación utilizada para ello ha sido tomada del 
excelente trabajo del doctor Arnaldo Tejeiro ″La Serie Cronológica″5. 
Métodos para estudiar la tendencia. 
 Métodos Matemáticos. 
1. Diferencias Absolutas. 
2. Cambio Relativo. 
3. Diferencias Absolutas o Cambios Relativos de valores extremos de la serie. 
4. Números Indices. 
5. Promedio de Cambio. 
 Métodos Gráficos. 
1. Línea a mano alzada. 
2. Método el Ciclo Medio. 
3. Semipromedios. 
73
 
4. Promedios Móviles. 
5. Medianas Móviles. 
Métodos para estudiar la estacionalidad. 
 Curvas de expectativa. 
1. Curva con la Mediana. 
2. Curva con el Promedio. 
3. Curvas con Medianas o Promedios Móviles. 
4. Mediana y Valor Último. 
5. Promedio Tricentral. 
 Límites de variación habitual o Canales Endémicos. 
1. Canal del Máximo -Maximorum y Mínimo - Minimorum. 
2. Canal con las cifras inframáximas y supramínimas. 
3. Canal del Promedio de la serie más - menos dos Desviaciones Estándar. 
4. Canal con la Mediana y Primer y Tercer Cuartiles. 
Método de la diferencia absoluta: 
En este método lo que se pretende es demostrar la existencia de tendencia a 
través del incremento o disminución de la diferencia absoluta entre los valores 
extremos de la serie. Para que sea útil es necesario que la serie progrese de 
manera bastante estable, ya que en series que presenten grandes variaciones 
este valor carece de interés. Supongamos por ejemplo, que tenemos la serie de 
mortalidad por enfermedades del corazón de Cuba desde 1970 hasta 1999. La 
tasa bruta de mortalidad del año 1970 fue de 148.3 defunciones por 100 000 
habitantes y la de 1999 de 192.6, la diferencia entre ambas es de 44.3, de manera 
que podemos plantear que se ha producido un incremento entre los años 
extremos del período y ello habla a favor de la existencia de una tendencia al 
ascenso en este evento. 
Método del cambio relativo: 
La utilización de medidas relativas es muy atractiva por la facilidad de la 
comprensión de las mismas. Este método consiste por lo tanto, en la presentación 
del cambio relativo ocurrido entre los valores extremos de la serie. Continuando 
con el ejemplo anterior de la mortalidad por enfermedades del corazón, 
tendríamos que después de obtener la diferencia entre las tasas de 1999 y 1970, 
esta diferencia se divide a su vez por el valor de la tasa del año 1970 y se 
multiplica por 100, obteniéndose entonces que en la serie se ha producido un 
incremento del 29.8 %. 
Los métodos de la diferencia absoluta o del cambio relativo entre grupos de años 
extremos de la serie son similares a los dos anteriormente descritos, pero en ellos 
se utiliza en vez de los dos valores extremos, un grupo de valores cuyo tamaño 
está en dependencia de los deseos del investigador y del número de años 
disponibles. Es necesario sin embargo, estar atentos a las características de la 
serie, pues si se trata de una serie con grandes fluctuaciones no se podrán 
74
 
obtener resultados coherentes con ninguno de los métodos que emplean los 
valores extremos; además como en todos los análisis de series temporales se 
debe recordar siempre que los factores que han dado origen a la misma son 
múltiples y que cualquier variación de estos puede modificar la misma. No 
obstante, si la serie es muy variable se recomienda emplear el método que se 
describe a continuación. 
Método del número índice. 
El número índice ha sido empleado con frecuencia como un indicador bastante 
aproximado para estudiar la tendencia de eventos cuyo comportamiento es muy 
fluctuante. Para confeccionarlo se escoge el valor de algún año y éste se 
considera entonces como el cien por ciento obteniéndose a continuación el 
porcentaje de éste que representa cada año de la serie. Este método tiene la 
ventaja de que permite apreciar la evolución del evento a lo largo del tiempo. Sin 
embargo tiene una gran desventaja y ella está dada por la decisión de cual es el 
año que debe ser considerado como el índice. Supongamos que se escoge un año 
que tiene un valor muy alto los demás años estarán por debajo del mismo o 
viceversa, no obstante esto no resulta tan problemático si se hace la interpretación 
adecuada. A continuación mostramos cómo se comportaron los números índices 
de la serie de mortalidad por enfermedades del corazón de Cuba entre los años 
1970-1999 tomando como año índice a 1970. 
75
 
 
AÑO TASA 
NÚMERO 
INDICE % 
1970 148.3 1 100.00
1971 141.3 0.95 95.28 
1972 135.9 0.91 91.63 
1973 147.2 0.99 99.12 
1974 156.3 1.02 102.75
1975 148.9 1.00 100.40
1976 158.9 1.07 107.12
1977 162.8 1.09 109.77
1978 168.9 1.13 113.89
1979 164.7 1.11 111.50
1980 166.7 1.12 112.30
1981 176.1 1.18 118.70
1982 162.8 1.09 109.77
1983 171.8 1.15 115.84
1984 176.4 1.18 118.94
1985 189.9 1.28 128.05
1986 184.5 1.24 124.40
1987 185.5 1.25 125.08
1988 191.8 1.35 135.73
1989 190.2 1.29 129.33
1990 201.3 1.35 135.73
1991 192.5 1.28 128.25
1992 195 1.31 131.49
1993 199.2 1.34 134.32
1994 201.9 1.35 135.74
1995 201.3 1.35 135.73
1996 206.3 1.39 139.10
1997 197.1 1.32 132.90
1998 193 1.30 130.14
1999 192.6 1.29 129.87
 
Para estudiar la tendencia se emplean también varios métodos gráficos. No se 
explicará mucho sobre ellos pero es bueno recordar que obtener la tendencia de 
la serie por el simple trazo de una línea a mano alzada aunque parezca muy 
primitivo es bastante útil para datos que no presenten grandes variaciones. 
76
 
Métodográfico de los semipromedios. 
Este método tiene amplia difusión y utilización. Consiste en obtener los promedios 
de las dos mitades de la serie, la posterior representación gráfica de los mismos y 
su unión mediante una línea recta. En el empleo de la línea recta para resumir la 
posición de los dos semipromedios está el atractivo de este método para los 
gerentes, pues les permite visualizar bien la tendencia. No obstante, se debe ser 
cauteloso en la interpretación de este método pues los promedios se ven 
afectados por los valores muy altos o muy bajos de la serie, lo cual puede ser 
apreciado al comprobar como la eliminación de un año muy alto o muy bajo 
cambia por completo la pendiente de la serie. En el Gráfico 9 se muestra la recta 
obtenida para la tendencia mediante los semipromedios en la serie de mortalidad 
por enfermedades del corazón de Cuba entre 1970 y 1999. 
Grafico 9 
Mortalidad por Enfermedades del Corazón.
 Cuba, 1970-1999
100
120
140
160
180
200
220
19
70
19
72
19
74
19
76
19
78
19
80
19
82
19
84
19
86
19
88
19
90
19
92
19
94
19
96
19
98
Ta
sa
s 
po
r 
10
0 
00
0 
ha
b.
 
Como la serie tiene una extensión de 30 años, se calculó un promedio para cada 
mitad, es decir que se obtuvo la media para los años 1970-1984 ( 159.13) y para 
el período 1985-1999 (194.80). Cada promedio se inscribió en el punto medio 
correspondiente en el eje de las abscisas.: el año 1977 para la primera mitad de la 
serie y el año 1992 para la segunda. Si se hubiera representado una serie con un 
número de años impar, por ejemplo con 29 años, entonces se hubiera dividido en 
dos mitades de 14 años y el año central es decir el número 15 de la serie, se 
hubiera incluido en el cálculo de los dos semipromedios. 
Método de los promedios móviles: 
Este es otro de los métodos gráficos recomendados para el análisis de tendencia, 
pero en realidad lo que permite es disminuir las fluctuaciones bruscas de la serie y 
obtener un suavizamiento general de la misma, por lo que se recomienda cuando 
estamos en presencia de series con muchas variaciones en su comportamiento a 
lo largo del tiempo. El método consiste en obtener el promedio para segmentos 
77
 
iguales de la serie, generalmente se prefiere dividirla en pequeños grupos de 3 ó 
de 5 años según la longitud de la serie y sus fluctuaciones e ir obteniendo 
sucesivamente el promedio para cada conjunto de años. Estos después se 
inscriben en un gráfico, como el que se muestra a continuación. Observe que con 
este método siempre se van perdiendo términos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
AñoTASA 
1970 0.7 
1971 1.3 
1972 2.1 
1973 3.2 
1974 4.9 
1975 5.1 
1976 5.3 
1977 5.1 
. . 
. . 
. . 
1999 36.6 
( 0.7+ 1.3+ 2.1) / 3 
( 1.3 +2.1+3.2 ) / 3 
( 2.1 + 3.2 + 4.9 ) / 3 
78
 
Gráfico 10 
Condiloma Acuminado. Cuba, 1970-2000
0
5
10
15
20
25
30
35
40
19
70
19
71
19
72
19
73
19
74
19
75
19
76
19
77
19
78
19
79
19
80
19
81
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
Ta
sa
 p
or
 1
00
 0
00
 
Condiloma promedio movil
 
 
Entre los métodos tradicionales para el estudio de la estacionalidad mostraremos 
la curva de expectativas y el canal endémico con cifras inframáximas y 
supramínimas. 
Curvas de expectativas. 
Las curvas de expectativa se llaman así porque lo que se obtiene es una curva del 
comportamiento esperado para el evento, se pueden confeccionar con la mediana 
o con el promedio. Si estamos en presencia de series que no tienen muchas 
fluctuaciones y se dispone de un gran número de años se puede utilizar la curva 
confeccionada con el promedio. Pero si la serie es muy variable se recuerda que 
esto afectará los resultados obtenidos pues el promedio toma en cuenta a todos 
los valores. 
Cuando se hace con el promedio se obtienen los promedios para cada intervalo, 
por ejemplo para cada mes o para cada semana y después se inscriben en el 
gráfico. 
Cuando se decide confeccionarla con la mediana es necesario ordenar los valores 
de los diferentes meses o semanas del año en orden ascendente o descendente y 
obtener los correspondientes a la posición de la mediana. Con estos se hace el 
correspondiente gráfico. En el gráfico 10 se muestra la curva de expectativa con 
79
 
la mediana obtenida para los casos mensuales de Varicela de Cuba, en la cual se 
utilizó la serie de casos mensuales del año 1990-2000. 
En este gráfico se 
aprecia como en esta 
enfermedad se puede 
esperar un incremento 
de casos entre febrero 
y junio. 
Aunque las curvas de 
expectativa resultan de 
utilidad, es más 
conveniente poder 
establecer ciertos 
rangos en el 
comportamiento 
esperado de los 
eventos, que les 
permitan a los gerentes 
o a los epidemiólogos apreciar adecuadamente los fenómenos, pues las curvas de 
expectativa explicadas con anterioridad solamente muestran un valor central. Se 
puede adicionalmente hacer curvas con el promedio tricentral por ejemplo o con la 
semisuma de la mediana y el valor último, pero estos métodos tampoco ofrecen la 
información más completa. 
El método del canal endémico es mucho más adecuado para mostrar los 
diferentes rangos de comportamiento esperado de un evento. Se puede 
confeccionar de varias maneras. A continuación s explicará una de ellas. 
Canal Endémico con las cifras inframáximas y supramínimas. 
Este es uno de los métodos más utilizados en nuestro país para la vigilancia de 
eventos en intervalos de tiempo cortos como por ejemplo semanas o meses. Se 
recomienda su utilización cuando se dispone de información de un número 
suficiente de años, generalmente más de 7 años, pues en el procedimiento de su 
confección se desechan las observaciones máximas y las mínimas. Para explicar 
la confección de este método se utilizará la serie mensual de Hepatitis Viral 
correspondiente a los años 1990-1998. 
Varicela. Curva de expectativa.
( Mediana). Cuba, 1990-2000
0
2000
4000
6000
8000
10000
12000
E F M A M J J A S O N D
80
 
 
 E F M A M J J A S O N D 
1992 1692 1626 1887 2105 1919 1746 1959 1637 1866 1936 1503 1304
1993 838 928 1290 1021 891 1594 830 807 1289 944 727 991
1994 649 951 1509 1365 1206 1565 880 1105 1754 1493 1270 917
1995 815 1037 1540 1139 1443 1133 867 1362 1672 1406 1838 886
1996 946 919 1014 1123 1753 1911 1918 1803 2575 2998 1868 1977
1997 1926 1984 2276 2998 2271 1904 1748 1606 1520 1831 1218 1210
1998 914 1184 1586 1188 1237 1670 1045 1079 1538 1341 1268 1284
 
Para poder desarrollar el método es necesario ordenar los valores de la serie de 
manera ascendente o descendente, en este caso se ordenaron de forma 
descendente. Posteriormente se procede a obtener la mediana, y se toman dos 
filas de valores adicionales, la fila que está por debajo de los máximos valores ( 
inframáxima) y la fila que está por encima de los mínimos( supramínima). Estos 
tres conjuntos de números se pueden inscribir en un gráfico, dividiendo el área del 
mismo en 4 zonas que se conocen con el nombre de Zona de éxito, zona de 
seguridad, zona de alerta y zona de epidemia. 
 
 E F M A M J J A S O N D 
 1926 1984 2276 2998 2271 1911 1959 1803 2575 2998 1868 1977
Inframáxima 1692 1626 1887 2105 1919 1904 1918 1637 1866 1936 1838 1304
 946 1184 1586 1365 1753 1746 1748 1606 1754 1831 1503 1284
Mediana 914 1037 1540 1188 1443 1670 1045 1362 1672 1493 1270 1210
 838 951 1509 1139 1237 1594 880 1105 1538 1406 1268 991
Supramínima 815 928 1290 1123 1206 1565 867 1079 1520 1341 1218 917
 649 919 1014 1021 891 1133 830 807 1289 944 727 886
 
81
 
Gráfico 11 
gEste canal 
permite inscribir 
los nuevos 
valores del 
evento en el 
período que se 
está vigilando; 
observar en que 
zona se 
encuentran y 
actuar en 
consecuencia. 
Observe que los 
valores que se 
encuentran por 
encima de la 
mediana, ya 
representan un 
motivo de alerta o constituyen francamente una epidemia. Este método tiene la 
ventaja de no considerar los valoresde años epidémicos pues no toma los 
máximos, por eso se prefiere al canal del máximo maximorum y mínimo 
minimorum, al cual se le ha señalado que pierde sensibilidad para la detección 
de epidemias al tomar en cuenta para su confección a los valores máximos. 
Los métodos anteriormente enumerados son bastante buenos en general si lo que 
se desea es describir el comportamiento de un evento de salud. Sin embargo, con 
frecuencia el estudio de series lo que persigue es poder predecir un valor futuro de 
la variable y para este caso, esos métodos resultan inoperantes. Existen otro 
grupo de métodos indicados para establecer predicciones que no serán abordados 
aquí. 
Bibliografía: 
1. Horsford Saing R, Bayarre Vea H. Métodos y Técnicas aplicados a la 
Investigación en Atención Primaria de Salud. Parte I. La Habana: Finlay; 2000. 
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin 
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la Investigación. 
Maestrías para profesionales de la Atención Primaria de Salud. La Habana, 
2004. 
3. Astraín Rodríguez ME. Estadística Descriptiva. La Habana: ENSAP; 2001. 
4. Coutin Marie G. Las Series Temporales. MINSAP. La Habana, 2001. 
 
Hepatitis . Canal Endémico.
0
1000
2000
3000
4000
5000
6000
1 2 3 4 5 6 7 8 9 10 11 12
EXITO
SEGURIDAD
ALERTA
EPIDEMIA
82
 
 
 
 
Tema 2. Estadísticas de Salud 
 
Introducción 
Por Estadística de Salud o Sanitaria entenderemos toda la información numérica 
imprescindible para planificar, ejecutar, y evaluar programas de salud, 
independientemente de si la información se produce en las unidades de salud. 
Las estadísticas de salud se clasifican en: 
 
Estadística de Población. Son aquellas que estudian la composición y 
principales características de las agrupaciones humanas. 
 
Estadísticas Vitales. Son aquellas que se refieren a los hechos recolectados 
sistemáticamente y reunidos en forma numérica que se relacionan o derivan de 
registros de eventos vitales. 
 
Hecho vital. Es todo hecho relacionado con el comienzo y fin de la vida del 
individuo y con los cambios de su estado civil que pueden ocurrir durante su 
existencia. Los más importantes son los nacimientos y las defunciones. 
Estadísticas de Morbilidad. Son aquellas que permiten conocer de que enferman 
o padecen los habitantes de determinada colectividad o país. 
Estadísticas de Recursos y Servicios. Expresan numéricamente los recursos de 
que se dispone en la actividad de salud, y los servicios que se brindan con los 
recursos existentes. 
No hay dirección científica de la salud sin una sólida y amplia base informativa. 
Las estadísticas de salud se tornan cada vez más amplias y complejas en la 
medida que más amplia y compleja sea la actividad en salud. 
En la planificación de los programas las estadísticas de salud son imprescindibles 
pues la identificación de los problemas de salud, la magnitud y causas que los 
producen se realizan mediante el análisis de la situación de salud de la comunidad 
a servir. 
Durante la ejecución de los programas, las estadísticas permiten realizar el control 
y ajuste de los mismos y por ultimo son imprescindibles para evaluar el 
cumplimiento de los objetivos planteados 
Tomado del libro Estadísticas de Salud y Población de la 
Dra. Maria Elena Astrain. ENSAP. 2000 
83
 
2.1 Fuentes de información 
La información se puede obtener de diferentes fuentes y por diversos métodos. 
Existen dos grandes fuentes de información, las denominadas fuentes primarias 
y las fuentes secundarias. 
Fuente primaria. Es la fuente que contiene el dato en su origen y por sí mismo. 
Hay que realizar una búsqueda activa del mismo ya que este no se encuentra ni 
registrado ni publicado. 
Existen dos métodos básicos de recolección de la información, la Observación y 
el Interrogatorio. 
La observación, como método o técnica de obtención de la información sé 
caracteriza por ser planificada y responder a un objetivo preciso y previamente 
formulado. 
Tiene como ventaja la objetividad y como desventaja que es un proceder caro, no 
permite investigar lo subjetivo, ni el pasado ni el futuro, necesita de un personal 
altamente calificado, no puede ser aplicado a grandes poblaciones, y tiene 
implícito el error de observación, la valoración subjetiva del que realiza lo 
observación. 
Existen dos grandes formas de observación, la no estructurada y la 
estructurada. En ambas es necesario diseñar una guía de observación, su nivel 
de precisión y de detalle dependerá de los objetivos propuestos y del fenómeno a 
investigar. En la no estructurada solo se relacionan de forma muy general los 
aspectos a observar, mientras que en la estructurada el nivel de detalle y precisión 
de la guía es mucho mayor. 
El interrogatorio como método de obtención de la información, elimina las 
desventajas de la observación y tiene como limitante que es un método mas 
subjetivo pues depende de la memoria del interrogado y de la buena voluntad a la 
hora de responder las preguntas. 
Dentro del interrogatorio se distinguen dos grandes procedimientos: la entrevista 
y el cuestionario. 
En la entrevista como su nombre lo indica se establece un dialogo entre el 
entrevistado y el entrevistador. Puede ser no estructurada, semi estructurada y 
estructurada. 
En la no estructurada la guía de entrevista se limita a enunciar de forma general 
los aspectos a tratar, si se abordan estos temas en forma de preguntas, estas son 
84
 
abiertas. Requiere de un amplio conocimiento sobre el problema a tratar y de gran 
pericia por parte del entrevistador. 
En la estructurada la guía de entrevista constituye un instrumento diseñado con un 
alto nivel de detalle y especificidad. Las preguntas aunque pueden ser abiertas se 
limitan a aspectos más concretos y prevalecen por lo general las preguntas 
cerradas. 
La semi - estructurada, tiene en el diseño de la guía, partes estructuradas y partes 
no estructuradas. 
La entrevista en cualquiera de sus modalidades tiene la ventaja de poder incluir en 
su diseño la observación. 
El cuestionario no es mas que una entrevista estructurada pero donde no existe la 
figura del entrevistador, es autoaplicado, la persona lo llena sola. Este aspecto es 
importante a la hora del diseño, pues la claridad en el lenguaje y en la formulación 
de las preguntas es vital para su comprensión. Tampoco debe ser muy extenso. 
Tiene como ventaja adicional que es mucho mas económico que la entrevista, 
pues puede ser aplicado a grandes grupos de población de una sola vez, con solo 
reunirlos en un local para que una persona encargada lo realice, e incluso puede 
ser enviado por correo, en este último caso el número de no respuesta puede ser 
muy elevado. Tiene como desventaja que no puede combinarse con la 
observación. 
Es bueno aclarar que la entrevista estructurada y al cuestionario son los métodos 
de obtención de la información que identifican a la encuesta que se conoce como 
método de recolección de la información bajo otro eje de clasificación. 
Fuente secundaria. En este caso ya la información se encuentra registrada y 
publicada, no es necesario hacer una búsqueda activa de la misma, solo es 
necesario velar por la calidad de la fuente que utilicemos en nuestros análisis. Por 
ejemplo las historias clínicas de un centro de salud, los anuarios demográficos y 
estadísticos, los sistemas de información o registros, como el de mortalidad. 
Métodos de recolección de la información. 
Los principales métodos de recolección de la información son: el censo de 
población, la encuesta y los registros continuos. 
La selección del método de recolección de la información dependerá del: 
- Propósito del estudio. 
- Naturaleza de la información (fuente, accesibilidad, restricciones) 
85
 
- Frecuencia con que se pretende recoger. La información puede ser recolectada 
ocasionalmente como es el caso de la encuesta, de manera periódica como 
los censos de población que se realizancada 10 años y generalmente años 
terminados en ceros, y de manera continua como los registros. 
El censo de población. Proceso que incluye un conjunto de operaciones, que 
consiste en reunir, elaborar, y publicar datos demográficos, económicos y sociales, 
correspondientes a todos los habitantes de un país o territorio, referidos a un 
momento determinado o a ciertos periodos dados. 
Los censos de población deben reunir determinadas características, las más 
importantes son: 
- Un territorio bien definido, es decir un área geográfica bien delimitada. 
- Universalidad. Debe comprender a todos los miembros de la población del área 
seleccionada, sin omisiones ni repeticiones. 
- Simultaneidad. La población total empadronada debe referirse a una fecha bien 
definida. Así como los datos reunidos deben referirse a una fecha o a un periodo 
bien definido. 
El censo tiene dos finalidades principales. En primer lugar sirve a modo de 
fotografía instantánea de una comunidad, valedera para un momento dado. En 
segundo lugar, cada censo puede considerarse como un elemento en una serie 
consecutiva, aspecto dinámico comparable a una película cinematográfica de la 
población. Solo mediante una serie sucesiva de censos de una población es 
posible apreciar la magnitud y dirección de las diversas tendencias demográficas. 
Los errores más frecuentes que se producen en los censos pueden agruparse en 
dos categorías: errores de cobertura y errores de contenido. 
Los errores de cobertura pueden deberse a: 
- Omisión de personas. Las omisiones más frecuentes se producen en las 
primeras edades. 
- Duplicidad en la enumeración. Personas enumeradas mas de una vez. 
Los errores de contenido ocurren al proporcionar el declarante datos equivocados 
sobre el tema que se indaga o al anotar el enumerador incorrectamente la 
información. El error que con más frecuencias se comete es la declaración 
incorrecta de la edad, por lo general en personas de edad avanzada que tienden a 
redondear la edad en cifras que terminen en 0 o en 5. 
 
86
 
Los censos se clasifican en: 
- Censo de jure o de derecho. Cuando la persona resulta empadronada según el 
lugar de residencia, independientemente de su presencia o no el día del censo. 
- Censo de Facto o de hecho. Cuando la persona resulta empadronada según el 
lugar de su presencia el día del censo, independientemente que resida 
habitualmente o no en dicho lugar. 
- Mixto. Cuando se aplican en un mismo censo los dos métodos. Los datos de la 
persona enumerada por lugar de presencia se envían posteriormente al lugar 
donde declaró como residencia habitual para su compatibilización. 
Registros continuos. Registran la información sobre hechos o sucesos ocurridos 
a la población o a un segmento de ella, a medida que estos se producen en el 
tiempo y el espacio. Estos constituyen por su variedad una fuente de información 
valiosísima sobre todo a lo que a Salud Publica se refiere. Entre los registros más 
comunes se pueden citar: los registros civiles - nacimientos, defunciones, 
matrimonios divorcios etc.- los de seguridad social, los escolares, etc. 
Los registros civiles constituyen la fuente de las estadísticas vitales, son los mas 
útiles para el sector salud, y su historia data desde épocas remotas. En un 
principio la iglesia estuvo a cargo de los mismos( registros parroquiales), pasando 
el estado, a partir del siglo XIX, al asumir su responsabilidad, aunque todavía 
existen países en los cuales continua siendo la Iglesia la encargada de muchos de 
ellos. 
Los hechos o sucesos vitales pueden ser anotados en los registros de dos formas 
distintas. 
- Según lugar de ocurrencia del hecho. 
- Según lugar de residencia de la persona objeto de estudio. 
La forma mas apropiada es la del registro por lugar de residencia, pues permite tener 
información de las regiones o áreas geográficas en el marco interno de un país, 
imprescindible para la planificación y evaluación en el sector salud. 
La información proveniente de los registros se puede interrelacionar con la 
proveniente de los censos, mediante la llamada Ecuación Compensadora. 
2.2 La población 
Desde el punto de vista demográfico la población es el conjunto de personas que 
se agrupan bajo un cierto ámbito geográfico. 
87
 
Las poblaciones no son estáticas, están en continuo cambio por la influencia de 
las tres variables demográficas más importantes: la fecundidad, la mortalidad y las 
migraciones 
Composición o estructura de la población 
No es más que la distribución de los integrantes de la población por las variables 
de más interés como la edad, el sexo, el estado civil, la ocupación, la escolaridad y 
otras. 
Las variables más importantes para el estudio de la estructura lo son la edad y el 
sexo. 
Edad. De ella depende la participación que tenga la población en hechos como: la 
reproducción, la actividad económica, las migraciones y la mortalidad. 
La distribución por edad puede hacerse por edades simple aunque es más 
frecuente su estudio por grupos quinquenales o decenales. 
Dentro del análisis por edad tenemos un indicador muy importante que mide la 
carga que tienen las poblaciones de personas no productivas, económicamente 
dependientes, la razón de dependencia. 
Está razón no es más que la relación entre las personas con dependencia 
económica por su edad y la población económicamente activa. 
 RD = 
nteactivaconomicamepoblacióne
ependientepoblaciónd
 x 100 
 Donde: 
 Población dependiente = < de 15 y > 64 años 
 Población económicamente activa = 15-64 años 
El criterio de población económicamente activa puede cambiar de un país a otro, 
pero lo importante es medir la carga que tiene la población productiva. 
Sexo. Influye en el comportamiento diferencial de los nacimientos, defunciones, 
migraciones, ocupación y otros aspectos de interés. 
Un indicador muy utilizado para el análisis de la composición de la población por 
sexo lo es el denominado Índice de masculinidad o razón de masculinidad. 
88
 
Razón de masculinidad = 
eedadnquenalesdrgruposquifemeninapoPob
deedadinquenalesorgruposqumasculinappob
.
.
 
Al nacimiento el índice es de aproximadamente 1.05. Si no hay migraciones, sólo 
la influencia de la mortalidad, producto de la sobremortalidad masculina tiende a 
igualarse a la unidad alrededor de los 40 años y a partir de esta edad, se invierte 
al existir en las edades más avanzadas más mujeres que hombres. 
Por edad y sexo. Generalmente se obtiene la distribución porcentual por edad y 
sexo y se representa a través de una gráfico especial: la pirámide de población 
La pirámide de población, la representación gráfica por edad y sexo de la 
población, no es mas que dos histogramas, uno para cada sexo, que se han unido 
y rotado sus ejes, en el lado izquierdo se colocan los hombres y a la derecha las 
mujeres. 
En el eje vertical, (y), están los grupos quinquenales de edad hasta 85 y más y en 
el eje horizontal, las abcisas aparecen los efectivos de población en porcentajes. 
Como todos los grupos de edad tienen la misma amplitud, cinco, los rectángulos 
tienen el mismo ancho y sólo varía la longitud en dependencia de los efectivos de 
población de cada grupo. 
Tipos de pirámide 
- Pirámide de base ancha y una rápida disminución hacia la cúspide. Se ve en 
poblaciones jóvenes típica de países en desarrollo donde existen altos niveles 
de fecundidad y de mortalidad. 
- Pirámide de base estrecha, por la baja natalidad, un ascenso irregular hacia la 
cúspide que es más ancha por los bajos niveles de la mortalidad. Típica de 
países desarrollados. 
A continuación se muestran tres tipos de pirámide, la expansiva es la de base 
ancha y cúspide estrecha propia de países pobres. 
La constrictiva y la casi estacionaria por el contrario son típicas de países ricos con 
muy bajos niveles de natalidad y mortalidad. En la casi estacionaria los bajos 
niveles de fecundidad ya llegan a producir un crecimiento negativo. 
 
89
 
 PirámideExpansiva Pirámide Constrictiva Pirámide Casi
Estacionaria
Perfiles generales de las poblaciones
 
La variable demográfica que más influye en el envejecimiento de la población es la 
fecundidad, pues al disminuir los efectivos de población más jóvenes se estrecha 
la base y aumenta el peso relativo de los viejos. La mortalidad, cuando disminuye 
lo hace para todas las edades. 
Una forma rápida de analizar el grado de envejecimiento de la población es a 
través de los índices de Rosset y de la ONU, que miden el peso relativo de la 
población de 60 y 65 años y más. 
Índice de Rosset. Según la distribución de la población de 60 años y más: 
 -<8% Juventud demográfica 
 8-10 % Umbral de envejecimiento 
 11-14% Envejecimiento propiamente dicho 
 15ymàs Vejez demográfica 
Índice de la ONU. Según la distribución de la población de 65 años y más 
 <4% población joven 
 4-6% población madura 
7-10% envejecimiento incipiente 
11-13% envejecimiento avanzado 
14-16% población envejecida 
 > 16% muy envejecida 
90
 
Crecimiento de la población. 
Puede ser de dos tipos según las variables demográficas que intervengan: 
- Natural o vegetativo. El cambio de magnitud se debe sólo a la diferencia 
entre nacimientos y defunciones, no ocurren migraciones. 
- Total o neto. Se tiene en cuenta las migraciones 
Tasas de crecimiento: 
1- Aritmético o lineal o incremento natural. Mide el crecimiento de manera 
absoluta y asume que la población crece a un ritmo constante. Sólo se 
recomienda para períodos cortos de tiempo de 1 a 2 años. 
r = 
t
1
(
no
nont −
) k 
Donde: 
no = población al inicio del período 
nt = población al final del período 
t = tamaño del intervalo de tiempo 
k = constante, 100 o 1000 
Veamos el ejemplo de Cuba: 
1998 = 11 122 308 habitantes 2001 = 11 229 688 habitantes 
 r = 
3
1
 (
11122308
1112230811229688 −
) x 100 
 r = 0.33 (0.00965) x 100 
 r = 0.3 % tasa media anual de crecimiento 
2-Tasa de crecimiento geométrico o interés compuesto 
Es mejor que la anterior. No asume un incremento absoluto constante, sino un 
crecimiento exponencial y puede ser utilizada por periodos más largos de tiempo 
La expresión simplificada de cálculo sería: 
91
 
 r = 
t
2 100x
nont
nont
+
−
 
Para Cuba en el período 1990-2001 sería: 
 r = 
10
2
(
1060320011229688
1060320011229688
+
−
) x 100 
 r = 0.2(0.029) x 100 
 r = 0.6% de crecimiento en el período 1990-2001 
3. Tiempo en que se duplica la población 
Suponiendo que la población crece a una tasa constante r, de crecimiento relativo, 
se puede determinar el tiempo que demora la misma es duplicar, triplicar, etc, su 
tamaño. 
 t
r
=
+
ln
ln( )
2
1
 
Donde: 
 Ln 2 = 0.69315 
 r = crecimiento geométrico 
Con el ejemplo de Cuba: 
 t = 
)006.01ln(
69315.0
+
 
 t = 
00598.0
69315.0
 = 115.9 
De mantenerse la tasa de crecimiento constante, la población de cuba se 
demorará 115.9 años en duplicarse. 
Transición demográfica 
Los primeros siglos, antes y después de nuestra era, se caracterizaron por un 
crecimiento de la población lento, con una elevada natalidad pero una también 
elevada mortalidad. 
A partir del siglo XIX se produce un descenso marcado y sostenido de la 
mortalidad, con altos niveles de natalidad, lo que trajo como consecuencia un 
92
 
crecimiento muy marcado de la población. Este proceso se inicio en los países 
europeos y en sólo 90 años se duplicó la población mundial. 
Ya a finales del siglo XIX se inicia en Francia un descenso de la natalidad, que se 
comienza a extender en el siglo XX al resto de los países en mayor o menor 
medida. El descenso de la mortalidad que ha seguido un ritmo marcado y 
sostenido, unido al descenso de la fecundidad ha motivado una disminución 
nuevamente del ritmo de crecimiento, con un envejecimiento poblacional. 
Esto ha provocado un cambio en los perfiles de morbilidad y mortalidad, con un 
predominio de las enfermedades crónicas no transmisibles. 
En el gráfico que aparece a continuación, se ha esquematizado la transición 
demográfica: en los inicios, ambas tasas eran muy elevadas, con valores cercanos 
entre sí, lo que resultó en una tasa de crecimiento (diferencia entre TBN y TBM) 
pequeña, posteriormente, la mortalidad lideró el descenso cuando aún la natalidad 
permanecía elevada, produciéndose un exceso notable de los nacimientos sobre 
las muertes y por ende una aceleración del incremento. Al final, las dos tasas 
brutas han descendido a valores más pequeños y también lo ha hecho su ritmo de 
crecimiento. 
 
TBN
TBM
r
r
r
Años
r = TBN - TBM
Tasas brutas de natalidad, mortalidad y crecimiento
 
Fuente: Herrera,L. Introducción a la Demografía. Cuba. ENSAP 1999 
 
93
 
2.3 La fecundidad 
 
La fecundidad es el componente de cambio poblacional que más incide en el 
tamaño y estructura por edades de una población. Una elevación de la fecundidad 
durante un período de tiempo, da lugar tanto a un aumento de la tasa de 
crecimiento, como a un aumento de la proporción de personas en edades más 
jóvenes, en relación con la población total, produciendo un rejuvenecimiento de la 
misma. A la inversa, la disminución continuada de la fecundidad, produce un 
descenso de la tasa de crecimiento acompañada del aumento de la proporción, de 
personas adultas, dando lugar con ella a un proceso de envejecimiento. 
Es importante conocer que la fecundidad se relaciona con el tamaño de la 
población femenina en edad fértil en sentido directo, por lo cual siempre se debe 
valorar el tamaño que tiene esta subpoblación. Se considera período fértil el 
comprendido desde los 15 hasta los 49 años, estas son las edades fértiles de la 
vida de una mujer. 
Se conoce como fecundidad la capacidad real de reproducirse. 
Se conoce como fecundidad natural aquella que ocurre en poblaciones donde no 
se introduce de manera consciente procedimientos para limitar la descendencia y 
como fecundidad dirigida, la que se produce en comunidades que han 
introducido conscientemente métodos para regular la concepción. 
Otras categorías vinculadas con el tema lo son: la fertilidad que es la capacidad 
potencial de reproducirse una población, está relacionada con aspectos 
biológicos y la Natalidad que no es más que los nacimientos vivos ocurridos en 
una población. 
Evolución histórica: 
La tendencia general mundial es a la disminución. Este descenso comenzó en 
Francia a principios del siglo XVIII. El resto de los países se fueron sumando 
paulatinamente a este comportamiento esta lista la encabezaron los más 
desarrollados ya que existe una relación inversa entre desarrollo socioeconómico 
y niveles de fecundidad. 
Este descenso se hace muy marcado a principio del siglo XX y abarca a todo el 
planeta, durante la década del 60 la reducción no fue importante, en la década de 
los 70 se expanden los programas de planificación familiar en la mayoría de los 
países, estos programas logran una mayor consolidación en los años 80 donde se 
observa un mayor descenso de los niveles de fecundidad. 
94
 
Sin embargo, existen grandes diferencias entre regiones y países. En los países 
nórdicos y Europa los niveles tan bajos constituyen un problema para esas 
poblaciones, lo que ha motivado que los gobiernos tracen políticas de 
incentivación de la natalidad. Sin embargo en otras regiones del mundo como 
África los niveles se mantienen elevados. 
En la región de las Américas existen importantes diferencias, el área Andina y 
México presentan las tasas mas altas de fecundidad, mientras que América del 
Norte y el Caribe los niveles más bajos. Los países de más alta fecundidad en la 
región son: Guatemala, Haití, Honduras, Nicaragua, Bolivia, y los de niveles más 
bajos Canadá, Cuba, Islas Turcas y Estados Unidos 
Factores que influyen en la fecundidad 
 Son múltiples los factores que influyen en el comportamiento de la fecundidad y 
se clasifican en extrínsecos e intrínsecos. 
Factoresextrínsecos, diferenciales de la fecundidad o variables intermedias. 
1- Situación conyugal 
2- Nivel de instrucción 
3- Zona de residencia 
4- Grupo social 
5- Incorporación de la mujer al trabajo 
6- Urbanización 
7- Nupcialidad 
8- Divorcialidad 
Factores intrínsecos (la fecundidad depende directamente de ellos) 
a- Fisiológicos 
1- Fecundabilidad, que es la probabilidad de que una mujer casada o unida 
sea concebida en el transcurso de un ciclo menstrual. 
2- Probabilidad que una concepción finalice en un nacido vivo 
3- Esterilidad 
4- Intervalo de recuperación ovulatoria luego del parto. . 
 b- Factores de comportamiento. 
1- Lactancia materna 
2- Frecuencia de las relaciones sexuales 
3- Métodos de prevención de nacimientos 
95
 
Fuentes de información 
Las estadísticas de natalidad estudian el número y la distribución de los 
nacimientos en una colectividad. 
Todos los países disponen de sistemas de registros de nacimientos y leyes que lo 
hacen cumplir. El registro civil es la fuente principal de información sobre 
nacimientos y el documento básico la inscripción de nacimiento. Existe un 
certificado de nacimiento estandarizado que incluye tres diferentes tipos de datos: 
sobre el recién nacido, sobre el ambiente y sobre los padres. 
Existen otras fuentes que se utilizan con fines específicos dirigidos casi siempre 
por intereses investigativos, algunas de estas son: 
- Registros de instituciones públicas y privadas que atienden partos. 
- Médicos o paramédicos que atienden partos a domicilio 
- Certificados de defunción de fallecidos en los primeros días de vida y que 
no han sido notificados como nacimientos. 
Medición de la fecundidad 
1- Tasa bruta de Natalidad 
Es el menos refinado de los indicadores de la fecundidad, como puede apreciarse 
por su expresión de cálculo, se trata de una tasa bruta, lo que limita las 
comparaciones al estar afectada por la estructura de población por edad. Además 
de incluir en el denominador personas que no participan en el evento que se está 
midiendo (niños y ancianos). 
TBN = 
P
N x 1000 habitantes 
Donde: 
N = total de nacidos vivos 
P = población estimada a mitad de período 
Tiene como ventaja que es de fácil cálculo. Sus valores oscilan entre 11 y 50 
nacimientos x 1000 habitantes, por debajo de 20 se consideran niveles bajos de 
fecundidad. 
Veamos la tasa de Cuba para el año 2000 
TBN = 
11187673
143528 = 12.8 x 1000 
En el año 2000 se produjeron en Cuba 12.8 nacimientos por cada 1000 
habitantes. 
96
 
2- Tasa de fecundidad general 
Generalmente las medidas de fecundidad están restringidas a la población 
femenina, pues es fácil de medir y controlar el comportamiento por este sexo, 
además de jugar un papel protagónico en este evento. 
TGF = 
4915−P
N x 1000 mujeres de 15 a 49 años 
Ya en el denominador aparece la población expuesta al riego de procrear, aunque 
a la hora de hacer comparaciones, por ser un grupo de edad tan amplio, pueden 
existir diferencias en la estructura por edad entre territorios que afecten las 
comparaciones. 
Sus valores oscilan entre 30 y más de 100 nacimientos por 1000 mujeres en edad 
fértil ( 15 a 49 años). Valores por debajo de 60 se consideran bajos. 
Cuba en el año 2000 tenía una tasa de 47.3 nacimientos por 1000 mujeres en 
edad fértil. 
3- Tasa de fecundidad por edad 
Es de gran importancia y utilidad pues la fecundidad tiene un comportamiento 
diferencial por edad y permite conocer el aporte de cada grupo de edad al nivel de 
la fecundidad. Generalmente son bajos los niveles en las menores de 20 y en las 
mayores de 35 años donde precisamente son mayores los riesgos de morbilidad y 
mortalidad para la madre y el niño. La edad óptima para la maternidad se dice que 
es de 20 a 29 años. 
 Los países desarrollados no solo tienen bajos niveles de la fecundidad, sino, que 
los grupos de 25 a 29 y 30 a 34 años son los que mas aportan a la fecundidad. 
TFE = 
quenalesgruposquinemeninaporpoblaciónf
lessquinquenaosporgruponacidosviv
 x 1000 mujeres del grupo de 
edad. 
Es muy útil el análisis gráfico de estas tasas por medio de un polígono de 
frecuencia, y se conoce como curva de fecundidad. 
La curva alcanzará su mayor nivel (cúspide) en correspondencia con el grupo de 
edad que tenga mayor nivel de la fecundidad y se clasifican en: 
- Curva de cúspide temprana pico de 20 a 24 años 
- Curva de cúspide tardía pico de 25 a 29 años 
- Curva de cúspide dilatada pico de 20 a 29 años 
El gráfico que aparece a continuación fue tomado de Introducción al análisis 
demográfico de Lorenzo Herrera. 
97
 
Tasas de fecundidad por edades
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
15 20 25 30 35 40 45
Edad
Tasa
1975
1985
1996
 
Observe como en el año 75 Cuba tenía una curva de fecundidad de cúspide 
temprana y con el de cursar del tiempo no solo los niveles de fecundidad 
descendieron para todos los grupos etáreos, sino, que la importancia y el aporte 
del grupo de 25 a 29 años se ha ido incrementando, y la cúspide tiende ha ser 
dilatada. 
4- Tasa global de fecundidad 
Es el número de hijos que en promedio tendría cada mujer de una cohorte 
hipotética de mujeres que: 
- Que durante su periodo fértil tuviera sus hijos de acuerdo a las tasas de 
fecundidad por edad observadas en un momento dado 
- No estuvieran expuestas al riego de la mortalidad desde el nacimiento 
hasta el término del período fértil 
Para su cálculo se suman las tasas de fecundidad por edad (sin el 10 n ) y se 
multiplican por 5 que es la amplitud de los grupos de edad. 
TGF = 5 ∑
=
49
115i
TFE 
Veamos el ejemplo de Cuba para el año 2000 
98
 
 
Edad de la madre Tasa de fecundidad 
por edad ( x 1000) 
15-19 52.3 
20-24 98.4 
25-29 88.5 
30-34 52.5 
35-39 20.1 
40-44 3.0 
45-49 0.1 
Total 47.3 
 
TGF = 5 (0.0523 + 0.0984 + 0.0885 + 0.0525 + 0.0201 + 0.003 + 0.0001) 
 
TGF = 1.57 hijos por mujer 
 
5-Tasa bruta de reproducción 
 
Expresa el número promedio de hijas por mujer y cumple los mismos supuestos 
que la tasa global de fecundidad y los cálculos son los mismos, solo que el 
resultado final se multiplica por la proporción de nacimientos femeninos que 
ocurren en la población. 
En la población tiende a producirse 105 nacimientos masculinos por cada 100 
femeninos, como vimos en el capitulo de población, de donde la proporción de 
nacimientos femeninos seria: 
K = 
205
100 = 0.4878 
De donde la tasa bruta de reproducción sería: 
TBR = TGF X K 
En el caso de Cuba tendríamos: 
TBR = 1.57 X 0.4878 
99
 
TBR = 0.77 hijas por mujer 
Cuando esta tasa alcanza valores inferiores a 1.03 no se logra el reemplazo 
generacional, y de mantenerse por un tiempo prolongado esta situación traería 
como consecuencia un decrecimiento de la población. 
6-Tasa neta de reproducción 
Es el número promedio de hijas que tendría una mujer pero teniendo en cuenta los 
riesgos de muerte. 
Para su cálculo hay que tener de una tabla de mortalidad para la población 
femenina, la función de probabilidad de supervivencia para cada grupo de edad 
También define las condiciones de reemplazo de una generación por otra. Si el 
valor de la tasa es menor que la unidad, una hija por mujer, no se garantiza el 
reemplazo generacional y de mantenerse esta situación por varios años, al igual 
que ocurría con la tasa bruta de reproducción, la población deja de crecer. 
2.4 La mortalidad 
Las estadísticas de mortalidad tienen el objetivo de conocer el número de 
defunciones habidas en determinada población durante un período determinado 
de tiempo y su distribución de acuerdo a diferentes características de la población 
dónde ocurren. 
Defunción es la cesación permanente de las funciones vitales con posterioridad al 
nacimiento. Es un hacho vital único en la vida de un individuo, lo que facilita su 
registro y análisis. 
Evolución histórica 
Desde el siglo XVIII, la mortalidad ha venido experimentando un descenso 
mantenido de sus niveles, independiente deque su comportamiento no sea igual 
en todos los países. 
Entre los factores más generales e importantes que se invocan como 
responsables de esta reducción tenemos: 
100
 
- Adelantos técnicos que permiten una mejor alimentación y situación 
económica 
- Saneamiento del medio ambiente y creación de servicios de atención 
médica 
- Promulgación de legislaciones sociales y laborales más justas, mejorando 
el ambiente laboral y la educación de los pueblos 
- Disminución de las enfermedades infecciosas por vacunación, medidas 
sanitarias en general, y control de grandes epidemias 
- Avance espectacular de los conocimientos médicos y otras ciencias 
 
Uso de las estadísticas de mortalidad 
 
En sentido general podemos decir que los datos de mortalidad son fundamentales 
para la planificación, ejecución y avaluación de los programas de salud a todos los 
niveles, local, regional e internacional. 
 
También los datos de mortalidad son de interés para las esferas de la 
administración pública y a nivel individual por las implicaciones legales. 
 
De manera un poco más precisa veamos su uso en la salud Pública: 
- Vigilancia epidemiológica 
La vigilancia epidemiológica es el conjunto de actividades encaminadas a 
permitir en forma continua el seguimiento de un determinado problema de 
salud, así como sus determinantes y factores de riesgo, a fin de tomar 
medidas de control de manera oportuna y evaluar sus resultados. 
Por ser la vigilancia epidemiológica un instrumento para la toma de 
decisiones relativas a medidas de control, es necesario la utilización 
inmediata de los datos en el momento en que se generen. 
No se puede esperar la consolidación y el envío de los datos a nivel de 
estado o nación para hacer uso de los mismos, pues la información pierde 
oportunidad. Por ejemplo a veces la primera información sobre un caso de 
cólera o fiebre amarilla se obtiene del certificado de defunción y no del 
sistema de información de morbilidad. 
Por otra parte la investigación epidemiológica de un caso puede modificar el 
diagnostico y servir como un instrumento para evaluar y mejorar la calidad 
delo registros. 
Debe por tanto existir un intercambio de información bidireccional entre las 
áreas de vigilancia epidemiológica y los responsables de las estadísticas de 
mortalidad. 
 
101
 
- Evaluación 
 Sirve para evaluar: 
• Cobertura y calidad delos servicios, como por ejemplo la mortalidad 
materna, la mortalidad intra hospitalaria, la mortalidad por infecciones 
nosocomiales. 
• Programas, conociendo la tendencia después de la implantación 
• Acciones específicas, como el tratamiento de enfermedades graves a 
través da la letalidad. 
• Tecnologías, por ejemplo, conociendo la supervivencia por diferentes 
tipo de tratamientos 
- En el análisis de la situación de salud 
Los indicadores de mortalidad, aún en la actualidad, constituyen una de las 
formas más seguras y completas para medir la situación de salud aunque de 
forma indirecta. 
Conociendo cuándo, dónde cómo y de qué mueren los integrantes de una 
población podemos aproximarnos a saber como viven los mismos y a partir de 
ahí su situación de salud. 
Fuentes de datos 
Una de las ventajas que tienen las estadísticas de mortalidad es precisamente 
la disponibilidad de fuentes, para la obtención de la información. 
 
La información de mortalidad se obtiene fundamentalmente a partir de los 
registros o sistemas de información 
 
Son realmente antiguos, el primer registro surge en Inglaterra en el siglo XVI 
por un decreto promulgado pos Enrique VIII en el cual se ordenaba que en 
todas las iglesias se guardara en un archivo permanente los bautismos, las 
defunciones y los matrimonios. El avance de estoa registros y su 
perfeccionamiento se comenzó en el siglo XIX. 
 
El documento base de donde se obtiene la información para la entrada al 
registro es el certificado de defunción 
 
Existen dos certificados: 
- certificado de defunción, que se llena a las defunciones de 28 días y más 
de edad 
- certificado de defunción perinatal, que se llena a las defunciones fetales de 
20 semanas de gestación o 500 gramos de peso hasta los nacidos vivos 
que fallecen hasta los 27 días de nacidos 
102
 
La causa de muerte que se tabula es la causa básica, que es la enfermedad o 
lesión que inicia la serie de procesos morbosos que conducen directamente a 
la muerte. Existen otras causas que son las contribuyentes y asociadas. 
Otro elemento a tener en cuenta en la producción de las estadísticas de 
mortalidad es la codificación de las causas de muerte sobre la base de la 
Clasificación Internacional de Enfermedades ( CIE) 
Los intentos de listar, ordenar y clasificar las enfermedades, para que estas 
sean comparables dentro de diferentes regiones de un país y entre países, 
datan de mediados del siglo XIX con los primeros intentos hechos por William 
Farr. A finales de este propio siglo, Bertillón propone una lista, una clasificación 
que fue revisada y adaptada oficialmente para todos los países en el 1900 
 A partir de la 6ta versión (en 1948 se creó por parte de la recién fundada OMS, 
un Comité de Control y Revisión de la CIE, que es un órgano de trabajo 
permanente) la clasificación se vuelve más amplia y ya se incluyen las 
enfermedades. Actualmente ya está vigente la X revisión. 
Errores 
Los errores que con más frecuencia se cometen en los registros es por falta de 
cobertura (que el sistema llegue a todos lo lugares que debe llegar y cubra a 
toda la población que debe cubrir) e integridad (que se registre todo lo que se 
debe registrar). 
Estos errores conducen a otros como: 
- subregistros 
- sobreregistros 
- mala calidad en el llenado de los datos que recoge el certificado de 
defunción 
- errores de flujo y terminación 
 
Diferenciales de Mortalidad 
 
La mortalidad tiene un comportamiento diferencial por causas biológicas y por 
causas externas. 
 
En las causas externas influyen las condiciones de vida, el estilo de vida y múltiple 
factores de índole socioeconómica. 
 
Dentro de las causas externas la edad y el sexo son los principales factores 
 
103
 
Edad. La mortalidad es alta al principio y fin de la vida. Es muy alta en la primera 
hora de vida, en el primer día, sigue siendo alta en la primera semana, luego 
desciende aunque se mantiene con niveles elevados durante el primer año de 
vida. 
 
Alcanza sus niveles más bajos entre los 5 y 9 y 10 a 14 años, comenzando de 
nuevo un ascenso ininterrumpido, alcanzando sus niveles más altos en los grupos 
de edades más avanzados. 
 
Si se realiza un polígono de frecuencia con las tasas de mortalidad por edad 
encontraríamos que: 
- en los países muy pobres es muy alta el primer año de vida y al final de la 
vida y la curva tiene forma de U 
- En los países desarrollados, aunque en el primer año de vida el riesgo de 
muerte sigue siendo alto, no es tan marcado como al final de la vida y la 
forma de la curva es de una J inclinada. 
 
Sexo. Existe una sobremortalidad masculina para casi todas las edades. Esta 
diferencia se hace muy evidente en la esperanza de vida al nacer por sexo, donde 
la mujer es más longeva que el hombre, diferencia que se hace más marcada en 
los países de mayor desarrollo. 
 
En los países pobres esta diferencia es menor y se piensa que sea, en parte, por 
el desgaste biológico de las mujeres debido a la alta paridad y también porque las 
malas condiciones de vida la afectan mucho mas por sus roles de género. 
 
Indicadores tradicionales 
 
Son y seguirán siendo la base de los estudios de mortalidad, al margen de otros 
enfoques como los de evitabilidad. 
1. Tasa de mortalidad general . Es fácil de obtener los datos que incluye su 
cálculo, y de fácil interpretación. Permite comparar la mortalidad con un solo 
valor, pero para ello es necesario estandarizar la tasa porque como tasa bruta, 
está afectada por la estructura por edad. 
 
 TBM =
oblacióntotaldelap
uncionestotaldedef x 1000 hab. 
 
104
 
Este mismo hecho produceun efecto paradójico, en los países más ricos la 
tasa tiene valores más altos, porque la población es más vieja, cuando sus 
riesgos de muerte son en realidad más bajos que la de los países pobres. 
 
2. Tasa de mortalidad por edad. Permite evaluar las variaciones de los riesgos de 
muertes en las distintas edades. Es de fácil cálculo y generalmente la 
información de fácil obtención. Permite la comparación sin estandarizar porque 
se trata de tasas específicas. Sin embargo cuando no se analiza por grandes 
grupos de edad puede ser complejo el manejo de tantos indicadores. 
 
 TME x = 
Xrupodeedadepoblaciond
Xrupodeedadsdedefuncione
lg
lg x 1000 hab 
 
En realidad las tasas quinquenales y decenales no se utilizan para análisis 
directo, sino, como materia prima para el cálculo de otros indicadores y la 
aplicación de otras técnicas como veremos más adelante. 
 
3. Tasa de mortalidad por sexo. Generalmente se asocia a la edad y a las causas 
de defunción 
- Por edad y sexo evidencia el comportamiento de la mortalidad por estas 
dos variables a la vez como por ejemplo la sobremortalidad masculina en el 
adulto joven por muertes violentas 
 
 TMES = 
eedadysexoeesegrupodpoblaciónd
sexoesporedadydefuencion
 x 1000 hab. 
 
- Por sexo y causa también muestra el comportamiento diferencial por estas 
dos variables, como es el caso de la sobremortalidad femenina por diabetes y 
accidentes vasculares encefálicos. 
 
 TMSC = 
eesesexopoblaciónd
ausaXsporsexoycdefuncione x 10, 000 o 100 000 hab.4. 
 
105
 
4. Mortalidad por causa. Permite identificar de que se mueren los integrantes 
de una comunidad y actuar consecuentemente. Las causas de defunción 
suelen clasificarse en exógenas, aquellas que están vinculadas con la acción 
negativa del medio, como la desnutrición y las de etiología infecciosa, que 
tienen una importancia relativa mayor en los países pobres y endógenas 
donde la influencia del medio es menor y prevalecen los aspectos de carácter 
biológico, como las enfermedades crónicas no infecciosas, de mayor 
trascendencia en los países ricos. 
 
También el estudio de la mortalidad por causas permite evaluar la calidad de 
la información. De suerte que si la calidad es buena las cinco primeras 
causas de defunción deben constituir el 50 % del total de defunciones y las 
10 primeras el 65 %. 
 
5. Mortalidad proporcional. Mide el pero de las defunciones (proporción ó %) 
con determinadas características con relación al total de defunciones. 
 
 Mortalidad proporcional = 
uncionestotaldedef
rísticaunacaracteuncionesdetotaldedef *
 x 100 def. 
• Sexo, edad, causa 
 
Tiene la ventaja de ser de simple cálculo y no necesitar el dato de la 
población expuesta al riesgo. 
 
Con relación a la mortalidad proporcional por edad existe un indicador que 
se conoce como índice de Swarrop y Wemura que tiene la siguiente 
expresión de cálculo: 
 
 ISW = 
uncionestotaldedef
añosymássdedefuncione 50 x 100 defunciones 
 
Es de fácil cálculo y mide de cierta forma las condiciones de vida de un 
territorio, en los países desarrollados debe ser el 60 o 70 % de todas las 
defunciones. 
Tiene la desventaja que como se trata de un grupo de edad tan amplio 
puede estar afectado por la estructura por edad de la población. 
 
 Indicadores especiales: 
 
106
 
Bajo este rubro agrupamos un conjunto de indicadores que tiene casi todos 
en común que el denominador en el total de nacidos vivos, como una 
aproximación a las reales poblaciones expuestas al riesgo que se está 
midiendo, al no estar siempre disponible esa información. 
 
6. Mortalidad infantil. Es un indicador de suma importancia porque cuantifica 
el riego de muerte en un grupo de edad muy especial, el menor de un año, 
donde no sólo son altos los niveles sino que las causas varían dentro de 
ese periodo tan corto de la vida. 
 
Históricamente se le ha considerado como un indicador que mide de 
manera indirecta el desarrollo socio económico de un territorio, de ahí que 
le riesgo de muerte sea muy bajo en los países ricos y muy elevado en los 
pobres. 
 
Sin embargo en la actualidad se considera que el indicador es realmente 
sensible a los cambios en las condiciones de vida cuando estas son 
precarias, pero en territorios donde se ha logrado un cierto desarrollo y la 
tasa presenta valores bajos, por debajo de 20 defunciones por 1000 
nacidos vivos, ya no es tan sensible a los cambio en las condiciones de 
vida. 
 
Actualmente se plantea que la reducción rápida de altos niveles de 
mortalidad infantil, refleja generalmente la eficacia y la cobertura de 
acciones específicas del sector salud, más que una mejoría de las 
condiciones de vida de la población. 
 
 TMI = 
idosvivostotaldenac
unañosmenoresdedefuncione x 1000 nacidos vivos 
 
Como el riego de muerte y las causas que lo originan son diferentes dentro 
del primer año de vida, se divide este periodo en tres momentos que son 
conocidos como los componentes de la mortalidad infantil, y para cada 
uno de ello se calcula una tasa, que como todas tienen como denominador 
el menor de un año son aditivas, o sea la suma de la tasa de los tres 
componentes nos da el valor de la mortalidad infantil. 
 
El primer componente es la mortalidad neonatal precoz, que abarca las 
defunciones que ocurren en los nacidos vivos antes de los 7 días de vida. 
 
107
 
 TMNP = 
idosvivostotaldenac
díassmenoresdedefuncione 7 x 1000 nacidos vivos 
En este período de la vida predominan las causas de muerte de tipo 
endógeno, que son difícilmente evitables como las malformaciones 
congénitas, hipoxia, membrana hialina y otras. 
 
Con el análisis de este componente estamos evaluando la calidad de la 
atención obstétrica durante el embarazo y en el momento del parto, así 
como la calidad de la atención neonatológica. 
 
El segundo componente es la mortalidad neonatal tardía que incluye las 
defunciones ocurridas desde los 7 hasta los 27 días de vida. En este 
período se mezclan las causas de tipo endógeno con las cusas tipo 
exógeno, al ponerse ya en contacto el niño con el medio. 
 
 TMNT = 
idosvivostotaldenac
díasasdedefuncione 277 x 1000 nacidos vivos 
 
Este indicador sirve para evaluar tanto la calidad de la atención obstétrica y 
neonatológica como la atención pediátrica. 
 
El tercer y último componente es el postneonatal que incluye las 
defunciones de 28 días en adelante, pero sin llegar al año de vida. En este 
componente las causas que predominan son las de tipo exógeno, pues el 
niño, lábil por su edad, ya entra en contacto con las adversidades del 
medio. Es por eso que cuando un país comienza a descender la tasa de 
mortalidad infantil la hace primero a expensa de este componente, por que 
incluye causas más fáciles de evitar. Con vacunación, cobertura de la 
asistencia médica y mejorando la alimentación se logran grandes 
descensos. 
 
 TMP = 
cidosvivostortaldena
díassdemásdedefuncione 27 x 1000 nacidos vivos 
 
El análisis de este componente permite evaluar la calidad de la atención 
pediátrica fundamentalmente. 
 
108
 
Por tener los componentes un comportamiento diferencial, en cuanto a las 
causas de defunción y su potencial evitabilidad, se ha establecido un patrón 
ideal de aporte de cada uno de los mismos a la mortalidad infantil en 
general. 
 
 El aporte porcentual de cada uno debe ser como si muestra a continuación: 
 
 Neonatal precoz 60% 
 Neonatal tardía 10% 
 Postneonatal 30% 
 
 Veamos la mortalidad infantil para Cuba en el año 2000 
 
 TMI = 
143528
1039 = 7.2 x 1000 nacidos vivos 
 TMNP = 
143528
445 = 3.1 x 1000 nacidos vivos 
 TMNT = 
143528
207 = 1.4 x 1000 nacidos vivos 
 TMP = 
143528
387 = 2.7 x 1000 nacidos vivos 
 
Observe como la suma de las tasas de cada uno de los componentes es 
igual al valor de la mortalidad infantil general: 
 
 3.1+1.4+2.7 = 7.2 
 
 Veamos ahora el aporte porcentual de cada uno de ellos 
 
 Neonatal precoz 445 43% 
 Neonatal tardía 207 20% 
 Postneonatal 38737% 
 Mortalidad infantil 1039 100% 
 
109
 
Cuba aunque tiene niveles muy bajos de mortalidad en el menor de un año, 
tiene al parecer reservas de reducción en el componente postneonatal y 
neonatal tardío, donde ya en el niño comienzan a influir las condiciones de 
vida y aparecen con mas fuerza las causas exógenas, más fáciles de evitar. 
Por supuesto que ahora se impondría un análisis detallado del 
comportamiento por causas dentro de cada componente. 
 
Mortalidad perinatal. El período perinatal, es el período comprendido desde 
la 27 semanas de gestación hasta los 6 días de vida después del 
nacimiento. Es bueno aclarar que la X CIE extiende el período a las 22 
semanas de gestación. 
 
Incluye causas de defunción predominantemente de tipo endógeno como 
anomalías congénitas, otras relacionadas con la gestación, el parto, y la 
salud de la madre. 
 
La tasa tiene dos componentes: 
 
- Defunciones fetales tardías, son aquellas en las que el producto de la 
concepción fallece intra útero o en el momento del parto, por lo que se 
considera un “nacido muerto” e incluye a las defunciones desde las 28 
semanas de gestación o 1000 gramos de peso. 
 
- Comparte con la mortalidad infantil el componente neonatal precoz, por 
consiguiente incluye los nacidos vivos que fallecen en los primeros 6 días 
de vida. 
 
TMPN=
rdíassfetalestadefuncioneosnacidosviv
sprecocessneonataledefuncionerdíassfetalestadefuncione
+
+
x1000 nv 
Este indicador permite evaluar tanto la calidad de la atención obstétrica 
prenatal como durante el parto así como las condiciones de salud y 
nutrición de la madre, aspectos genéticos y la atención neonatológica. 
 
7. Mortalidad del menor de 5 años. Es un indicador muy importante sobre 
todos para países en desarrollo, pues permite evaluar el efecto de la 
desnutrición, las enfermedades infecciosas y parasitarias, que se extienden 
hasta esta edad. 
 
 TMM5 = 
idosvivostotaldenac
añossmenoresdedefoncione 5
 x 1000 nacidos vivos 
110
 
 
8. Mortalidad materna. Muerte materna se define como “ la defunción de una 
mujer mientras este embarazada o dentro de los 42 días posteriores a la 
terminación del embarazo, independientemente de la duración y el sitio del 
embarazo, pero debido a las denominadas causas de muertes directas “ 
Muerte materna directa se considera aquellas relacionadas o agravadas por 
el embarazo o su atención o como suelen también definirse: complicaciones 
del embarazo, parto o puerperio, y muertes maternas indirectas, las que 
son debidas a causas accidentales o incidentales. 
 TMM = 
idosvivostotaldenac
irectassmaternasddefuncione
 x 100 000 nacidos vivos 
Evalúa la calidad y cobertura de los servicios de salud tanto la atención 
prenatal como la calidad de la atención al parto. En los países desarrollados 
la tasa es inferior a 10 x 100 000 nacidos vivos, mientras que en los más 
pobres llega a alcanzar valores de 100 y 150 x 100 000 nv. 
 
 9. Letalidad. Este indicador mide la gravedad de las enfermedades, el 
pronóstico de las mismas, de tal suerte que expresa del total de enfermo 
que porcentaje se espera que fallezca. 
 
 Tasa de letalidad = 
acausaermosporestotaldeenf
sasporunacaudefuncione x 100 
 
Es una tasa muy estable, un cambio brusco implica o la toma de una 
medida importante con gran impacto en la evolución de la enfermedad, o un 
deterioro de la atención o las condiciones de vida, o simplemente mala 
calidad de la información. 
111
 
10. Esperanza de vida. Es el mejor indicador para resumir el comportamiento 
de la mortalidad. Surge de la aplicación de un modelo o técnica 
demográfica, la tabla de vida o de mortalidad. 
Se parte de las tasas de mortalidad por edad y sexo que tiene una 
población determinada para un año específico o trienio y se supone que 
esas probabilidades de muerte que se obtienen a partir de las tasas se les 
apliquen a una cohorte hipotética de nacimientos. 
Entre las funciones (indicadores) que brinda la tabla, una de las más 
importantes es la esperanza de vida a una edad exacta X. Este indicador 
expresa cuantos años en promedio se espera que viva una persona que 
esta sometida a los riesgos (tasas)) con los que se calculó la tabla. 
Cuando se calcula a la edad exacta cero se tiene la esperanza o 
expectativa de vida al nacer 
Para los países desarrollados el valor supera los 70 años, Japón sobrepasa 
los 80 años y los más pobres apenas superan los 50 años. 
Por sexo se pone de manifiesto la sobremortalidad masculina, más 
acentuada en los países ricos, generalmente la diferencia por sexo es de 4 
o 5 años a favor por supuesto de las féminas. 
Es un indicador sintético del desarrollo socioeconómico y del nivel de salud 
y tiene la ventaja que para las comparaciones, no se ve afectado por la 
estructura por edad de la población. 
Tasas ajustadas o estandarizadas 
 
Como hemos mencionado varias veces, las tasas brutas, crudas, totales o 
generales, en las que en el denominador se encuentra la población total, no 
pueden compararse sin tener en cuenta que, puede esta comparación estar 
sesgada, por la diferente estructura de población entre los territorios a comparar o 
un mismo territorio en diferentes periodos de tiempo. 
 
Veamos el método directo de tipificación para la comparación de tasas globales 
de mortalidad. 
Observe en la tabla que se muestra a continuación como la provincia A tiene una 
tasa de mortalidad general mayor que la provincia B y sin embargo sus tasas 
específicas por edad son menores 
 
 
 
112
 
Tasas de mortalidad por edad. Provincias A y B 1999. 
 
Edades Provincia A 
Tasa x 1000 
Provincia B 
tasa x 1000 
 < 1 año 9.7 11.2 
 1-4 0.6 0.8 
 5-14 0.2 0.4 
15-49 1.5 1.5 
 50-64 8.1 8.4 
 65 y más 50.0 49.7 
Total 7.2 5.8 
 
Este comportamiento aparentemente paradójico, se debe al efecto confusor que 
está produciendo la estructura por edad de la población. Las poblaciones con una 
estructura más vieja, tienen mayores tasas de mortalidad que los territorios que 
tiene una estructura de población más joven, pues al tener más efectivos de 
población en edades más avanzadas, donde los riesgos de muerte son también 
superiores, hacen un aporte mayor al número total de defunciones. 
 
Es por eso que los países desarrollados que presentan una población más 
envejecida tienen tasas de mortalidad general mayores que los países pobres con 
estructuras de población más jóvenes. Así las tasa de mortalidad general de 
Japón es mayor que la de Haití 
 
Observe como la población de la provincia A, la de mayor tasa de mortalidad 
general, tiene una estructura de población más vieja, 10.2% de efectivos de 
población con 65 años y más mientras que la B sólo tiene el 7.4%. 
 Distribución de la población por provincia 
 
Grupo de 
edad 
Provincia A 
Población y porcentajes 
Provincia B 
Población y porcentajes 
 < 1 año 10 100 1.6 11 900 1.7 
 1 - 4 38 700 6.0 44 400 6.5 
 5 - 14 86 600 13.5 107 300 15.6 
 15 - 49 359 400 56.2 397 900 57.9 
 50 - 64 78 400 12.3 74 500 10.8 
65 y más 65 500 10.2 51 200 7.4 
Total 638 700 100.0 687 200 100.0 
 
La forma por tanto de hacer comparables ambos territorios es lograr que 
hipotéticamente y por medio de un artificio matemático las dos provincias tengan la 
113
 
misma estructura de población para poder ver el efecto puro de la diferencia de la 
mortalidad. 
Por eso lo primero es definir una población tipo o estándar, que puede ser la de un 
tercer país o región, la de una población ficticia o hipotética que se puede crear 
sumando la de los territorios a comparar, o la de una de las regiones en estudio, que 
es la alternativa que vamos a utilizar en el ejemplo. 
Tomamos como población tipo la de la provincia B, y la preguntaría que tendremos 
que responder es: ¿Cuál sería la mortalidad de la provinciaA si esta tuviese la 
población de B? 
Para ello sometemos los grupos de población de B a los riesgos de morir de A, 
multiplicando las tasas especificas por edad, sin multiplicar por 1000, por los 
efectivos de población correspondientes y así obtenemos las defunciones 
esperadas o que cabría esperar que tuviese la provincia A si tuviese la estructura de 
población de B, como se observa en la tabla que aparece a continuación 
 
Edades 
 
 
Provincia A 
Tasa x 1000 
 
 
 
Provincia B 
Población 
 
Defunciones esperadas 
< 1 año 9.7 11 900 0.0097 x 11900 = 115 
1-4 0.6 44 400 0.0006 x 44400 = 27 
5-14 0.2 107 300 0.0002 x 107300 = 21 
15-49 1.5 397 900 0.0015 x 397900 = 597 
50-64 8.1 74 500 0.0081 x 74500 = 603 
65 y más 50.0 51 200 0.05 x 51200 = 2560 
Total 7.2 687 200 3923 
Con el total de defunciones esperadas se calcula la tasa general ajustada o 
tipificada: 
TBM de la población A St = 
687200
3923 = 5.7 x 1000 habitantes 
 
Nótese como la tasa disminuyó a 5.7 y al compararla con la de B sus riesgos de 
muerte son realmente menores, la diferencia entre las tasas era debido a la 
diferencia en la estructura de población. 
 
Efecto residual = 5.8-5.7= 0.1, diferencia real de la mortalidad 
 
Efecto estructural = 7.2 – 5.7= 1.5, efecto de la estructura de población 
114
 
 
Mortalidad evitable 
 
 Es conocido que los indicadores de morbilidad, reflejan de una manera más fiel la 
situación de salud de una población. Sin embargo, el hecho de que ellos no puedan 
ser obtenidos con la misma facilidad y sobre todo con la confiabilidad que ofrecen los 
datos sobre mortalidad - ya que en la mayoría de los países los registros de 
mortalidad son desde hace muchos años de carácter obligatorio, y tienen una alta 
cobertura e integridad - hace que aún en la actualidad, se utilicen con más 
frecuencia que los datos de morbilidad. 1 
Se han hecho grandes esfuerzos, orientados a la elaboración de estadísticas de 
morbilidad, a partir de datos hospitalarios y ambulatorios y, en ocasiones, de 
investigaciones a nivel poblacional. Generalmente estas estadísticas siguen siendo 
parciales y muy costosas, aún en nuestro país, donde se dispone de datos de 
morbilidad para las enfermedades de declaración obligatoria (EDO) y las 
dispensarizadas que lleva el médico de la familia, aunque esta última, generalmente 
se limita a tres causas: hipertensión arterial, asma y diabetes mellitus, por eso 
aunque es fundamental la utilización de datos de morbilidad, discapacidad y otros 
aspectos del estado de salud, las estadísticas de mortalidad siguen siendo 
indispensables. Los indicadores de mortalidad, aún en la actualidad, constituyen una 
de las formas más seguras y completas para el Análisis de la Situación de Salud. 
En el presente siglo, la reducción sostenida de los niveles de mortalidad en el 
mundo, es un hecho inobjetable. En la medida que los niveles de mortalidad 
alcanzan valores muy bajos, se hace más difícil continuar su reducción y entonces 
se hace necesario la identificación de brechas reducibles de mortalidad o reservas 
de reducción de la misma. 
De lo anterior se desprende en primer lugar que no debemos limitarnos en los 
análisis a asumir las divisiones político - administrativas, como un todo homogéneo, 
sino buscar en su interior grupos de población con condiciones de vida diferentes y, 
por consiguiente, con niveles de mortalidad diferentes. En segundo lugar, se impone 
utilizar como complemento de los indicadores tradicionales (tasa de mortalidad 
general por causa, sexo, grupo edad y mortalidad proporcional) que seguirán siendo 
la piedra angular para el análisis, otros indicadores y enfoques que permitan 
identificar con mayor precisión, esas reservas de mortalidad: la mortalidad evitable. 
Mortalidad prematura 
 
El propósito de la Salud Pública, debe encaminarse, primordialmente no a disminuir 
la cifra total de fallecidos, sino, a aumentar el número de años que una persona 
pueda vivir en óptimas condiciones, es decir, gozando de salud, y por ende, de una 
participación activa en la sociedad. 
115
 
El establecimiento de prioridades en los diferentes programas de salud, de acuerdo 
con el número de muertes que ocurren por las distintas enfermedades o 
desviaciones de la salud, deben se consideradas más que por ese mero hecho, por 
las edades a las que fallezcan los integrantes de una población, puesto que 
constituye un factor sustancial, al valorar la importancia de un problema de salud 
determinado. 
De esta manera puede afirmarse, que a la prevención de una entidad que ocasiona 
muchas pérdidas dentro de contingentes poblacionales jóvenes y socialmente 
activos, debe atribuírsele una mayor prioridad que a otras causas de defunción que 
ocasionan cifras similares de muerte entre personas de edad avanzada. Así, la 
importancia relativa de las causas de muerte se modifica notablemente, cuando se 
analiza de acuerdo con el número de años de vida potencialmente perdidos antes de 
una edad dada (mortalidad prematura), mortalidad que, además, es considerada 
potencialmente evitable o reducible. 
El concepto de años de vida potenciales perdidos fue introducido por primera vez por 
Dempsey en 1947, con el fin de comparar la mortalidad por tuberculosis con las 
debidas a enfermedades del corazón y cáncer. Para cada defunción ella calculó, los 
años de vida que quedaban hasta llegar a la esperanza de vida prevaleciente. 
Romeder, en 1977 desarrolló este concepto y perfeccionó este indicador y es 
nuevamente reanalizado y promovido su uso por el Centro para el Control de 
Enfermedades (CDC) de Atlanta en 1980. 
Existen diferentes posiciones para establecer la duración del tiempo perdido debido 
a una muerte prematura. De ahí que existan diferentes alternativas de cálculo para 
obtener el número de años de vida perdidos, pasaremos a analizar a continuación la 
forma más sencilla y difundida de cálculo 
Establecer un potencial límite de vida arbitraria. 
 Los años potenciales de vida perdidos (AVPP) son calculados, definiendo un 
potencial límite de vida y calculando los años perdidos debido a cada muerte, como 
el potencial límite menos la edad al fallecer. 
 La fórmula para la estimación del número de años de vida potencialmente perdidos 
en una población sería: 
116
 
 
( )∑
=
=
−
lX
óX
ii xLdx
10 
 donde: 
 i grupos de edad 
 dxi defunciones a la edad media del intervalo o grupo de edad i 
 xi edad media del grupo de edad i 
 L potencial límite de vida ó edad límite 
 
 Un amplio rango de edades límites se ha utilizado en la práctica, desde los 60 hasta 
los 85 años. Los argumentos, aunque varían a la hora de elegir el límite arbitrario, 
están fuertemente asociados a la esperanza de vida al nacer. Dempsey 
concretamente propuso, que fuese la esperanza de vida al nacer del país o región en 
cuestión. 
 En los países más desarrollados del mundo, la esperanza de vida la nacer, supera a 
los 70 años, mientras que en las regiones más pobres y atrasadas, no llega a los 60 
años. Quizá es por ello, que el valor intermedio de 65 años, se considera el más 
utilizado para calcular los AVPP y es el propuesto por el CDC de Atlanta. 
 No obstante otros autores como Romeder y Mc Whinnie, consideran que el límite 
ideal es 70 años, una edad menor la consideran demasiado baja, como por ejemplo 
los 65 años, pues plantean que una proporción importante de personas, están 
todavía activas a esta edad. 
 Aunque se puede ser flexible en la selección de la edad límite, lo que si hay que 
tener presente es que no pueden establecerse comparaciones al variar esta edad, 
pues varía el valor del indicador. 
 Veamos el ejemplo del cálculo de número de años de vida perdidos utilizando 65 
años como límite arbitrario de edad. 
 
 
 
 
 
 
117
 
Mortalidad por accidentes. Cuba 1999 
Edad 
(1) 
Defunciones 
(2) 
Edad 
media 
(3) 
( L-x i ) 
(4) 
Dx i . ( L-x i )
No de 
AVPP 
(2 x 4) 
 
 <1 38 0.5 64.52451 
1 a 4 83 3 62 5146 
5 a 9 87 7.5 57.5 5002.5 
10 a 14 116 12.5 52.5 6090 
15 a 24 335 20 45 15075 
25 a 34 678 30 35 23730 
35 a 44 535 40 25 13375 
45 a 54 419 50 15 6285 
55 a 64 335 60 5 1675 
Total 78829.5
 
El primer paso es calcular la edad media de los grupos de edad, xi, para ello 
encontramos la marca de clase de cada intervalo o grupo mediante la semi suma de 
los límites de clase: 
L. inf + L. sup/ 2 
Para el grupo de 1-4 sería: 
1+4/2= 5/2 = 2.5 
A esa marca de clase se le agrega 0.5 que sería la mitad de 1 año, el tiempo 
transcurrido hasta cumplir la próxima edad exacta de 5 años que es límite inferior 
del siguiente intervalo de clase. 
 
 2.5 + 0.5 = 3 
De esa forma asumimos que las defunciones de cada grupo de edad tenían al 
morir la edad media de cada intervalo de clase. Las 83 defunciones ocurridas en el 
grupo de 1 a 4 años para nuestros fines tenían al morir 3 años. Así se procede con 
todos los grupos de edad (columna 3). 
El siguiente paso es calcular cuantos años ha dejado de vivir una persona que al 
fallecer tenga la edad media de cada grupo etáreo. Esos años dependerán de que 
edad se utilice como límite arbitrario, nosotros ya dijimos que vamos a trabajar con 
65 años. 
En la columna 4 aparecen esos resultados: 
 
118
 
Ejemplo: 
65-0.5= 64.5 
65- 3= 62 
El último paso es calcular el número de años dejado de vivir por todas las 
defunciones ocurridas por grupo de edad. Para el grupo de los menores de 1año 
una defunción a esta edad ha perdido 64.5 años, pero en el caso de los accidente 
para el país el al año 1999 se produjeron 38. Para conocer cuantos años se 
dejaron de vivir por las 38 defunciones reportadas se multiplican por 64.5 años 
que es lo que dejo de vivir una. Los resultados se muestran en la última columna 
de la tabla. En total se dejaron de vivir por accidentes para Cuba en ese año 
78829.5 años 
Otro aspecto controvertido ha sido, la inclusión o no del menor de un año. 
En la década del 70 y parte de los 80, la tendencia era, la exclusión del menor de un 
año, para lo que se esgrimían los siguientes argumentos: 
Primero, que las causas de defunción en el menor de un año, son causas muy 
específicas para este período de la vida, y responden a causas muy diferentes de las 
defunciones a otras edades. Además, en regiones de baja mortalidad infantil habría 
una sobrecarga en AVPP por enfermedades ya muy poco evitables, como las 
anomalías congénitas y afecciones originadas en el período perinatal. 
Segundo, cada defunción de niños menores de un año, duplicarían el aporte en 
AVPP, en comparación con los fallecidos entre 30 y 40 años. Esto, plantean, sería 
una sobrestimación del valor aceptado por la sociedad, ya que se considera que la 
mortalidad de niños menores de un año es menos perturbadora que la mortalidad de 
los niños de mayor edad y la de los adultos, además de ser defunciones fácilmente 
reemplazables. 
En los últimos años, se ha generalizado la inclusión de las muertes a partir del 
nacimiento, pues si bien es cierto que son los que más aportan al indicador, también 
son los que menos vivieron. Por otra parte, si el indicador es utilizado para identificar 
y priorizar problemas, con el objetivo de decidir acciones concretas, el menor de un 
año, no debe ser excluido de estos análisis. 
Sin embargo, todo parece indicar que en países con niveles muy bajos de mortalidad 
infantil, como es el caso de Cuba, el hecho de incluir o no el menor de un año en el 
cálculo de los AVPP, prácticamente no cambia los resultados. 
119
 
Indicadores de mortalidad prematura. 
A partir del número de años de vida potenciales perdidos calculados por cualquiera 
de los procedimientos ya señalados, se impone, para poder realizar el análisis de la 
mortalidad prematura el cálculo de algunas medidas de resumen o indicadores, de la 
misma manera que se realiza en el análisis de la mortalidad. 
Mortalidad prematura proporcional 
Representa la importancia relativa de determinado grupo. Se calcula la proporción o 
el por ciento que representan las muertes prematuras de un determinado grupo: 
edad, sexo, o causa de defunción, sobre el total de años de vida potencialmente 
perdidos, de esta forma se puede evidenciar cuál o cuáles grupos de edad aportan 
más a la mortalidad prematura en general, o por sexo, o cuál o cuáles causas de 
defunción tienen una importancia relativa mayor. 
A manera de ejemplo: 
Recordando el cálculo de los porcentajes, para las enfermedades del corazón: 
263843/966127= 0.02730 x 100 = 27.30% 
Porcentaje de años de vida perdidos según estándar (AVPES) por causas. Cuba 
1999 
 AVPES 
Causa No. 
AVPES 
% 
AVPES 
 
Enfermedades del corazón 263843 27.30
Tumores malignos 257487 26.65
Enfermedades cerebrovasculares 98696 10.21
Accidentes 139159 14.40
Influenza y neumonía 60854 6.29
Enfermedades de las arterias. 
Arteriolas y vasos capilares 
29523 3.05
Diabetes mellitus 24627 2.50
Suicidio y lesiones auto infligidas 63555 6.57
Bronquitis, enfisema y asma 8599 0.89
Cirrosis y otras enfermedades 
crónicas del hígado 
19784 2.04
Total 966127 100.00
 
Más de la mitad de los años de vida perdidos para Cuba en 1999, fueron debidos a 
enfermedades del corazón y tumores malignos. 
120
 
Un caso particular de la mortalidad prematura proporcional es el denominado 
"perdidas biosociales", entendido como tal, a los años de vida potencialmente 
perdidos entre las edades de 20 a 59 años, por cuanto se trata de una subpoblación 
que participa activamente en las esferas económicas y sociales de un país, y que por 
otro lado comprende los grupos de edades fértiles. 
Estructura de las pérdidas biosociales para las cinco primeras causas de 
defunción. Cuba 1996. 
 AVPES
Causa 
No. 
AVPES
% 
AVPES
 
Enfermedades del corazón 68629 24.8
Tumores malignos 98879 35.8
Enfermedades cerebrovasculares 28053 10.1
Accidentes 68957 24.9
Influenza y neumonía 11739 4.2
Total 180659 100.0
 
Dentro de las cinco causas de defunción, los tumores malignos, los accidentes y las 
enfermedades del corazón son las causas que más pérdidas biosociales aportan, 
precisamente por su alta frecuencia en el adulto joven. 
Tasas de Mortalidad Prematura: 
A partir del número de años perdidos se puede calcular una tasa, dividiendo este 
número por el número de habitantes y multiplicándolo por 1000, 10000 ó 100000, 
siendo más común el uso por mil habitantes. 
Desde el punto de vista estadístico, en caso de calcular el número de años perdidos 
utilizando un límite arbitrario, 65 ó 70 años, lo correcto es usar como denominador la 
población hasta la edad límite (hasta 65 ó 70 años), pero en la práctica suele 
utilizarse la población total. 
Se puede calcular, al igual que en la mortalidad, tasas generales, por causas, sexos 
y grupos de edad. 
Tasas Tipificadas. 
Al igual que las tasas de mortalidad, las tasas de muerte prematura pueden ser 
estandarizadas, puesto que también son influenciadas por la estructura de edad de 
121
 
la población. Dicho procedimiento tendría sentido solamente para la comparación de 
tasas generales y por causas específicas con otras áreas. 
El método de tipificación que se utiliza es el método directo, por lo tanto, la tasa de 
mortalidad prematura ajustada por edad corresponde al número de años de vida que 
se perdería en la población real si esta tuviera la misma estructura de edad que la 
población de referencia. 
Una vez obtenidas las "defunciones esperadas" en la población bajo estudio, se 
procede a obtener el número de años de vida perdido por cualquiera de los 
procedimientos antes señalado. 
En el ejemplo que aparece a continuación, para algunas causas seleccionadas de 
muertes violentas, se calcularon tasas de AVPP, incluyendo el menor de un año y 
utilizando como edad límite los 65 años, en tres estratos formados por agrupaciones 
de municipios de la provincia Santiago de Cuba, que se clasificaronsegún sus 
condiciones de vida: el estrato A como el de mejores condiciones de vida, el B de 
regulares condiciones y el C de malas de condiciones. 
Para poder comparar la mortalidad prematura de los tres estratos y evitar el sesgo 
que puede introducir la diferencia en la estructura de población, se tipificaron las 
tasas por el método directo. 
Tasas* de AVPP tipificadas por causas seleccionadas de muertes violentas y 
estratos. Santiago de Cuba. 1989-1991 
Muertes Violentas Estrato A Estrato B Estrato C 
 No. 
AVPP 
Tasa 
AVPP 
No. 
AVPP 
Tasa 
AVPP 
No. 
AVPP 
Tasa 
AVPP 
 
Suicidios 
 
1905.0 4.24 1825.0 5.90
 
1602.5 
 
6.93 
Accidentes de 
transporte 2892.0 6.43 2474.0 7.99 1629.5 7.05 
Caídas accidentales 255.0 0.57 207.5 0.67 170.0 0.74 
Otros accidentes 4573.0 10.17 4244.5 13.72 2740.5 11.86 
* Tasas por 1000 habitantes 
El estrato A, el de mejores condiciones de vida, es en el que menos años de vida se 
pierden por las cuatro causas analizadas. Las muertes violentas, como causa 
exógena, están muy influenciadas por el efecto negativo del medio, en este caso, por 
el efecto negativo de las condiciones de vida adversas. 
Razón de años de vida potencialmente perdidos. 
122
 
La razón de años de vida potenciales perdidos (RAVPP), es el equivalente a la razón 
estandarizada de mortalidad (REM), que se utiliza para el análisis de la mortalidad 
general cuando se quiere comparar dos regiones o una misma región o población en 
dos momentos diferentes para evidenciar la "ganancia" o "exceso" de mortalidad. 
Al igual que la REM, las defunciones esperadas, serian las defunciones que se 
esperarían que ocurrieran en una determinada población, si estuviese sometida a los 
niveles de mortalidad, a los riesgos de morir de la población en estudio. 
Con las defunciones esperadas se procede al cálculo de los años de vidas 
potenciales perdidos. La razón sería: 
Si el valor de la razón es 1, ambos territorios tiene igual mortalidad prematura. Si el 
valor obtenido es mayor que 1, se está produciendo un exceso de mortalidad 
prematura en el territorio bajo estudio, si fuese menor que la unidad, la mortalidad 
prematura es menor el territorio bajo estudio en comparación con el de referencia. 
Este resultado también puede expresarse por cien (x 100). 
Veamos un ejemplo: 
En un estudio realizado en la provincia de Camagüey sobre mortalidad y condiciones 
de vida 11 se clasificaron los municipios de la provincia según sus condiciones de 
vida en tres estratos, el estrato A el de mejores condiciones de vida, el C el de 
peores condiciones de vida y el B que ocupa una posición intermedia. 
Para comparar la mortalidad prematura por muertes violentas se calculó la RAVPP. 
Razón de AVPP por muertes violentas según estratos. Camagüey 1991-1993 
Estratos AVPP Observados AVPP Esperados Razón 
 
B respecto a A 2872 3209 0.90 
C respecto a A 5295 4482 1.18 
C respecto a B 5295 4042 1.31 
 
Al comparar el estrato menos favorecido con el de mejores condiciones de vida, se 
encontró un exceso de mortalidad prematura de un 18%, es decir, si el estrato C 
hubiese estado sometido a los riesgos de morir de A, se hubiera producido un 18% 
menos de defunciones a destiempo. Situación similar se presentó al comparar el 
estrato C con el B. 
Agrupaciones de causas de muerte por criterio de evitabilidad. 
 
La característica (variable) de mayor importancia para el análisis de los datos de 
mortalidad es la causa de muerte. No basta identificar quién, cuándo y dónde está 
123
 
más expuesto al riesgo de muerte, si no que lo fundamental es saber de qué se 
muere más. 1 
Una de las primeras tareas necesaria para el análisis de los datos, es su 
organización sistemática. Los intentos de listar, ordenar y clasificar las enfermedades 
data de 1855 con los trabajos de Farr y Bertillón en 1893. A partir de 1898 esta 
última fue adoptada como Clasificación Internacional de Enfermedades (CIE). 
Actualmente ya contamos con la X revisión aunque aún se mantiene vigente la IX 
revisión. 
La CIE brinda diversas listas, abreviadas y detalladas para la tabulación de la 
información sobre morbilidad y mortalidad. La selección de una u otra lista depende 
del tipo de análisis a realizar. 
Otra forma o eje de agrupación de las causas de muerte, de gran importancia en 
Salud Pública, es el criterio de evitabilidad, orientado hacia la definición de 
prioridades y la evaluación de resultados de acciones y programas de salud; con la 
finalidad de evitar la muerte temprana y prolongar la vida, al prevenir en unas 
ocasiones las enfermedades y en otras tratarlas oportuna y adecuadamente, una vez 
que se han presentado. 
Esta nueva agrupación de causa de muerte fue desarrollada por Taucher en el año 
1978, en el Centro Latinoamericano de Demografía (CELADE). Los criterios de 
evitabilidad se definieron de acuerdo con el conocimiento científico y los progresos 
médicos alcanzados en ese momento. 
Los criterios de evitabilidad de las causas de muerte pueden variar de acuerdo con el 
momento histórico en que se trabaja, con la disponibilidad de tecnologías o recursos, 
y con la experiencia de un determinado país o región. 
Así, en el año 1988 Ríos y Tejeiro modifican la propuesta realizada por Taucher, 
como parte de un trabajo sobre Perfiles de Salud y Evolución de la Mortalidad en 
Cuba. 
Esta nueva propuesta quedó formada por seis grupos. 
1. Defunciones evitables por tratamientos preventivos o vacunas: 
 Carbunco, difteria, tosferina, tétanos, poliomelitis aguda y sus secuelas, viruela, 
sarampión, rabia humana, enfermedades venéreas. 
2. Defunciones evitables por diagnóstico precoz y tratamiento oportuno: 
 Peste, infecciones meningocócicas, tumores malignos de la piel, mama, cuello 
de útero y próstata, diabetes mellitus, avitaminosis y otras deficiencias 
nutricionales, anemias, meningitis, epilepsia, fiebre reumática activa y 
124
 
enfermedades reumáticas crónicas del corazón, bronquitis, enfisema y asma, 
úlcera péptica, gastritis y duodenitis, apendicitis, obstrucción intestinal y hernia, 
colelitiasis y colecistitis, nefritis aguda y otras nefritis, infección del riñón, cálculo 
del aparato urinario. 
3. Defunciones evitables por la aplicación de medidas higiénicas y saneamiento del 
medio y educación sanitaria: 
 Cólera, fiebre tifoidea, fiebre paratifoidea, y otras salmonelosis, disentería bacilar 
y amebiasis, enteritis y otras enfermedades diarréicas, fiebre amarilla, hepatitis 
infecciosa, tifus y otras rickettsiosis, anquilostomiasis y otras helmintiasis. 
4. Defunciones evitables por la aplicación de medidas combinadas: 
 Todos los tipos de tuberculosis, brucelosis, angina estreptocócica, y escarlatina, 
erisipelas y otras enfermedades bacterianas, paludismo, esquistosomiasis, 
hidatidosis y filariasis, infecciones respiratorias agudas, neumonía vírica y otras 
neumonías, cirrosis hepática, enfermedades relacionadas con el embarazo, 
parto o puerperio, enfermedades del recién nacido y causas violentas. 
5. Defunciones difícilmente evitables con los conocimientos y el desarrollo 
tecnológico actual: 
 Tumores malignos, excepto el cáncer de piel, mama, cuello del útero y próstata, 
esclerosis múltiple, otras enfermedades del sistema nervioso y de los órganos de 
los sentidos, enfermedades cardiovasculares, enfermedades de las arterias, 
arteriolas y vasos capilares, influenza y anomalías congénitas. 
6. Resto de las defunciones. 
 En este grupo se incluyen aquellas causas de muerte que no clasifican en 
los cinco grupos anteriores. 
Para agrupar las causas de las defunciones bajo este criterio, se parte de una 
primera división de las muertes en evitables y no evitables y la formación de cuatro 
grupos con las muertes evitables, según las diferentes medidas que se pueden 
tomar para evitarlas. 
En su artículo Rios y Tejeiros aclaran que las palabras prevención, educación, 
evitables e inevitables, se emplean para rotular o dartítulos cortos a los grupos y 
no con la pretensión de reducir a un esquema los conceptos amplios que implican en 
la realidad. 
Los criterios de prevención y educación sanitaria son aplicables a todos los grupos, 
pues aún en las enfermedades denominadas inevitables o difícilmente evitables, el 
control de factores de riesgo, el cambio de hábitos nocivos para la salud y otras 
125
 
medidas preventivas son capaces de disminuir o evitar enfermedades crónicas y 
degenerativas, y prolongar la vida socialmente activa del ser humano. 
En la distribución de las muertes en los distintos grupos se incluye el total de causas 
de muerte, se asigna a uno de los cinco primeros grupos toda muerte cuya causa 
presente alguna razón lógica para su inclusión y se dejan para el sexto grupo el 
resto de las defunciones, las que no pueden identificarse con ninguno de los 
grupos anteriores. 
Por las particularidades que presenta la mortalidad en el menor de un año, se 
propone en el año 1985 por el Ministerio de Salud Argentino una lista de causas de 
muerte con el enfoque de evitabilidad para este grupo de edad, la cual estuvo 
asesorada por la Dra. Taucher. 
Precisamente, por tener la mortalidad infantil un comportamiento diferencial por 
componente, la clasificación propuesta incluye dos listas de agrupaciones de causas 
de defunciones, para el componente neonatal (menor de 28 días) y para el 
postneonatal (28 días y más). 
Para los menores de 28 días se proponen ocho grupos, cinco de ellos para las 
muertes evitables: 
Reducibles por buen control del embarazo 
Reducibles por buena atención en el parto 
Reducibles por diagnóstico y tratamiento precoz 
Otras reducibles 
Parcialmente reducibles por buen control del embarazo 
No evitables 
Desconocidas 
Otras causas 
Para el componente postneonatal el número de grupos se reduce a 7, de ellos 4 
corresponden causas evitables: 
Reducibles por prevención 
Reducibles por diagnóstico y tratamiento precoz 
Otras reducibles 
Parcialmente reducibles 
No evitables 
Desconocidas 
126
 
Otras causas 
Como parte de un estudio realizado en la Facultad de Salud Pública, sobre 
mortalidad infantil, se revisó y sometió a consideración del Grupo Nacional de 
Pediatría y del Departamento Materno Infantil del Ministerio de Salud Pública, la lista 
propuesta por Argentina a la cual se le realizaron algunas modificaciones para los 
menores de 28 días para unos pocos rublos incluidos en los grupos: Reducibles por 
tratamiento precoz y tratamiento oportuno, Otras reducibles y no evitables. La lista 
detallada aparece en el Anexo 3. 
La utilización de agrupaciones de causas de muerte según criterios de evitabilidad 
puede utilizarse para el cálculo de indicadores tradicionales, como la mortalidad 
proporcional, tasas de mortalidad general, por causas, y específicas por edad y sexo, 
pero también son de gran utilidad para ampliar los estudios con enfoques de 
evitabilidad utilizando indicadores como la REM. Y los de mortalidad prematura, que 
miden específicamente mortalidad excesiva y a destiempo, mortalidad evitable per 
se. 
2.5 La morbilidad 
Existen diversas definiciones de morbilidad. Una, a nuestro juicio, de las mas 
completas es la que considera la morbilidad como el conjunto de enfermedades, 
traumatismos y sus secuelas, incapacidades y otras alteraciones de la salud 
diagnosticadas o detectadas en la población durante un intervalo de tiempo 
determinado. 
Por lo complejo de su estudio, y los diferentes alcances que se puede tener al 
abordarla, es aconsejable definir para cada estudio en particular lo que se 
entenderá como morbilidad. 
 
Concepto de Estadísticas de Morbilidad 
 
Es la información numérica sobre enfermedades, traumatismos y sus secuelas, 
incapacidades y otras alteraciones de la salud diagnosticadas o detectadas en la 
población durante un período de tiempo. 
 
Sistema de Información Estadística de Morbilidad: Son los procedimientos 
encaminados a la recolección, procesamiento y presentación de información sobre 
estadísticas de morbilidad. 
 
Utilidad: Interviene en todas las etapas de la gerencia en salud. La información 
sobre morbilidad contribuye a identificar aspectos importantes relacionados con 
los diferentes componentes del estado de salud de la población. 
 
Es de suma importancia en la planificación, ejecución y evaluación de programas 
e intervenciones de salud. 
127
 
 
En la planificación: 
 
a) Permiten conocer las afecciones que aquejan a la población. 
b) Permiten conocer el riesgo de enfermar. 
c) Permiten conocer la gravedad de las afecciones. 
 
En la ejecución: 
 
La recolección activa de la información de morbilidad permite detectar los eventos 
que aparecen y tomar las medidas pertinentes para controlar o erradicar 
enfermedades y prevenir las que están a su alrededor. 
 
Las estadísticas de morbilidad permiten conocer la carga de enfermedad presente 
en la población. La carga de enfermedad es un concepto incorporado por la 
Organización Mundial de la Salud a partir de cual se estiman no solo acciones 
curativas y preventivas sino también la calidad de vida, la esperanza de vida, el 
redimensionamiento de los servicios y sistemas de salud. 
 
En la evaluación y proceso de toma de decisiones: 
 
A través de la medición del cumplimiento e impacto de los programas se puede 
garantizar la ganancia de la salud. El proceso de toma de decisiones se hace más 
eficiente y efectivo con el uso de buenas estadísticas de morbilidad. 
 
En la investigación: 
 
En la investigación epidemiológica, sirve para determinar el modo de transmisión 
de la enfermedad, el periodo de incubación, la severidad de la infección y los 
aspectos inmunológicos así como para conocer el cuadro epidemiológico de un 
territorio. Son utilizadas también en otros tipos de investigación en áreas clínicas, 
ensayos biológicos, pruebas de medicamentos y vacunas, por citar algunos 
ejemplos. 
 
En la docencia: 
 
Son utilizadas sistemáticamente en la docencia de pregrado y postgrado. 
 
En general, las estadísticas de morbilidad son útiles para: 
 
a) Conocer el número de personas que sufren de una enfermedad en particular, 
con qué frecuencia y en cuánto tiempo. 
b) La demanda que hacen esas enfermedades sobre los recursos médicos y que 
pérdidas financieras causan. 
c) Fatalidad y gravedad de las enfermedades. 
128
 
d) Si las medidas de prevención son eficaces. 
e) Distribución de las enfermedades según edad, sexo, ocupación, etc. y 
comportamiento en el tiempo. 
 f) Relación entre el control de la enfermedad y la atención médica brindada. 
 
Dificultades más importantes en el estudio de la morbilidad. 
 
El estudio de la morbilidad y su medición por las estadísticas sanitarias, es un 
proceso complejo dada la propia complejidad de la morbilidad. La morbilidad es un 
fenómeno dinámico y con una carga importante de subjetividad. Por ejemplo: Una 
persona puede estar enferma y no percatarse de ello, por tanto no demandara 
atención medica y permanecerá oculto a diferentes fines, entre ellos, el 
estadístico. Una persona puede estar enferma de varias patologías a la vez o 
poseer un diagnostico presuntivo que cambia o se corrobora al realizarse estudios 
específicos y he ahí una gran dificultad para la medición del evento. 
 
Aspectos conceptuales a considerar en el estudio y medición de la morbilidad: 
 
1- Proceso salud-enfermedad: Es un proceso dialéctico, no existe una línea 
divisoria claramente definida entre salud y enfermedad y es difícil determinar lo 
que cada persona considera como equilibrio biosicosocial. 
2- Anormalidad y normalidad: Un individuo puede tener salud, es decir gozar de 
equilibrio biosicosocial y estar enfermo de algo que no le molesta. 
 
Hay enfermedades que permiten establecer medidas para definir lo normal de 
lo anormal por ejemplo, se puede considerar como hipertensión cuando la 
tensión arterial está por encima de las cifras establecidas, sin embargo, una 
persona puede sentirse biencon una tensión arterial elevada. 
 
3- Problemas del Diagnóstico: Se puede considerar que un individuo está 
enfermo atendiendo a: 
 
a) Opinión del paciente de estar enfermo. 
b) Que sea diagnosticado a través de examen físico del médico. 
c) Que sea diagnosticado a través de pruebas complementarias. 
 
4- Enfermos o Enfermedades: Un individuo puede estar enfermo de diarrea y 
asma al mismo tiempo, hay que definir si se recoge el número de 
enfermedades que en este caso son dos o de enfermos que es uno, es decir 
definir que medir: enfermos o enfermedades. 
 
Si se recogen las enfermedades hay que tomar en consideración el momento 
de su comienzo, de esta forma puede ser de tres maneras distintas: 
 
129
 
a) La enfermedad comienza antes del periodo de recogida de datos y termina 
dentro de éste. 
b) La enfermedad comienza y termina dentro del periodo de recogida de la 
información. 
c) La enfermedad comienza dentro del periodo de recogida de la información y 
termina después. 
 
De acuerdo a la decisión que en cuanto a estos criterios se tomen 
determinaran que se medirá y conocerá realmente: casos nuevos o total de 
casos. 
 
5- Frecuencia e Incidencia. Esto se relaciona con la problemática antes descrita a 
fin de establecer que tipo de medición se hará. 
 
Las formas clásicas de medición en Morbilidad se basan en los siguientes dos 
conceptos: 
 
Incidencia: Casos nuevos de una enfermedad en un periodo y lugar dado. 
Prevalencia: Total de casos de una enfermedad en un periodo y lugar dado. 
Incluye los casos nuevos como los que ya existían antes del periodo de estudio 
y permanecen enfermos. 
 
6- Pesquisaje o demanda: Hay que definir si se registran solamente los pacientes 
que solicitan atención médica en los servicios de salud o se hace una 
búsqueda activa de la enfermedad como es el caso de los programas de salud 
que implican entre sus acciones el pesquisaje masivo. 
 
7- Consultas o Reconsultas: Es necesario definir si solo se registraran las 
consultas donde se hizo el diagnóstico o todas las que se hagan durante el 
transcurso de una enfermedad. 
 
Fuentes de Información 
 
Para obtener información sobre morbilidad rara vez resulta suficiente el uso de 
una sola fuente de información, lo más usual es la consulta de mas de una de las 
existentes. Por ejemplo las salidas del sistema de información de defunciones y 
defunciones perinatales que informan sobre las causas de muerte, si bien aportan 
conocimiento sobre morbilidad, es sobre la morbilidad más severa, la que termina 
generalmente con un desenlace fatal. Algo similar ocurre cuando se utiliza como 
fuente de información las salidas del sistema de egresos hospitalarios ya que se 
accede a la morbilidad que requiere hospitalización, también por lo general mas 
severa. Al consultar la fuente información que constituyen las salidas del sistema 
de enfermedades de declaración obligatoria, conocemos también parcialmente la 
130
 
morbilidad que aqueja a la población ya que los datos se refieren 
fundamentalmente a las enfermedades transmisibles. 
 
Se enumeran a continuación las fuentes habituales de información de morbilidad: 
 
Morbilidad general: 
 
 Mortalidad General 
 Diagnósticos de egresos hospitalarios 
 Diagnóstico de consultas ambulatorias 
 Exámenes masivos a la población 
 Enfermedades Transmisibles 
 Enfermedades Dispensarizadas 
 Otras sujetas a registros especiales (cáncer, tuberculosis) 
 Registros de enfermedades sujetas a pesquisaje. 
 
Morbilidad específica relativa a parte o segmentos especiales de la población: 
 
Grupos de Edad: 
a) Menores de un año, menores de 5 años, mayores de 5 años, tercera edad, 
adolescentes y otros. 
b) Morbilidad perinatal, morbilidad de embarazadas, de adultos y de otros grupos 
de edad. 
c) Mortalidad y Morbilidad laboral y escolar. 
d) Morbilidad según sexo, escolaridad, zona de residencia, características 
geográficas y socio económicas. 
 
Medición de la Morbilidad. 
La medición de la morbilidad se realiza utilizando los indicadores de uso mas 
frecuente en la actividad de las estadísticas continuas: 
 
 Números absolutos 
 Proporciones y porcentajes 
 Razones 
 Tasas 
 
Algunas tasas propias de la morbilidad: 
 Tasa de incidencia acumulada = 
oblacióntotaldelap
osnnuevostotaldecas x 10 n 
131
 
Expresa el riesgo de contraer una enfermedad en una población dada en un 
periodo de tiempo. 
 
Otra tasa de incidencia lo es la denominada densidad de incidencia que mide la 
morbilidad en función de “personas años” 
 Tasa de prevalencia = 
oblacióntotaldelap
ermedadosdeunaenftotaldecas x 10 n 
Expresa el riesgo de padecer una enfermedad en una población dada en un 
periodo dado. 
 
Tanto las tasas de incidencia como de prevalencia se pueden hacer específicas 
por edad y sexo. 
 
2.6 Estadísticas de recursos y servicios 
 
Conceptos de estadísticas de Recursos y Servicios 
 
Estadísticas de Recursos: Información numérica cuantificable acerca de los 
recursos con que cuenta el Sistema Nacional de Salud para cumplir sus propósitos 
y elevar el estado de salud de la población. 
 
Los recursos pueden ser: 
 
• Humanos. 
• Medios de producción. 
• Bienes Producidos. 
• Equipos. 
• Unidades de salud. 
• Locales de consultas. 
• Camas para ingresos. 
• Sillones estomatológicos. 
• Instituciones y locales para la formación de personal calificado de salud. 
• Medios de transporte. 
• Otros. 
 
Estadísticas de Servicios: Es la información numérica cuantificable sobre los 
servicios de salud que se prestan con los recursos disponibles para mejorar el 
estado de salud de la población. 
 
Utilidad de las estadísticas de recursos y servicios: 
 
132
 
Las estadísticas de recursos y servicios son de gran utilidad en la administración 
científica durante todas sus etapas. 
 
Planificación: Según los principales problemas de salud se deben planificar los 
recursos y servicios necesarios para su solución. 
 
En la ejecución se mide la eficacia y eficiencia de los medios en el proceso. 
 
Para el análisis del costo beneficio de los servicios prestados con los recursos 
existentes. 
 
Medición de Recursos y Servicios. 
 
Se utilizan los indicadores habituales en la actividad de las estadísticas continuas: 
 
Números absolutos 
Razones 
Proporciones y porcentajes 
Tasas 
 
Los indicadores de recursos se agrupan usualmente de la siguiente manera: 
 
a) Indicadores que miden los recursos existentes. 
 
Este grupo de indicadores tienen como propósito expresar el volumen de recursos 
existentes. 
 
Ejemplo: 
• Número de médicos. 
• Médicos por habitantes. 
• Camas por médicos. 
 
Puede relacionarse el volumen de recursos existentes con la población 
beneficiada, o con los servicios prestados o relacionar recursos entre sí, Ej. 
médicos por cama hospitalaria, enfermeras por médicos, estomatólogos por sillón. 
 
 b) Indicadores que miden el aprovechamiento de los recursos. 
 
Este grupo de indicadores tiene como propósito expresar el uso que de los 
recursos se hace. 
 
Ejemplos: 
 
133
 
• Consultas por médicos, este indicador es usado para medir la productividad 
médica. 
• Aprovechamiento de los salones de operaciones. Puede relacionarse el total 
de horas que estuvo ocupado el salón entre el total de horas planificadas o del 
total de salones, cuantos están funcionando y que tiempo. 
• Aprovechamiento de la cama hospitalaria. Por su importancia y complejidad 
serán tratados mas adelante con profundidad. 
 
Con frecuencia se relaciona información de recursos y de servicios a fin de 
obtener mayor expresividad en los indicadores. De hecho es conveniente 
incorporar a la practica del análisis de estos indicadores la relación entre recursos 
y servicios prestados, como única vía de medir la eficiencia del proceso de gestión 
así como percatarse oportunamente de las necesidades de cada comunidad para 
ajustar los recursos en funciónde los servicios cada vez que sea necesario. 
 
Indicadores que miden el aprovechamiento de la cama hospitalaria 
 
La cama hospitalaria es un recurso de importancia y guía para el quehacer en el 
nivel de atención secundario y terciario. A partir de este recurso se establecen 
plantillas, presupuestos y demás recursos para la actividad hospitalaria que 
actualmente gasta más del 60 por ciento del presupuesto del sector salud 
. 
Es de gran importancia para la administración de salud, medir el aprovechamiento 
de la cama a fin de un desempeño gerencial exitoso y un aprovechamiento optimo 
del alto presupuesto que la atención hospitalaria lleva implícito. Es de suma 
importancia para evaluar la calidad y cantidad de servicios de hospitalización se 
ofrecen a la población. 
 
Los indicadores de aprovechamiento de la cama hospitalaria llevan implícitos 
definiciones básicas para su construcción y calculo. Estas son: 
 
Dotación normal de camas: Son las camas que dispone el hospital en un periodo 
de tiempo. 
 
Cama real: Es aquella cama que se encuentra realmente instalada y dispuesta las 
24 horas del día para recibir una persona, este ocupada o no. Se excluyen las 
camas de Cuerpo de Guardia, trabajo de parto, cuartos de emergencia o cuidados 
especiales, observación, reconocimiento, banco de sangre, investigaciones 
radiológicas o endoscopias, intervenciones menores, recién nacidos normales y 
las camas del personal que reside en el hospital. 
 
Egreso: Paciente que habiendo ocupado una cama real del hospital la abandona 
ya sea vivo o fallecido. 
 
134
 
Día Cama: Es la disponibilidad de una cama real por 24 horas del día. 
 
Días Cama: Suma de los día cama de un día. 
 
Día paciente: Es la unidad de servicio prestado por el hospital a un paciente 
ingresado en un día. O sea es el periodo de servicio prestado a un paciente 
hospitalizado comprendido entre las horas de censo de dos censos consecutivos, 
siendo contado el día de alta solamente en el caso de que un paciente ingrese y 
egrese en el mismo día. 
 
Los censos se realizan cada día en un hospital, generalmente en horas de la 
noche. Debe ser a una hora fija. En este se enumeran las camas ocupadas o no y 
los pacientes existentes. El censo o ronda nocturna del hospital es una actividad 
básica del movimiento hospitalario de una unidad. 
 
Días paciente: Es la suma de los día paciente en un día. Un hospital habrá 
prestado en un día cualquiera, tantos días paciente como pacientes permanezcan 
ingresados a las doce de la noche o a la hora del censo, mas un día paciente por 
cada persona que ingresa y egresa en el mismo día. 
 
Días Estadía: Es el tiempo transcurrido desde el momento que el paciente ingresa 
hasta que realiza su egreso. La unidad de tiempo que se utiliza es el día. Si el 
paciente permanece ingresado solo unas horas, tendrá a los efectos de la 
medición, un día de estadía. La estadía, al abandonar el paciente el hospital, se 
considerara el día de egreso o el de ingreso, nunca ambos. 
Los indicadores de uso más frecuente en la medición del aprovechamiento del 
recurso cama son: 
 
Promedio de Estadía (PE): Es el promedio de días de asistencia hospitalaria 
recibida por cada paciente en un periodo de tiempo dado. Mide cuantos días en 
promedio está hospitalizado un paciente desde su ingreso hasta su egreso. 
 
El PE es el indicador más importante de la utilización de las camas. Es el más 
consistente y de mayor poder discriminatorio. 
 
Intervalo de Sustitución (IS): Es el tiempo promedio que una cama permanece 
desocupada entre el egreso de un paciente y el ingreso de otro. Cuando un 
hospital tiene un IS de un día, se encuentra en dificultades para dar servicio a la 
comunidad. 
 
Intervalo de Rotación (IR): Mide el número de pacientes que en promedio rotan 
por una cama en un período determinado de tiempo. 
 
Índice de Ocupación o Índice Ocupacional (IO): Establece la relación entre los 
pacientes ingresados y la capacidad real de las camas de un servicio u hospital. 
135
 
Es el indicador de menor poder discriminatorio. Nunca debe ser analizado 
aisladamente de los otros. 
 
Promedio de Ocupación de Camas al Año (POCA): Número promedio de días que 
una cama se mantiene ocupada al año. 
 
No es aconsejable analizar aisladamente cada uno de estos indicadores, la 
interpretación integral de los mismos es capaz de brindar una información mucho 
más clara del aprovechamiento de la cama hospitalaria. 
 
El aprovechamiento optimo de la cama se reflejaría a partir de estos indicadores y 
de modo general de la siguiente manera: Promedio de Estadía corto, intervalo de 
sustitución de dos o más días, índice de rotación elevado y un también elevado 
índice ocupacional. Cada hospital o servicio según su tipo o nivel, tiene patrones 
de comportamiento particulares de estos indicadores. Por ejemplo, por lo general 
los hospitales gineco obstétricos son de corta estadía, alto índice ocupacional y de 
rotación. Al descender la natalidad por ejemplo o incorporarse tecnologías 
medicas modernas que acortan el periodo de hospitalización, los indicadores 
muestran menor aprovechamiento de las camas y se impone redimensionar el 
servicio u hospital. El aumento de la capacidad resolutiva de las estructuras de la 
Atención Primaria de Salud debe acortar también los periodos de hospitalización 
en todo tipo de hospital, fundamentalmente en los Clínico Quirúrgicos y Generales. 
Los hospitales psiquiátricos tienen por lo general, larga estadía, alto índice 
ocupacional y bajo índice de rotación. Obviamente en esto influye la morbilidad 
que atienden. 
 
Existe más de una fórmula para el cálculo de cada uno de estos indicadores según 
si se trata de unidades o servicios de corta o larga estadía. A continuación 
aparecen las más utilizadas. 
 
Egresos
pacientes DíasPE = 
Egresos
estadía DíasPE = 
 
cama Días
pacientes DíasIO = 
período del días x reales camas de Promedio
IR X PEIO = 
 
Egresos
sdesocupada CamasIS = 
IO
PEón x desocupaci %IS = 
 
reales camas de Promedio
EgresosIR = 
ISPE
período del DíasIR
+
= 
 
 
136
 
Los indicadores de servicio se agrupan de la siguiente manera: 
 
a) Indicadores que expresan la cantidad de servicios prestados. 
 Ejemplos: 
• Número de consultas 
• Consultas por habitantes. Relaciona servicios con población beneficiaria. 
 
b) Indicadores que expresan la calidad de los servicios prestados. 
Ejemplos: 
 
100x 
egresos de Total
iashospitalar sdefuncione de Númerobruta ortalidadM = 
 
100x 
egresos de Total
aciónhospitaliz de horas 48 de más de iashospitalar sDefuncioneneta ortalidadM = 
 
100x 
osanestesiadcasos de Total
anestesiapor sDefuncioneanestésica ortalidadM = 
 
2.7 Clasificación internacional de enfermedades (cie) 
 
1– Importancia del acto de clasificar 
 
Es un acto necesario para el estudio de cualquier fenómeno, es la base de la 
generalización científica y desde el punto de vista metodológico es esencial para 
unificar definiciones y sistemas de clasificación. 
 
2– Definición de Clasificación Internacional de Enfermedades 
 
Es un sistema de categorías numéricas, es decir, códigos numéricos asignados a 
entidades nosológicas establecidas previamente o sea, la nomenclatura médica 
con la finalidad de recuperar información para dar salida a diferentes propósitos. 
 
3– Breve recuento histórico 
 
La primera clasificación fue realizada por Bertillón en 1900 y se aplicó 
tempranamente en Cuba en 1901. 
 
Se han realizado revisiones cada diez años aproximadamente pero se ha tratado 
de hacer los grandes cambios cada veinte años para proteger la información 
procesada sin prescindir de las mejorías que se introducen en las revisiones en 
correspondencia con el desarrollo tecnológico del mundo. 
137
 
 
Ya se encuentra diseñada la X edición de la CIE. Son muchos los países del 
mundo que ya la están utilizando como es el caso de Cuba. 
 
4– Utilidad de la ClasificaciónInternacional de Enfermedades. 
 
• Permite el conocimiento organizado de las causas de muerte, traumatismos, 
enfermedades y lesiones clasificadas de acuerdo a diferentes intereses. 
• Logra uniformidad en la terminología y definiciones lo que permite realizar 
comparaciones entre países. 
• Permite conocer las causas que conducen directamente a la muerte y las que 
desencadenan el proceso. 
• Contribuye a desarrollar una labor preventiva eficiente. 
• Contribuye a elevar la calidad de la atención médica 
 
5– Aspectos básicos para el uso y aplicación de la Clasificación Internacional de 
Enfermedades. 
 
• Llenado correcto del certificado de defunción y otros registros que se someten 
a codificación como la hoja de egreso hospitalario. 
• Correcta codificación de las enfermedades. 
 
En Cuba, el certificado de defunción y la hoja de egreso son llenadas solo por el 
médico de esta forma, sobre todo en el certificado de defunción, se trata de 
garantizar que se consignen las causas de muerte a través de un proceso lógico y 
científico con el concurso de los conocimientos de este profesional autorizado para 
que se garantice la calidad de la información estadística. 
 
La codificación por su parte se realiza por personal técnico, en el caso de los 
certificados de defunción en las direcciones provinciales y luego se revisan en la 
Dirección Nacional de Estadística mientras las hojas de egreso hospitalario se 
codifican en los hospitales también por personal técnico. 
 
La codificación correcta se logra por la habilidad y conocimiento de los técnicos 
codificadores y por la utilización de las reglas de codificación que posee la CIE. 
 
 
 
 
138
 
 
 
 
 
 
 
Tema 3- Introducción a la Teoría de Probabilidades. 
 
Introducción 
Si su único propósito como investigador, es describir los resultados de un 
experimento concreto, los métodos analizados en el curso anterior, sobre 
Estadística Descriptiva, pueden considerarse suficientes. No obstante, si lo que 
pretende es utilizar la información obtenida para extraer conclusiones generales, 
sobre la población de la cual fue seleccionada la muestra estudiada, entonces 
estos métodos constituyen sólo el principio del análisis, y debe recurrir a métodos 
de inferencia estadística, los cuales implican el uso inteligente de la teoría de la 
probabilidad. 
Comenzaremos este tema interpretando la noción de probabilidad y la 
terminología subyacente a esta área de las matemáticas, ya que la probabilidad 
constituye por sí misma un concepto básico que refleja su relación con la faceta 
del mundo exterior que pretende estudiar: los fenómenos aleatorios, los cuales 
obedecen unas ciertas reglas de comportamiento. De alguna manera, el concepto 
de probabilidad, se relaciona o nos recuerda las propiedades de la frecuencia 
relativa. 
Nos centraremos posteriormente, en el eslabón que une la teoría de la 
probabilidad y la estadística aplicada: la noción de variable aleatoria, mostrando 
de esta manera, como puede emplearse la teoría de la probabilidad para sacar 
conclusiones precisas acerca de una población sobre la base de una muestra 
extraída de ella, y que muchos de los estudios estadísticos son de hecho, estudios 
de las propiedades de una o más variables aleatorias. 
Tal como hemos citado anteriormente, en las aplicaciones prácticas es importante 
poder describir los rasgos principales de una distribución, es decir, caracterizar los 
resultados del experimento aleatorio mediante unos parámetros. Llegamos así al 
estudio de las características asociadas a una variable aleatoria introduciendo los 
conceptos de valor esperado y varianza, relacionándolos con los conceptos de 
media y varianza de una variable estadística. 
El cálculo de probabilidades nos suministra las reglas para el estudio de los 
experimentos aleatorios o de azar, constituyendo la base para la estadística 
inductiva o inferencial. 
No pretendemos atiborrarlo de fórmulas de cálculo, tampoco pasarnos todo el 
tema realizando ejercicios sobre urnas con bolas rojas y blancas, nuestro interés 
Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M. 
Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46. 
139
 
es presentar los contenidos, básicamente, de manera intuitiva, de manera que el 
aspecto probabilístico de la inferencia estadística pueda ser fácilmente 
comprendido. 
3.1 Probabilidad. Conceptos básicos. 
La teoría de probabilidades tiene su origen en la solución de problemas 
relacionados con los juegos de azar, los cuales tienen sus precedentes en épocas 
muy remotas. 
Desde mediados del siglo XVII y hasta nuestros días, el cálculo de probabilidades 
ha sufrido un proceso de transformaciones sucesivas, hasta alcanzar métodos 
aplicables a la solución de problemas complejos, que el desarrollo científico 
técnico plantea al hombre. 
Muchas son las ciencias que emplean los resultados de esta disciplina, entre ellas 
se destacan la Física, la Química, la Biología, todas las ramas de la ingeniería, 
etc. Los progresos teóricos de esta rama de la matemática, han abierto nuevos 
campos de aplicación en Estadística. Así vemos que, en el campo de la salud 
pública es muy frecuente el uso de las probabilidades, no solo en el ámbito de la 
investigación, sino también en la práctica profesional cotidiana. 
Cuando decimos que la oportunidad que tiene un paciente de sobrevivir a una 
intervención quirúrgica es de 50%. O bien, que un médico está 90% seguro de 
que un paciente tiene tal enfermedad. Estos ejemplos, entre otros tantos que 
escuchamos a diario, nos muestran el empleo del concepto de probabilidad en el 
marco de la salud pública. 
Seguro se está preguntando ¿qué entendemos por probabilidad?. Pues bien, le 
diré que existen varias definiciones, las que pudieran resultar algo complicadas 
dado el carácter matemático de las mismas. Apelamos a su intuición y capacidad 
de razonamiento lógico. 
Ante todo Ud. debe saber, que las probabilidades constituyen la medida numérica 
de la verosimilitud o el grado de certidumbre de ocurrencia real de un fenómeno. 
Actualmente, existen dos puntos de vista mediante los cuales pueden ser 
abordadas las probabilidades: objetivo y subjetivo. El primero se basa en que la 
teoría de probabilidad permite descubrir las leyes que rigen una serie de 
fenómenos que se presentan en la práctica, cuyo análisis y estudio conducen al 
conocimiento de la realidad objetiva; mientras que el segundo, sostiene que la 
probabilidad mide la confianza que un individuo tiene en la certeza de una 
proposición particular, es decir, que las conclusiones basadas en esta teoría no 
reflejan la realidad objetiva, sino el conocimiento del observador sobre el 
fenómeno que estudia. 
Aunque este último punto de vista ha gozado de gran popularidad, los estadísticos 
con orientación tradicional aún no la aceptan del todo. 
140
 
El concepto de probabilidad objetiva puede ser visto desde dos enfoques 
principales: el empírico y el teórico. 
El enfoque teórico se corresponde con la llamada probabilidad clásica o a priori 
y puede ser definida como sigue: 
 
Sea E un experimento aleatorio con N resultados igualmente posibles y mutuamente 
excluyentes, y si m de estos resultados poseen una característica A, la 
probabilidad de ocurrencia de A se define como la relación entre el número de 
estos resultados favorables a A (m) y el número total de resultados posibles del 
experimento(N). Se denota: 
 P(A) = 
N
m
 
 
¿Por qué a priori?, Ya que no necesita ser realizado el experimento para conocer 
la probabilidad de ocurrencia de los resultados posibles. 
Ahora bien, para trabajar con el cálculo de probabilidades es necesario fijar 
previamente cierta terminología. Vamos a introducir parte de ella en las próximas 
líneas. 
Experimentos y sucesos aleatorios 
Cuando en un experimento no se puede predecir el resultado final, hablamos de 
experimento aleatorio. Éste debe cumplir los siguientes requisitos:1. Se puede repetir indefinidamente, siempre en las mismas condiciones; 
2. Antes de realizarlo, no se puede predecir el resultado que se va a obtener; 
3. En cada repetición se obtiene un resultado que pertenece a un conjunto 
conocido previamente de resultados posibles. A este conjunto, de resultados 
posibles, lo denominaremos espacio muestral o conjunto fundamental y lo 
denotaremos normalmente mediante la letra E. Los elementos del espacio 
muestral, cada uno de los resultados posibles, se denominan sucesos 
elementales (e1, e2, …, en). 
El desconocimiento de todas las circunstancias que describen el experimento 
aleatorio, causa la incertidumbre del resultado. Esto motiva la aparición de 
interrogantes sobre dicho resultado, a su vez estas preguntas determinan un 
subconjunto de sucesos elementales. A estos subconjuntos suele llamárseles 
eventos o sucesos aleatorios, existiendo una probabilidad de ocurrencia 
asociada a éstos. 
141
 
Observe que los sucesos elementales son sucesos aleatorios compuestos por un 
sólo elemento, es decir, solo un resultado posible. Por supuesto los sucesos 
aleatorios son más generales que los elementales, ya que son conjuntos que 
pueden contener no a uno sólo, sino a una infinidad de sucesos elementales, e 
incluso no contener ninguno. 
Dos o más sucesos son llamados mutuamente excluyentes, si la ocurrencia de 
cualquiera de ellos excluye la ocurrencia del(os) otro(s), es decir, no pueden 
ocurrir simultáneamente. Así tenemos que los sucesos elementales son 
mutuamente excluyentes, mientras que los sucesos aleatorios pueden en 
ocasiones no serlo, lo que significa que algunos de sus elementos coinciden. 
Ilustremos estos conceptos con un ejemplo simple. 
Ejemplo 1 
Si realizamos el experimento aleatorio de lanzar un dado al aire, tenemos los 
siguientes resultados posibles: E = {1, 2, 3, 4, 5, 6} 
El conjunto E es el espacio muestral de este experimento y cada uno de sus 
elementos son sucesos elementales. Ahora, las preguntas ¿el resultado será un 
número par?, ¿Un múltiplo de tres? o ¿un número mayor que dos?, definen, 
respectivamente, los siguientes subconjuntos (sucesos aleatorios) del espacio 
muestral E: A = {2, 4, 6} B = {3, 6} C = {3, 4, 5, 6} 
Observe que todos los elementos de E son mutuamente excluyentes, pues si sale 
el 1 no puede simultáneamente salir otro valor, mientras que los sucesos 
aleatorios mencionados no son mutuamente excluyentes, si por ejemplo sale el 
número 6, habrán ocurrido los tres sucesos simultáneamente: A, B y C. Esto no es 
así siempre, por ejemplo, un suceso D es definido por la pregunta ¿el resultado 
será un múltiplo de 5?, tendrá los siguientes elementos: D = {5} 
Como verá, A y D son mutuamente excluyentes, al igual que B y D, no sucediendo 
así con C y D. 
A continuación veremos como se realiza el cálculo de probabilidades en este 
ejemplo, según la definición clásica. 
En este caso N = 6 (las 6 caras del dado), y si el dado está perfectamente 
balanceado, es decir, no está trucado, la probabilidad de ocurrencia de cada uno 
de los resultados posibles será la misma para todos e igual a: 
6
1 
Esta es la probabilidad de ocurrencia de los sucesos elementales, veamos qué 
sucede con los sucesos aleatorios. Pues muy simple, la probabilidad de 
ocurrencia de cada uno de ellos está determinada por las probabilidades 
individuales de sus elementos: 
P(A) = 
6
1 +
6
1 +
6
1 = 
2
1
6
3
= 
142
 
Para los demás es similar: 
P(B) = 
3
1
6
2
= P(C) = 
3
2
6
4
= P(D) = 
6
1 
Otro concepto importante es el de suceso contrario o complemento. Hasta 
ahora hemos hablado de probabilidad de ocurrencia de un suceso cualquiera A, 
denotada por P(A), no se ha preguntado ¿cuál será la probabilidad de que A no 
ocurra?, si es así, se diré que la no ocurrencia de un suceso (A) es a lo que suele 
llamársele su complemento o el suceso contrario de A y se denota como no A, o 
más comúnmente como A y su probabilidad está dada por: 
 P( A ) = 1- P(A) 
Veamos en el ejemplo 1. El complemento de los sucesos A, B, C y D será: 
 A = {1, 3, 5} B = {1, 2, 4, 5} 
 C = {1, 2} D = {1, 2, 3, 4, 6} 
Las respectivas probabilidades puede calcularlas fácilmente. Le invitamos a que 
las calcule. 
La definición clásica de probabilidad tiene dos desventajas: las palabras 
"igualmente posibles" pueden ser sinónimas de “igualmente probables”, por lo que 
estamos definiendo exactamente la probabilidad con sus propios términos, 
además, este concepto supone que el número de resultados posibles es finito, lo 
que no ocurre frecuentemente en la práctica. 
Por esta razón ha sido propuesta una definición estadística de probabilidad, 
también llamada frecuencia relativa de probabilidad o probabilidad a 
posteriori, que se corresponde con el método empírico. 
Pues sí, nos referimos a la misma frecuencia relativa que estudió en estadística 
descriptiva. A continuación le aclaro esto. 
Cuando repetimos un experimento aleatorio, un número grande de veces, y 
registramos la frecuencia de ocurrencia de un resultado e, se observa que en la 
medida que el número de experimentos aumenta, las frecuencias relativas con las 
que ocurre ese suceso e, Fr (e), tiende a converger hacia cierta cantidad que 
denominamos probabilidad de e. Veamos un ejemplo. 
Ejemplo 2 
En el siguiente gráfico, se presenta la evolución de la frecuencia relativa del 
número de caras obtenido en el lanzamiento de una moneda en 100 ocasiones 
(simulado por una computadora, no pensará que lanzamos la moneda 100 veces). 
En principio la evolución de las frecuencias relativas es errática, pero a medida 
que el número de tiradas aumenta, tiende a lo que entendemos por probabilidad 
143
 
de cara, es decir, tiende a 0.5 (fíese que esta moneda está perfectamente 
balanceada). 
Figura 1.1.1- Tendencia de la frecuencia relativa del número de caras 
obtenido en lanzamientos sucesivos de una moneda. 
De acuerdo a lo anterior: 
La probabilidad estimada o probabilidad empírica de un suceso, se toma como la 
frecuencia relativa de la ocurrencia del suceso, cuando el número de 
observaciones es muy grande. 
 
¿Por qué a posteriori?, pues porque a diferencia de la definición clásica, en este 
caso para calcular la probabilidad de ocurrencia de un suceso es necesario 
realizar el experimento un número grande de veces, después de lo cual es que se 
conocerá dicha probabilidad. 
Esta definición también tiene dificultades en la práctica, pues se requiere realizar 
un número infinito de veces un experimento para calcular una probabilidad. Por 
ejemplo, lanzar infinitas veces un dado para ver que las frecuencias relativas de la 
aparición de cada cara convergen a 1/6. Esto puede suplirse en la práctica 
realizando el experimento un número suficientemente elevado de veces, hasta que 
tengamos la precisión que requieran nuestros cálculos. 
Sin embargo, los experimentos aleatorios a veces no pueden ser realizados, como 
es el caso de calcular la probabilidad de morir jugando a la ruleta rusa con un 
revólver: No es posible (o no se debe) calcular esta probabilidad repitiendo el 
144
 
experimento un número indefinidamente alto de veces para aproximarla mediante 
la frecuencia relativa. Para ello existen métodos mucho más seguros, como es la 
definición axiomática de probabilidad, lo cual escapa del alcance de este texto, si 
Ud. está interesado en profundizar en el tema puede consultar la bibliografía 
citada al final del texto. 
Por lo pronto, de acuerdo con los objetivos del libro, nos quedamos con la 
definición estadística de probabilidad. De hecho, prácticamente todo lo 
concerniente a probabilidades en el campo de la salud se obtiene de forma 
empírica, basándonos en el comportamiento pasado de los fenómenos. Por 
ejemplo, la probabilidad de supervivencia de un enfermo de cáncer, se basa en el 
conocimiento de los porcentajes de supervivencia de pacientes con características 
similares, conel mismo nivel de la enfermedad y sometidos al mismo tratamiento. 
Como puede ver, estos porcentajes no son más que la expresión porcentual de la 
frecuencia relativa de este suceso. 
El método empírico es también la base del antiguo método de diagnóstico, según 
el cual es más verosímil (probable) que un paciente tenga una enfermedad común 
que una rara. 
Es importante aclarar, que esta definición supone estabilidad en las circunstancias 
o factores que determinan el suceso en sí. En el ejemplo anterior, si se modifica 
alguno de esos factores como incluir pacientes con diferentes niveles de la 
enfermedad o sometidos a diferentes tratamientos, estas probabilidades empíricas 
ya no son válidas. 
La clave está en que la probabilidad, basada en antiguos resultados, es cierta 
ahora y en el futuro, solamente en circunstancias semejantes. 
Habrá notado, que las probabilidades pueden ser expresadas tanto en forma 
fraccional como porcentual. Ambas formas son válidas y equivalentes, así por 
ejemplo, una probabilidad del 20% es lo mismo que de 0.2. Pero, ¿cómo 
interpretar su valor?, Para interpretar el valor de una probabilidad es necesario 
recurrir al concepto frecuencista de la misma, por ejemplo, P(A) = 0.2 significa que 
de cada 100 repeticiones del experimento se espera como promedio que ocurra 
20 veces el evento A. 
Ahora bien, independientemente de cómo se exprese, existen propiedades 
básicas que cumple la probabilidad de cualquier suceso e, P (e). Estas son: 
− La P (e) es un número no negativo y menor o igual que 1 (entre 0 y 
100%), esto no te es ajeno puesto que las probabilidades son 
proporciones y ya conoce las propiedades de una proporción. 
0 ≥ P (e) ≤ 1 
− La suma de las probabilidades de ocurrencia, de todos los resultados 
posibles de un experimento aleatorio, es igual a 1 (100%). 
P(e1) + P(e2) + …+ P(en) = 1 
145
 
Esta es la propiedad de exhaustividad, se refiere al hecho de que el 
observador de un proceso probabilístico, debe contemplar todos los 
resultados posibles, y cuando se toman todos, la suma de sus 
probabilidades siempre es igual a 1. Ahora comprende por qué la 
probabilidad del complemento de un suceso es 1 menos la probabilidad de 
ese suceso, pues según esta propiedad: 
 P(A) + P( A ) = 1 
− Si dos eventos E1 y E2, son mutuamente excluyentes. La probabilidad 
de ocurrencia de uno o el otro es igual a la suma de sus 
probabilidades individuales. 
P(E1 o E2) = P(E1) + P(E2) 
 Si no son mutuamente excluyentes el cálculo se torna algo complejo. 
3.2 Variables aleatorias 
Hasta aquí, al analizar los resultados de un experimento o fenómeno aleatorio, 
hemos establecido la correspondencia entre los posibles resultados y la noción de 
probabilidad de ocurrencia de un determinado resultado o conjunto de resultados 
(sucesos aleatorios), de todos los posibles. Como consecuencia, a cada resultado 
o suceso aleatorio está asociado un número real, que es su probabilidad. 
La noción de variable aleatoria está asociada al concepto de probabilidad de 
ocurrencia de un suceso, y es también una correspondencia que se establece 
entre cada resultado de un fenómeno o experimento aleatorio y un número real 
determinado. 
En el proceso de investigación científica y en particular en la investigación 
biomédica, es frecuente expresar el resultado de un experimento aleatorio en 
forma numérica, pues resulta más fácil utilizar valores numéricos en lugar de 
trabajar directamente con los elementos de un espacio muestral. De este modo 
aparece el concepto de variable aleatoria como sigue: 
 
Una variable aleatoria (v.a) es toda función que atribuye un único número real a 
cada suceso elemental del espacio muestral de un experimento aleatorio. 
 
 
Es decir, una variable aleatoria (v.a) es simplemente, la formalización matemática 
de alguna de las variables reales que estamos habituados a tratar. Cuando se 
trata de un carácter cuantitativo, la variable aleatoria correspondiente se define 
mediante su aplicación idéntica, mientras que si es un carácter cualitativo se 
emplea una convención numérica conveniente. 
146
 
Esto puede aplicarse tanto si el resultado del experimento es una cantidad que 
varía como si se trata de un resultado categórico. 
Por lo tanto, una variable aleatoria será definida como una cantidad variable que 
expresa el resultado de un experimento aleatorio. 
Dicho de otro modo, se define una variable aleatoria haciendo corresponder a 
cada uno de los sucesos aleatorios, un número real cualquiera, de modo que esta 
transformación nos permita definir diferentes operaciones aritméticas con sus 
elementos. 
ESTAS VARIABLES SE DENOTAN CON LAS ÚLTIMAS LETRAS DEL ALFABETO, EN 
MAYÚSCULAS (X, Y, Z). 
Ejemplo 3 
Si el experimento consiste en observar el sexo de un recién nacido, es posible que 
nos interese determinar el número de varones que se obtienen de un total de 3 
nacimientos. 
El espacio muestral de este experimento estará formado por todas las formas 
posibles en que pueden ocurrir 3 nacimientos en cuanto a sexo. Le explico mejor, 
cada uno de los 3 nacimientos puede ser de 2 formas: hembra (H) o varón (V), por 
lo tanto si queremos saber de cuántas formas pueden ocurrir los 3 nacimientos 
tendríamos 8 posibilidades, 2 del primero, multiplicado por 2 del segundo, 
multiplicado a su vez por 2 del tercer nacimiento: 2x2x2= 811. 
Veamos claramente; los resultados pueden ser: 
 E = {VVV, HHH, VHH, VVH, HVV, HHV, HVH, VHV} 
Como puede ver, resulta bastante complejo trabajar con este espacio muestral tal 
como es, imagínese si aumentamos el número de nacimientos, sería el caos. Por 
lo tanto será mucho más conveniente que el suceso “hembra" sea representado 
por el 0 y el suceso “varón” por el 1, de esta forma se define una variable aleatoria 
X como el número de varones, de la siguiente forma: 
 X = {0, 1, 2, 3} 
Así pues hagamos corresponder el espacio muestral anterior con los valores de X: 
0 ⇒ HHH 
1 ⇒ VHH, HVH 
2 ⇒ VVH, VHV y HVV 
3 ⇒ VVV 
MÁS ADELANTE RETOMAREMOS ESTE EJEMPLO. 
 
11 Esto es de teoría combinatoria, que no creo necesario abundar mucho, si lo desea 
puede consultar la bibliografía citada al final del tema. 
 
147
 
AHORA BIEN, EL CALIFICATIVO DE ALEATORIA NO SE DEBE AL HECHO DE QUE SE ATRIBUYE 
DE MODO IMPREVISIBLE UN VALOR CUALQUIERA A UN ELEMENTO DEL ESPACIO MUESTRAL, 
YA QUE ESTE VALOR ESTÁ DETERMINADO DE FORMA PRECISA. LO QUE ES ALEATORIO EN 
REALIDAD, ES QUE AL HACER EL EXPERIMENTO, NO SABEMOS QUÉ RESULTADO PUEDE 
OCURRIR. 
EN FUNCIÓN DE LOS VALORES QUE TOME LA VARIABLE, ÉSTA PUEDE CLASIFICARSE EN 
DISCRETA O CONTINUA DEL SIGUIENTE MODO: 
 
Variable aleatoria discreta: Es aquella que sólo puede tomar un número finito o 
numerable de valores. Por ejemplo, el sexo de un recién nacido. 
 
 
Variable aleatoria continua: Es la que puede tomar un número infinito no 
numerable de valores. Por ejemplo, la talla, y en general variables que expresan 
tiempo, medidas de longitud, peso, etc. 
 
Si sobre los elementos de E existe una distribución de probabilidad, ésta se 
transmite a los valores que toma la variable X. Es decir, toda v.a. conserva la 
estructura probabilística del experimento aleatorio que describe. 
Retomando el ejemplo 1.2.1, supongamos que la probabilidad de que nazca un 
niño varón es similar a la de que nazca una hembra, e igual a 0.5 (no es así 
realmente). ¿Cómo serán las probabilidades de los valores de X? Bueno en este 
caso como las probabilidades de cada sexo son iguales, entonces los elementos 
de E son igualmente probables, por lo que se puede aplicar el concepto de 
probabilidad clásico. Veamos: E tiene 8 resultados posibles, así que la 
probabilidad correspondiente a cada uno será igual a 1/8. Por ejemplo. 
El resultado VVV, su probabilidad se calcula así: 
 
8
1
2
1
2
1
2
1
=××=)(VVVP 
De forma similar para el resto de los resultados. Ahora calculemos las 
probabilidades de X: 
 P(X=0) = 81 recuerdaque X = 0 solo cuando E= HHH 
 P(X=1) = 83 X = 1 cuando E = HVH, VHH y HHV 
 P(X=2) = 83 X = 2 cuando E = VVH, VHV y HVV 
 P(X=3) = 81 X = 3 solo cuando E = VVV 
Vamos a estudiar a continuación los conceptos más importantes relacionados con 
la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a. 
discreta y v.a. continua. 
148
 
3.3 Distribución de probabilidad de una variable aleatoria. 
El concepto de variable aleatoria nos permite, como vimos en el ejemplo 1.2.1, 
definir y denotar sucesos, y aún más, calcular la probabilidad de éstos, a través de 
la probabilidad de ocurrencia de los valores originales. Así pues, la distribución de 
probabilidad de una variable aleatoria puede ser definida de acuerdo al tipo de v.a 
de la siguiente forma: 
Distribución de probabilidad de una v.a discreta: se define como el conjunto de 
todos los valores de la variable, junto con sus correspondientes probabilidades. 
Puede ser representada tanto tabular como gráficamente. 
Veamos la distribución de probabilidades de la variable X: número de varones en 
tres nacimientos, vista anteriormente en el ejemplo 1.2.1. 
Tabla 1.2.1 – Distribución de probabilidad del número de varones en 3 
nacimientos. 
Valores de X (x) P (X = x) 
0 0.125 
1 0.375 
2 0.375 
3 0.125 
 1.000 
 
Figura 1.2.1 – Representación gráfica de la distribución de probabilidad del 
número de varones en 3 nacimientos. 
 
Como puede observar, la representación gráfica de la función de probabilidad se 
realiza mediante un diagrama de barras análogo al de la distribución de 
149
 
frecuencias relativas para variables discretas. Donde la longitud de cada barra 
equivale al valor de probabilidad del correspondiente valor de x. Veamos un 
ejemplo con más categorías. 
Ejemplo 4 
Supongamos que como parte del diagnóstico de salud del área, necesitas conocer 
el número de personas por familia, para ello tomas una muestra de 50 familias y 
en cada una de ellas registras la variable de interés. Construyamos la distribución 
de probabilidad para esta variable en dicha población. 
Tabla 1.2.2 – Distribución de probabilidad del número de personas por familia 
en una población de 50 familias. 
 
Número de 
personas 
Frecuencia 
absoluta P(X=x) 
1 1 0.02 
2 4 0.08 
3 6 0.12 
4 5 0.10 
5 9 0.18 
6 10 0.20 
7 7 0.14 
8 4 0.08 
9 2 0.04 
10 2 0.04 
 50 1.00 
 
Se habrá dado cuenta que esto es análogo a la distribución de frecuencias 
relativas, pero sustituyendo las frecuencias relativas por probabilidades. Por lo 
tanto, podemos pensar en las distribuciones de probabilidad como las formas 
teóricas o ideales de las distribuciones de frecuencia relativa, cuando el número 
de observaciones es grande (poblaciones). 
150
 
Figura 1.2.2 – Representación gráfica de la distribución de probabilidad del 
número de personas por familia en una población de 50 familias. 
En ambos ejemplos se observa que la longitud de cada barra vertical indica la 
probabilidad para el valor correspondiente de x. Se puede usar alternativamente la 
representación gráfica o tabular, no necesariamente las dos. Observará también 
que todos los valores de P(X=x) son positivos, menores que 1, y la suma de los 
mismos es igual a 1. Estas características no son particulares de estos ejemplos, 
sino que se cumplen para todas las distribuciones de probabilidad de variables 
discretas. 
Esta distribución sirve para hacer afirmaciones (conclusiones) sobre la variable 
aleatoria en la población, hacer pronósticos y planificar medidas de prevención, 
entre otras cosas. 
 Las ideas vistas anteriormente, pueden extenderse al caso en que la variable 
pueda asumir un conjunto continuo de valores. En este caso el concepto de 
distribución de probabilidad es más complejo. 
Cuando la variable es continua, no tiene sentido hacer una suma de las 
probabilidades de cada uno de los términos, ya que el conjunto de valores que 
puede tomar la variable es no numerable. En este caso, lo que generaliza de 
modo natural el concepto de suma es el de integral. Por otro lado, para variables 
continuas no tiene interés hablar de la probabilidad de un valor específico de la 
variable, P(X = x), ya que esta debe valer siempre 0, para que la suma infinita no 
numerable de las probabilidades de todos los valores de la variable no sea 
infinita. 
De este modo es necesario introducir un nuevo concepto que sustituya en v.a. 
continuas, al de función de probabilidad de una v.a. discreta. Este concepto es el 
de función de densidad de una v.a. continua, que se define como sigue: 
 
151
 
 
A una función no negativa, f(x), se le llama distribución de probabilidad (función 
de densidad de probabilidad) para la variable aleatoria continua X, si el área total 
delimitada por su curva y el eje de las x, es igual a 1 y si la subárea delimitada por la 
curva, el eje de las x y por las líneas perpendiculares levantadas sobre dos puntos 
cualesquiera a y b da la probabilidad de que X esté entre los puntos a y b. 
 
Para que se comprenda mejor, considere los datos presentados en la tabla 1.3.3 y 
la figura 1.3.3 
Ejemplo 5 
La talla de un recién nacido acostumbra a tener valores entre 47 y 53 cm., pero 
no todas estas tallas son igualmente probables, como bien se sabe, lo habitual son 
tallas próximas a los 50 cm. Lo cual se puede observar tanto en la distribución de 
frecuencias de la tabla 1.3.3 como en el histograma de la figura 1.3.3, alrededor 
del 60% de los niños se sitúan entre 49 y 51 cm de talla. 
Tabla 1.3.3 – Distribución de frecuencias de la talla de 100 recién nacidos. 
Talla 
(cm) 
Frecuencia 
absoluta 
Frecuencia 
relativa 
Frecuencia 
acumulada 
46 1 0.01 0.01 
47 6 0.06 0.07 
48 10 0.10 0.17 
49 18 0.18 0.35 
50 25 0.25 0.60 
51 23 0.23 0.83 
52 10 0.10 0.93 
53 7 0.07 1.00 
Total 100 1.00 
 
 
152
 
 
 Figura 1.3.4 – Histograma de la talla (cm.) de 100 recién nacidos. 
Como se recordará, las subáreas del histograma corresponden a las frecuencias 
de ocurrencia de los valores de la variable entre los límites de la escala horizontal 
de subáreas, por lo tanto el área total se corresponde con el total de 
observaciones. En caso de representar frecuencias relativas en vez de absolutas, 
las subáreas se corresponderán con los valores de probabilidad de cada clase 
representada y por supuesto el área total será igual a 1. 
Imagínese ahora una situación donde el número de valores de la variable aleatoria 
es muy grande y la dimensión de los intervalos de clase es muy pequeña, digamos 
que contamos con la talla de todos los RN del país durante un año 
(aproximadamente 150 000), en este caso el histograma resultante tendrá mayor 
cantidad de intervalos y si se conectan los puntos medios de las celdas del mismo 
se obtendrá una curva suave como la distribución continua representada en la 
figura 1.3.4. 
Estas curvas se utilizan para representar gráficamente las distribuciones de v.a 
continuas, lo cual tiene implicaciones importantes cuando se trabaja con 
distribuciones de probabilidad. En primer lugar, el área bajo la curva es igual a 1, 
como lo es para el histograma, y en segundo lugar, la frecuencia relativa de 
ocurrencia para los valores entre dos puntos específicos cualesquiera (a y b), 
sobre el eje de las X, es igual al área total delimitada por la curva, el eje de las X y 
las rectas perpendiculares levantadas sobre ambos puntos, tal como lo muestra la 
figura 1.3.5. Siendo la probabilidad de que la variable tome valores entre a y b, y 
se denota por: P(a < X < b) 
153
 
 
Figura 1.3.5 – Distribución de probabilidad de las tallas al nacer. 
 
A esta función f(x), se le llama función de densidad de probabilidad de X. 
Por ser f una función integrable, la probabilidad de un punto es nula, es decir, la 
probabilidad de un valor específico de la v.a es cero, puesto que un valor 
específico se representa por un punto en el eje de las abscisas y el área encima 
de un punto es igual a cero. Por ello al calcular la probabilidadde un intervalo no 
afectará nada el que éste sea abierto o cerrado por cualquiera de sus extremos, 
pues estos son puntos y por tanto de probabilidad nula. 
Así pues: P(a < X < b) = P(a ≤ X ≤ b) 
 
Figura 1.3.6 – Gráfico de una distribución de probabilidad continua que 
muestra el área entre a y b. 
Para calcular las áreas bajo la curva y obtener de ese modo las probabilidades de 
presentarse algún intervalo específico de valores de la variable, se utiliza el 
proceso de integración, lo cual escapa al alcance de este texto por su grado de 
complejidad. 
En la práctica existe una serie de distribuciones teóricas, tanto para variables 
discretas como para variables continuas, que sirven de modelo para representar 
las distribuciones empíricas más frecuentemente encontradas; y con el uso de 
éstas no se necesita hallar ninguna integral, pues al alcance de todos existen los 
valores de probabilidad tabulados para cada distribución teórica, solamente Ud. 
154
 
debe aprender a usarlas convenientemente. Además, puede apelar al software 
estadístico. 
A continuación presentaremos, de forma muy resumida, algunas de las 
distribuciones de probabilidad teóricas que a nuestro juicio son las más usadas en 
las investigaciones que se realizan en el ámbito de la Salud Pública. Así que le 
recomendamos que preste mucha atención porque esta es la base para 
comprender la inferencia estadística. 
Pero antes debe conocer algunas “medidas de resumen” para las variables 
aleatorias. Así, la distribución de probabilidad de una v.a puede resumirse con la 
media aritmética, llamada en este caso esperanza matemática o valor esperado, y 
la varianza, las que se denotan por E(X) y V(X), respectivamente. Su cálculo, 
análogo al de una distribución de datos, se efectúa con las probabilidades de cada 
valor, en lugar del número de veces (frecuencia) con que el valor aparece en la 
muestra. Estas medidas constituyen los parámetros de la distribución. 
En aras de simplificar, veremos sus formas de cálculo en cada distribución en 
particular que estudiaremos seguidamente. 
3.4 La distribución Binomial. 
Entre las distribuciones de probabilidad discretas, una de las más empleadas es la 
Binomial, por estar asociada a problemas de muestreo. Para realizar su estudio 
comenzaremos por una distribución más simple, cuyos parámetros serán 
utilizados para determinar la ley de probabilidad Binomial, esta es la llamada 
distribución Bernoulli. 
En la práctica diaria, se presentan muchos problemas cuyo resultado, solo puede 
ser uno de dos categorías posibles, mutuamente excluyentes. Por ejemplo, vida o 
muerte, enfermo o no, varón o hembra, fuma o no, etc. Esta clase de 
experimentos, recibe el nombre de experimentos Bernoulli y sus resultados suelen 
denominarse como éxito y fracaso. La asignación del éxito o fracaso a las 
categorías originales, depende de los objetivos y de las características del 
experimento en particular, no existen reglas precisas al respecto. Pero sí es muy 
importante definirlo adecuadamente y de forma clara, pues de esto dependerá la 
interpretación de los resultados, como verá más adelante. 
En este caso las categorías de la variable original serán denotadas por 0 y 1, 
usando el valor 1 para el éxito. 
Ejemplo 6 
El sexo de un recién nacido puede considerarse como un experimento Bernoulli, 
quedando conformada la siguiente variable aleatoria X: 
 1 = varón 
 X = 
 0 = hembra 
155
 
La probabilidad de ocurrencia de cada resultado, será precisamente, la 
probabilidad de éxito y la probabilidad de fracaso, denotadas por las letras p y q 
(minúsculas), respectivamente. De modo que: 
 p = P(X = 1) 
p + q = 1 por lo tanto: q = 1 - p 
Pues p y q son las probabilidades de sucesos mutuamente excluyentes y q es el 
complemento de p. 
El valor esperado y la varianza de esta distribución Bernoulli son: 
 E(X) = p y V(X) = pq 
Ahora bien, cuando repetimos n veces un experimento Bernoulli, de forma 
independiente, en cada uno de ellos obtendremos uno de los dos resultados 
posibles: éxito o fracaso. Así, podemos estar interesados en conocer la 
probabilidad de ocurrencia de un número k de éxitos, en n repeticiones del 
experimento. Para esto se construye una variable Binomial, que puede ser 
definida como sigue: 
 
Variable aleatoria Binomial: es el número de éxitos obtenidos en n repeticiones 
independientes de un experimento Bernoulli. La que sigue una ley de distribución 
Binomial con parámetros n y p. Y se denota como: 
 X ~ B (n, p) 
 
Donde: n = número de repeticiones. 
p = probabilidad de éxito, la cual se mantiene constante a través de 
las n repeticiones. 
Esta variable tomará valores entre 0 y n, es decir el número de éxitos puede ser 
ninguno (cero), uno, dos, y así sucesivamente hasta n (todos). Su valor esperado 
y varianza están dados por: 
 E(X) = np y V(X) = npq 
El número de éxitos esperado, E(X), será el producto de la cantidad de 
repeticiones por la probabilidad de ocurrencia de un éxito, esto es algo bastante 
intuitivo. 
Retomemos el ejemplo 1.2.1, la variable X definida como el número de varones 
en tres nacimientos, es una variable Binomial, si consideramos el nacimiento de 
un varón como el éxito (lo cual es así en algunas regiones). En este caso n = 3, el 
número de nacimientos, y p = 0.5, recuerda que asumimos que la probabilidad de 
nacer varón era similar a la de nacer hembra, e igual a 0.5, por tanto esta variable 
se distribuye Binomial con parámetros 3 y 0.5. 
156
 
 X ~B (3, ½) 
A su vez X = {0, 1, 2, 3} y su valor esperado y varianza serán: 
 E(X) = 3∗½ = 3/2 = 1.5 V(X) = 3/2∗1/2= ¾=0.75 
Esto es absurdo, pues es imposible que nazca un varón y medio, pero se debe 
tener en cuenta que esta es una operación matemática con un número 
fraccionario (probabilidad), por lo que un resultado como éste no es nada raro, 
entonces utilice el sentido común y realice la aproximación correspondiente. 
Este ejemplo es poco ilustrativo dado el pequeño número de repeticiones, 
aumentemos los nacimientos a 100, ahora el valor esperado será 
aproximadamente de 50 varones por cada 100 nacimientos. 
También pueden calcularse las probabilidades de que ocurran k nacimientos 
varones, P(X=k), lo cual nos puede servir en la práctica, para planificar algún 
servicio en particular que se relacione con el sexo. 
Estos cálculos se realizan mediante una fórmula matemática no muy compleja, 
pero escapa del alcance de este texto. Por otro lado, existen valores de 
probabilidad tabulados para diferentes valores de n y p, que podrá encontrar en la 
bibliografía citada al final del tema, con explicaciones sencillas de cómo usarlas. 
3.5 La distribución de Poisson. 
Esta distribución teórica ha sido ampliamente usada en Biología y Medicina. 
Constituye, junto a la Ley Binomial, las distribuciones discretas más comúnmente 
empleadas. 
La distribución de Poisson es el resultado de un conjunto de suposiciones acerca 
de un proceso implícito para formar un conjunto de observaciones numéricas. 
Este proceso surge al contar el número de eventos o sucesos, distribuidos al azar, 
que ocurren en un espacio o intervalo de tiempo dado. Cumpliendo los siguientes 
requisitos: 
− Las ocurrencias de los eventos son independientes, es decir, la 
ocurrencia de un evento en un intervalo de tiempo o espacio, no 
tiene efecto en la probabilidad de una segunda ocurrencia del evento 
en el mismo o en algún otro intervalo. 
− Es posible la ocurrencia del evento, teóricamente, un número infinito 
de veces dentro del intervalo. 
− La probabilidad de una sola ocurrencia del evento en un intervalo 
dado es proporcional a la dimensión del intervalo. 
− En cualquier fracción infinitesimal (muy, pero que muy pequeña) del 
intervalo, la probabilidad de más de una ocurrencia del evento es 
insignificante. 
 
157
 
De esta forma: 
 
Una variable que se distribuyePoisson se define como el número de veces que 
ocurre un evento en un intervalo de tiempo o en un espacio dado. Se denota como: 
 X ∼ P (λ) 
 
Se lee: la variable12 X se distribuye Poisson con parámetro lambda. Donde lambda 
(λ), es el número promedio de ocurrencias por unidad de tiempo. A la vez que 
constituye el valor esperado y la varianza de la distribución. 
 E(X)= λ V(X)= λ 
Esta distribución es una aproximación a la Binomial para el caso de n muy grande 
y p muy pequeña de forma tal que λ = np no sea una magnitud grande. Se 
plantea que la aproximación es buena cuando np ≤ 5. 
Existen fórmulas para calcular la probabilidad de cualquier número de eventos, 
pero no es necesario que la utilice, en la práctica se emplean los valores tabulados 
para diferentes valores de lambda, que podrá encontrar en la bibliografía citada al 
final del tema. Ilustremos con un ejemplo. 
Ejemplo 7 
El número de personas que acuden al cuerpo de guardia de un policlínico, con 
crisis aguda de asma bronquial, entre las 12 de la noche y las 6 de la mañana, 
constituye una variable aleatoria que sigue aproximadamente un proceso Poisson. 
El parámetro lambda, en este caso, está determinado por el número promedio de 
casos por intervalo, el cual se obtiene de la observación anterior de ese fenómeno. 
Esta información es útil para la dirección de dicho centro, pues conociendo las 
probabilidades de ocurrencia de k número de casos por intervalo de tiempo 
pueden planificar el abastecimiento de medicamentos destinados al tratamiento de 
esta enfermedad, además de hacer pronósticos y predicciones. 
3.6 La distribución normal. 
Hasta el momento hemos visto distribuciones de probabilidad discretas, veamos a 
continuación algunas distribuciones de variables continuas, entre las que la 
distribución normal constituye la más empleada en estadística. 
La mayoría de las variables continuas que se presentan en la práctica diaria (peso, 
talla, colesterol sanguíneo, presión arterial, etc.), pueden ser modeladas mediante 
esta distribución13, a pesar de que ellas no siguen exactamente una distribución 
 
12 Se habrá fijado que usamos casi siempre la letra X para denotar a las variables, 
esto lo hacemos por comodidad, cuando se trabaja con más de una variable en un 
mismo ejercicio entonces es necesario diferenciar. 
13 Streiner y Norman (1998) plantean que las distribuciones estrictamente 
normales son tan raras en la naturaleza como los dientes de gallina. 
158
 
normal. Además, la ley normal tiene gran interés en estadística inferencial, pues 
sirve como modelo para describir la distribución muestral de las medias, como 
veremos en los temas siguientes. También, muchos de los estadígrafos 
empleados en los contrastes de hipótesis, que trataremos en temas posteriores, 
siguen esta distribución, a la vez que muchos de los tests estadísticos que 
veremos, dan por supuesto que los datos provienen de una distribución normal. 
La distribución normal está definida como la función de distribución de 
probabilidad de una variable X, cuya representación gráfica se muestra en la figura 
1.6.1, y se denota por: 
 X ∼ N (µ, σ2 ) 
Donde: 
 µ es la media aritmética o valor esperado 
σ2 es la varianza 
 
Figura 1.6.1 – Representación gráfica de la función de densidad de la 
distribución Normal. 
Como se aprecia en la figura 1.6.1, la curva normal tiene forma de campana y 
como toda función de densidad de probabilidad el área bajo la curva es igual a 1. 
De aquí podemos deducir las características fundamentales de esta distribución: 
1. Es simétrica respecto a la media 
2. Tiene su punto máximo en la media 
3. La media, la mediana y la moda son iguales entre sí 
4. El área total bajo la curva es igual a 1 y como es simétrica, el 50% del área 
está a la derecha e izquierda de la media. 
5. Siempre es positiva 
6. Las colas de la curva están cada vez más próximas al eje x a medida que 
nos alejamos de la media, pero nunca lo alcanzan. 
7. Si se levantan dos perpendiculares a una distancia de una desviación 
estándar desde la media hacia ambos lados, el área delimitada por la curva, 
el eje x y las perpendiculares será aproximadamente del 68%. Si hacemos 
159
 
lo mismo pero con dos desviaciones estándar, el área será 
aproximadamente del 95%. 
8. Los parámetros µ (mu) y σ (sigma), determinan completamente la forma de 
la distribución. Para cada valor de µ y σ habrá una distribución normal 
diferente. Así vemos en la figura 1.6.2 que diferentes valores de µ, 
trasladan la curva horizontalmente sobre el eje X, mientras que σ, 
determina el grado de apuntamiento de la curva (a menor desviación 
estándar, menos dispersión alrededor de la media y por lo tanto más alta la 
curva) figura 1.6.3. 
 
 
 
Figura 1.6.2 – Tres distribuciones normales con diferentes medias pero 
igual variabilidad. 
 
 
Figura 1.6.3 - Tres distribuciones normales con diferentes desviaciones 
estándar y con la misma media. 
Para calcular áreas bajo la curva normal y así calcular las probabilidades de que la 
variable X tome valores en un intervalo dado, se hace necesario el uso de 
integrales. Pero en la práctica esto se hace fácilmente utilizando tablas 
estadísticas. 
Como podrá suponer, no existen tablas para cada una de las posibles 
distribuciones que se pueden presentar en la práctica, la solución a esta 
problemática es la existencia de una distribución normal especial, llamada Normal 
160
 
estándar o típica, que se caracteriza por tener media cero y varianza uno, figura 
1.6.4. Ésta se denota por: 
 X ∼ N (0, 1) 
Los valores de probabilidad para esta distribución se encuentran tabulados, y a 
partir de ella se pueden obtener los valores correspondientes a cualquier otra 
distribución normal, mediante la estandarización. La tabla A del Apéndice, es una 
muestra de estas tablas. 
Figura 1.6.4 - Áreas bajo la curva normal estándar. 
Así, cualquier variable aleatoria que se distribuya aproximadamente normal, puede 
ser estandarizada y transformada en una normal estándar, mediante la siguiente 
fórmula: 
σ
µ−
=
XZ ~ N (0, 1) 
Entonces, a cada valor de X se le hace corresponder un valor de la distribución 
normal estándar cuyas probabilidades son equivalentes, ya que: 
 X ~ ( )
σ
µ−
=⇒σµ
XZN 2, ~ N (0, 1) 
A continuación, veremos varios ejemplos de cálculo de probabilidades utilizando la 
tabla de valores de la normal estándar, pero antes debe recordar, que en la 
distribución normal, como en toda distribución continua, la probabilidad para un 
valor específico de X es cero, lo que se halla es la probabilidad para intervalos. 
Así tenemos, que se pueden calcular las probabilidades de que la variable X tome 
valores en un intervalo (a, b), P(a ≤ X ≤ b), o para cualquier otro intervalo, por 
ejemplo P(X≤a), P(X≤b), P(X≥a), etc. Algunas de las cuales se encuentran 
representadas en la figura 1.6.5. 
161
 
Figura 1.6.5 – Subdivisiones del área bajo la curva normal 
Ilustremos el uso de la tabla A del Apéndice. En esta tabla se muestra el área a la 
derecha de cualquier valor que tome la variable Z (normal estándar), como se 
representa en la figura adjunta a la tabla. Vemos que la columna de la izquierda, 
se corresponde con los valores de z, mientras que en la derecha, encontramos 
los valores correspondientes al área bajo la curva, a la derecha de z. Fíjese que le 
damos los valores de z solo con un decimal, pero debe saber que existen tablas 
mucho más explícitas. 
Veamos, si queremos conocer el área a la derecha de z = 0.1, miramos en la 
columna derecha que le corresponde un valor de 0.4602, este se interpreta como 
la probabilidad de que la variable Z tome valores mayores o iguales que 0.1, P(Z ≥ 
0.1). 
Ahora, si quisiera saber ¿cuál es la probabilidad de valores menores o iguales a 
0.1, P (Z ≤ 0.1)?, que problema, la tabla no tiene esa información. Ah! Sabe como 
resolvemos esto, muy simple, recuerde que esta es una distribuciónsimétrica, 
además el área bajo la curva es igual a 1, entonces: 
 P (Z ≤ 0.1) = 1- P(Z ≥ 0.1) 
 P (Z ≤ 0.1) = 1- 0.4602 = 0.5398 
Otro problema, la tabla solo da los valores para Z ≥ 0, ¿cómo calcular el área a la 
derecha de un valor de Z negativo?. Nada complicado, ya sabe que se trata de 
una distribución simétrica y que a ambos lados de la media se encuentra el 50% 
del área, por lo tanto: 
 P(Z ≤ -z)= P(Z ≥ z) 
Entonces P(Z ≤ -0.1) = 0.4602 
Mire que curioso, la probabilidad de Z menor que –0.1 es igual a la probabilidad 
de Z mayor que 0.1, esto lo verá mejor en la figura 1.6.6 
Ahora, la probabilidad de Z mayor que – 0.1 es igual a la probabilidad de Z menor 
que 0.1. Parece un trabalenguas, pero si se fija en las figuras entenderá 
perfectamente. 
P(Z ≥ -0.1) = P(Z ≤ 0.1) 
 
162
 
 
 
Figura 1.6.6 Distribución normal estándar 
 
A modo de resumen le doy algunas reglas básicas para esta tabla14. 
 
 P(Z ≥ z) = valor tabulado 
 P(Z ≤ z) = 1 – P(Z ≥ z) 
 P(Z≥ - z) = P(Z ≤ z) 
 P(Z ≤ - z) = P(Z ≥ z) 
Estas sólo son algunas reglas que te brindamos, pero existen muchas otras 
formas de obtener los mismos resultados, debes usar tu sentido común e 
improvisar. Juguemos un poco con la tabla para que te entrenes en su uso: 
 Probabilidad de que Z sea menor que 1: Es el área a la izquierda de 1, se 
denota como: 
 P(Z ≤ 1) = 1- P(Z ≥ 1) = 1-0.1587 = 0.8413. 
Se representa en la figura 1.6.7 
 Probabilidad de Z mayor que 2 pero menor que 3: 
P(2 ≤ Z ≤ 3) = P(Z ≥ 2) – P(Z ≥ 3) 
Es decir, necesitamos el área entre la curva, el eje x y dos perpendiculares en los 
valores 2 y 3. La tabla da el área total a la derecha de z = 2, entonces le resto el 
“pedacito” correspondiente al área a la derecha de z = 3 y obtengo el área entre 2 
y 3. Figura 1.6.8 
P(2 ≤ Z ≤ 3) = 0.02275 – 0.00135 = 0.0214 
 Probabilidad de Z mayor que –1 y menor que 1.5: 
P(-1 ≤ Z ≤ 1.5) = P(Z ≥ -1) – P(Z ≥ 1.5) 
 =1 - P(Z ≥ 1) - P(Z ≥ 1.5) 
 
14 Si utiliza otra tabla puede ser diferente, esto depende del área que esté 
tabulada, si la izquierda o la derecha. A la vez que domina una, entiende 
cualquiera. 
163
 
 =1 – 0.1587 – 0.0668 = 0.7745 
 Ver figura 1.6.9 
Ahora ya puede calcular probabilidades de otras distribuciones normales, es decir, 
estandarizando las variables. 
 
 
Figura 1.6.7 Probabilidades de (Z ≥ 1) y (Z ≤ 1) 
 
 
 Figura 1.6.8 – Curva normal estándar. Probabilidad de (2 ≤ Z ≤ 3) 
 
 Figura 1.6.9 – Curva normal estándar. P(-1≤ Z ≤ 1.5) 
Ejemplo 9 
Se conoce que las cifras de glucosa en sangre tienen una distribución 
aproximadamente normal, con media 100 (mg/100 mL) y desviación estándar 40. 
164
 
¿Cuál es la probabilidad de que al seleccionar una persona de dicha población 
tenga su nivel de glucosa por encima de 120? 
Primero, la variable X se define como el nivel de glucosa en sangre de las 
personas. Ésta se distribuye normal: 
 X ~ N(100, 1600) 
Nos piden la probabilidad de X mayor que 120: P(X ≥ 120). Tenemos que 
estandarizar la variable: 
 Z = (120 – 100) /40 = 20/40 = 0.5 
Entonces la P(X ≥ 120) = P (Z ≥ 0.5) y por lo tanto: 
 P(X ≥ 120) = 0.3085 
R/ La probabilidad de que al seleccionar una persona de dicha población su nivel 
de glicemia sea mayor que 120 es del 30.85 %. Figura 1.6.10 
 
Figura 1.6.10 – Equivalencia entre el área de la curva normal (0, 1) y la 
normal (100,1600) 
 
Aunque la importancia de esta distribución en el campo de la estadística es 
indiscutible, podrás darse cuenta que no es una ley inherente a todas las variables 
continuas que conoces. A pesar de que muchas de ellas tienen una distribución 
aproximadamente normal, no es posible encontrar en la naturaleza una 
distribución exactamente normal, no obstante al utilizar la ley normal para modelar 
estas variables, es posible establecer afirmaciones de probabilidad más útiles y 
convenientes que si empleáramos una distribución más compleja. 
Relación entre la distribución Normal, Binomial y de Poisson. 
Cuando en una distribución Binomial n es grande y p y q no están muy cercanas a 
cero, ésta puede aproximarse a la distribución normal, lo que facilitaría 
enormemente los cálculos de probabilidades asociadas. Observe en la figura 1.3.2 
que si unimos los extremos superiores de cada barra vertical, obtenemos una 
curva parecida a la normal. 
165
 
Entonces, en la medida que n aumenta y p se mantiene constante, la 
aproximación será cada vez mejor. De forma general se plantea que hay buena 
aproximación cuando n es mayor o igual que 30. Si p está cercana a 0.5, se 
considera bueno un tamaño muestral incluso mayor que10, en la medida que p se 
aleja de 0.5, se necesitarán mayores tamaños muestrales. 
Ahora bien, sabemos que la distribución de Poisson es una aproximación a la 
Binomial cuando n es grande y p es pequeña, por lo tanto también puede ser 
aproximada a la normal. 
3.7 Otras distribuciones de probabilidad. 
Además de las distribuciones ya estudiadas, existen otras de amplio uso en 
estadística inferencial, entre las que se destacan la t de Student y la Ji cuadrado 
(χ2), muy usadas ambas en la realización de pruebas de hipótesis y en la 
construcción de intervalos de confianza, como veremos más adelante. 
 A continuación abordaremos, brevemente, las características principales de cada 
una de ellas. 
La distribución Ji cuadrado (χ2) 
Esta distribución deriva de la distribución normal. Surge cuando tenemos n 
variables independientes, que siguen aproximadamente una distribución normal 
estándar (X1, X2,.., Xn). La variable resultante de sumar los cuadrados de éstas, 
sigue una distribución Ji cuadrado con n grados de libertad. Se denota como. 
 X ∼ χ2 (n gl) 
Su representación gráfica puede verse en la figura 1.7.1, para diferentes grados de 
libertad. 
166
 
No necesariamente deben ser distribuciones normal estándar, también pueden ser 
variables estandarizadas. 
 
Figura 1.7.1 Representación gráfica de la función de densidad de la distribución Ji 
cuadrado para diferentes grados de libertad. 
Se trata de una función positiva, no puede tomar valores negativos, pues como 
podrá suponer, se deriva de la suma de valores elevados al cuadrado. Su forma 
depende de los grados de libertad, con tendencia a aproximarse a la curva normal 
en la medida que aumentan los grados de libertad. Al igual que la normal y 
cualquier distribución continua, el área bajo la curva es igual a 1, pero no es 
simétrica. 
Su valor esperado y varianza son: 
 E(χ2) = n y V(χ2) = 2n 
Los grados de libertad se refieren, al número de términos independientes que es 
necesario, para obtener el valor de la variable χ2. 
Una propiedad importante, es que la Ji cuadrado con un grado de libertad, es igual 
al cuadrado de la normal estándar. 
Esta distribución es muy empleada para probar hipótesis, cuando los datos están 
en forma de frecuencias. Estos procedimientos se estudian bajo el título de 
pruebas de bondad de ajuste, como verá en cursos posteriores. Siendo más 
adecuado su uso, cuando estamos en presencia de variables categóricas. 
La cantidad χ2, es una medida del grado de congruencia entre las frecuencias 
observadas y las esperadas, bajo el cumplimiento de una hipótesis dada, esto lo 
entenderá mejor cuando veamos la aplicación concreta de dicha distribución. 
167
 
Por ahora, baste que conozca que existen tablas con los valores de los percentiles 
de esta distribución, para diferentes magnitudes de n. La tabla C del Apéndice es 
un ejemplo de éstas. Como puede ver están representados los valores de algunos 
percentiles15 de χ2 para diferentes grados de libertad. Por ejemplo, el percentil 95 
de la χ2 con 12 gl = 21.0 
La distribución t de Student. 
Este modelo teórico, al igual que la Ji cuadrado, se deriva del modelo normal, pero 
es un proceso algo complejo. Se denota por la letra t minúscula, y su forma 
gráfica se representa en la figura 1.7.2. 
 
Figura 1.7.2 – Función de densidadde la distribución t de Student con un grado de 
libertad. 
Como puede ver es muy similar a la curva normal estándar, pero más dispersa, su 
media también es cero. Es simétrica respecto a la media, su forma depende de los 
grados de libertad, así en la medida que aumentan los grados de libertad mayor es 
la aproximación a la normal. Los grados de libertad tienen el mismo significado 
que en la Ji cuadrado. 
Puede tomar valores tanto positivos como negativos, y al igual que toda 
distribución continua, el área bajo la curva es igual a uno. 
Su valor esperado y varianza: 
 E(t) = 0 y V(t) = 
2n
n
−
 
Al igual que la Ji cuadrado existen tablas con los percentiles de ella, los que son 
empleados en las pruebas de hipótesis y en la construcción de intervalos de 
confianza. La tabla B del Apéndice es un ejemplo de estas tablas, en ella se 
muestran los valores de la distribución t para diferentes grados de libertad, 
 
15 Los más frecuentemente usados para pruebas de hipótesis. 
168
 
correspondientes a los percentiles más empleados en inferencia estadística, 
veremos su uso en la medida que sea necesario y así se entenderá mejor. 
 
Bibliografía 
1. Armitage P, Berry G. Statistical Methods in Medical Research. 3rd ed. 
Oxford: Blackwell Scientific Publications, 1994 
2. Altman DG. Practical statistics for medical research. London: Chapman 
and Hall. 1992 
3. Daniel WW. Bioestadística. Base para el análisis de las ciencias de la 
salud. 3ra edición. México. D. F: Limusa; 1997 
4. Norman GR, Streiner DL. Bioestadística. España: Hartcourt Brace; 1998 
5. Spiegel MR. Teoría y problemas de Estadística. La Habana: Pueblo y 
educación; 1977 
6. Doménech Massons, JM. Métodos estadísticos en ciencias de la salud. 
Unidad didáctica 3. Barcelona: Signo; 1995 
7. Swinscow, TVD. Statistics at square one. 9th edition. BMJ publishing 
group; 1997 
8. Dawson-Saunders B, Trapp R G. Bioestadística. 2da ed. El manual 
moderno. México; 1999. 
9. Mtnez Canalejo H. Principios Básicos de la Teoría de Probabilidades. 
Ed. Pueblo y Educación. La Habana; 1989 
10. Armitage P, Berry G. Estadística para la Investigación Biomédica. 
Doyma, Barcelona, 1992. 
11. Hamilton LC. Modern Data Analysis. Brooks/Cole Publishing Company, 
Pacific Grove, 1990. 
12. Martín Andrés A, Luna Del Castillo JD. Bioestadística para las Ciencias 
de la Salud. Norma, Granada, 1994. 
13. Marascuilo LA, Serlin RC. Statistical Methods for the Social and 
Behavioral Sciences. W.H. Freeman and Company, Nueva York, 1988. 
14. Versión electrónica del manual de la Universidad de Málaga. 
Bioestadística: métodos y aplicaciones. Málaga; 1998. 
 
 
 
169
 
 
 
 
 
 
Tema 4 - Introducción a la Inferencia Estadística 
 
Generalmente, al realizar un estudio se desea arribar a conclusiones acerca de la 
naturaleza de una población. Al ser la población grande y no poder ser estudiada 
en su integridad en la mayoría de los casos, las conclusiones obtenidas deben 
basarse en el examen de solamente una parte de ésta, lo que nos lleva, en primer 
lugar a la justificación, necesidad y definición de las diferentes técnicas de 
muestreo, estudiadas en el tema anterior. Toca el turno al proceso de 
generalización, la inferencia estadística. 
La inferencia estadística es el procedimiento por medio del cual se llega a 
conclusiones acerca de una población mediante los resultados que se obtienen a 
partir de una muestra extraída de ella. 
Pero, existe un inconveniente a la hora de dar estas conclusiones: el error 
aleatorio. Cualquier medición basada en una muestra de individuos presentará 
alguna diferencia respecto del verdadero valor como consecuencia de la 
aleatoriedad del proceso. 
El investigador solo estudia una de las posibles muestras que pueden obtenerse 
de la población objeto de estudio. Y en cada una de éstas, la variable de interés 
puede presentar diferentes valores simplemente por azar. Las técnicas 
estadísticas se basan en el hecho de que esta variabilidad propia del muestreo, 
sigue unas leyes conocidas, por lo que puede ser cuantificada. 
La Estadística inferencial permite determinar la probabilidad de que una 
conclusión sacada a partir del análisis de los datos de una muestra sea cierta, 
siempre que se hayan utilizado métodos apropiados para la selección de la 
muestra. 
En este tema introducimos los elementos de estadística inferencial necesarios 
para realizar este proceso de generalización de la muestra a la población, que se 
aplicarán a dos indicadores particularmente sencillos y muy empleados: la media y 
la proporción. 
Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M. 
Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129. 
170
 
4.1 - Distribuciones muestrales. 
El primer término al que debemos hacer referencia es el de estimador. 
Dentro de este contexto, será necesario asumir un estimador como una variable 
aleatoria con una determinada distribución, que se expresa en función de la 
muestra estudiada, con el objetivo de aproximar el valor de un parámetro 
poblacional desconocido; y que será la pieza clave en las dos amplias categorías 
de la inferencia estadística: la estimación y el contraste o prueba de hipótesis. 
El concepto de estimador, como herramienta fundamental, lo caracterizamos 
mediante una serie de propiedades que nos servirán para elegir el ``mejor" para 
un determinado parámetro de una población, así como algunos métodos para la 
obtención de ellos, tanto en la estimación puntual como por intervalos. Esto lo 
veremos más adelante. 
Es de vital importancia que entiendas claramente en qué consisten las 
distribuciones muestrales, ya que este concepto es la clave para comprender la 
inferencia estadística. Así pues, la distribución muestral de un estimador se ha 
definido como sigue. 
 
 
La distribución de frecuencias de todos los valores posibles que puede asumir un 
estimador, calculados a partir de muestras del mismo tamaño, extraídas 
aleatoriamente de la misma población, se llama distribución muestral de ese 
estimador. 
 
 
Podemos referirnos a una distribución de medias, de proporciones, de varianzas, 
etc. 
Las distribuciones muestrales pueden construirse empíricamente a partir de 
poblaciones finitas y discretas. Mediante el siguiente procedimiento: 
1. De una población finita de tamaño N, se extraen de manera aleatoria 
todas las muestras posibles de tamaño n. 
2. Se calcula el estimador de interés para cada muestra. 
3. Se listan en una columna los diferentes valores observados del 
estimador y en otra columna las frecuencias correspondientes de cada 
valor observado. 
 
171
 
Como es de suponer, esto en la práctica es una tarea colosal y en el caso de 
poblaciones infinitas es imposible. Por tanto este problema debe ser resuelto por 
medio del uso de la Matemática. Pero no se asuste que los procedimientos 
aplicados para ello no vamos a analizarlos en este texto. Baste saber que las 
distribuciones muestrales pueden deducirse matemáticamente. 
Ahora bien, para cualquier distribución de probabilidad se tiene interés en conocer 
tres cosas básicas: su valor esperado (media), la varianza y su apariencia gráfica. 
En este punto cabe señalar que todos los procedimientos de estadística inferencial 
se basan en el supuesto de muestreo simple aleatorio, sin importar que se haya 
empleado otro método de selección, lo que se considera por algunos como una 
deficiencia de esta rama de la estadística, y en estos momentos se encuentra en 
proceso de discusión y análisis por los grandes estadísticos. Dejemos que ellos se 
ocupen de ese problema y sigamos nosotros con nuestro tema. 
Pues bien, dado que se trata de muestras elegidas al azar, lo más frecuente es 
que los valores promedio observados (proporción p y media x ) sean valores 
cercanos a los verdaderos parámetros de la población (proporción π y media µ). 
No obstante, el error aleatorio propio del muestreoproduce algunas muestras con 
valores de p y x alejadas de π y µ respectivamente. 
Note que a los valores muestrales de la variable se les denota por letras romanas 
mientras que a los parámetros poblacionales con letras griegas, esto evita 
confusiones y favorece la comprensión de los conceptos que se definirán más 
adelante. 
En el siguiente cuadro se brinda una lista de la nomenclatura utilizada. 
 
Término 
estadístico Muestra Población 
Media x µ (mu) 
Proporción p π (pi) 
Desviación 
estándar s 
 σ (sigma) 
Diferencia D δ (delta) 
 
Esperamos que sirva de guía y no haya confusión a lo largo del tema, a partir de 
ahora emplearemos esta nomenclatura. 
 
172
 
4.1.1 - Distribución muestral de la media. 
 
Apliquemos el concepto de distribución muestral, introducido anteriormente, al 
caso concreto de la media muestral. 
 
La distribución de frecuencias de las medias x observadas en todas las muestras 
posibles de tamaño n, extraídas al azar de una población de media µ y varianza σ2 
conocidas, recibe el nombre de distribución muestral de medias. 
 
 
Como vimos en el tema anterior, la media muestral bajo el supuesto de muestreo 
sucesivo de tamaño n de una población con N elementos, se convierte en una 
variable aleatoria que sigue una distribución normal. 
 x ∼ N ( µ,
n
2σ ) 
 
Esta distribución tiene las siguientes características: 
 
1. Su valor esperado es igual a la media poblacional 
E ( x ) = µ 
2. Su varianza es igual a: 
 Var ( x ) = 
n
2σ 
3. El error estándar de la media muestral viene dado por: 
 
EE x = 
nn
σσ
=
2
 
4. Su representación gráfica se muestra a continuación en la figura 4.1.1. 
 
 
Figura 2.1.1 – Distribución de la media muestral y la respectiva distribución 
normal. 
173
 
En la medida que aumenta el tamaño de muestra la variabilidad de la media tiende 
a disminuir y por lo tanto la curva tiende a ser más aguda. 
Es importante señalar que la media muestral sigue una distribución normal cuando 
la distribución de la variable en la población sigue una ley normal, y cuando el 
tamaño de muestra n es grande aunque la distribución de la variable en la 
población no siga una ley normal. Esto se debe al teorema central del límite, que 
explica las leyes de los errores causales, según la cual, cuando el error asociado a 
un determinado fenómeno es el resultado de muchos errores independientes, se 
observa que la distribución de ese error es parecida a la ley normal. Esta ley fue 
descubierta por De Moivre. 
El significado de la distribución de De Moivre reside en que la suma de una gran 
cantidad de variables aleatorias independientes, arbitrariamente distribuidas, 
siempre tiene una distribución aproximadamente normal. La distribución de dicha 
suma será más cercana a la normal cuanto mayor sea el número de variables 
aleatorias. 
Este teorema constituye la razón por la cual muchas distribuciones muestrales 
pueden aproximarse por la ley normal a partir de un cierto tamaño de muestra. 
Al llegar a este punto surge una pregunta lógica. ¿Cuán grande debe ser la 
muestra para que el teorema central del límite sea aplicable? Una regla empírica 
establece que, en la mayoría de las situaciones prácticas, una muestra de tamaño 
30 es suficiente. 
El conocimiento de la distribución muestral de la media y de sus características, es 
muy importante cuando se desea realizar inferencias a partir de medias, ya sea 
comparar las medias de dos poblaciones o comparar una media con una magnitud 
específica, como veremos en las próximas secciones. 
4.1.2 Distribución muestral de la proporción 
Ya vimos el caso en que la variable era continua y por tanto el estadístico de 
interés era la media, veamos ahora cuando estamos interesados, como sucede 
frecuentemente, en una característica categórica, siendo la proporción muestral el 
estadístico para estas situaciones. 
La distribución muestral de la proporción se puede obtener experimentalmente de 
la misma forma que vimos para la media. Lo cual prácticamente no se realiza, 
claro está. 
174
 
Así tenemos que: 
 
El conjunto de los valores de una proporción p, observados en todas las posibles 
muestras de tamaño n, extraídas aleatoriamente, de una población de N
elementos con proporción π, recibe el nombre de distribución muestral de la 
proporción. 
 
 
Esta distribución sigue una ley Binomial con las siguientes características: 
 
1. Su valor esperado es igual a la proporción poblacional 
 E (p) = π 
2. Su varianza es igual a: 
 Var (p) = ( )
n
ππ −1 
3. El error estándar de la proporción p está dado por: 
 
EEp = ( )
n
ππ −1 
 
Pero, cuando la muestra es grande, la distribución de las proporciones de la 
muestra es aproximadamente normal de acuerdo al teorema central del límite. 
Considerándose en la práctica que la distribución de las proporciones muestrales 
observadas se aproxima satisfactoriamente a una ley normal de media π y 
varianza ( )
n
ππ −1 , si el tamaño muestral cumple que nπ ≥ 5 y n (1- π) ≥5. 
De aquí se deduce que en la medida que π se acerque a 0.5 el tamaño de muestra 
necesario será menor que cuando está cerca de 0 o de 1. De forma general se 
considera adecuado un tamaño muestral de 50 o más. 
Al igual que en el caso de la media, el conocimiento de todos estos elementos 
son muy útiles al hacer inferencias sobre proporciones, como veremos en las 
próximas líneas. 
4.1.3 – Distribución muestral de la diferencia entre medias y proporciones. 
 
Vimos las distribuciones de la media y la proporción, pero resulta de interés 
conocer que sucede con las diferencias entre medias y entre proporciones. Es 
muy simple, veamos. 
A menudo estamos interesados en comparar dos poblaciones en cuanto a una 
variable en particular. Cuando ésta es continua estamos entonces interesados en 
175
 
la diferencia entre las medias de dicha variable para ambas poblaciones, si la 
variable es categórica, entonces nos interesa la diferencia entre las proporciones 
correspondientes, es decir. 
 )( 21 xx − y ( p1 - p2 ) respectivamente. 
Ahora bien, estas diferencias bajo el supuesto de muestreo sucesivo del mismo 
tamaño16, de cada población, se comportarán como variables aleatorias que 
siguen una distribución de probabilidades conocida. 
En el caso de las medias, sigue una distribución normal con media igual a la 
diferencia entre ellas a escala poblacional (µ1 - µ2) y varianza igual a la suma de 
las varianzas de cada media: 
 )( 21 xx − ∼ ( ) ⎟⎟
⎠
⎞
⎜
⎜
⎝
⎛
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛ σ
+
σ
µ−µ
2
2
2
1
2
1
21 ,N nn
 
De forma análoga, en el caso de las proporciones tenemos que sigue una 
distribución aproximadamente normal si los tamaños muestrales n1 y n2 son 
grandes. 
 (p1 – p2) ∼N ( )
( ) ( )
⎟⎟
⎟
⎠
⎞
⎜⎜
⎜
⎝
⎛
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛ π−π
+
π−π
π−π
2
22
1
11
21
11
,
nn
 
4.2 - Estimación de parámetros. 
 
En esta sección analizaremos la estimación, que es la primera de las dos áreas 
generales de la Estadística inferencial, la segunda, pruebas de hipótesis, la 
estudiaremos en la próxima sección. 
El proceso de estimación implica calcular, a partir de los datos de una muestra, 
algún estadístico que se ofrece como una aproximación del parámetro 
correspondiente de la población de la cual fue extraída la muestra (media, 
proporción, etc.). 
Un parámetro es cualquier indicador descriptivo de una población. 
Como vimos anteriormente, se denomina estimador de un parámetro, a la variable 
aleatoria calculada a partir de la muestra aleatoria y que tiene por objetivo 
aproximar el valor del parámetro poblacional desconocido. 
 
16 Se refiere al mismo tamaño de muestra para cada población, pudiendo ser 
diferentes de una población a la otra. 
176
 
Observe que el estimador no es un valor concreto sino una variable aleatoria, ya 
que aunque depende unívocamente de los valores de la muestra observados, la 
elección de la muestra es un proceso aleatorio.Una vez que la muestra ha sido 
elegida, se denomina estimación al valor numérico que toma el estimador sobre 
esa muestra. 
Entre las características deseables para esta nueva variable aleatoria (que 
usaremos para estimar el parámetro desconocido) tenemos las siguientes: 
− Consistencia: Cuando el tamaño de la muestra crece arbitrariamente, el 
valor estimado se aproxima al parámetro desconocido. 
− Carencia de sesgo: El valor medio que se obtiene de la estimación para 
diferentes muestras debe ser el valor del parámetro. 
− Eficiencia: Al estimador ser una variable aleatoria, no puede exigírsele 
que para una muestra cualquiera se obtenga como estimación el valor 
exacto del parámetro. Sin embargo podemos pedirle que su dispersión 
con respecto al valor central (varianza) sea tan pequeña como sea 
posible. 
− Suficiencia: El estimador debería aprovechar toda la información 
existente en la muestra. 
 
Veremos que es posible calcular dos tipos de estimaciones para cada uno de 
estos parámetros: una estimación puntual y una estimación por intervalos. 
 
 
Una estimación puntual es un solo valor numérico empleado para estimar el 
parámetro correspondiente de la población. 
 
 
Una estimación por intervalos o confidencial consta de dos valores numéricos 
que definen un intervalo que, con un grado de confianza específico, se considera 
que incluye al parámetro por estimar. 
 
 
Este parámetro será habitualmente una proporción en el caso de variables 
dicotómicas, y la media o la varianza para variables continuas. 
4.2.1 Estimación puntual 
 
La estimación puntual es muy simple, consiste en escoger el mejor estimador para 
el parámetro en cuestión. 
La media de la muestra, la proporción de la muestra, la diferencia entre las medias 
de dos muestras y la diferencia entre las proporciones de dos muestras, son cada 
177
 
uno de ellos estimadores insesgados de sus parámetros correspondientes. Esta 
propiedad está implícita cuando se dijo que los parámetros eran las medias de las 
distribuciones muestrales correspondientes. Por lo que se les considera como la 
estimación puntual de cada uno de estos parámetros. 
Ahora bien, es muy importante considerar aquí algo que vimos en el tema anterior, 
y es la diferencia que existe entre población objeto y población muestreada. La 
población objeto es la que realmente se desea estudiar, mientras que la 
muestreada es de la que se extrajo la muestra, no siempre ambas coinciden, 
desafortunadamente. Los procedimientos de inferencia estadística permiten inferir 
respecto a la población muestreada (siempre y cuando se hayan empleado 
técnicas de muestreo correctas). Por lo que esto debe ser tenido muy en cuenta a 
la hora de hacer las estimaciones. 
4.2.2 Estimación confidencial (por intervalo). 
 
La técnica de la estimación confidencial consiste en asociar a cada muestra un 
intervalo que se sospecha que debe contener al parámetro. A éste se le denomina 
intervalo de confianza. 
La estimación confidencial ofrece una información más amplia que la simple 
estimación puntual, lo cual suele ser muy ventajoso. Por ejemplo, dos 
investigadores estiman la proporción de fumadores de la población donde reside 
cada uno, construyen los siguientes intervalos de confianza (IC) al 95%: 
 Población A (56,4%; 63.6%) 
 Población B (23.5%; 96.5%) 
 
En ambos casos la estimación puntual es del 60% (punto medio del intervalo), sin 
embargo en la población A la estimación es mucho más precisa que en la B donde 
la proporción de fumadores es un valor del amplio rango que va desde un 23.5% 
hasta un 96 %. Si nos hubiéramos referido solamente a la estimación puntual 
podíamos haber pensado que en ambas poblaciones la prevalencia de fumar es 
similar. El IC nos ofrece además de la estimación puntual, información acerca de 
la precisión con que hicimos nuestra estimación. 
Evidentemente esta técnica no tiene por qué dar siempre un resultado correcto. A 
la probabilidad de que hayamos acertado al decir que el parámetro estaba 
contenido en dicho intervalo se la denomina nivel de confianza. 
En la sección siguiente abordaremos el procedimiento para la construcción de IC 
para los parámetros más usados. De esta forma se podrá comprender mejor los 
conceptos antes expuestos. 
178
 
4.3 Intervalos de confianza 
 
Ya vimos en la sección anterior que la estimación de parámetros poblacionales 
puede hacerse tanto de forma puntual como por intervalos, siendo esta segunda 
forma más informativa es la preferida por muchos investigadores. A continuación 
veremos cómo se pueden construir estos IC para algunos parámetros. 
Los Intervalos de Confianza se construyen con la información obtenida en la 
muestra estudiada, utilizando la estimación puntual de dicho parámetro, teniendo 
en cuenta el error aleatorio o de muestreo y por supuesto la distribución muestral 
del estimador. 
4.3.1 Intervalo de confianza para la media 
 
Si conocemos la media x , de una determinada variable continua, observada en 
una muestra, sabemos que este valor es la mejor estimación puntual del 
parámetro µ. No obstante, es deseable conocer su precisión, es decir, lo próximo 
o alejado que x puede estar del verdadero valor µ. Como sabemos, la precisión 
depende fundamentalmente del tamaño muestral: cuanto mayor sea el tamaño de 
la muestra, más precisa será la estimación, y también depende de la variabilidad 
de los datos, σ2. 
Así pues, la estimación puntual de µ, y de cualquier parámetro, debe ir 
acompañada de su precisión e, indicadora de las posibles diferencias entre el 
valor estimado y el verdadero valor del parámetro. 
De esta forma, el intervalo de confianza 1- α del parámetro µ, es el intervalo x ± e 
alrededor de la estimación puntual x , que tiene una probabilidad grande (1- α) de 
contener en algún punto del intervalo la desconocida µ. 
Al valor 1- α, se le llama confiabilidad o nivel de confianza, suele ser 
considerada como 0.95 (95%) o mayor, pues en estadística por convenio, se 
considera que una probabilidad es grande cuando su valor es igual o superior a 
0.95. Por su parte, el valor es un indicador del riesgo de que el intervalo de 
confianza no contenga el verdadero valor del parámetro µ, fijándose 
habitualmente en 0.05 (5%), α se denomina nivel de significación. 
Recordemos que el error estándar de la media se define como: 
 EE x = n
σ 
Y que el error de muestreo e se define, en este caso, como: 
179
 
 e = 
n
Z σα 2 
De aquí que el IC para µ esté dado por: 
 x ± e ⇒ x ± 
n
Z σα 2 
Donde Zα/2 es el valor de la distribución normal estándar que se corresponde con 
un área a su izquierda igual a α/2, es decir, el valor de Z para el que se cumple que: 
P (Z < z) = α/2. Este valor de Z recibe el nombre de percentil17 α/2. 
Figura 2.3.1 Percentiles α/2 y 1- α/2 de la distribución normal estándar. 
Veamos en la figura siguiente su representación gráfica. 
La distribución normal es simétrica respecto a la media, y en el caso de la normal 
estándar (µ=0) el percentil Zα/2 es igual al percentil Z 1 - α/2 solo con signos 
diferentes. 
-Z α/2 = Z 1 - α/2 
 
Por ejemplo, para un valor de α igual a 0.05 (5%), α/2 = 0.025, significa que el área 
bajo la curva normal a la izquierda de Zα/2 y a la derecha de Z1-α/2 es igual a 0.025. 
Si buscas en la tabla A del Apéndice podrás ver que a este valor de probabilidad 
le corresponde un valor de Z = -1.96 y 1.96 respectivamente, es decir los 
percentiles 2.5 y 97.5 de la distribución normal estándar. Veamos el gráfico de la 
figura 2.3.2. 
 
 
 
 
 
17 Los percentiles son aquellos valores de la variable que dividen a una serie 
ordenada de datos(en este caso la distribución) en 100 partes iguales, existiendo 
entonces 99 percentiles. 
180
 
 
Figura 2.3.2 – Áreas bajo la curva de la distribución normal estándar. 
 
Al área comprendida entre estos dos percentiles se le llama región de confianza, 
se correspondecon un IC al 95% para la normal estándar. 
Es decir, cuando construimos un IC con una confiabilidad de 100(1- α) %, significa 
que encontramos dos valores de esa distribución de manera tal, que entre ellos se 
encuentra el 100(1 - α) % de los valores que toma la variable. 
De forma similar puedes calcular los percentiles para otros valores de alfa, te 
adelanto que para α = 0.01, el valor correspondiente de Z es 2.58 (percentil 99.5). 
El procedimiento anterior para construir IC para la media, se basa en que la 
variable original sigue aproximadamente una distribución normal y que se conoce 
la varianza poblacional σ2. Esto en la práctica es casi imposible, es muy raro 
conocer la varianza poblacional y no conocer la media, pues ésta es necesaria 
para obtener la varianza. ¿Qué hacer?, gracias al teorema central del límite si la 
muestra es grande (≥30) garantizamos que la distribución de las medias 
muestrales sea aproximadamente normal, además el estadístico: 
 Z =
n/σ
µ-x 
utilizado para estandarizar la distribución de las medias muestrales, sigue una 
distribución normal, incluso en el caso de que no se conozca la varianza 
poblacional σ2, siempre que el tamaño muestral sea grande, en estos casos se 
sustituye el valor de σ2 por el de la varianza muestral s2. 
En aquellos casos en que la muestra sea pequeña, no se conozca la varianza 
poblacional σ2, y (o) la variable no sigue una distribución normal es necesario 
emplear otras fórmulas para construir el IC para la media, que involucran a la 
distribución t de Student. No se asuste que es muy similar a lo visto anteriormente, 
sería así: 
 x ± e ⇒ x ± t (1 - α / 2) 
n
s 
Como se ve, la diferencia radica en el uso de s sustituyendo a σ, y en lugar del 
percentil 1- α / 2 de la normal estándar usamos el mismo percentil pero de la 
distribución t de Student con n-1 grados de libertad. Veamos un ejemplo. 
181
 
Ejemplo 4.3.1 
 
Se ha medido el volumen diario de bilis, expresado en litros, en 10 individuos 
sanos, obteniéndose los siguientes resultados: 0,98; 0,85; 0,77; 0,92; 1,12; 
1,06; 0,89; 1,01; 1,21; 0,77. 
Estimemos la producción diaria media de bilis en individuos sanos suponiendo 
que la muestra ha sido obtenida por muestreo aleatorio simple sobre una 
población normal. 
 x = 9580
10
589 .. ==∑
n
x i 
 
 s2 = 
( )
02131.0
2
=
−∑
n
xXi
 
Por lo tanto el error estándar de la media es: 
 EE x = 04620
10
1460 .. ==
n
s 
Calculemos el error de muestreo, con una confiabilidad del 95%, teniendo en 
cuenta que se trata de una muestra pequeña y no conocemos la varianza 
poblacional: 
xEEte )/( ×= α− 21 = 2.2622 x 0.0462 = 0.1045 
 
El valor del percentil t 1 - α / 2, surge de buscar en la tabla B del Apéndice el valor 
correspondiente de la distribución t para 9 (n – 1) grados de libertad, que el área 
bajo la curva a su derecha es de (1 - α / 2), es decir, el percentil 97.5 para α igual a 
5% y por tanto una confiabilidad del 95 %. Como podrás observar en dicha tabla 
se muestran los valores de algunos percentiles de la distribución t para diferentes 
grados de libertad. 
Entonces un IC al 95% para la producción media de bilis poblacional será: 
 x ± e = 0.958 ± 0.1045 = (0.8535 ; 1.0625) 
 
Note que el IC es bastante estrecho lo cual habla a favor de su precisión, a menor 
amplitud mayor precisión. El error relativo es aproximadamente el 11% y se 
calcula: 
 %91.10100*
958.0
1045.0
= 
182
 
Se obtuvo esta precisión relativamente buena con tan pequeño tamaño muestral, 
porque la variabilidad de las observaciones es pequeña. Veamos otro ejemplo. 
Ejemplo 4.3.2 
Un investigador está interesado en estimar el nivel promedio de una enzima, en 
una población humana determinada. Para ello tomó una muestra de 25 sujetos y 
obtuvo una media muestral x =22. Se sabe que los niveles de esta enzima 
siguen una distribución normal con varianza σ2 = 45. 
Con esta información podemos construir un IC al 95 % para la media poblacional 
de dicha enzima. Podemos emplear la distribución normal pues se conoce la 
varianza poblacional y la variable se distribuye normal. Entonces: 
 EE x = 3416.125
45
==
n
σ 
 
 e = Z 1 - α / 2 x EE x = 1.96 x 1.3416 = 2.63 
 
 El IC al 95 % para µ será: 
 
 x ± e = 22 ± 2.63 = (19.37 ; 24.63) 
 
Siendo el error relativo del 12 % aproximadamente: 
 
 95.11100
22
63.2
=∗ ≈ 12 % 
 
¿Cómo se interpretan estos intervalos de confianza? En estos ejemplos en que la 
confiabilidad fue del 95 %, se dice que, al repetir el muestreo, aproximadamente el 
95% de los IC construidos mediante las fórmulas vistas, incluyen la media 
poblacional, esta es la interpretación probabilística. La interpretación práctica 
plantea que se tiene un 100(1 - α) % de confianza de que el intervalo único 
calculado, contenga la media poblacional. En el ejemplo 4.3.2 diremos que se 
tiene un 95 % de confianza de que el nivel medio poblacional de dicha enzima se 
encuentre entre 19.37 y 24.63. 
Es importante tener en cuenta el error relativo, ya que nos indica el grado de 
precisión de nuestras estimaciones. Como comprenderás, cuando se construye un 
IC, se hace con una confiabilidad determinada de forma arbitraria por el 
investigador, por lo tanto, si comparamos las estimaciones realizadas por dos 
investigadores sobre un mismo parámetro, utilizando el mismo nivel de confianza, 
no es lo mismo un error relativo del 10 % que del 15%, el primer caso ofrecerá 
mayor crédito que el segundo a pesar de que en ambos casos coincidan los 
183
 
respectivos % de confianza de que los intervalos calculados contengan al 
parámetro poblacional. 
Ya estamos en condiciones de construir intervalos de confianza para la media 
poblacional. 
4.3.2 Intervalo de Confianza para la diferencia entre las medias de dos 
poblaciones. 
 
También se pueden construir IC para la diferencia entre las medias de dos 
poblaciones, para ello utilizamos el mismo procedimiento anterior pero adaptado a 
la distribución muestral de dicha diferencia. 
Ya vimos que el estimador ( 21 XX − ), proporciona una estimación insesgada de 
(µ1 - µ2), que es la diferencia entre las medias de las poblaciones. La varianza del 
estimador es (σ12 / n1) + (σ22 / n2). También aprendimos que este estimador sigue 
aproximadamente una distribución normal, de modo que en muchas ocasiones se 
emplea la teoría adecuada a las distribuciones normales para calcular el IC para la 
diferencia entre las medias de dos poblaciones. 
Cuando se conoce la varianza de las dos poblaciones, el IC al 100(1 - α ) % para 
(µ1 - µ2) está dado por: 
 ( 21 XX − ) ± Z 1 - α / 2 
2
2
2
1
2
1
nn
σσ
+ 
 
Esta fórmula se aplica si la variable se distribuye normal y aún cuando no es así 
pero las muestras son grandes. 
Si las muestras son pequeñas y (o) no se conocen las varianzas poblacionales 
entonces hay dos maneras de construir los IC: 
( 21 XX − ) ± t 1 - α / 2 
2
2
2
1
2
1
n
s
n
s
+ caso en que se suponen varianzas diferentes. 
 
( 21 XX − ) ± t 1 - α / 2 
2
2
1
2
n
s
n
s pp + caso que se suponen varianzas iguales 
 
En ambos casos se utiliza el percentil de la distribución t con (n1 + n2 - 2) grados de 
libertad. En el caso en que se suponen varianzas iguales se calcula la varianza 
muestral de manera conjunta para ambas muestras y se denota por sp2. 
184
 
 
( ) ( )
2
11
21
2
22
2
112
−+
−+−
=
nn
snsns p 
 
4.3.3 – Intervalos de confianza para una proporción. 
 
De manera análoga al caso de la media, también se pueden construir intervalos de 
confianza para una proporción poblacional π. 
De forma general los IC se construyen mediante la siguiente fórmula: 
 Estimador ± error de muestreo 
 
Sabemos que la proporción muestral p, es un estimador insesgado de la 
proporción poblacional π. Vimos también que cuando el tamaño muestral es 
grande, es decir, n.p y n(1-p) son mayores que 5, la distribución muestral de p es 
aproximadamente normal. Por lo tanto,se puede calcular un IC al 100(1-α)% de 
confiabilidad para π, empleando la siguiente fórmula: 
 p ± Z (1 - α / 2) 
n
pp )1( − 
Este intervalo se interpreta de forma similar al caso de la media, tanto de forma 
probabilística como práctica. 
Ejemplo 4.3.4 
 
En una determinada región se tomó una muestra aleatoria de 125 individuos, de 
los cuales 12 padecían afecciones pulmonares. 
Estimemos la proporción de afecciones pulmonares en dicha región. Primero 
calculamos la proporción muestral p, pues sabemos que será nuestra estimación 
puntual de π. 
 096.0
125
12
==p 
Calculemos ahora un IC al 95% para la proporción poblacional de afecciones 
pulmonares. 
 
 
0.1476) ; (0.0444
0516.0096.0
125
)096.01(096.096.1096.0 ±=−∗±=± ep
 
 
Veamos cuánto es el error relativo de nuestra estimación. 
185
 
 
 75.53100*
096.0
0516.0
= % 
 
Como puede ver la amplitud del intervalo parece pequeña, sin embargo el error 
relativo es mayor que el 50 % de la estimación. 
En la figura 2.3.3 se representa este IC de forma gráfica. 
 
Figura 24.3.2 IC al 95% para la proporción poblacional de afecciones pulmonares. 
 
Observa la equivalencia entre la distribución normal estándar y la distribución 
muestral de la proporción. Dentro de esos límites se encuentra el 95% de los 
valores estimados de π bajo el supuesto de muestreo sucesivo. 
4.3.4 - IC para la diferencia entre dos proporciones. 
 
En ocasiones se tiene interés en conocer la diferencia entre las proporciones de 
dos poblaciones (π1-π2). Para ello el estimador puntual viene dado por (p1 – p2). 
Para calcular un IC al 100(1-α) % emplearemos la fórmula general antes vista: 
 Estimador ± error de muestreo 
 
Entonces en este caso será: 
 (p1 – p2) ± 
( ) ( )
2
22
1
11
2/1
11
n
pp
n
pp
Z
−
+
−
−α 
 
La interpretación de este intervalo se realiza de forma similar a los ya vistos. 
Por ejemplo, en un estudio sobre prevalencia de hábitos tóxicos se obtuvo que las 
proporciones (P1 y P2) de fumadores de dos áreas de salud son: 0.23 y 0.15 
respectivamente, para una diferencia de 0.08. A continuación construiremos un IC 
186
 
al 95% para dicha diferencia, si sabemos que los tamaños de muestra (n1 y n2) 
fueron de 350 y 475 sujetos, respectivamente. 
 
( ) ( ) ( )
475
15.0115.0
350
23.0123.096.108.0 −+−± 
( )135.0 ; 025.0055.008.0 ⇒± 
 
Entonces podemos concluir, con una confiabilidad del 95%, que la diferencia entre 
las proporciones de fumadores de dichas áreas se encuentra en el intervalo 
calculado. 
4.4 Pruebas de hipótesis. 
 
Al igual que en el caso de la estimación, el propósito de las pruebas de hipótesis 
es ayudar al médico, investigador o administrador a tomar una decisión en torno a 
una población, al examinar una muestra de ella. 
Pueden presentarse en la práctica, situaciones en las que exista una teoría 
preconcebida relativa a una característica de la población sometida a estudio. Tal 
sería el caso, por ejemplo si pensamos que un tratamiento nuevo puede tener un 
porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los 
niños de distintas comunidades tienen la misma talla. Este tipo de circunstancias 
son las que nos llevan al estudio de la parte de la Estadística Inferencial que se 
recoge bajo el título genérico de Contraste de Hipótesis. 
El contraste de hipótesis no es tan distinto a la estimación, de hecho es posible 
emplear los IC para llegar a las mismas conclusiones que se alcanzan con una 
prueba de hipótesis, como veremos más adelante. 
Una hipótesis, se define simplemente como una proposición acerca de una o más 
poblaciones. En general las hipótesis se refieren a los parámetros de las 
poblaciones para las cuales se hace la proposición. Por medio de las pruebas de 
hipótesis se determina si tales proposiciones son compatibles o no con los datos 
disponibles. 
Los investigadores se interesan en dos tipos de hipótesis: de investigación y 
estadísticas. Las primeras18 son aquellas suposiciones o conjeturas que motivan la 
investigación, éstas conducen directamente a las segundas, las que se establecen 
de forma tal que pueden ser evaluadas por medio de técnicas estadísticas 
 
18 La mayor parte de las investigaciones que realizas, por el nivel de 
conocimientos que generan, sólo incluyen hipótesis de trabajo. 
187
 
adecuadas. Implica, en cualquier investigación, la existencia de dos teorías o 
hipótesis estadísticas, que denominaremos hipótesis nula e hipótesis alternativa, 
que de alguna manera reflejarán esa idea a priori que tenemos (hipótesis de 
investigación) y que pretendemos contrastar con la ``realidad''. 
De la misma manera aparecen, implícitamente, diferentes tipos de errores que 
podemos cometer durante el procedimiento. No debe olvidarse que, 
habitualmente, el estudio y las conclusiones que obtengamos para una población 
cualquiera, se habrán apoyado exclusivamente en el análisis de sólo una parte de 
ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores, 
dependerá, por ejemplo, el tamaño de la muestra requerida. 
Desarrollamos en esta sección los contrastes de hipótesis para los parámetros 
más usuales que venimos estudiando en las secciones anteriores: medias y 
proporciones, para una o dos poblaciones. Pero antes, veremos un algoritmo 
general para realizar pruebas de hipótesis que contiene 9 pasos19: 
 
1. Datos20: Es necesario definir el tipo de datos que se analizará, pues de ello 
depende el tipo de prueba a aplicar. Se debe precisar si son variables 
cuantitativas o no, etc. 
 
2. Suposiciones: De manera similar al proceso de estimación, se necesita evaluar 
el cumplimiento de una serie de suposiciones o supuestos que son importantes 
para decidir el tipo de prueba a realizar. Por ejemplo, respecto a la normalidad 
de la distribución de la población, igualdad de varianzas, independencia de las 
muestras, etc. 
 
3. Hipótesis: Se trabaja con dos hipótesis estadísticas, como dijimos 
anteriormente, que deben enunciarse de manera explícita. La primera es la 
llamada hipótesis nula, es la que debe probarse y se designa como Ho. 
Suele denominarse como hipótesis de no diferencia, ya que es una proposición 
de no diferencia respecto a condiciones que se suponen ciertas en la 
población. En general se establece con el propósito de ser rechazada. En 
consecuencia, el complemento de la hipótesis del investigador se convierte en 
el enunciado de la hipótesis nula. 
La otra hipótesis planteada es la llamada hipótesis alternativa, H1, constituye 
el complemento de la nula, se plantea en correspondencia con la hipótesis del 
investigador. Esta hipótesis no es directamente sometida a prueba pero resulta 
conveniente plantearla puesto que es la más verosímil cuando la prueba 
 
19 Modificado de Daniel 1997 
20 Se refiere al tipo de variables. 
188
 
estadística nos conduce a rechazar Ho. Si Ho no se rechaza, se dirá que los 
datos no proporcionan evidencia suficiente que cause el rechazo. De 
rechazarse, se dice que los datos disponibles no son compatibles con Ho. 
 
4. Estadígrafo de prueba: Es un estadístico que se puede calcular con los datos 
de la muestra. Como regla, existen muchos valores posibles que puede asumir 
el estadístico de prueba y el valor particular observado depende de la única 
muestra estudiada. Dependiendo de la magnitud del estadígrafo se procederá 
o no al rechazo de Ho, como veremos más adelante. Una fórmula general para 
un estadígrafo de prueba, empleada en muchas pruebas de hipótesis (PH), es 
como sigue: 
Estadígrafo de prueba =
estimador del estándar error
supuesto parámetro-estimador 
5. Distribución del estadígrafo de prueba: Hemos señalado, que la clave para la 
estadística inferencial es la distribución muestral. Veremos en cada caso 
particular qué distribución sigue el estadígrafo de prueba. 
 
6. Regla de decisión: Todos los valores posiblesque el estadígrafo de prueba 
puede asumir, constituyen puntos sobre el eje horizontal del gráfico de la 
distribución de dicho estadígrafo, y se dividen en dos grupos: los valores 
“compatibles” con la Ho (región de aceptación) y los “no compatibles” con Ho 
(región crítica o de rechazo). La regla de decisión señala que se debe rechazar 
la Ho si el valor del estadígrafo de prueba, calculado a partir de los datos 
obtenidos en la muestra, es uno de los valores de la zona de rechazo, y que no 
se debe rechazar en caso contrario. 
El intervalo de aceptación o más precisamente, de no rechazo de la hipótesis 
nula, se establece fijando una cantidad α, suficientemente pequeña 
denominada nivel de significación, de modo que la probabilidad de que el 
estadístico del contraste tome un valor fuera del mismo (región crítica) cuando 
la hipótesis nula es cierta sea igual a α . Esto se ha de entender como sigue: 
Si H0 es correcta el criterio de rechazo sólo se equivoca con probabilidad α, 
que es la probabilidad de que una muestra dé un valor del estadístico del 
contraste extraño (fuera del intervalo de aceptación). 
LA DECISIÓN DE RECHAZAR O NO LA HIPÓTESIS NULA ESTÁ AL FIN Y AL CABO BASADO 
EN LA ELECCIÓN DE UNA MUESTRA TOMADA AL AZAR, Y POR TANTO ES POSIBLE 
COMETER DECISIONES ERRÓNEAS. LOS ERRORES QUE SE PUEDEN COMETER SE 
CLASIFICAN COMO SIGUE: 
189
 
Error de tipo I: es el error que consiste en rechazar H0 cuando es cierta. La 
probabilidad de cometer el error es lo que anteriormente hemos denominado 
nivel de significación. Es una costumbre establecida denotarlo siempre con la 
letra griega α. Suele tomarse un valor pequeño de α para hacer que la 
probabilidad de rechazar la H0 sea pequeña. Los valores que frecuentemente 
se utilizan son 0.01, 0.05 y 0.1. 
Error de tipo II: es el error que consiste en no rechazar H0 cuando es falsa. La 
probabilidad de cometer este error la denotamos con la letra β. 
En general, aunque se tome un valor pequeño para α, no se tiene control 
sobre β, a pesar de saber que en la mayoría de las situaciones prácticas es 
mayor que α. No obstante, nunca se sabe si cometimos uno de estos errores, 
cuando se rechaza o no la Ho, ya que se desconoce el verdadero estado de 
las cosas a nivel poblacional. 
Los errores de tipo I y II están relacionados del siguiente modo: Cuando α 
decrece β crece. Por tanto no es posible lograr que se hagan tan pequeños como 
queramos ambos errores simultáneamente. De este modo es siempre necesario 
privilegiar a una de las hipótesis, de manera que no será rechazada, a menos que 
su falsedad se haga muy evidente. En los contrastes, la hipótesis privilegiada es 
H0, que sólo será rechazada cuando la evidencia de su falsedad supere el umbral 
del 100(1 - α)%. 
Al tomar α muy pequeño tendremos que β se puede aproximar a uno. Lo ideal a la 
hora de definir un test es encontrar un compromiso satisfactorio entre α y β 
(aunque siempre a favor de H0). La manera que tiene el investigador de reducir el 
valor de β y mantener α constante es aumentar el tamaño de la muestra. 
Denominamos potencia de un contraste a la cantidad 1-β. 
A continuación se muestran las posibles acciones que como investigador usted 
puede emprender para varias condiciones de una prueba de hipótesis y las 
condiciones en que se produce cada tipo de error. 
190
 
 
Acción posible Condición de 
la hipótesis 
nula No rechazar H0 Rechazar H0 
Verdadera Correcto 
Probabilidad 1 - α 
Error tipo I 
Probabilidad α 
Falsa Error tipo II 
Probabilidad β 
Correcto 
Probabilidad 1 - β 
 
En el momento de elegir una hipótesis privilegiada podemos en principio dudar 
entre si elegir una dada o bien su contraria. Criterios a tener en cuenta en estos 
casos son los siguientes: 
• Simplicidad científica: A la hora de elegir entre dos hipótesis 
científicamente razonables, tomaremos como H0 aquella que sea 
más simple. 
• Las consecuencias de equivocarnos: Por ejemplo al juzgar el 
efecto que puede causar cierto tratamiento médico que está en fase 
de experimentación, en principio se ha de tomar como hipótesis nula 
aquella cuyas consecuencias por no rechazarla siendo falsa son 
menos graves. 
7. Cálculo del estadígrafo de prueba: A partir de los datos contenidos en la 
muestra, se calcula un valor del estadígrafo de prueba y se compara con las 
regiones de aceptación y rechazo que ya fueron especificadas. 
 
8. Decisión estadística: La decisión consiste en el rechazo o no de la hipótesis 
nula, se rechaza Ho si el valor del estadígrafo cae en la zona de rechazo. 
 
9. Conclusión: Las conclusiones de una prueba de hipótesis debemos 
expresarlas en términos de rechazo o no rechazo de Ho, o en los términos 
equivalentes de valor significativo21 y no significativo. Un resultado no 
significativo sólo indica que es compatible con la Ho porque la discrepancia 
observada puede ser explicada por el error aleatorio, esto no demuestra que la 
Ho sea cierta, simplemente que los datos no aportan suficiente evidencia para 
dudar de la validez de Ho. Por lo tanto ante este resultado debe mantenerse la 
Ho hasta tanto se obtengan otras pruebas. 
Por el contrario, un resultado estadísticamente significativo, indica que no es 
compatible con la hipótesis nula, porque es muy poco probable que la 
discrepancia observada haya sido producida por el error aleatorio del muestreo. 
En este caso se rechaza Ho por poco verosímil. Notar que se habla de rechazo y 
no rechazo, no siendo este último sinónimo de aceptación. 
 
21 Un resultado significativo se refiere a diferencias no atribuibles al azar. 
191
 
Lo importante es ser muy cuidadoso a la hora de dar conclusiones, el que se 
rechace la Ho no implica necesariamente que la alternativa sea verdadera, 
además tampoco se puede llegar a un juicio de causalidad por este motivo. 
Además, la decisión estadística no debe interpretarse como definitiva, ella solo es 
una parte de la evidencia que influye sobre la decisión administrativa o clínica, 
como veremos más adelante. 
A continuación estudiaremos pruebas de hipótesis específicas basadas en estos 
comentarios generales. 
4.4.1 Pruebas de hipótesis a partir de medias. 
 
Existen dos condiciones básicas en que realizamos PH a partir de medias: para 
una sola población y para dos poblaciones. Veremos cada caso por separado, 
a la vez que nos detendremos en las particularidades de cada una. Pero antes, 
debes conocer que las pruebas de hipótesis se pueden realizar de forma unilateral 
y bilateral, en dependencia de la forma en que son enunciadas las hipótesis nula y 
alternativa. Así, una PH bilateral es aquella en que sólo interesa conocer la 
existencia de diferencias, sin definir el sentido de éstas, como ocurre en el caso 
unilateral. 
4.4.1.1 La media de una sola población. 
 
Esta situación surge cuando al investigador le interesa probar que la media µ de 
una determinada variable en una población es igual o diferente a un valor 
determinado µ0. Estas pruebas pueden realizarse en tres condiciones diferentes 
que veremos a continuación: 
1. La población22 se distribuye normal con varianza conocida. 
2. La población se distribuye normal con varianza desconocida. 
3. La población no se distribuye normal. 
Aunque la teoría para las condiciones 1 y 2 se basa en que la población sigue una 
distribución normal, en la práctica es común aplicar este proceder aún cuando la 
población sólo está distribuida aproximadamente normal. Esto es satisfactorio 
siempre que la desviación de la normalidad sea moderada. 
 
22 Suele decirse que la población se distribuye normal, pero en realidad nos 
referimos a la distribución de la variable en la población. Así aparece en todos los 
textos. 
192
 
1- Población normal con varianza conocida. 
Suponemos que X∼N (µ, σ2) donde σ2 es conocida y queremos contrastar si es 
posible que µ (desconocida) sea en realidad ciertovalor µ0 fijado. Esto es un 
supuesto teórico que nunca se dará en la realidad pero servirá para introducir la 
teoría sobre contrastes. 
Prueba de dos colas con varianza conocida: 
La prueba se escribe entonces como: 
Ho: µ = µ0 
H1: µ ≠ µ0 
 
Estadígrafo de prueba: 
n
x
Z
σ
µ0−= 
 
Si H0 es cierta, este estadígrafo tiene una distribución normal estándar. Le 
llamaremos al valor de Z obtenido en la muestra Z observado y lo denotaremos 
como Zo 
Fijemos ahora el nivel de significación α, de manera que queden definidas las 
zonas de aceptación y de rechazo (crítica) respectivamente. Así, tomaremos como 
región crítica C, a los valores que son muy extremos y con probabilidad α en total, 
o sea: 
P(Zo ≤ Z α / 2) = α / 2 
P(Zo ≥ Z 1-α / 2) = α / 2 
 
Recuerda que Z α / 2 = - Z 1- α / 2 
 
Lo anterior implica que: 
P(-Z 1- α / 2 ≤ Zo ≤ Z 1- α / 2) = 1- α siendo esta la zona de 
aceptación. 
Entonces la región crítica C consiste en: 
C = Zo, tal que |Zo| > Z 1- α / 2 
 
Luego rechazaremos la hipótesis nula si: 
|Zo| > Z 1- α / 2 
 
193
 
Aceptando en consecuencia la hipótesis alternativa (figura 2.4.1). 
Puedes observar en la figura 2.4.1, que la región de rechazo de la hipótesis nula 
es la sombreada. Se rechaza H0 cuando el estadígrafo Zo toma un valor 
comprendido en la zona sombreada de la gráfica pequeña, N(0, 1), o 
equivalentemente, cuando el estadígrafo x toma un valor en la zona sombreada 
de la gráfica grande, N (µ0, σ2). 
 
 
Figura 2.4.1 representación gráfica de las zonas de aceptación y rechazo de la Ho 
 
Test unilateral (de una cola) con varianza conocida 
 
Consideremos un contraste de hipótesis donde ahora las hipótesis se enuncian: 
 Ho: µ = µ0 A veces se escribe Ho: µ ≥ µ0 
H1: µ < µ0 H1: µ < µ0 
 
El estadígrafo de prueba es el mismo del caso anterior, pues la Ho es igual. 
Como región crítica consideraremos aquella formada por los valores 
extremadamente bajos de Zo, con probabilidad α, es decir: 
P(Zo ≤ Zα) = α implica P(Zo ≥ Zα) = 1 - α 
 
Entonces la región de aceptación, o de modo más correcto, de no rechazo de la 
hipótesis nula es (figura 2.4.2): Zo ≥ Zα; y por consiguiente, se rechaza Ho si: Zo 
< Z α 
Así pues, se rechaza la hipótesis nula, cuando uno de los estadísticos Z o x toma 
un valor en la zona sombreada de sus gráficas respectivas. 
 
 
 
 
 
194
 
 
Figura 2.4.2 Zonas de aceptación y rechazo para test unilateral. 
 
Es evidente que si en el contraste de significación, hubiésemos tomado como 
hipótesis alternativa su contraria, es decir: 
Ho: µ = µ0 O también Ho: µ ≤ µ0 
H1: µ > µ0 H1: µ > µ0 
 
Por simetría con respecto al caso anterior, la región donde no se rechaza la 
hipótesis nula es (véase la figura 2.4.3 y contrástese con la 2.4.2): Zo ≤ Z 1 - α, lo 
que implica que se rechaza Ho si: Zo > Z1 - α 
 
 
 
 Figura 2.4.3 - Regiones de aceptación y rechazo para el test unilateral contrario al anterior. 
 
 
2- La variable se distribuye normal con varianza desconocida. 
 
 Test de dos colas con varianza desconocida 
Sea X∼N (µ, σ2) donde ni µ ni σ2 son conocidos y queremos realizar el 
contraste 
Ho: µ = µ0 
H1: µ ≠ µ0 
 
195
 
Al no conocer σ2 va a ser necesario estimarlo a partir de su estimador insesgado: 
la varianza muestral,S2. Por ello la distribución del estimador del contraste será 
una t de Student, con n-1 grados de libertad. 
 Si H0 es cierta implica: 
n
s
x 0µ−=oT ∼ t n - 1 gl 
 
Consideramos como región crítica C, a las observaciones de To extremas: 
 P(To ≤ t n - 1, α / 2) = α / 2 
P(To ≥ t n - 1, 1 - α / 2) = α / 2 
 
Recuerde que la distribución t es simétrica respecto a la media y tiene media 0, 
por lo que: 
t n - 1, α / 2 = -t n - 1,1 - α / 2 
 
Todo lo anterior implica que: 
P(t n - 1, α / 2 ≤ To ≤ t n - 1, 1 - α / 2) = 1 - α 
o sea 
C = (To < - t n - 1, α / 2 ó To > t n - 1, 1 - α / 2 ) 
 
De forma similar al caso anterior, para dar una forma homogénea a todos los 
contrastes de hipótesis es costumbre denominar al valor del estadístico del 
contraste calculado sobre la muestra como valor observado y a los extremos de la 
región crítica, como valores teóricos, en este caso Tt. Definiendo entonces: 
Tt = t n – 1 , 1 - α / 2 
 
El resultado del contraste es el siguiente (figura 2.4.4): 
 
 
Figura 2.4.4 - Región crítica para el contraste bilateral de una media con varianza 
desconocida. 
196
 
 
Entonces, si: |To| ≤ Tt ⇒ no rechazamos H0 
 |To| >Tt ⇒ rechazamos Ho 
 
Test de una cola con varianza desconocida 
Si realizamos el contraste 
Ho: µ = µ0 
H1: µ < µ0 
 
El estadígrafo de prueba es el mismo que en el caso bilateral, pero el valor teórico 
se modifica al igual que la zona crítica (figura 2.4.5). 
Tt = t n - 1, α 
 
 De forma tal que: To ≥ Tt ⇒ no rechazamos Ho 
 To < Tt ⇒ rechazamos Ho y aceptamos H1 
 
 
Figura 2.4.5 - Región crítica para uno de los contrastes unilaterales de una media con varianza 
desconocida. 
Para el contraste contrario: Ho: µ = µ0 
H1: µ > µ0 
Definimos To y Tt como anteriormente y el criterio a aplicar es (véase la figura 
2.4.6): Tt = t n-1, 1- α 
 
 
Figura 2.4.6 - Región crítica para el contraste unilateral de una media contrario al anterior. 
Varianza desconocida. 
197
 
 
De aquí que: Si To ≤ Tt ⇒ no rechazamos Ho 
Si To > Tt ⇒ rechazamos Ho y aceptamos H1 
Ejemplo 4.4.1 
Conocemos que la talla (X) de los individuos de una ciudad, se distribuye 
aproximadamente normal. Deseamos contrastar con un nivel de significación de 
α=0.05 si la talla media es diferente de 174 cm. Para ello nos basamos en el 
estudio de una muestra de 25 personas. Se obtuvo el siguiente resultado: 
x = 170cm y s = 10cm 
Solución: 
El contraste que se plantea es: 
Ho: µ = 174 cm 
H1: µ ≠ 174 cm 
 
Como puede verse, se trata de un test con varianza desconocida, planteado de 
forma bilateral, entonces el estadígrafo de prueba será: 
 2
2
4
25
10
174170
−=
−
=
−
=oT ∼ t 24 gl 
 
La regla de decisión estará dada por el valor teórico del estadígrafo: 
 Tt = t 24, 1 - α / 2 = t 24, 0.975 = 2.0623 
Comparemos ahora el valor observado con el teórico: 
 |To| = 2 < Tt = 2.06 ⇒ No rechazamos Ho 
 
Por lo tanto, aunque podamos pensar que ciertamente el verdadero valor de µ no 
es 174, no hay una evidencia suficiente para rechazar esta hipótesis al nivel de 
confianza del 95%. En la figura 2.4.7 vemos que el valor de To no está en la 
región crítica (aunque ha quedado muy cerca), por tanto al no ser la evidencia en 
contra de H0 suficientemente significativa, esta hipótesis no se rechaza. 
 
23 Revisa la tabla B del Apéndice. 
198
 
 
 
 Figura 2.4.7 – Región de rechazo de la hipótesis nula: µ = 174, del ejemplo 2.4.1 
 
Ejemplo 4.4.2 
Consideramos el mismo ejemplo anterior. Visto que no hemos podido rechazar el 
que la talla media de la población sea igual a 174 cm, deseamos realizar el 
contraste sobre si la talla media es menor de 174 cm. 
Solución: 
Ahora el contraste es Ho: µ = 174 cm 
H1: µ < 174 cm 
De nuevo la técnica a utilizar consiste en suponer que H0 es cierta y ver si el valor 
que toma el estadígrafo T es aceptable bajo esta hipótesis, con un nivel de 
confianza del 95%. Se aceptará la hipótesis alternativa (y en consecuencia se 
rechazará la hipótesis nula) si: 
 To < t 24, α = -t 24, 1 - α = t 24, 0.95 = -1.7124 
 
Recordamos que el valor de To obtenido fue de: 
 
24 Revisar la tabla B del Apéndice. 
199
 
 To = -2 < Tt = -1.71 
 
Por ello hemos de rechazar la hipótesis nula y por tanto, aceptar la alternativa 
(véase la figura 2.4.8). 
 
 
 
Figura 2.4.8 – Región crítica para el estadígrafo t del ejemplo 2.4.2. 
 
Podemos observar en el gráfico, que el valor To está en la región crítica, por tanto 
existe una evidencia significativa en contra de H0,y a favor de H1. 
Es importante observar este hecho curioso: Mientras que en el ejemplo anterior no 
existía una evidencia significativa para decir que µ ≠174 cm, el ``simple hecho" de 
plantearnos un contraste que parece el mismo pero en versión unilateral nos 
conduce a rechazar de modo significativo que µ =174 cm y aceptamos que µ < 
174 cm. Esto no es raro que suceda, de hecho se plantea que al usar pruebas 
unilaterales las diferencias encontradas suelen ser mucho más significativas que si 
se aplica el test bilateral. Por ello, es aceptable la actitud conservadora de muchos 
investigadores que sistemáticamente emplean contrastes bilaterales. 
3- Población que no presenta una distribución normal. 
 
Si, como ocurre con frecuencia, la muestra en la cual se basa la prueba de 
hipótesis acerca de la media de una población proviene de una distribución 
desconocida o diferente de la normal, si la muestra es grande, mayor o igual que 
30, es posible aplicar el teorema del límite central y usar el mismo estadígrafo Z 
visto con anterioridad, incluso en el caso en que no conocemos la varianza se 
puede sustituir ésta por la varianza muestral. 
n
s
x
Z 0
µ−
= ~ N (µ0 , n
s ) 
El resto del contraste se realiza de forma similar a lo visto anteriormente. 
 
Observaciones 
 
Es necesario que aclaremos algunos aspectos antes de concluir, los cuales serán 
válidos para el resto de la sección. 
 
1. Test Bilateral Vs Unilateral: Una prueba se denomina bilateral o de dos 
colas, cuando la hipótesis alternativa está planteada sin especificar el sentido 
de la diferencia. Mientras que en el caso unilateral o de una cola se 
especifica el sentido o la dirección de la diferencia esperada. En el primer caso 
la zona de rechazo está dividida en dos partes, a ambos extremos de la 
distribución siendo las probabilidades a cada lado igual a α/2, para que entre sí 
200
 
sumen un total de α. Mientras que en el caso unilateral la zona crítica se 
encuentra hacia un extremo o el otro de dicha distribución, cuya área es igual a 
α. La decisión de cuál test emplear depende del objetivo de la investigación. 
 
2. Valor de p (probabilidad) asociado al estadígrafo: Para llegar a una 
conclusión sobre el resultado de la prueba podemos utilizar, además del valor 
directo del estadígrafo de prueba, la llamada p asociada al estadígrafo, que 
seguro has oído hablar de ella. El valor p para la prueba, es la probabilidad de 
obtener, cuando Ho es cierta, un valor del estadígrafo mayor o igual (según la 
dirección de la diferencia) que el observado a partir de la muestra. Suele 
usarse con mayor frecuencia que el valor del estadígrafo, incluso se exige en la 
publicación de artículos científicos de algunos editores. Por supuesto que las 
conclusiones son equivalentes. En este caso se compara el valor de p con el 
valor de α prefijado y si: 
 
p < α ⇒ se rechazará Ho 
 
Este valor lo puede obtener de las tablas de las distribuciones teóricas del 
estadígrafo, pero los programas estadísticos de computación suelen darlo con 
exactitud. 
 
3. Pruebas de hipótesis por medio de intervalos de confianza: Se pueden 
realizar pruebas de hipótesis empleando para ello los intervalos de confianza 
vistos en secciones anteriores, cuyos resultados son equivalentes al test de 
hipótesis tradicional. Consisten básicamente, en calcular un IC para el 
parámetro que se desea contrastar, empleando el mismo nivel de significación 
que en el test, entonces la regla de decisión será basada en si el Intervalo 
contiene o no al valor del parámetro hipotetizado, de ser así no se puede 
rechazar la Ho, en caso de no contenerlo se rechazará la Ho y se aceptará la 
hipótesis alternativa, siendo la probabilidad de cometer el error tipo I igual a α. 
Recuerde que el parámetro a contrastar puede ser un valor único o la 
diferencia entre dos valores. En general, cuando se prueba una hipótesis nula 
por medio de un intervalo de confianza bilateral, se rechaza Ho en el nivel α de 
significación, si el parámetro supuesto no está contenido dentro del intervalo de 
confianza del 100(1-α)%. 
 
4. Elección del test25: Como estudiamos, se pueden probar las mismas hipótesis 
empleando diferentes estadígrafos: prueba Z y prueba t, la escogencia de uno 
 
25 El término test es un anglicismo comúnmente empleado en la literatura 
consultada, por lo que decidimos utilizarlo en este contexto. 
201
 
de ellos dependerá del cumplimiento de las suposiciones26 necesarias para 
cada caso. No lo olvide. 
 
Hemos tratado de ser explícitos y a la vez de no complicar mucho las cosas para 
facilitar la comprensión del contenido, aún así se puede notar que no es un tema 
sencillo. Lo explicado hasta el momento se puede aplicar a otras pruebas de 
hipótesis que veremos a continuación. 
 
Pruebas para las medias de dos poblaciones 
 
La prueba de hipótesis que comprende la diferencia entre las medias de dos 
poblaciones, se utiliza con mayor frecuencia para determinar si es razonable o no 
concluir que las dos son distintas entre sí. Al igual que en el caso de una sola 
población se distinguen diferentes situaciones: 
1. Muestras pareadas 
2. Muestras independientes 
 
Ambas situaciones serán abordadas por separado y teniendo en cuenta otras 
particularidades. 
 
1- Muestras pareadas. 
Se dice que dos muestras están pareadas si la probabilidad de que la variable en 
estudio tome un valor en el iésimo sujeto de la muestra 2, depende del valor del 
iésimo sujeto de la muestra 1. Te aclaro, el objetivo de seleccionar muestras 
pareadas es eliminar al máximo las fuentes de variación por medio de la formación 
de parejas similares con respecto a tantas variables como sea posible, pero nunca 
respecto a la variable de estudio. Así se pueden formar muestras pareadas de 
diferentes formas, por ejemplo, todos los estudios donde se compara 
observaciones de una variable en dos o más momentos diferentes sobre los 
mismos individuos, cada medición constituye una muestra y el interés está en la 
diferencia antes – después. También, en los estudios de casos y testigos suelen 
formarse parejas del mismo sexo o grupos de edades, etc. 
En estos casos, en lugar de llevarse a cabo el análisis con las observaciones 
individuales, se puede utilizar como variable de interés la diferencia entre los pares 
individuales de observaciones. Las hipótesis se enuncian generalmente de la 
siguiente forma: 
Ho: µ1= µ2 ⇒ µ1 - µ2 = 0 
 H1: µ1 ≠ µ2 
 
 
26 El cumplimiento de los supuestos puede verificarse mediante la realización de 
pruebas estadísticas, o sencillamente darlos por sentado. 
202
 
Entonces, para cada pareja se registra la diferencia d, de esta forma es posible 
calcular la diferencia media d , como la media aritmética de las diferencias 
observadas y la desviación estándar de dichas observaciones sd. Así, el promedio 
poblacional de las diferencias se denota por µd y es igual a la diferencia entre (µ1 - 
µ2), que en este caso es cero. 
Estadígrafo de prueba: 
 
n
s
d
t
d
dµ−= 
 
Si Ho es cierta el estadígrafo se distribuye t de Student con n-1 grados de 
libertad. 
La regla de decisión: se rechaza Ho si: |To| > Tt n-1, 1 - α / 2 
 
Este es el caso bilateral que es el recomendado. 
Ejemplo 4.4.327 
A continuación se muestran los valores correspondientes al puntaje de ansiedad 
para 10 pacientes recibiendo un medicamento (M) y un placebo (P) en orden 
aleatorio. 
Puntaje de 
ansiedad Diferencia Pte. 
M P d = M - P 
1 19 22 -3 
2 11 18 -7 
3 14 17 -3 
4 17 19 -2 
5 23 22 1 
6 11 12 -1 
7 15 14 1 
8 19 11 8 
9 11 19 -8 
10 8 7 1 
 
 
27 Este es un ejemplo didáctico, en la práctica puede ser abordado por una prueba 
no paramétrica 
203
 
Calculemos la diferencia promedio y su desviación estándar: 
 
3.1
10
13
−=
−
== ∑n
d
d i 68.20
9
1.186
1
)( 22 ==
−
−
= ∑
n
dd
S i 
 
Calculemos el estadígrafo de prueba 
 
 9.0
439.1
3.1
10
55.4
03.10 −=−=−−=
−
=
n
s
d
To
µ 
 
Busquemos en la tabla B del Apéndice el valor teórico de T: 
 
 Tt = t n - 1, 1 - α / 2 = t 9, 0.975 = 2.821 
 
Como puedes ver |To| = 0.9 < Tt = 2.821 
 
Por lo tanto no se puede rechazar Ho, podemos concluir que no existen evidencias 
que hagan pensar que el medicamento sea efectivo para disminuir la ansiedad a 
pesar de que las diferencias parecen favorecer al medicamento. 
Observaciones: 
Este caso es bastante frecuente en la práctica. Cuando el tamaño muestral es 
grande, n>30, la distribución t puede aproximarse a la normal, no importa la 
distribución de la variable en la población ni tampoco es necesario conocer la 
varianza poblacional. De esta forma, siempre que el tamaño muestral lo permita, 
se puede sustituir en la regla de decisión el percentil de la distribución t por el 
correspondiente de la normal estándar. A continuación te muestro una guía para la 
regla de decisión en caso bilateral y unilateral. 
Tabla 2.4.1- regla de decisión PH para dos medias. 
 
Hipótesis alternativa Regla de decisión 
Rechazar Ho si: 
µd > 0 
(µ1 > µ2) 
|To| > Z ( 1- α ) 
µd < 0 
(µ1 < µ2) 
|To| < Z ( 1- α ) 
µd ≠ 0 
 
To| > Z ( 1 - α / 2 ) 
 
 
 
 
204
 
2- Muestras independientes 
 
Suposiciones generales: las muestras son aleatorias e independientes, la variable 
es continua y se distribuye normal, además las observaciones son independientes. 
 Hipótesis: Ho: µ1= µ2 ⇒ µ1 - µ2 = 0 
 H1: µ1 ≠ µ2 
La hipótesis alternativa puede enunciarse también en forma unilateral: 
 
H1: µ1 > µ2 ⇒ µ1 - µ2 > 0 ó H1: µ1 < µ2 ⇒ µ1 - µ2 < 0 
 
Si las varianzas poblacionales son conocidas el estadígrafo de prueba es: 
 
 
2
2
2
1
2
1
21
nn
xxZ
σσ +
−
= se distribuye normal estándar 
 
En el numerador no se incluye µd porque bajo Ho µd = 0. 
 
En el caso de varianzas desconocidas hay dos posibilidades: 
 
a) Varianzas desconocidas pero se supone que son iguales 
b) Varianzas desconocidas pero se supone que son diferentes. 
 
El estadígrafo de prueba en cada caso es: 
 
a) 
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+
−
=
21
2
21
11
nn
s
xxT donde 
)1()1(
)1()1(
21
2
22
2
112
−+−
−+−
=
nn
snsn
s 
 
Este estadígrafo se distribuye t de Student con (n1 + n2 –2) grados de libertad 
 
b) 
2
2
2
1
2
1
21
n
s
n
s
xxd
+
−
= 
 
Se distribuye t de Student con υ (nu) grados de libertad, pero si el tamaño de las 
muestras es grande se distribuye normal estándar; Que suerte! porque la fórmula 
para calcular los grados de libertad se las trae. 
 
205
 
En cada caso la regla de decisión puede enunciarse a partir de la tabla 2.4.1, solo 
tiene que adecuarlo a la distribución específica de cada estadígrafo. 
4.4.2 Pruebas de hipótesis a partir de proporciones. 
 
Las pruebas de hipótesis a partir de proporciones se realizan casi en la misma 
forma utilizada cuando nos referimos a las medias, cuando se cumplen las 
suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o 
bilaterales dependiendo de la situación particular. 
La proporción de una población 
 
Las hipótesis se enuncian de manera similar al caso de la media. 
Ho: π = π0 
H1: π ≠ π0 
En caso de que la muestra sea grande n>30, el estadígrafo de prueba es: 
 
n
pp
p
Z
)1(
0
−
−
=
π
 se distribuye normal estándar. 
Regla de decisión: se determina de acuerdo a la hipótesis alternativa (si es 
bilateral o unilateral), lo cual puede hacerse facilmente auxiliándose de la tabla 
2.4.1. 
En el caso de muestras pequeñas se utiliza la distribución Binomial. No lo 
abordaremos por ser complicado y poco frecuente su uso. 
 
Diferencia entre las proporciones de dos poblaciones 
 
La situación más frecuente es suponer que existen diferencias entre las 
proporciones de dos poblaciones, para ello suelen enunciarse las hipótesis de 
forma similar al caso de las medias: 
 
 Ho: π1 = π2 ⇒ π1 - π2 = 0 
H1: π1 ≠ π2 
 
Puede la hipótesis alternativa enunciarse unilateralmente. 
El estadígrafo de prueba para el caso de muestras independientes: 
 
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+
−
=
21
21
11
nn
pq
pp
Z donde 
21
21
nn
aa
p
+
+
= 
 
206
 
Siendo a1 y a2, el número de sujetos con la característica objeto de estudio en las 
muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para 
cada muestra, se calcula una p conjunta para ambas muestras bajo el supuesto 
que no hay diferencias entre ambas proporciones y así se obtiene la varianza 
conjunta. Recuerda que q = 1-p. 
Está de más que decir que este estadígrafo se distribuye normal estándar. 
La regla de decisión se determina de manera similar a los casos ya vistos 
anteriormente. 
Si las muestras son pareadas nuestro interés no estará en las observaciones 
individuales sino en la pareja, es decir, tendremos n parejas de sujetos, para cada 
uno de los sujetos registramos la presencia o ausencia de cierta característica A 
que se desea estudiar, por ejemplo enfermo o no, así tendremos cuatro 
posibilidades: 
Muestra 
1 2 
Número de pares 
A A A 
A No A B 
No A A C 
No A No A d 
 
Esta misma información podemos resumirla en una tabla de contingencia de dos 
filas y dos columnas, llamada tabla de 2x2 y muy empleada en investigación 
epidemiológica. 
 Tabla 2x2 para muestras pareadas 
 
Muestra 2 
 Muestra 1 
A No A 
Total 
A a b a+b 
No A c d c+d 
Total a+c b+d N 
 
De esta forma podemos calcular las proporciones de sujetos con la característica 
en cada muestra: 
 
n
bap +=1 n
cap +=2 
207
 
El objetivo de la prueba es comparar estas dos proporciones, como estimadores 
insesgados de las respectivas proporciones poblacionales π1 y π2. En este caso, 
la diferencia entre estas dos proporciones depende de aquellos pares 
discrepantes, es decir, los pares donde solo uno de los miembros de la pareja 
presenta la característica. 
n
cb
n
ca
n
bapp −=+−+=− 21 
Las hipótesis se enuncian de forma similar al caso de muestras independientes. 
Ho: π1 = π2 ⇒ π1 - π2 =0 
H1: π1 ≠ π2 
 
Recuerde que la H1 también puede plantearse de forma unilateral. 
Si la Ho es cierta entonces b - c =0 y el estadígrafo de prueba es: 
 
 
cb
cbbZ
+
+−
=
2/1
)(2/1 
 
Este estadígrafo se distribuye normal estándar si el tamaño de muestra es grande, 
en caso de muestras pequeñas se emplea la prueba no paramétrica28 de Mc 
Nemar, cuyo estadígrafo de prueba es: 
 χ2=
cb
cb
+
−− 2)1|(| se distribuye χ2 con 1 grado de libertad. 
 
La regla de decisión depende del planteamiento de la H1, sea bilateral o unilateral. 
La puede construir basándose en lo que ha aprendido. 
Observaciones: 
 
1. Aunque parezca absurdo, debe aclararse que las pruebas de hipótesis se 
realizan sobre los parámetros poblacionales desconocidos, es decir, sólo tiene 
sentido realizarlas cuando se estudia una muestra de la población objeto y 
deseamos hacer inferencias hacia el total poblacional. Si se estudia el total de 
 
28 Una prueba de hipótesis no paramétrica, es aquella en que no es necesario el 
cumplimiento de las suposiciones propias de las pruebas paramétricas que hemos 
visto hasta el momento (distribución normal de la población, muestras aleatorias, 
independencia de las observaciones, etc.), por lo tanto para cada prueba que 
hemos visto existe su análoga no paramétrica que podrás estudiar en el próximo 
curso. 
208
 
los elementos de la población objeto (definida de acuerdo a los objetivos de su 
investigación), no tiene sentido realizar PH ni otro tipo de inferencia. 
 
2. Antes de realizar una prueba de hipótesis, debe revisar cuidadosamente las 
características de los datos (naturaleza de las variables), la forma de selección 
de la muestra y su tamaño, en fin, valorar el cumplimiento de lossupuestos 
necesarios para aplicar la prueba adecuada a cada caso. Fijando el nivel de 
significación antes de realizar la prueba y no después de obtener el resultado, 
al igual que debe valorar seriamente si debe enunciar el problema de forma 
bilateral o unilateral antes de realizar la prueba. Violar el cumplimiento de los 
supuestos implica que la prueba pierda potencia, pudiendo no encontrarse 
diferencias cuando realmente las hay o lo contrario. 
 
3. Existen software que realizan estas y otras muchas pruebas de hipótesis, al 
alcance de cualquier persona, esto trae consigo el uso y “abuso” indiscriminado 
de las mismas sin un conocimiento sólido del basamento estadístico de cada 
prueba. Le recomiendo no se sume a la lista de irresponsables que andan por 
ahí haciendo de las suyas con los números, si no está seguro de cual es la 
prueba adecuada recurra a los servicios de un bioestadístico. 
 
4. En el caso que se contrasta la diferencia entre dos parámetros, sean medias o 
proporciones, debe tenerse en cuenta que el signo del estadígrafo da la 
dirección de la diferencia. Si el valor del estadígrafo observado es menor que 
cero (negativo), quiere decir que el parámetro 1 es menor que el 2 (parámetro1 
– parámetro2), esto se tendrá en cuenta al dar las conclusiones. 
 
5. Por último, ningún test estadístico supera el sentido común y la responsabilidad 
profesional, por lo tanto las conclusiones deben basarse no sólo en un 
resultado estadísticamente significativo logrado a toda costa de artificios 
matemáticos, sino que depende de todo un conjunto de análisis clínico, 
epidemiológico, económico, entre otros aspectos que deben ser 
adecuadamente balanceados teniendo en cuenta la razón perjuicio-beneficio. 
 
Bibliografía: 
1. Bayarre Vea H, Oliva Pérez M. Métodos y Técnicas aplicados a la 
Investigación en Atención Primaria de Salud. Parte II. La Habana: Finlay; 
2001. 
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin 
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la 
Investigación. Maestrías para profesionales de la Atención Primaria de Salud. 
La Habana, 2004. 
 
209
 
Apéndice 
 
Tabla A – Áreas de la distribución normal estándar. 
 
Z Área Z Área 
0.0 0.5000 2.0 0.02275 
0.1 0.4602 2.1 0.01786 
0.2 0.4207 2.2 0.01390 
0.3 0.3821 2.3 0.01072 
0.4 0.3446 2.4 0.00820 
0.5 0.3085 2.5 0.00621 
0.6 0.2743 2.6 0.00466 
0.7 0.2420 2.7 0.00347 
0.8 0.2119 2.8 0.00256 
0.9 0.1841 2.9 0.00187 
1.0 0.1587 3.0 0.00135 
1.1 0.1657 3.1 0.00097 
1.2 0.1151 3.2 0.00069 
1.3 0.0968 3.3 0.00048 
1.4 0.0808 3.4 0.00034 
1.5 0.0668 3.5 0.00023 
1.6 0.0548 3.6 0.00016 
1.7 0.0446 3.7 0.00011 
1.8 0.0359 3.8 0.00007 
1.9 0.0287 3.9 0.00005 
2.0 0.02275 4.0 0.00003 
 
 
 
 
210
 
 
 
 
 
 
Tabla B - Percentiles de la distribución t de student. 
g.l t 0.90 t 0.95 t 0.975 t 0.99 t 0.995 
1 3.078 6.3138 12.706 31.821 63.657 
2 1.886 2.9200 4.3027 6.965 9.9248 
3 1.638 2.3534 3.1825 4.541 5.8409 
4 1.533 2.1318 2.7764 3.747 4.6041 
5 1.476 2.0150 2.5706 3.365 4.0321 
6 1.440 1.9432 2.4469 3.143 3.7074 
7 1.415 1.8946 2.3646 2.998 3.4995 
8 1.397 1.8595 2.3060 2.896 3.3554 
9 1.383 1.8331 2.2622 2.821 3.2498 
10 1.372 1.8125 2.2281 2.764 3.1693 
11 1.363 1.7959 2.2010 2.718 3.1058 
12 1.356 1.7823 2.1788 2.681 3.0545 
13 1.350 1.7709 2.1604 2.650 3.0123 
14 1.345 1.7613 2.1448 2.624 2.9768 
15 1.341 1.7530 2.1315 2.602 2.9467 
16 1.337 1.7459 2.1199 2.583 2.9208 
17 1.333 1.7396 2.1098 2.567 2.8982 
18 1.330 1.7341 2.1009 2.552 2.8784 
19 1.328 1.7291 2.0930 2.539 2.8609 
20 1.325 1.7247 2.0860 2.528 2.8453 
21 1.323 1.7207 2.0796 2.518 2.8314 
22 1.321 1.7171 2.0739 2.508 2.8188 
23 1.319 1.7139 2.0687 2.500 2.8073 
24 1.318 1.7109 2.0639 2.492 2.7969 
25 1.316 1.7081 2.0595 2.485 2.7874 
26 1.315 1.7056 2.0555 2.479 2.7787 
27 1.314 1.7033 2.0518 2.473 2.7707 
28 1.313 1.7011 2.0484 2.467 2.7633 
29 1.311 1.6991 2.0452 2.462 2.7564 
30 1.310 1.6973 2.0423 2.457 2.7500 
35 1.3062 1.6896 2.0301 2.438 2.7239 
40 1.3031 1.6839 2.0211 2.423 2.7045 
45 1.3007 1.6794 2.0141 2.412 2.6896 
50 1.2987 1.6759 2.0086 2.403 2.6778 
60 1.2959 1.6707 2.0003 2.390 2.6603 
70 1.2938 1.6669 1.9945 2.381 2.6480 
80 1.2922 1.6641 1.9901 2.374 2.6388 
90 1.2910 1.6620 1.9867 2.368 2.6316 
100 1.2901 1.6602 1.9840 2.364 2.6260 
120 1.2887 1.6577 1.9799 2.358 2.6175 
140 1.2876 1.6558 1.9771 2.353 2.6114 
160 1.2869 1.6545 1.9749 2.350 2.6070 
180 1.2863 1.6534 1.9733 2.347 2.6035 
200 1.2858 1.6525 1.9719 2.345 2.6006 
∞ 1.282 1.645 1.96 2.326 2.576 
 
211
 
 
 
 
 
4.5 Introducción al Análisis de Varianza 
Introducción 
 
En ocasiones, la alteración de ciertos factores de un experimento, provocan una 
alteración de importancia en las mediciones de una variable aleatoria en estudio. 
En otras palabras, una variable aleatoria puede mostrar un comportamiento 
diferente para distintos niveles de uno o varios factores. Digamos por ejemplo que 
el interés de un estudio está en determinar la efectividad de cuatro tipos de dieta 
en la reducción del peso corporal. Este último, es una variable aleatoria cuyo 
comportamiento puede diferir entre las cuatro dietas (niveles del factor). 
 
¿Cómo comprobar si esto realmente ocurre? Sería lógico establecer cuatro 
grupos de sujetos, y someter cada uno a una dieta diferente para luego 
compararlos respecto a la media de reducción del peso corporal. 
Sin embargo, el uso de técnicas como la t de Student abordadas anteriormente, 
para comparar las medias, resultaría inapropiado, ya que ella solo nos sirve para 
comparar dos grupos, entonces tendríamos que comparar los grupos de dos en 
dos, y realizar un total de seis comparaciones. Esto resultaría más trabajoso, 
además que perderíamos información en cada comparación. Pero lo más 
importante, al utilizar un nivel de significación determinado para cada prueba, 
siendo estas independientes una de otra, incrementamos la probabilidad de 
cometer error tipo I para la Hipótesis de igualdad de todas las medias. 
 
Por ejemplo, para realizar las seis comparaciones con la prueba t por separado, si 
usamos un nivel de significación α = 0.05 para cada una de ellas, la probabilidad 
de no rechazar la hipótesis nula sería 0.95 en cada caso. Al ser las pruebas 
independientes entre sí, la probabilidad de no rechazar la hipótesis de no 
diferencia en los seis casos, por Regla de Multiplicación para las Probabilidades, 
se hallaría: (0.95) 6 = 0.7351. La probabilidad de rechazar al menos una hipótesis 
de no diferencia sería entonces, 1 – 0.7351= 0.2649 lo que quiere decir que 
cometeríamos error de tipo I en el 26% de los casos que procediéramos de este 
modo. 
 
Bayarre Vea H, Ranero Aparicio V M. Métodos y Técnicas aplicados a la 
Investigación en Atención Primaria de Salud. Parte III. Material Docente. 
ENSAP; 2002 
212
 
Ante situaciones como esta, es necesario utilizar una técnica desarrollada en el 
pasado siglo por Fisher, denominada Análisis de Varianza. Este técnica 
representa una generalización de la t de Student para el caso de k medias y tiene 
una amplia aplicación en el análisis de datos derivados del experimento, A lo largo 
de este capítulo abordaremos su forma más simple. 
 
Generalidades 
 
El Análisis de Varianza (ANOVA) se define como: 
 
ANOVA: Técnica en la que la variación total de un conjunto de datos se divide en 
varios componentes y cada uno de ellos se asocia a una fuente específica de 
variación, de manera que durante el análisis es posible encontrar la magnitud con 
la que contribuye cada una de esas fuentes a la variación total. 
 
¿Cómo se entiende esta definición? Retomando nuestro ejemplo, la variación del 
peso en los sujetos bajo estudio puede deberse a dos razones: en primer lugar, a 
la variación entre los grupos de dietas debido al efecto de estas, y en segundo, a 
la variación residual atribuible al azar dentro de cada grupo. 
 
Sí las medias varían mucho entre grupos, es decir, más de lo que los sujetos 
pueden diferir alinterior de los grupos, será más factible que exista diferencia real 
entre ellos. 
 
De esta forma, el Análisis de Varianza se basa en comparar directamente la 
cantidad en que varían las medias de los grupos y la cantidad en que varía cada 
grupo alrededor de su propia media. 
Este tipo de Análisis de Varianza al que indirectamente hemos aludido, es la forma 
más simple de ANOVA denominado Análisis Unilateral de Varianzas, ANOVA de 1 
vía ó también ANOVA Unidireccional, como suele verse en algunos textos. 
 
El término unilateral se refiere a que solo se investiga un factor. Este último consta 
a su vez de k niveles, comúnmente llamados tratamientos. La respuesta 
observada, valor de la variable aleatoria, (en el ejemplo es el valor del peso 
corporal) corresponde a una población y estas poblaciones son los niveles ó 
tratamientos que deseamos comparar. 
 
En la práctica este tipo de análisis se utiliza para probar la hipótesis nula que 
indica que tres ó más tratamientos son igualmente efectivos. Entonces el 
experimento requiere que se asignen los individuos a los tratamientos de un modo 
totalmente aleatorio. Por esta razón se le llama este diseño completamente 
aleatorizado. Útil cuando las unidades que reciben tratamiento son homogéneas, 
de manera que la única diferencia que se presente se deba al efecto de 
tratamientos diferentes. 
 
213
 
Suposiciones básicas para realizar un Análisis de Varianza. 
 
El diseño completamente aleatorizado al que nos referimos anteriormente es un 
requerimiento para el ANOVA unilateral, pero como toda prueba paramétrica, 
requiere también del cumplimiento de otros supuestos. 
 
1. La variable objeto de estudio, observada en k poblaciones es cuantitativa 
continua. 
2. La población de observaciones están distribuidas normalmente y las muestras 
son aleatorias e independientes, de tamaño n1, n2,.....nk arbitrarios. 
3. En cada muestra las observaciones son aleatorias e independientes. 
4. Homocelasticidad, es decir, las Varianzas poblacionales son desconocidas 
pero iguales. 
 
 Desde luego, antes de comenzar los cálculos del ANOVA debe comprobar el 
cumplimiento de los supuestos. Más adelante haremos referencia dicha 
comprobación. 
En la práctica es difícil encontrar todas las suposiciones satisfechas, siendo a 
veces necesario hacer transformaciones a los datos, lo que debe tener en cuenta 
sobretodo al informar los resultados. De todas formas, existe un procedimiento no 
paramétrico alternativa del ANOVA que se puede utilizar cuando se no se cumplen 
los supuestos paramétricos. 
 
Modelo de ANOVA de 1 vía (Diseño Completamente Aleatorizado) 
 
Debido a su simplicidad, este modelo es utilizado ampliamente. Sin embargo, es 
importante ser cauteloso, de forma tal que su uso se limite a casos en los cuales 
se dispone de unidades experimentales homogéneas. Si no pueden utilizarse 
tales unidades, deben buscarse otras vías para incrementar la eficiencia del 
diseño. 
 
Sí en un diseño completamente aleatorizado, nj unidades experimentales se 
sujetan al j-ésimo tratamiento (j=1,2,..., k) y únicamente se obtiene una 
observación por unidad experimental, los datos se representarán como se muestra 
en la siguiente tabla: 
214
 
 
Grupos ó tratamientos 
1 2 3 .......... K 
x11 x12 x13 .......... x1k 
x21 x22 x23 .......... x2k 
x31 x32 x33 .......... x3k 
. . . .......... . 
. . . .......... . 
. . . ........... . 
Observaciones 
xn1 xn2 xn3 .......... xn4 
 
Total T.1 T.2 T.3 .......... T.k T.. 
Media 1.
_
x 2.
_
x 3.
_
x .......... kx .
_
 ..
_
x 
 
Siendo: 
 
 xij : valor de la observación i en el grupo j 
i=1,2,3,...nj j=1,2,3,....k 
nj : cantidad de observaciones en el grupo j 
∑
=
=
jn
i
jij xT
1
. →Suma de las observaciones en el grupo j ó total por 
columna j ó total de observaciones bajo el j-ésimo tratamiento 
j
j
j n
T
x
.
.
_
= → Media del grupo ó tratamiento j ó media por columna j. 
∑ ∑∑
= ==
==
k
j
n
i
ji
k
j
j
j
xTT
1 11
... → Gran Total 
∑
=
=
k
j
jnN
1
 →Número total de observaciones 
 
N
T
x .
.
..
_
= →Promedio total o gran media 
 
 
215
 
Como puede apreciar en esta tabla, la variable aleatoria en estudio se observa y 
se mide en k grupos ó tratamientos, así la comparación se establece entre estos 
grupos. 
 
La idea central es que la variación total de todos los valores alrededor de su 
promedio total ó gran media ..
_
x se divide en dos componentes: la variación de las 
medias del grupo y la variación de los valores alrededor de las medias de sus 
grupos. 
 
Un ejemplo sencillo, nos permite entender esta idea: 
Observemos la variable edad en dos muestras, una de 10 mujeres y otra de 10 
hombres. La media de edad para las mujeres es de 25 años y para los hombres 
de 29 años. El promedio total para los 20 sujetos es de 27 años. Sin embargo en 
la muestra de mujeres tenemos una persona con 35 años (A). Colocando las 
edades en un esquema vemos lo siguiente: 
 
La edad de A se desvía del promedio total en 8 años, a su vez esto se puede 
descomponer en dos partes, la desviación de A de la media de su grupo (10 años) 
y en la desviación de la media del grupo a que pertenece (media de la muestra de 
mujeres) de la gran media ó promedio general (-2) o sea 8=10+(-2). 
 
 En el ANOVA consideramos cada valor muestral como descompuesto de esa 
misma forma. 
 
Para cada valor individual: 
 
Desviación del valor xij 
de la gran media 
 
= 
 
desviación de la 
media del grupo a 
que pertenece xij de 
la gran media 
 
 
+
 
desviación de xij de la 
media de su grupo 
216
 
 
Para una muestra completa se traduce de la siguiente forma: 
 
Variación total = variación entre grupos + error 
 
Esta variación entre grupos que representa la cantidad por la cual la media del 
grupo difiere de la gran media se conoce como efecto de tratamiento. 
 
En cuanto al error, no significa equivocación, sino la cantidad de la variación total 
no explicada por la variación entre grupos, o sea la variación de los miembros de 
un grupo respecto a la media de su propio grupo como resultado de variables 
desconocidas. 
 
Estas relaciones pueden escribirse simbólicamente de esta forma: 
(xij - µ) = (µj - µ) + (xij - µj) (1.1) 
siendo: 
µj : media del grupo j xij : cualquier valor del conjunto de datos 
µ : gran media 
 
Como: 
 µj - µ = Tj ó efecto del tratamiento j y 
 xij - µj = eij ó error 
 
Sustituyendo en la expresión 1,1: 
 
(xij - µ) = Tj + eij 
 
Despejando xij obtenemos el modelo de ANOVA de una vía: 
 
xij = µ + Tj + eij i=1,2,3,....nj ; j=1.2.3.....k (1.2) 
 
Este modelo a su vez se divide en dos tipos: 
1. Modelo de efecto fijo 
2. Modelo de efecto aleatorio 
 
Hablamos de un modelo de efecto fijo cuando se observan todos los niveles del 
factor sobre los que se desea inferir. Mientras que un modelo de efectos 
aleatorios es aquel en el que existe una población de niveles del factor y solo se 
observan resultados en algunos niveles seleccionados aleatoriamente, 
pretendiéndose extender las conclusiones a todos los niveles. 
 
A continuación profundizaremos un poco más en estos últimos. 
 
 
217
 
Modelo de efecto fijo. 
Cuando se estudia la influencia de un solo factor y se toman las observaciones de 
los k niveles ó tratamientos de ese factor, cualquier inferencia se aplica solo a 
dichos niveles ó tratamientos. Se obtiene entonces un modelo de efectos fijos ó 
modelo I. 
 
Este modelo está representado en la siguiente expresión: 
 
 
xij = µ + Tj +eij i=1,2,3,....nj j = 1,2,3,....k 
 
Donde: 
 
1. Deben cumplirse las suposiciones para el ANOVA mencionado anteriormente 
2. Las Tj son constantes desconocidas y ∑Tj = 0 dado que la suma de todas las 
desviaciones de µj a partir de sus medias es cero. 
3. Como eij =xij - µj , entonces las eij tienen media igual a cero dado que la media 
de xij = µj. 
4. La varianza de eij = varianza de xij dado que