Vista previa del material en texto
<p>PROBABILIDAD</p><p>𝑷(𝑨) =</p><p>𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑎 𝐴</p><p>𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠</p><p>=</p><p>𝑛(𝐴)</p><p>𝑛(Ω)</p><p>la probabilidad de cualquier evento A de Ω, es el número real 𝑃(𝐴) que satisface los siguientes</p><p>axiomas:</p><p>𝒂) 𝑃(𝐴) ≥ 0, para todo evento A</p><p>𝒃) 𝑃(Ω) = 1</p><p>𝑪) Si A y B son dos eventos mutuamente excluyentes, entonces,</p><p>𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)</p><p>Si el evento es imposible 𝑃(𝜙) = 0</p><p>Si 𝐴𝐶 es el evento complementario del evento A, entonces 𝑃(𝐴) = 1 − 𝑃(𝐴𝐶)</p><p>REGLA DE LA ADICÓN DE EVENTOS</p><p>Si A y B son dos eventos cualesquiera, entonces:</p><p>𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)</p><p>PROBABILIDAD CONDICIONAL</p><p>Eventos independientes</p><p>Los eventos A y B son independientes si y solo si</p><p>𝑃 (</p><p>𝐵</p><p>𝐴</p><p>) = 𝑃(𝐵) 𝑦 𝑃 (</p><p>𝐴</p><p>𝐵</p><p>) = 𝑃(𝐴)</p><p>Esto equivale a decir que A y B son eventos independientes si y solo si</p><p>𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵)</p><p>𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃 (</p><p>𝐵</p><p>𝐴</p><p>), si B depende de A</p><p>REGLA DE LA PROBABILIDAD TOTAL</p><p>Si k eventos 𝐴1, 𝐴2, … , 𝐴𝑘 , constituyen una partición del espacio muestral Ω, entonces, para cualquier</p><p>evento B en Ω,</p><p>𝑃(𝐵) = 𝑃(𝐴1). 𝑃 (</p><p>𝐵</p><p>𝐴1</p><p>) + 𝑃(𝐴2). 𝑃 (</p><p>𝐵</p><p>𝐴2</p><p>) + ⋯ + 𝑃(𝐴𝑘). 𝑃 (</p><p>𝐵</p><p>𝐴𝑘</p><p>) = ∑ 𝑃(𝐴𝑖)𝑃(</p><p>𝐵</p><p>𝐴𝑖</p><p>)</p><p>𝑘</p><p>𝑖=1</p><p>REGLA DE BAYES</p><p>Si los k eventos 𝐴1, 𝐴2, … , 𝐴𝑘 , constituyen una partición del espacio muestral Ω, entonces, para</p><p>cualquier evento B en Ω tal que P(B)> 0</p><p>𝑃 (</p><p>𝐴𝑖</p><p>𝐵</p><p>) =</p><p>𝑃(𝐴𝑖)𝑃(𝐵/𝐴𝑖)</p><p>𝑃(𝐵)</p><p>, para cada 𝑖 = 1,2, … , 𝑘</p><p>para cualquier evento 𝐴𝑖 de la partición, se tiene</p><p>𝑃(𝐴𝑖/𝐵) =</p><p>𝑃(𝐴𝑖 ∩ 𝐵)</p><p>𝑃(𝐵)</p><p>=</p><p>𝑃(𝐴𝑖)𝑃(𝐵/𝐴𝑖)</p><p>𝑃(𝐵)</p><p>De donde</p><p>𝑃(𝐵) = ∑ 𝑃(𝐴𝑖)𝑃(</p><p>𝐵</p><p>𝐴𝑖</p><p>)</p><p>𝑘</p><p>𝑖=1</p><p>Forma extendida del teorema de Bayes</p><p>sean 𝐴1, 𝐴2, … , 𝐴𝑛 eventos mutuamente excluyentes y exhaustivos, con 𝑃(𝐴𝑖) ≠ 0 para cada 𝐴𝑖 , sea</p><p>B cualquier evento con 𝑃(𝐵) ≠ 0 , entonces:</p><p>𝑃(𝐴𝑖/𝐵) =</p><p>𝑃(𝐴𝑖)𝑃(𝐵/𝐴𝑖)</p><p>∑ 𝑃(𝐴𝑗)𝑃(𝐵/𝐴𝑗)𝑛</p><p>𝑗=1</p><p>VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD</p><p>Variable aleatoria</p><p>una variable aleatoria X es una función definida en Ω tal que a cada elemento 𝑤 ∈ Ω le asocia el</p><p>número real 𝑥 = 𝑋(𝑤)</p><p>Dominio de la variable aleatoria es el Ω</p><p>Rango es el subconjunto de los números reales 𝑅𝑥</p><p>𝑅𝑥 = {𝑥 ∈ ℜ/𝑋(𝑤), 𝑤 ∈ Ω}</p><p>1. Variable aleatoria discreta</p><p>Función de probabilidad o de cuantía</p><p>Los valores que puede tomar una variable aleatoria X discreta</p><p>𝑝𝑖 = 𝑃[𝑋 = 𝑥𝑖], 𝑥𝑖 ∈ 𝑅𝑥, satisface las propiedades</p><p>𝑎) 𝑝𝑖 ≥ 0, para cada 𝑥𝑖 ∈ 𝑅𝑥</p><p>𝑏) ∑ 𝑝𝑖</p><p>𝑥𝑖 ∈ 𝑅𝑥</p><p>= 1</p><p>Función de probabilidad</p><p>Se define como la probabilidad de que la variable aleatoria X tome un valor menor o igual que x</p><p>𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑝(𝑥)</p><p>𝑋≤𝑥</p><p>Se denomina función de probabilidad de X a la función 𝑓(𝑥) definida por 𝑓(𝑥) = 𝑃(𝑋 = 𝑥) para todo</p><p>x número real y que satisface las siguientes condiciones:</p><p>𝑎) 𝑓(𝑥) ≥ 0, ∀ 𝑥 ∈ ℜ</p><p>𝑏) ∑ 𝑓(𝑥𝑖)</p><p>𝑥𝑖 ∈ 𝑅𝑥</p><p>= 1</p><p>Distribución de probabilidades de v.a discreta</p><p>si 𝑝𝑖 = 𝑓(𝑥𝑖), la media de X se calcula por 𝜇 = ∑ 𝑝𝑖𝑥𝑖 y la varianza por 𝜎2 = ∑ 𝑝𝑖 𝑥𝑖</p><p>2 − 𝜇2</p><p>PROPIEDADES</p><p>Función de distribución acumulada de variable aleatoria discreta</p><p>La función de distribución acumulada de probabilidades o simplemente función de distribución 𝐹(𝑥)</p><p>de la variable aleatoria discreta X, cuya función de probabilidad es 𝑓(𝑥), se define por:</p><p>𝐹(𝑥) = 𝑃[𝑋 ≤ 𝑥] = ∑ 𝑃[𝑋 = 𝑘] = ∑ 𝑓(𝑘)𝑘≤𝑥𝑋≤𝑥 para −∞ 0, si</p><p>la función de probabilidad de X es:</p><p>𝑓(𝑥) = 𝑃(𝑋 = 𝑥) =</p><p>𝑒−𝜇.𝜇𝑥</p><p>𝑥!</p><p>, 𝑥 = 0,1,2, …</p><p>• 𝑓(𝑥) = 𝑃(𝑋 = 𝑥):probabilidad de x ocurrencias en un intervalo.</p><p>• 𝜇: media o valor esperado de X.</p><p>DISTRIBUCIÓN DE VARIABLES ALEATORIAS CONTINUAS</p><p>▪ DISTRIBUCIÓN NORMAL</p><p>Se dice que la variable aleatoria continua X , que toma los valores reales, −∞ 0 y</p><p>se describe 𝜒~𝐸𝑥𝑝( 𝛽), si su función de densidad de probabilidad es:</p><p>𝑓(𝑥) = { 𝛽𝑒− 𝛽𝑥, 𝑠𝑖 𝑥 ≥ 0</p><p>0. 𝑠𝑖 𝑥</p><p>la relación</p><p>𝑃[𝑋 ≤ 𝜒1−𝛼.𝑟</p><p>2 ] = 1 − 𝛼</p><p>▪ DISTRIBUCIÓN t DE STUDENT</p><p>Se dice que una variable aleatoria continua T se distribuye según t student con r grados de</p><p>libertad y se representa por T ~ t(r), si su función de densidad es.</p><p>Donde r es un entero positivo.</p><p>Si X tiene distribución t-Student con r grados de libertad, entonces su media y su varianza son</p><p>respectivamente</p><p>USO DE LA TABLA t - STUDENT</p><p>Si la variable aleatoria T tiene distribución t-Student con r grados de libertad, o T ~ t{r), en la tabla</p><p>de probabilidades t-Student se puede encontrar una probabilidad 1 − 𝛼 o un valor 𝑐 = 𝑡1−𝛼.𝑟</p><p>mediante la relación:</p><p>𝑃[𝑇 ≤ 𝑡1−𝛼.𝑟] = 1 − 𝛼</p><p>MUESTREO ALEATORIO</p><p>Se denominan parámetros a las medidas descriptivas que caracterizan a la distribución de la</p><p>población.</p><p>Parámetros poblacionales</p><p>Media : 𝝁</p><p>Proporción : 𝝅 𝒐 𝒑</p><p>Varianza : 𝝈𝟐</p><p>Desviación estándar : 𝝈</p><p>Muestra: Es un subconjunto de la población.</p><p>Estadísticas: se denomina estadística a cualquier función de las variables aleatorias que constituyen</p><p>la muestra.</p><p>1. La media muestral (�̅�)</p><p>�̅� =</p><p>1</p><p>𝑛</p><p>∑ 𝑋𝑖</p><p>𝑛</p><p>𝑖=1</p><p>2. La varianza muestral</p><p>𝑺𝟐 =</p><p>1</p><p>𝑛</p><p>∑(𝑋𝑖 − �̅�)2</p><p>𝑛</p><p>𝑖=1</p><p>3. La desviación estándar muestral</p><p>𝑺 = √𝑺𝟐</p><p>4. La proporción muestral o porcentaje de éxitos en la muestra (�̂� 𝒐 �̅�)</p><p>�̅� =</p><p>1</p><p>𝑛</p><p>∑ 𝑋𝑖</p><p>𝑛</p><p>𝑖=1</p><p>Donde 𝑋𝑖~𝐵(1. 𝑝) (el parámetro p es el porcentaje de éxitos en la población)</p><p>también</p><p>�̅� =</p><p>𝑋</p><p>𝑛</p><p>, donde 𝑋~𝐵(𝑛. 𝑝)</p><p>DISTRIBUCIONES MUESTRALES</p><p>Se denomina distribución muestral de una estadística a su distribución de probabilidad</p><p>Ejm: a la distribución de probabilidad de la estadística media �̅�, se denomina distribución muestral</p><p>de la media.</p><p>1. Distribución muestral de la media �̅�</p><p>Sea 𝑋1, 𝑋2, … , 𝑋𝑛, una muestra aleatoria de tamaño n escogida de una población f(x) con media 𝜇</p><p>con varianza 𝜎2. Si X es la media muestral, entonces,</p><p>a) 𝑬(�̅�) = 𝜇</p><p>b) 𝒗𝒂𝒓(�̅�) =</p><p>𝜎2</p><p>𝑛</p><p>c) para n suficientemente grande, la variable aleatoria</p><p>𝑍 =</p><p>X̅ − 𝜇</p><p>𝜎/√𝑛</p><p>tiene distribución aproximadamente normal</p><p>2. Distribución muestral de la proporción</p><p>Sea 𝑋1, 𝑋2, … , 𝑋𝑛, una muestra aleatoria de tamaño n extraída de la población de Bernoulli</p><p>𝐵(1. 𝑝) donde p es el porcentaje de éxitos en la población y sea</p><p>�̅� =</p><p>𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛</p><p>𝑛</p><p>=</p><p>𝑋</p><p>𝑛</p><p>la proporción de éxitos en la muestra, siendo, 𝑋 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 una variable</p><p>binomial B (n, p), entonces.</p><p>3. Distribución muestral de la varianza</p><p>Si 𝑋1, 𝑋2, … , 𝑋𝑛, es una muestra aleatoria escogida de una distribución normal 𝑁(𝜇; 𝜎2) y si</p><p>es la varianza muestral, entonces,</p><p>4. Distribución de 𝐗 cuando 𝝈𝟐 se desconoce</p><p>Sea 𝑋1, 𝑋2, … , 𝑋𝑛, una muestra aleatoria de tamaño n escogida de una distribución normal</p><p>𝑁(𝜇; 𝜎2), donde la varianza poblacional 𝜎2 es desconocida, entonces la variable aleatoria.</p><p>𝑻 =</p><p>�̅� − 𝜇</p><p>𝑺/√𝒏</p><p>tiene distribución t de student con n-1 grados de libertad o 𝑇~𝑡(𝑛 − 1), en efecto, se ha verificado</p><p>que:</p><p>𝑍 =</p><p>X̅−𝜇</p><p>𝜎</p><p>√𝑛</p><p>~ 𝑁(0.1) y 𝑉 =</p><p>(𝑛−1)𝑆2</p><p>𝜎2</p><p>~ 𝜒2(𝑛 − 1)</p><p>además, las variables Z y V son independientes, entonces la variable aleatoria:</p><p>𝑇 =</p><p>𝑍</p><p>√𝑉/(𝑛 − 1)</p><p>=</p><p>X̅ − 𝜇</p><p>𝑆</p><p>√𝑛</p><p>tiene distribución t student con (n-1) grados de libertad</p><p>5. Distribución muestral de la diferencia de dos medias con varianzas poblacionales conocidas</p><p>Sean �̅�1 y �̅�2 las medias de dos muestras aleatorias independientes de tamaños 𝑛1 y 𝑛2</p><p>seleccionadas de dos poblaciones con medias 𝜇1 y 𝜇2 y varianzas 𝜎1</p><p>2 y 𝜎2</p><p>2 respectivamente,</p><p>supuestas conocidas, entonces, la variable aleatoria �̅�1 - �̅�2 tiene las siguientes propiedades.</p><p>tiene aproximadamente distribución normal N(0,1)</p><p>6. Distribución muestral de la diferencia de dos medias con varianzas poblacionales desconocidas</p><p>Sea �̅�1 la media de una muestra aleatoria de tamaño n1 extraída de la población normal 𝑁(𝜇1, 𝜎1</p><p>2), y</p><p>sea �̅�2 la media de otra muestra aleatoria de tamaño n2 extraída de la población normal 𝑁(𝜇2, 𝜎2</p><p>2),</p><p>independiente de la anterior.</p><p>A. Varianzas poblacionales iguales 𝜎1</p><p>2 = 𝜎2</p><p>2 = 𝜎2</p><p>En este caso, la variable aleatoria �̅�1 − �̅�2 tiene distribución normal</p><p>𝑁 (𝜇1 − 𝜇2,</p><p>𝜎1</p><p>2</p><p>𝑛1</p><p>+</p><p>𝜎2</p><p>2</p><p>𝑛2</p><p>)</p><p>y la variable aleatoria estándar:</p><p>B. Varianzas poblacionales diferentes 𝜎1</p><p>2 ≠ 𝜎2</p><p>2</p><p>En este caso la variable aleatoria:</p><p>𝑻 =</p><p>( �̅�1 − �̅�2) − (𝜇</p><p>1</p><p>− 𝜇</p><p>2</p><p>)</p><p>√𝑆1</p><p>2</p><p>𝑛1</p><p>+</p><p>𝑆2</p><p>2</p><p>𝑛2</p><p>tiene distribución t student con g grados de libertad, donde,</p><p>𝑔 =</p><p>[</p><p>𝑆1</p><p>2</p><p>𝑛1</p><p>+</p><p>𝑆2</p><p>2</p><p>𝑛2</p><p>]</p><p>2</p><p>[</p><p>𝑆1</p><p>2</p><p>𝑛1</p><p>]</p><p>2</p><p>𝑛1 − 1</p><p>+</p><p>[</p><p>𝑆2</p><p>2</p><p>𝑛2</p><p>]</p><p>2</p><p>𝑛2 − 1</p><p>Si g no es un número entero se redondea al entero más cercano.</p><p>7. Distribución muestral de la diferencia de dos proporciones</p><p>Sea 𝑋1, 𝑋2, … , 𝑋𝑛1</p><p>e 𝑌1, 𝑌2, … , 𝑌𝑛2</p><p>dos muestras aleatorias independientes de tamaños 𝑛1 y 𝑛2</p><p>seleccionadas respectivamente de dos poblaciones independientes de Bernoulli 𝐵(1, 𝑝1) y</p><p>𝐵(1, 𝑝2), donde 𝑝1 y 𝑝2 son las proporciones poblacionales de éxito respectivos. Sean las</p><p>proporciones muestrales</p><p>�̅�1 =</p><p>∑ 𝑋𝑖</p><p>𝑛1</p><p>𝑖=1</p><p>𝑛1</p><p>=</p><p>𝑋</p><p>𝑛1</p><p>y �̅�2 =</p><p>∑ 𝑌𝑖</p><p>𝑛2</p><p>𝑖=1</p><p>𝑛2</p><p>=</p><p>𝑦</p><p>𝑛2</p><p>donde 𝑋~𝐵(𝑛1, 𝑝</p><p>1</p><p>) y 𝑌~𝐵(𝑛2, 𝑝</p><p>2</p><p>)</p><p>Entonces la variable aleatoria �̅�1 − �̅�2 tiene una distribución de probabilidad cuyas</p><p>propiedades son las siguientes:</p><p>tiene distribución aproximadamente 𝑁(0,1), donde el error estándar 𝜎�̅�1−�̅�2</p><p>es dado por:</p><p>𝜎�̅�1−�̅�2</p><p>= √</p><p>𝑝1(1 − 𝑝1)</p><p>𝑛1</p><p>+</p><p>𝑝2(1 − 𝑝2)</p><p>𝑛2</p><p>8. DISTRIBUCIONES MUESTRALES Y ESTIMACIONES MEDIANTE INTERVALOS DE CONFIANZA</p><p>8.1. Distribución muestral de la media</p><p>Caso para muestras grandes</p><p>Caso para muestras pequeñas</p><p>DISTRIBUCIÓN MUESTRAL DE UNA PROPORCIÓN</p><p>DISTRIBUCIÓN MUESTRAL PARA LA DIFERENCIA DE PROPORCIONES</p><p>Primer caso: varianzas poblacionales conocidas o desconocidas y muestras grandes</p><p>Segundo caso: varianzas poblacionales desconocidas, iguales y muestras pequeñas</p><p>DISTRIBUCIÓN MUESTRAL PARA LA VARIANZA</p><p>ESTIMACIÓN PUNTUAL E INTERVALOS DE CONFIANZA</p><p>CASO1 : PARA MUESTRAS GRANDES</p><p>CASO 2: PARA MUESTRAS PEQUEÑAS (t de student)</p><p>INTERVALOS DE CONFIANZA PARA LA PROPORCIÓN POBLACIONAL Y PARA LA DIFERENCIA DE</p><p>DOS PROPORCIONES</p><p>INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE DOS MEDIAS</p><p>Caso1: varianzas poblacionales conocidas o desconocidas y muestras grandes</p><p>Caso 2: varianzas poblacionales iguales, desconocidas y muestras pequeñas</p>