Vous êtes sur la page 1sur 20

TEMA 1 VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES

1.- Defina el concepto de variables aleatorias y ponga un ejemplo Una variable aleatoria es una funcin que asigna un valor numrico a cada suceso elemental del espacio. Ejemplo: suceso aleatorio moneda al aire:Definimos a X como el n de cruces que aparecen al lanzar la moneda, los sucesos pueden ser: A1=(FC) A2=(CF) A3=(CC) A4=(FF) Los valores que damos a la variable aleatoria son: X(A1)=X(FC)=1; X(A2)=X(CF)=1; X(A3)=X(CC)=2; X(A4)=X(FF)=0 Observamos que la variable aleatoria X es una funcin, pues a cada elemento del conjunto origen, le hace corresponder un solo elemento del conjunto imagen, de valores de la variable aleatoria.

2.- Cundo podemos decir que una variable aleatoria es discreta? Y continua? Ponga un ejemplo. Una variable aleatoria X es DISCRETA si puede tomar un nmero finito o infinito, pero numerable de posibles valores. (ejemplo: n piezas defectuosas que aparecen en proceso de fabricacin). Una variable aleatoria X es CONTINUA si puede tomar un nmero infinito de valores correspondientes a los puntos de uno o ms intervalos de la recta real.(ejemplo: cantidad de lluvia cada cada da en un determinado punto geogrfico valor mnimo y el mximo de lluvia prevista)

3.- Existen analogas en las condiciones que debe verificar la funcin de probabilidad de una variable discreta y la funcin de densidad de una variable continua? La distribucin de probabilidad o funcin de probabilidad de una variable aleatoria discreta X, la notaremos por P(x) y es una funcin que asigna las probabilidades con la que la variable aleatoria toma los posibles valores de tal manera que las probabilidades verifiquen 2 condiciones: 1.- 0 P(xi) 1 negativa)( i = 1,2, r (esta condicin indica que la probabilidad no puede ser

2.- P(xi) = 1 (esta condicin indica que los sucesos X=x para todos los valores posibles x, son mutuamente excluyentes y exhaustivos)
Pgina 1 de 20

Sea X una variable de tipo continuo y si existe una funcin f(x) que verifique: 1.- (x) 0 2.- f(x)dx = 1 Diremos que f(x) es la funcin de densidad de la variable continua X. En el caso discreto la probabilidad se asigna a cada valor de la variable aleatoria, mientras que en el caso continuo la probabilidad es considerada como una densidad de probabilidad sobre el rango de valores de la variable aleatoria, es decir en el caso discreto existen probabilidades puntuales, sin embargo en el caso continuo la P(X=x)=0 y la probabilidad no se asigna a un punto sino a un intervalo. En el caso discreto la suma de probabilidades puntuales es igual a 1, mientras en el caso continuo la suma de densidades de probabilidad o el rea bajo la curva f(x) debe ser igual a la unidad. La probabilidad de que la variable continua X tome valores en el intervalo (a,b) ser igual al rea bajo la curva f(x) acotada entre a y b P(a x b) = f(x)dx La funcin de distribucin de una variable aleatoria continua verifica: es no decreciente es decir si xixj entonces F(xi)f(xj)) - < X < +

4.- En el clculo de probabilidades de una variable aleatoria discreta y una continua existen diferencias? Hay una diferencia significativa en el clculo de probabilidades para una variable aleatoria discreta y una variable aleatoria continua. Si la variable aleatoria X es discreta, sabemos que existen probabilidades puntuales P(X=xi), sin embargo, en el caso continuo, si xi es un punto interior al intervalo de definicin de la variable aleatoria continua X, entonces la P(X = xi)= 0 =P(xi X xi)=0

5.- Qu entendemos por funcin de distribucin? Una funcin de distribucin acumulativa de la variable aleatoria X, que denotaremos por F(x) como la probabilidad de que la variable aleatoria X tome valores menores o iguales que X, es decir, DISCRETO F(x) = P (Xx) = P(xi)=P(X=xi) Y representa la suma de probabilidades puntuales hasta el valor x inclusive de la variable aleatoria X CONTINUO F(x) = P(Xx) = f(x)dx Y representa el rea limitada por la curva funcin de densidad f(x) y a la izquierda de la recta X=x.

6.- Cundo podemos decir que las variables aleatorias son independientes? Diremos que las variables aleatorias X e Y son independientes si y solo si se verifica que la funcin de distribucin conjunta F(x,y) es igual al producto de sus distribuciones marginales F1(x) F2(y) es decir: X e Y son independientes: F(x,y) = (F1(x) F2(y) (x,y)

Pgina 2 de 20

TEMA 2 VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES


1.- Por qu es interesante calcular la esperanza y la varianza de una variable aleatoria? La esperanza y la varianza son las principales medidas de posicin y de dispersin respectivamente. En muchos casos, por ejemplo, si la variable aleatoria es normal la esperanza y la desviacin tpica (raz cuadra de la varianza) caracterizan por completo la distribucin de la variable. Otro uso interesante para la E(x) y la Var (x) es que mediante la desigualdad de chebychev podemos acotar la probabilidad de que la variable aleatoria se aleje ms o menos de su media o esperanza.

2.- Concepto de varianza y desviacin tpica de una variable aleatoria El valor esperado E(x) de una variable aleatoria X es la media ponderada de los posibles valores que puede tomar la variable X, en donde las ponderaciones son las probabilidades P(xi)=P(x=xi) de ocurrencia de los posibles valores de X. El valor esperado de X se interpreta como una media ponderada de los posibles valores de X y no como el valor que se espera que tome X. En el caso de la variable aleatoria continua nos indica el centro de la funcin de densidad, es decir, E(x) nos indica el centro de gravedad de la distribucin.

3.- Para qu se utilizan los momentos de una variable aleatoria? Los momentos nos permitirn hacer ms fciles las comparaciones entre distribuciones, as pues a menudo estamos interesados en comparar 2 distribuciones y determinar cul es ms dispersa respecto a la media o cul ms puntada, etc. Los momentos nos proporcionan valores numricos, muy tiles sobre caractersticas de la distribucin de una variable aleatoria. Momento de orden r respecto a E(x) Sea X una variable aleatoria y r un nmero entero y positivo. Definimos el momento de orden r de x y la notaremos como r como r= E(x) para r= 1,2, Momento central de orden r
Pgina 3 de 20

Sea X una variable aleatoria y r un nmero entero y positivo. Definimos el momento central de orden r de x y lo notaremos por Ur como Ur=E[(X-E(x)] para r01,2,

4.- Concepto de varianza y desviacin tpica de una variable aleatoria La varianza es una medida de dispersin de los valores de la variable respecto de su media y nos permite conocer el grado de dispersin de los valores de la distribucin, pudiendo establecer comparaciones con otras distribuciones. Tambin la podemos utilizar como una cierta medida de cmo representa l media a la distribucin. La varianza se expresa en las mismas unidades que la variable pero elevadas al cuadrado La desviacin tpica es la raz cuadrada positiva de la varianza y se expresa en la misma unidad de medida que la variable X y se denota por x. VAR(x) =2x=U2(momento orden 2)=E[(X-E(x)] 5.- Cmo afecta a la esperanza y varianza de una variable aleatoria un cambio de origen? y un cambio de escala? La varianza es invariable frente a cambios de origen pero no lo es frente a cambios de escala, pues al dividir todos los valores de la variable X por el cambio de escala e estos se dispersan si e<1 y se concentran si e>1. Se hace un cambio de origen O cuando se realiza la siguiente transformacin T=X-O Mediante esta transformacin todos los valores de la variable aleatoria X se desplazan O unidades del eje de ordenadas manteniendo la misma posicin relativa y la misma distancia entre ellos. Si calculamos E(x) de la nueva variable T transformada resulta E(t) = E(x)-0 Realizamos un cambio de escala e (e>0) cuando se realiza la siguiente tranformacin X-0 Y = -----------E Si e < 1: los nuevos valores transformados se alejan unos de otros y aumenta la dispersin respecto de X T Si e > 1: los nuevos valores transformados se acercan unos de otros, es decir, se concentran y disminuye la dispersin respecto X t. Es decir el cambio de origen y escala afecta a la esperanza.

6.- si X e Y son dos variables aleatorias con varianzas conocidas Qu podemos decir de VAR (X+-Y)? Sean X e Y dos variables aleatorias independientes cuyas varianzas existen entonces se verifica que la varianza de la suma o de la diferencia entre ambas variables aleatorias independientes es igual a la suma de las varianzas. Es decir: VAR (X+-Y) = Var (x) + Var (y)
Pgina 4 de 20

7.- Qu medida utilizara para comparar dos distribuciones con distinta media y varianza? Ponga un ejemplo. El coeficiente de variacin expresa la dispersin de una variable aleatoria respecto a su media y es muy til para comparar dos distribuciones de probabilidad. x x CV = ---------- = ---------E (x) Ux Ejemplo: Ux=110 Q2x= 32 y Uy= 30 Q2y=14 Observamos que la dispersin de X es ms grande que la de Y, en sentido absoluto, pero si calculamos los respectivos coeficientes de variacin resulta que la dispersin relativa de X e menor que la dispersin relativa de Y, por lo tanto, la distribucin de probabilidad de X tiene una menor dispersin relativa con respeto a la media que la distribucin de probabilidad de Y.

8.- Cundo no tiene sentido utilizar el coeficiente de variacin como medida de dispersin relativa? El coeficiente de variacin no tendr sentido cuando la variable X toma valores positivos y negativos, pues en este caso la media podra quedar compensada por los valores positivos y negativos y no nos reflejara el tamao de X. Luego el coeficiente de variacin slo tendr sentido cuando X sea una variable que toma slo valores positivos.

9.- Por qu es interesante tipificar una variable aleatoria? Cuando pretendemos comparar magnitudes expresadas en distintas unidades o en distintas situaciones para poder compararlas tendremos que hacerlas homogneas y a este proceso de homogeneizacin de las diferentes magnitudes le llamaremos TIPIFICACION NORMALIZACION. Diremos que una variable Z est tipificada cuando su media es cero y su desviacin tpica es 1 X-ux Z = ---------x 10.- Concepto de coeficiente de asimetra y curtosis Estas medidas de forma sern adimensionales e invariables ante cambios de origen y escala. Coeficiente de asimetra de Fisher Y1 = u3/3 momento de orden 3 Y1 <0 la distribucin simtrica es a la izquierda Y1 =0 la distribucin simtrica (punto de simetra) Y1> 0 la distribucin simtrica es a la derecha

Pgina 5 de 20

Coeficiente de curtosis o apalancamiento Este coeficiente trata de medir el grado de agrupamiento de los valores centrales en torno a la media aritmtica. Es decir, mide el grado de aplastamiento de la grfica correspondiente a la funcin de densidad. Y2 = u4/4 momento de orden 4 Y2 = 0 mesocrtica Y2<0 plasticrtica Y2> leptocrtica

11.- cul es la aplicacin fundamental de la desigualdad de chebychev? Expresar en trminos de probabilidad la dispersin de los valores de la variable alrededor de su media utilizando para ello, la varianza como medida de dispersin y no siendo necesario el conocimiento de la distribucin de la variable aleatoria X. Esto significa que la varianza tiene un efecto muy significativo sobre las probabilidades asociadas a estos intervalos. Para cualquier K> 0 P[X-u k] 2/k2

12.- Para qu se utiliza la covarianza entre dos variables aleatorias? Cules son sus propiedades? Es el momento de orden u11 U11= E[X - E(x)] [Y - E(y)]

La covarianza nos permite dar una medida de la dependencia lineal entre X e y en el sentido de que cuando los valores X crecen los valores de Y tambin tienden a crecer y entonces la covarianza entre X e Y es positiva y al contrario, si cuando los valores de X decrecen los valores de Y tambin decrecen entonces la covarianza es negativa. Luego podemos decir, de momento, que la covarianza nos da una medida del grado de relacin lineal existente entre ambas variables X e Y. La covarianza tomar valores cercanos a la unidad cuando la dependencia lineal entre X e Y sea elevada y tomar valores prximos a cero cuando ocurra lo contrario. Propiedades 1.- cov (X,Y) = E(x y) E(x) E(y) = 11 - 10 01 2.- si X e Y son independientes COV (X,Y) = 0 3.- a y b son dos nmeros reales COV (U,V) = ab cov (X,Y) 4.- la cov (X,Y) = Cov (Y,X) 5.- la cov (X,X) = var (X) 6.- la cov (X,a) = 0 para cualquier n real a 7.- si Y,Z,X son variables aleatorias entonces cov (X+Y,Z) = cov (Z, X+Y) = cov (X,Z) + cov (Y,Z) 8.- si X e Y son variables aleatorias var (X+-Y) = var(x) + var(y) +- 2 cov (X;Y)
Pgina 6 de 20

Si X e Y son independientes Var (X+-Y) = var(x) + var(y) 9.- si x1, x2x son variables aleatorias, entonces (mirar) 10.- (mirar)

13.- defina el concepto de coeficiente de correlacin Puede ser negativo? Mide la fuerza de la relacin lineal entre las variables aleatorias Sean X e Y dos variables aleatorias cuyas varianzas existen y son distintas de cero. Entonces definimos el coeficientes de correlacin lineal entre X e Y que notaremos por Pxy = cov (X,Y)/var (x) var (y) = xy/x y Si Pxy toma un valor prximo a la unidad existe una fuerte relacin lineal entre X e Y Si Pxy = 1 entonces existe exactamente una relacin lineal ente X e Y Si Pxy toma un valor prximo a cero, existen una relacin no lineal entre X e Y Si el coeficiente de correlacin Pxy=0 diremso que las variables estn incorrelacionadas y si Pxy0 entonces se dir que estn correlacionadas. La correlacin ser positiva cuando Pxy>0 y ser negativa cuando Pxy<0.

TEMA 3 ALGUNOS MODELOS DE PROBABILIDAD DE TIPO DISCRETO


1.- Qu condiciones nos permiten decir que una variable aleatoria sigue una distribucin de bernoulli? y una binomial? Ponga un ejemplo. Diremos que una variable aleatoria X sigue una distribucin de Bernoulli de parmetro p si su distribucin de probabilidad es: P(x) = P(X = x) = Px (1-p)1-x Definimos la variable aleatoria binomial X como el nmero de xitos que tiene lugar cuando se realizan n-repeticiones independientes de una prueba o experimento de bernoulli. Diremos que una variable aleatoria X sigue una distribucin binomial de parmetros n y p si su probabilidad es P(x) = P(X=x) (poner frmula9

2.- Definicin y caractersticas de una variable aleatoria binomial Definimos la variable aleatoria binomial X como el nmero de xitos que tienen lugar cuando se realizan n-repeticiones independientes de un experimento o prueba de Bernoulli. Diremos que una variable aleatoria Binomial sigue una distribucin binomial de parmetros n y p si su funcin de probabilidad es (poner frmula) Para que la funcin de probabilidad est bien definida tiene que cumplir que todas las probabilidades sean mayores o iguales a cero y que la suma de todas ellas sea igual a uno.
Pgina 7 de 20

3.- Caractersticas que presentan las distribuciones de Poisson. Diremos que una variable aleatoria X sigue una distribucin de Poisson de parmetro (>0) si su funcin de probabilidad es (poner frmula) = n medio de resultados en intervalo Media E(x) = Varianza E(x)2 = 2 + (ver propiedades) 4.- Cundo se puede aproximar una distribucin Binomial a una de Poisson? La distribucin binomial se puede aproximar a una Poisson cuando n>30 y p0,1 y como la media en la distribucin binomial es np y en la distribucin de poisson es entonces en esta aproximacin se considera que la media es =np En situaciones reales en las que se utilizan la distribucin de Poisson se tienen que caracterizar por una probabilidad del suceso xito muy pequeo y un n grande de repeticiones.

TEMA 4
1.- Cundo una variable aleatoria sigue una distribucin uniforma continua? Diremos que una variable aleatoria X sigue una distribucin uniforme en el intervalo (a,b), si la probabilidad de que la variable aleatoria tome un valor en cualquier subintervalo es proporcional a la longitud del subintervalo. Diremos que una variable aleatoria X, de tipo continuo, sigue una distribucin uniforme en el intervalo (a,b) con - < a < b < +, si su funcin de densidad es (poner funcin)

En donde a y b son los parmetros

2.- Qu representan los parmetos u y en una distribucin nomrla? qu relacin existe entre la distribucin N(u,) y la distribucin N(0,1) Segn los valores que se den a los parmetros u y , teniendo en cuenta que u, R y que - < u < + y > o, no haya una nica distribucin normal sino una familia de distribuciones. Dentro de la familia de distribuciones normales de parmetros (u,) hay una muy importante que corresponde a los valores de los parmetros u=0 y =0, es decir una distribucin N(0,1) y recibe el nombre de distribucin tipificada o estndar, cuya correspondiente funcin de densidad se obtiene haciendo u=0 y =1 Si X es una variable aleatoria con distribucin N(u,) entonces la variable aleatoria tipificada Z=X-1/ sigue una distribucin N(0,1)

Pgina 8 de 20

Si Z es una variable aleatoria con distribucin N(0,1) entonces la variable aleatoria X= z + u sigue una distribucin N(u,)

4.- porqu es necesario tipificar una variable aleatoria normal N(u,) Teniendo en cuenta el proceso de tipificacin de una variable aleatoria N(u,) podemos reducir todas las distribuciones N(u,) a una N(0,1) y tabular nicamente la distribucin N(0,1) no producindose variacin alguna en el rea limitada bajo la curva normal y los valores dados.

6.- Dadas 2 variable independientes X1 y X2 distribuidas X1N(u1,1) y X2(u2,2) cmo se distribuye la variable aleatoria Y= X1 + X2? Sigue una distribucin N(un, n)

7.- Qu relacin existe entre la distribucin normal con la binomial y la Poisson? BINOMINAL A NORMAL Una variable aleatoria X con distribucin B(n,p) se puede aproximar a una distribucin N(u,) siendo u =np y =npq, cuando n sea suficientemente grande, es decir Np > 5 y p Nq > 5 y p> Lo que se hace es aproximar una distribucin discreta binomial a una distribucin continua normal. NORMAL A POISSON Sabemos que la media de distribucin poisson es y cuando es relativamente grande puede utilizarse la distribucin normal para aproximar la distribucin poisson. En la prctica la aproximacin es aceptable si = 10, auqneu algunos autores aceptan la aproximacin cuando >5

TEMA 5 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO


1.- Explique cul es el objetivo bsico de la inferencia estadstica Es utilizando informacin que nos proporciona una muestra de la poblacin se obtienen conclusiones o se infieren valores sobre caractersticas poblacionales. Uno de los objetivos fundamentales es el obtener conclusiones basndonos en los datos que se han observado.
Pgina 9 de 20

2.- Explique si existe alguna diferencia entre poblacin y muestra. Ponga un ejemplo. Muestra: observacin parcial de una poblacin. Diremos que se ha investigado la poblacin a partir de una muestra cuando los elementos que componen la muestra no renen ninguna caracterstica esencial que los diferencie de los restantes, representando por tanto, a toda la poblacin. La muestra debe de ser representativa de toda la poblacin y por tanto tendr caractersticas similares a las que se observarn en la poblacin entera. La razn principal para investigar una muestra en lugar de la poblacin completa es que la recogida de la informacin para toda la poblacin dara lugar a un coste muy elevado tanto en recursos econmicos como en tiempo.

3.- cundo podemos decir que una muestra es vlida para realizar inferencia? Es muy importante que la muestra sea representativa de la poblacin, as pues la calidad de la inferencia o conclusin obtenida a partir de una muestra sobre las diferentes caractersticas poblacionales estar directamente relacionada con la representatividad de la muestra. Para poder hacer inferencia correcta sobre toda la poblacin a partir de una muestra es necesario que se verifique la REPRESENTATIVIDAD y la ALEATORIEDAD de la muestra.

4.- Concepto de muestra aleatoria simple? Una muestra aleatoria simple de tamao n de una poblacin X est constituida por un conjunto de n-variables aleatorias x1 ..xn independientes e idnticamente distribuidas a la poblacin X, es decir, est constituida por un conjunto de observaciones muestrales independientes e idnticamente distribuidas.

5.- Qu es un parmetro poblacional? Ponga un ejemplo. Es una caracterstica numrica de la distribucin de la poblacin. El conocimiento del parmetro permite describir parcial o totalmente la funcin de probabilidad de la caracterstica que se investiga. (mirar ejemplo)

6.- Qu es un estadstico? Ponga un ejemplo Un estadstico es cualquier funcin real de las variables aleatorias que integran la muestra, es decir, es una funcin de las observaciones muestrales, la cual no contiene ningn valor o parmetro desconocido. (ver ejemplo)

7.- Qu utilidad tiene la funcin de distribucin emprica? Se puede utilizar para determinar la forma general de la distribucin poblacional. Tambin es fcil y muy frecuente el reconocer la forma de la distribucin observando el histograma correspondiente que nos dar idea de la funcin de densidad. La funcin de distribucin emprica tiene las mismas propiedades que la funcin de distribucin de la variable aleatoria, y se puede demostrar utilizando el teorema de Glivenki-Cantelli.
Pgina 10 de 20

Cuando el tamao de la muestra crece el grfico de la funcin de distribucin emprica se aproxima bastante a la de la funcin de la poblacin y se puede utilizar como estimador de la misma.

8.- Explique qu es la distribucin de probabilidad de una poblacin y la distribucin de probabilidad de un estadstico muestral Se puede afirmar que es lo mismo? La distribucin de probabilidad de los estadsticos depender del tamao muestral n. Hay diferencia entre la distribucin de la poblacin de la cual se ha extraido la muestra y la distribucin de alguna funcin de la muestra.

9.- Cmo se obtiene la distribucin muestral de un estadstico? La distribucin muestral de un estadstico puede ser obtenida tomando todas las posibles muestras de un tamao fijado n calculando el valor del estadstico para cada muestra y constituyendo la distribucin de estos valores. 10.- Cul es la media y varianza del estadstico medio muestral? Y de la varianza muestral? Si (x1..xn) es una muestra aleatoria de tamao n procedente de una poblacin descrita por la variable aleatoria X, con media E(x) = u y varianza var(x) =2, entonces la esperanza de la media muestral es igual a la media de la poblacin (u) y la varianza de la media muestral es igual a la varianza de la poblacional dividida por n, E(x) = u var(x) = 2/n

11.- Qu distribucin sigue la media muestral cuando se conoce la poblacional? Y cuando no se conoce la varianza poblacional? Cuando se conoce la varianza poblacional

varianza

Sea (x1xn) una muestra aleatoria simple de tamao n procedente de una poblacin N(u,) entonces la distribucin del estadstico media muestral tendr una distribucin normal N(u,/n) Y el estadstico muestral Z= X u/ /n N(0,1) Cuando no se conoce la varianza poblacional Si (x1.xn) es una muestra aleatoria simple, de tamao n, procedente de una poblacin N(u,) con desconocida entonces el estadstico ser T= X-u/s/n (t student con n-1 grados de libertad)

12.- Qu distribucin sigue la varianza muestral? Sea (x1xn) una muestra aleatoria simple de tamao n procedente de una poblacin N(u,) entonces se verifica que 1.- los estadsticos X y S2 son independientes
Pgina 11 de 20

2. el estadstico (n-1)S2/2 X2 n-1 sigue una distribucin X2 con n-1 grados de libertad 3. el estadstico X-u/s/n t n-1 sigue una distribucin t-student con n-1 grados de libertad

13.- Qu distribucin sigue la proporcin muestral? La distribucin muestral del estadstico muestral tendr la misma forma que la distribucin binomial de X y como la distribucin binomial se puede aproximar a la normal cuando n es grande n30 entonces teniendo en cuenta el Teorema Central del Lmite resulta que el estadstico proporcin muestral sigue una distribucin normal, es decir ^p =Px =X/N N(p,pq/n) E(^p) = p Var (^p)= pq/n

TEMA 6 ESTIMACION PUNTUAL


1.- Explique cul es el objetivo bsico de la inferencia estadstica El objetivo bsico de la inferencia estadstica es hacer inferencias o sacar conclusiones sobre la poblacin a partir de la informacin contenida en una muestra aleatoria de la poblacin. Inferencia estadstica: es el proceso de seleccin y utilizacin de un estadstico muestral, mediante el cual, utilizando la informacin que nos proporciona una muestra aleatoria nos permite sacar conclusiones sobre caractersticas poblacionales.

2.- Concepto de poblacin, muestra y estadstico muestral? Estadstico muestral: la informacin proporcionada por la muestra. Muestra: la informacin que se obtiene de un subconjunto o parte de la poblacin 3.- Qu mtodos podemos utilizar para obtener el valor del parmetro poblacional? Los mtodos para obtener el valor del parmetro poblacional son: media, varianza y proporcin poblacional (mirar frmulas) Proporcin n xitos de N pruebas/n pruebas 4.- Existe alguna diferencia entre media muestral y la media poblacional. Razone la respuesta La media muestral es X= 1/n xi La media poblacional es u = 1/N xi

5.- Existe alguna diferencia entre estimador y estimacin? Ponga un ejemplo.

Pgina 12 de 20

La eleccin del estadstico apropiado depender de cul ser el parmetro poblacional que nos interese. El valor verdadero del parmetro ser desconocido y un objetivo sera estimar su valor, por lo que tal estadstico se denomina ESTIMADOR. Las inferencias sobre el valor de un parmetro poblacional se puede obtener mediante dos maneras de ellas: a partir de una estimacin. En una ESTIMACION basta seleccionar un estadstico muestral cuyo valor se utilizar como estimador del valor del parmetro poblacional. 6.- Enuncie y explique brevemente cuales son las propiedades de un buen estimador puntual El error cuadrtico medio del estimador que lo denotaremos por ECM es el valor esperado del cuadrado de las diferencias entre el estimador ^ y el parmetro es decir ECM (^) = E[^-]2 = E[ -]2 Varianza estimador: Var (^) =E(^2) (E(^)2 Cuadrado del sesgo del estimador: (sesgo (^)2 = (E(^-)2 7.- Qu significa que un estimador es insesgado? Y eficiente? Explique brevemente la respuesta Sesgo =(^) E (^)- Diremos que el estimador ^= g (x1..xn) es un estimador INSESGADO o centrado del parmetro si la esperanza matemtica del estimador ^es igual al parmetro E(^) = Para todos los valores de y entonces Sesgo (^) = E(^) = 0 El estimador ms EFICIENTE entre un grupo de estimadores insesgados ser el que tenga menor varianza (la eficiencia de un estimador se halla comparando su varfianza con la varianza de los dems estimadores insesgados).

8.- Si un estimador es eficiente Podemos afirmar que es apto para estimar un parmetro poblacional? Un estimador eficiente ser un estimador insesgado y uniformemente de mnimo de varianza (UMVUE) cuya varianza coincide con el lmite inferior de la cota del Ficher cramer Roo, pero un estimador UMVUE puede no ser eficiente puesto que su varianza, siendo minima no alcanza la cota FCR. La media muestral es un estimador eficiente de la media poblacional, cuando la poblacin es N(u,)

9.- Explique brevemente que es un error cuadrtico medio Definimos ERROR CUADRATICO MEDIO del estimador ^ que lo notaremos por ECM (^) como el valor esperado del cuadrado de la diferencia entre el estimador ^ y el parmetro Mirar frmula

TEMA 7
Pgina 13 de 20

METODOS DE OBTENCION DE ESTIMADORES


1.- En qu consiste el mtodo de los momentos? Este mtodo consiste en igualar tantos momentos muestrales como parmetros haya que estimar, a los correspondientes momentos poblacionales, que son funciones de los parmetros desconocidos y resolviendo el sistema de ecuaciones resultante tendramos los estimadores de los parmetros.

2.- Qu propiedades tienen los estimadores obtenidos por el mtodo de los momentos? 1.- INSESGADEZ: si los parmetros desconocidos y que pretendemos estimar son momentos poblacionales respecto al origen la media de la distribucin normal, el parmetro p de la distribucin de Bernoulli, el parmetro de la distribucin de Poisson, etc. entonces los estimadores obtenidos por este mtodos son insesgados. 2.- CONSISTENCIA: bajo condiciones bastante generales los estimadores obtenidos por este mtodo son consistentes. 3.- NORMALIDAD ASINTOTICA: si los parmetros desconocidos y que pretendemos estimar son los momentos poblacionales entonces los estimadores obtenidos sern asintticamente normales.

3.- Cul es el objetivo que se persigue al utilizar el mtodo de los momentos? Se utiliza para obtener una primera aproximacin de los estimadores. Es el mtodo ms sencillo y antiguo.

4.- Qu es el mtodo de estimacin de mxima verosimilitud? Explique cmo se interpreta Consiste en seleccionar como estimador del parmetro, de un modelo probabilstico, a aqul valor que tiene la propiedad de maximizar el valor de probabilidad de la muestra observada. Es decir, encontrar el valor del parmetro que maximiza la funcin de verosimilitud.

5.- defina funcin de verosimilitud Definimos funcin de verisimilitud de n variable aleatoria como la funcin de probabilidad o la funcin de densidad conjunta de las n-variables. L (x,)= L (x1,xn,) = (x1,xn,)

Para una muestra aleatoria simple (x1,..xn) al ser independientes las observaciones, la funcin de verosimilitud quedar como
Pgina 14 de 20

L(x,) = L (x1,xn,) = (x1,xn,) = (x,)

6.- cules son las propiedades de los estimadores obtenidos por el mtodo de la mxima verosimilitud * Los estimadores de mximo verisimilitud son consistentes *En general no son insesgados pero si no son insesgados son asintotamente insesgados (el estimador converge al parmetro y en el lmite con su valor medio, que es el parmetro ) *Todo estimador de mxima verisimilitud no es eficiente pero si son asintticamente eficientes. *Son asintticamente normale. * Son suficientes * Consistencia, insesgadez, eficiencia, eficiencia asinttica, normalidad asinttica y suficiencia.

TEMA 8 ESTIMACION POR INVERVALOS DE CONFIANZA

1.- Objetivo de la estimacin por intervalos de confianza. Estimadores: son funciones de las observaciones muestrales y cuando se calcula el valor del estimador ^ para una muestra concreta entonces se tiene la estimacin puntual, valor que difiere del verdadero valor del parmetro y en consecuencia, no nos proporciona suficiente informacin sobre el parmetro, siendo entonces deseable el acompaar a la estimacin del parmetro , de alguna, medida del posible error asociado a esta estimacin. Objetivos intervalos confianza: Obtener un intervalo de poca amplitud y con alta probabilidad de que el parmetro se encuentre en su interior. Elegimos probabilidades cercanas a la unidad, que se representan por 1 - y cuyos valores ms frecuentes suelen ser 0,90 0,95 y 0,99.

2.- De qu depende la precisin en la estimacin por intervalos de confianza? 1 - : coeficiente de confianza 100

-)%: nivel de confianza

*La precisin de la estimacin por intervalos vendr caracterizada por el coeficiente de confianza (1-) y por la amplitud del intervalo. Para un coeficiente de confianza fijo, cuanto ms pequeo sea el intervalo de confianza ms preciso ser la estimacin, o bien, para una misma amplitud del intervalo cuanto mayor sea el coeficiente de confianza mayor ser la precisin.
Pgina 15 de 20

3.- Qu mtodos se pueden utilizar para la estimacin por intervalos de confianza? cul de ellos es preferible utilizar? Razone la respuesta. Hay 2 mtodos: *el mtodo pivotal o mtodo del pivote basado en la posibilidad de obtener una funcin del parmetro desconocido y cuya distribucin muestral dependa del parmetro. *El mtodo general de Neyman est basado en la distribucin de un estimador puntual del parmetro. Es preferible el mtodo general de neyman porque tiene menos limitaciones que el mtodo pivotal ya que ste requiere encontrar una funcin de la muestra y del parmetro cuya distribucin fuese independiente del parmetro. En el mtodo general de Neyman podremos obtener intervalo de confianza sin necesidad de que exista tal funcin distribuida independientemente del parmetro.

4.- Supongamos una muestra aleatoria simple (X1,.X20) de una distribucin N(u,100) la media muestral observada es X=1000 cul ser el intervalo de confianza para la media poblacional, con un nivel de confianza del 90%? N(u,100) X=1000 1- = 0,90

Como conocemos la desviacin tpica la distribucin es una normal N(u,/n) = 0,10 /2 = 0,05 Z0,95 = 1,64

Ic= [ X - Z/2 /n ; X Z/2 /n] = [1000 1,64 100/20 ; 1000 + 1,64 10020] [963,33 ; 1036,67]

5.- Qu efecto tiene en un intervalo de confianza una disminucin en el tamao de la muestra? y una disminucin en el nivel de confianza? Para un coeficiente de confianza fijo, cuanto ms pequeo sea el intervalo de confianza ms precisa ser la estimacin, o bien, para que una misma amplitud del intervalo, cuanto mayor sea el coeficiente de confianza mayor ser la precisin.

6.- Supongamos una muestra aleatoria simple (x1,..x20) de una distribucin N(u,) la media muestral observada es X=1000 y la correspondiente varianza muestra es S=200 Cul ser el intervalo de confianza para la media poblacional con un nivel de confianza del 90%? Cul ser el intervalo de confianza para la varianza poblacional, con un nivel de confianza del 90%? N(u,) n=20 1-=0,90 X=1000 Ic=[X - t/2 S/n ; X + t/2 S/n]
Pgina 16 de 20

S=200

= 0,10

/2= 0,05

t(19,0,95) = 1,729 Ic = [1000 1,729 200/20 ; 1000 + 1,729 200/20] [922,68 ; 1077,32] Para la varianza (n-1)S2/Xn-1, /2 X(19,095) = 30,14 X(19,0,05) = 10,117

(20-1)200/30,14; (20-1)200/10,117 [126,05 ; 375,60]

7.- cundo podemos decir que se comete un error en la estimacin? Razone la respuesta Sea una poblacin B(1,p) y si P^ representa la proporcin de xitos en una muestra aleatoria de tamao n suficientemente grande y g^= 1-p^ entonces un intervalo de confianza aproximado para la proporcin poblacional p al nivel de confianza de 100 (1-)% viende dado por Ip =(p^ - Z/2 p^q^/n ; p^ + Z/2 p^q^/n)

Podemos decir que si la estimacin p^ ocupa el lugar central o punto medio del intervalo de confianza entonces p^ estima puntualmente sin error, el valor del parmetro proporcin poblacional p pero generalmente esto no suceder y se cometer un error en la estimacin que vendr dado por la diferencia positiva entre el verdadero valor del parmetro p y la estimacin p^ y adems tendremos la confianza del 100(1-)% de que este error a lo sumo ser Z/2=pq/n

8.- Cul ser el tamao de la muestra para estimar la media u de una poblacin normal con desviacin tpica desconocida si previamente fijamos la longitud del intervalo de confianza en un valor L dado? Con un intervalo de confianza t(n-1):

N= 4 t2 /2 S2

/ L2

Esto es vlido cuando n>30 pues entonces la distribucin t(n-1) se aproxima a una N(0,1) y no es necesario conocer n para la utilizacin de tablas Para la muestra con conocida Con un intervalo de confianza Z/2 N = 4 Z /2 / 2/L2

TEMA 9 CONTRASTES DE HIPOTESIS


1.- Objetivo de la estimacin utilizando contraste de hiptesis
Pgina 17 de 20

El objetivo de la hiptesis es tomar decisiones acerca de caractersticas poblacionales.

2.- Qu es una hiptesis estadstica?qu tipos de hiptesis estadstica podemos realizar en un contraste de hiptesis paramtrico? Una hiptesis estadstica es cualquier afirmacin, verdadera o falsa, sobre alguna caracterstica desconocida de la poblacin. Hiptesis paramtricas son afirmaciones verdaderas o falsas, sobre el valor del parmetro desconocida. Hay dos tipos de hiptesis: 1. Hiptesis simples: si se refiere a un solo valor del parmetro, es decir, a un solo punto del espacio paramtrico, quedando totalmente especificada la forma de la funcin de cuanta o de densidad de la poblacin al conocer ese valor del parmetro. 2. Hiptesis compuestas: si la hiptesis no se refiere a un punto del especio paramtrico o valor del parmetro, sino que se refiere a una regin del espacio paramtrico. 3. Hiptesis nula: provisionalmente experimentalmente Ho. verdadera, la que se puede comprobar

4. Hiptesis alternativa: hiptesis complementaria H1.

3.- Explique qu es la regin crtica y la regin de aceptacin de un contraste de hiptesis. Regin crtica o regin derechazo: est constituida por el conjunto de muestras para las cuales se rechaza la hiptesis nula Ho. Regin de aceptacin: est constituida por el conjunto de muestras para las cuales se acepta la hiptesis nula Ho. El valor o valores que separan la regin crtica de la regin de aceptacin es el valor o valores crticos.

4.- Cules son los resultados posibles de nuestra decisin sobre la hiptesis nula en un contraste? Existen 4 resultados posibles sobre la hiptesis nula. Donde 2 de ellos no nos lleva a ningn tipo de error y los otros 2 dan lugar a los errores de tipo I y de tipo II Decisin Aceptamos Ho Rechazamos Ho Ho verdadero Decisin correcta no hay error error de tipo I = Ho falsa error de tipo II = Decisin correcta no hay error

5.- defina el concepto de error de tipo I y error de tipo II. Explique la respuesta Llamaremos error de tipo I al que se comete rechazando la hiptesis nula siendo verdadera Llamaremos error de tipo II al que se comete aceptando la hiptesis nula siendo falsa.
Pgina 18 de 20

() = riesgo error tipo I = P(error de tipo I) si o () = riesgo error tipo II = P(error de tipo II) si 1

6.- explique el significado que tiene el valor crtico en un contraste de hiptesis paramtrico El valor o valores que separan la regin crtica de la regin de aceptacin reciben el nombre de valor o valores crticos.

7.- Qu es la potencia de un contraste de hiptesis? Qu es la funcin de potencia de un contraste de hiptesis? Definimos la potencia del test o de contraste como la probabilidad de rechazar la hiptesis nula, es decir: Potencia = Pc () = P (rechazar Ho/) Diremos que la potencia es una funcin que se define como: () si o Pc() = P(rechazar Ho/)= P(x1,.Xn) = () si 1

8.- existe alguna relacin entre el error I y el error II? Explique la respuesta Si los errores de tipo I y de tipo II son nulos = = 0 entonces decimos que el test o contraste es ideal. En la construccin de un contraste de hiptesis pretendemos que = max P(error de tipo I) sea pequea, es decir, que sea pequea la P(rechazar Ho/Ho es cierta) pero este objetivo ignora la P(error de tipo II) es decir, la P)aceptar Ho/Ho es falsa) la cual, tambin desearemos que sea pequea, pues la bondad de un contraste depender de los valores y , es decir, de los errores de tipo I y de tipo II.

9.- Qu procedimiento se suele seguir para realizar un contraste de hiptesis paramtrico? 1.- formular la hiptesis nula Ho y la hiptesis alternativa H1 en trminos estadsticos. 2.- determinar el test estadstico o estadstico de prueba apropiado 3. -Seleccionar el nivel de significacin 4.- determinar la regin crtica o regin de rechazo. 5.- seleccionar aleatoriamente la muestra y calcular el valor del estadstico de prueba o test estadstico. 6.- dar la regla de decisin y su interpretacin.
Pgina 19 de 20

10.- Qu efecto tiene el nivel de significacin o el tamao de la muestra sobre la potencia de un contraste de hiptesis? 1.- para un tamao fijo n si aumenta la P(error de tipo I) entonces disminuye la P(error de tipo II), es decir, y estn relacionadas de forma inversa. 2.- para un tamao fijo n si aumenta la P(error de tipo I) entonces tambin aumenta la potencia de contraste 1- en 1. 3.- para un nivel de significacin fijo cuando el tamao de la muestra n crece la potencia de contraste en 1, 1-, aumenta y la P(error de tipo II)= disminuye. 11.- Qu estadstico se utiliza en un contraste de hiptesis para la media de una poblacin normal si la desviacin tpica poblacional es conocida?y si la desviacin tpica poblacional es desconocida? Contraste de significacin para la u N(u,) con desconocida Ho: u uo H1: u> uo

Como estadstico de contraste utilizaremos la media de discrepancia D: D=u-up = X- uo Pues sabemos que la media muestral X es un buen estimador en la media poblacional U Contraste de significacin para la u N(u,) con conocida Ho: u = uo H1: u uo

Teniendo en cuenta que X-u tn-1 es decir sigue una t de student con n-1 grados de libertad, entonces utilizaremos como media de discrepancia o estadstico de prueba D: <X-uo/s/n Pues bajo la hiptesis nula Ho: u=uo la discriminacin de este estadstico D sigue una t-student con n-1 grados de libertad y es adems independiente del parmetro desconocido u

Pgina 20 de 20

Vous aimerez peut-être aussi