Vous êtes sur la page 1sur 211

MANUAL DE ESTADSTICA1

Ana Garca Sipols y Clara Simn de Blas


Departamento de Informtica, Estadstica y Telemtica
UNIVERSIDAD REY JUAN CARLOS

ndice
Servicio
de
publicaciones

1 Agradecemos

de la asignatura

especialmente a Juan Miguel y Sonia Hernndez por sus apuntes

Reservados todos los derechos. Ni la totalidad ni parte de este libro, incluido el diseo de la cubierta,
puede reproducirse o transmitirse por ningn procedimiento electrnico o mecnico, incluyendo fotocopia, grabacin magntica o cualquier almacenamiento de informacin y sistemas de recuperacin, sin
permiso escrito del AUTOR y de la Editorial DYKINSON, S.L.

Copyright by
Universidad Rey Juan Carlos
Servicio de Publicaciones
Los autores
Madrid, 2007
Editorial DYKINSON, S.L. Melndez Valds, 61 - 28015 Madrid
Telfono (+34) 91 544 28 46 - (+34) 91 544 28 69
e-mail: info@dykinson.com
http://www.dykinson.es
http://www.dykinson.com

ISBN: 978-84-9849-139-5
Depsito Legal:

Preimpresin realizada por los autores

ndice

ndice general
1. Estadstica Descriptiva............................................................
9
1. Estadstica Descriptiva
9
1.1.
Introduccin................................................................
9
1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1. Tipos de datos..............................................
9
1.1.1. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Conjunto
Conjunto
de datos......................................................
1.2.
de datos
. . . . . . . . . . . . . . . . . . . . . . . . .1010

1.2.1.
El nmero
k de intervalos.
. . . . . . . . . . . . . .
1.2.1.
El nmero
k de intervalos.............................
1.2.2. El tamao de cada intervalo. . . . . . . . . . . . . .
1.2.2. El tamao de cada intervalo.........................
1.2.3. El representante de cada intervalo. . . . . . . . . .
1.2.3. El representante de cada intervalo...............
1.3. Mtodos grcos para denir un conjunto de datos . . . .
1.3. 1.3.1.
Mtodos
grficos
para definir
Variables
cualitativas:
. . un
. .conjunto
. . . . . de
. .datos
. . . .. .

. . .1212
. . . 12
12
. . . 12
12
. . . 13
. . .1313

1.3.2.
Variables
cuantitativas:
. . . . . . . . . . . . . . . .
1.3.1.
Variables
cualitativas....................................
1.4. Mtodos numricos . . . . . . . . . . . . . . . . . . . . . .
1.3.2. Variables cuantitativas..................................
1.4.1. Medidas de localizacin: . . . . . . . . . . . . . . .
1.4.
Mtodos numricos ...................................................
1.4.2. Medidas de posicin: . . . . . . . . . . . . . . . . .
1.4.1.
Medidas
de localizacin...............................
1.4.3.
Medidas
de variabilidad:
. . . . . . . . . . . . . . .

. . .1314
. . . 16
14
. . . 16
16
. . . 18
. . .1618

1.4.2. Medidas de posicin.....................................


18
2. Probabilidad
23
1.4.3.
Medidas
de
variabilidad.
.
..............................

18
2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Anlisis Combinatorio
. . . . . . . . . . . . . . . . . . . . . . .2324
2. 2.2.
Probabilidad.
............................................................................
2.3.
de probabilidad . . . . . . . . . . . . . . . . . .
2.1 Elementos
Introduccin................................................................
2.3.1. Algebra de sucesos . . . . . . . . . . . . . . . . . .
2.2.
Anlisis Combinatorio.................................................
2.4. Deniciones de Probabilidad . . . . . . . . . . . . . . . . .
2.3. 2.4.1.
Elementos
probabilidad
Conceptodeaxiomtico
de ........................................
probabilidad . . . . . . . .

. . .2326
. . . 26
24
. . . 31
. . .2631

2.4.2.
Mtodo
frecuencial
u objetivista
. . . . . . . . . . . . . .2638
2.3.1.
Algebra
de sucesos
.....................................
Mtodo dedeLaplace
. . . ......................................
. . . . . . . . . . . . . . . . .3140
2.4. 2.4.3.
Definiciones
Probabilidad
3

ndice

NDICE GENERAL
2.4.1.
Concepto
axiomtico
de probabilidad
2.4.4.
Mtodo
Bayesiano
o Subjetivista
. . . . . .........
. . . . . . . 31
. 42

2.5. Probabilidad
Condicionada
. . .u.objetivista
. . . . . ...................
. . . . . . . . . . 38
. 42
2.4.2. Mtodo
frecuencial
2.5.1. Sucesos dependientes e independientes . . . . . . . . . . 44
2.4.3. Mtodo de Laplace ......................................
40
3. Variables
aleatorias
discretas
2.4.4.
Mtodo
Bayesiano o Subjetivista ................

3.

42 49

3.1.
. . Condicionada
. . . . . . . . ........................................
. . . . . . . . . . . . . .
2.5. Introduccin
Probabilidad
3.2. Funcin de Distribucin . . . . . . . . . . . . . . . . . .
2.5.1. Sucesos dependientes e independientes . ..
3.2.1. Funcin de masa . . . . . . . . . . . . . . . . . .
Variables
3.2.2.aleatorias
Funcindiscretas..................................................
de densidad . . . . . . . . . . . . . . . .

. . . 42
.
. . . .
44
. . . .
. . . 49
.

49

3.3.
de una variable aleatoria . . . . . . . . . . . .
3.1. Momentos
Introduccin................................................................
3.3.1. Esperanza . . . . . . . . . . . . . . . . . . . . . .
3.2.
Funcin deDistribucin...............................................
3.3.2. Varianza . . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Funcin demasa ..........................................
3.3.3. Desviacin Tpica . . . . . . . . . . . . . . . . . .
3.2.2. Funcin
de densidad
3.4. Desigualdad
de Tchebyche
. . ....................................
. . . . . . . . . . . . .

. . . 49
. 53
. . . .
50
. . . .
52
. . . .
. . . 52
.

53

3.5.
notables
. . . . aleatoria..........................
. . . . . . . . . . . . . . .
3.3. Distribuciones
Momentos de
una variable
3.5.1. Bernoulli . . . . . . . . . . . . . . . . . . . . . . .
3.3.1. Esperanza....................................................
3.5.2. Binomial . . . . . . . . . . . . . . . . . . . . . . .
3.3.2. Varianza............................................................
3.5.3. Geometrica . . . . . . . . . . . . . . . . . . . . .
3.3.3.
Desviacin
3.5.4.
Poisson
. . . . Tpica
. . . . ........................................
. . . . . . . . . . . . . . .

. . . 53
.
. . . .
53
. . . .
54
. . . .
. . . 54
.

55

50
52
52

54
54
55
55
57
60
61

3.4.
Desigualdad de Tchebyche........................................
55
4. Variables aleatorias continuas
63
3.5.
Distribuciones
notables..............................................

55
4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.2. Funcin
. . . . . . . . . . . . . . . . . . . . . . . 55
. 64
3.5.1. de Densidad
Bernoulli ......................................................

4.

4.3. Funcin
de Distribucin . . . . . . . . . . . . . . . . . .
3.5.2. Binomial . .....................................................
4.4. Momentos moda y percentiles de una variable aleatoria .
3.5.3. Geometrica ..................................................
4.4.1. Esperanza . . . . . . . . . . . . . . . . . . . . . .
3.5.4.
Poisson
4.4.2.
Varianza
. . .. ......................................................
. . . . . . . . . . . . . . . . . . . .

. . . 57
.
. . . .
60
. . . .
. . . 61
.

65

4.4.3.aleatorias
Desviacin
Tpica . . . . . . . . . . . . . . . . . .
Variables
continuas.................................................
4.4.4. Moda, mediana y percentiles . . . . . . . . . . . .
4.1.
Introduccin ...............................................................
4.5. Distribuciones notables . . . . . . . . . . . . . . . . . . .
4.2.
Funcin deDensidad .................................................
4.5.1. Uniforme . . . . . . . . . . . . . . . . . . . . . .
4.3. 4.5.2.
Funcin
deDistribucin...............................................
Normal
. . . . . . . . . . . . . . . . . . . . . . . .

. . . 63
.
. . . .
63
. . . .
64
. . . .
. . . 65
.

69

68
68
69
69
70
70
73

Exponencial y. percentiles
. . . . . . .de. una
. . . variable
. . . . . . . . . . . . . 82
4.4. 4.5.3.
Momentosmoda
aleatoria......................................................................
68

ndice

NDICE GENERAL

4.4.1. Esperanza....................................................
68
4.5.4. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4.2.
4.5.5.
Beta Varianza
. . . . . .......................................................
. . . . . . . . . . . . . . . . . . . . . . .6990

4.5.6.
Distribuciones
asociadas
a la distribucin Normal . . . .6992
4.4.3.
Desviacin
Tpica.........................................
4.4.4. Moda,mediana y percentiles........................
69
5. Distribuciones Conjuntas
99
4.5. Distribuciones
Distribuciones
notables..............................................
5.1.
discretas
multivariantes . . . . . . . . . . . . . .7099

5.2. Distribuciones
continuas
multivariantes . . . . . . . . . . . . . .70
101
4.5.1. Uniforme
......................................................
5.3. Propiedades
del Operador
Esperanza . . . . . . . . . . . . . . .73
104
4.5.2. Normal
.........................................................
Exponencial..................................................

6. Teorema4.5.3.
Central
del Lmite

82
107

4.5.4. Gamma.
6.1. Introduccin
. . . . .........................................................
. . . . . . . . . . . . . . . . . . . . . . . .88
107

6.2. Convergencia
. . . . . . . . . . . . . . . . . . . . . . . . . . . .90
108
4.5.5. Beta..............................................................
6.2.1. Convergencia en probabilidad . . . . . . . . . . . . . . . 109
4.5.6. Distribuciones asociadas a la distribucin
6.2.2. Convergencia
en distribucin . . . . . . . . . . . . . . . .92
110
Normal..........................................................
5.

6.2.3. Convergencia
casi segura . . . . . . . . . . . . . . . . . .99
111
Distribuciones
Conjuntas.........................................................
6.3. Teorema central del lmite . . . . . . . . . . . . . . . . . . . . . 111
5.1.
Distribuciones discretasmultivariantes.......................
99

7. Inferencia
estadsticacontinuasmultivariantes......................
5.2.
Distribuciones

113
101

7.1.
. . .delOperador
. . . . . . . Esperanza........................
. . . . . . . . . . . . . . .
5.3. Introduccin
Propiedades
7.2. Estimacin Puntual . . . . . . . . . . . . . . . . . . . . .
6. Teorema Central del Lmite......................................................
7.2.1. Distribucin muestral . . . . . . . . . . . . . . . .
6.1.
Introduccin ...............................................................
7.2.2. Propiedades de los estimadores . . . . . . . . . .
6.2. Mtodos
Convergencia
............................................................
7.3.
de Calcular
Estimadores . . . . . . . . . . . . .

. . .104
. 113
. . . . 116
107
. . . . 117
107
. . . . 130
. . .108
. 139

7.3.1.
Mtodo
de los Momentos
. . . . . . ....................
. . . . . . . . . .109
. 139
6.2.1.
Convergencia
en probabilidad
7.3.2.
Mtodo
de Mxima Verosimilitud
. . . . . . . . . . . . 110
. 140
6.2.2.
Convergencia
en distribucin.......................
7.4. Estimacin por intervalos de Conanza . . . . . . . . . . . . . . 143
6.2.3. Convergencia casi segura ...........................
111
7.4.1. Intervalo de conanza para la media de una poblacin
6.3.
Teorema central del lmite .........................................
111
normal con varianza conocida . . . . . . . . . . . . . . . 144
7. Inferencia
..............................................................

113
7.4.2. estadstica.
Intervalo de
conanza para la media de una poblacin
normal con
varianza desconocida . . . . . . . . . . . . 113
. 145
7.1.
Introduccin
...............................................................
7.4.3. Intervalo de conanza para la varianza de una poblacin
7.2.
Estimacin Puntual . ..................................................
116
normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.2.1. Distribucinmuestral ....................................
117

ndice

NDICE GENERAL
7.2.2.
Propiedades
de los
estimadores
7.4.4.
Intervalo
de conanza
para
la diferencia.................
de medias de dos130
7.3.

poblaciones
normales
basado en............................
muestras independientes
Mtodos
de Calcular
Estimadores

139148
7.4.5. Intervalo de conanza para la diferencia de medias de
7.3.1. Mtodo de los Momentos.............................
139
dos poblaciones normales basado en datos pareados . . . 149
7.3.2.
Mtodo
Verosimilitud
7.4.6.
Intervalos
en deMxima
muestras grandes
. . . . .................
. . . . . . . . . 140
. . 149

7.4. 7.4.7.
Estimacin
por intervalos
de Confianza
Determinacin
del tamao
muestral ....................
. . . . . . . . . . 143
. . 151

7.5. Contrastes
Hiptesis
. . . . . para
. . . la
. .media
. . . .de. . . . . . . . 152
7.4.1. de
Intervalo
de .confianza
7.5.1. Tiposuna
de poblacin
Hiptesis, normal
errores con
y Potencia
varianza . . . . . . . . . . 153
conocida.......................................................
7.6. Relacin entre intervalos de conanza y Contrastes . . . . . 144
. . 158
7.7. Contrastes
poblaciones
normales
. .media
. . . .de. . . . . . . . 159
7.4.2. para
Intervalo
de confianza
para. la
una
poblacin
normal
con
varianza
normal con
7.7.1. Contrastes para la media de una poblacin
desconocida ................................................
145
varianza conocida . . . . . . . . . . . . . . . . . . . . . . 159
7.4.3.
Intervalo
de la
confianza
varianza normal

7.7.2.
Contrastes
para
media depara
unalapoblacin
con
de una poblacin normal .............................
147
varianza desconocida . . . . . . . . . . . . . . . . . . . . 161
7.4.4.
Intervalo
delaconfianza
la diferencia
7.7.3.
Contrastes
para
varianza para
de una
poblacin normal . . 162
de medias de dos poblaciones normales
7.8. Contrastes para
dos poblaciones . . . . . . . . . . . . . . . . 148
. . 163
basado en muestras independientes...........
7.8.1. Comparacin de medias, muestras independientes, vari7.4.5. Intervalo de confianza para la diferencia de
anzas iguales . . . . . . . . . . . . . . . . . . . . . . . . 163
medias de dos poblaciones normales
7.8.2. Comparacin
dedatos
medias,
muestras dependientes apareadas165
basado en
pareados...........................

149
7.8.3. Comparacin de medias, muestras independientes, vari7.4.6. Intervalos en muestras grandes...................
149
anzas distintas . . . . . . . . . . . . . . . . . . . . . . . 166
7.4.7. Determinacin del tamaomuestral . ...........
151
7.8.4. Comparacin de varianzas . . . . . . . . . . . . . . . . . 167
7.5. Contrastes
Contrastes
de Hiptesis
............................................
7.9.
en muestras
grandes
. . . . . . . . . . . . . . . . 152
. . 168
7.9.1.
Contrastes
para una proporcin
. . . . . .........
. . . . . 153
. . 168
7.5.1.
Tipos deHiptesis,
errores y .Potencia
7.9.2. Contrastes para la diferencia de dos proporciones . . . . 168
7.6.
Relacin entre intervalos de confianza y Contrastes
158
7.9.3. Contrastes para la media de cualquier distribucin . . . . 169
7.7. 7.9.4.
Contrastes
parapara
poblaciones
normales
.....................

159
Contrastes
un parmetro
de cualquier
distribucin
. 169
Contrastes para la media de una
poblacin normal con varianza conocida.....
159171
8.1. Introduccin de datos . . . . . . . . . . . . . . . . . . . . . . . . 172
7.7.2. Contrastes para la media de una poblacin
8.2. Estadstica descriptiva
. . . . . desconocida
. . . . . . . . ...............
. . . . . . . . 161
. . 180
normal con varianza
8.3. Generacin de variables aleatorias . . . . . . . . . . . . . . . . . 183
7.7.3. Contrastes para la varianza de una
8.4. Contrastes de
hiptesisnormal
disponibles
. . . . . . . . . . . . . . 162
. . 184
poblacin
.........................................

8. SPSS

7.7.1.

ndice

NDICE GENERAL
7.8.TABLAS
Contrastes
8.5.
. . . . para
. . . dos
. . .poblaciones
. . . . . . ...............................
. . . . . . . . . . . . . 163
. 188
7.8.1. Comparacin de medias, muestras
independientes, varianzas iguales...............

163

7.8.2. Comparacin de medias, muestras


dependientes apareadas..............................

165

7.8.3. Comparacin de medias, muestras


independientes, varianzas distintas ............

166

7.8.4. Comparacin de varianzas . ........................

167

Contrastes en muestras grandes ..............................

168

7.9.1.

Contrastes para una proporcin...................

168

7.9.2.

Contrastes para la diferencia de dos


proporciones.................................................

168

7.9.3.

Contrastes para lamedia de cualquier


distribucin...................................................

169

7.9.4.

Contrastes para un parmetro de cualquier


distribucin...................................................

169

SPSS.......................................................................................

171

8.1.

Introduccin de datos.................................................

172

8.2.

Estadstica descriptiva . .............................................

180

8.3.

Generacin de variables aleatorias............................

183

8.4.

Contrastes de hiptesis disponibles ..........................

184

8.5.

TABLAS......................................................................

188

7.9.

8.

ndice

ndice

Captulo 1
Estadstica Descriptiva
1.1.

Introduccin

1.1.1.

Tipos de datos

El comienzo de cualquier estudio debe ser: que es lo que se desea medir o


investigar y para que. Una correcta seleccin de datos preliminares ahorrar
tiempo y coste en un estudio, pues una vez comenzado, el coste de investigar
una nueva caracterstica puede ser bastante mayor, que antes de comenzar e
incluso en ocasiones puede no ser posible su incorporacin.
La manera de recopilar la informacin para despus analizarla por medio
de ordenadores, es organizarla por variables y casos / individuos. La mayor
parte de las bases de datos consideran como variables las columnas de una
hoja de clculo y como casos las las.
Los tipos de datos que podemos manejar pueden ser:
1. Cuantitativos: La caracterstica que vamos a medir en los individuos es
contable. Por ejemplo, la edad, la altura, nmero de veces que se realiza
una accin, etc. Pueden ser discretas (nmero de coches, cantidad de
televisores, etc) o continuas (edad, peso, distancia, etc).
2. Cualitativos: La caracterstica que vamos a medir no es contable. Por
ejemplo, el sexo, estado civil, apreciacin de un producto, etc. Pueden
ser dicotmicas (Sexo: mujer / varn, estado civil: soltero / casado, etc)
9

ndice

Captulo 1. Estadstica descriptiva

10

o politmicas ( Nivel de estudios: primarios / secundario / diplomado /


licenciado / otros, etc )
3. Ordinales: Aunque la caracterstica a medir no sea contable, se puede
establecer un orden entre los diferentes valores que puede tomar.
Ejercicio:
Supongamos que tenemos el siguiente estudio:

CASOS \ VARIABLES
1
2
3
4

EDAD
24
35
103
65

SEXO
Femenino
Masculino
Masculino
Femenino

NOMBRE PRENSA
Carmen
Pas
Jorge
Marca
Victor
Abc
Ana
Mundo

De qu tipo es cada variable?

1.2.

Conjunto de datos

A continuacin plantearemos una serie de mtodos numricos para denir


un conjunto de datos. La frecuencia de una variable es el nmero de veces
que se repite cada valor distinto en una muestra. Por ello, su clculo se reere unicamente a variables aleatorias cuantitativas discretas o variables aleatorias cualitativas. Existen cuatro formas diferentes de expresar
la frecuencia de una variable, dependiendo del uso que se desee hacer de ella.
Supongamos hemos recogido una muestra de q valores de una variable aleatoria
[ : Pxhvwud = {{1 > ===> {q }=

Sean {f1 > ===> fs } los s valores distintos posibles de la variable aleatoria [.

1. Frecuencia Absoluta: La frecuencia Il del valor fl es el nmero de


veces ql que se repite en la muestra seleccionada.
2. Frecuencia Absoluta Acumulada: Es el nmero de elementos en la
l
P
muestra de valor menores o iguales que el valor fl : Il =
In
n=1

ndice

1.2. CONJUNTO DE DATOS

11

3. Frecuencia Relativa: La frecuencia relativa il del valor fl es el cociente


entre el nmero de veces ql que se repite en la muestra seleccionada y el
tamao de la muestra: il =

ql
.
q

4. Frecuencia Relativa Acumulada: Es el nmero relativo de elementos


l
P
in
en la muestra de valor menores o iguales que el valor fl : il =
n=1

La representacin se realiza a travs de una tabla ordenada segn los valores

{f1 > ===> fs }:


Valor

Frecuencia

Frecuencia

Frecuencia

Frecuencia

Absoluta

Absoluta

Relativa

Relativa

Acumulada

f1

Acumulada

I1

I1

i1

i1

Is

Is

is

is

===
fs

Ejemplo: Se ha medido la siguiente caracterstica: EDAD en una muestra


de 30 individuos. La siguiente tabla muestra las frecuencias:
Edad en aos

Vlidos

8
10
12
14
Total

Frecuencia
8
8
7
7
30

Frecuencia
relativa
.267
,267
,233
,233
1

Frecuencia
acumulada
8
16
23
30
30

Frecuencia
Relativa
Acumulada
,267
,533
,766
1
1

Observacin:
1. La suma de las frecuencias absolutas (frecuencia acumulada) siempre es
igual al tamao de la muestra.
2. La suma de las frecuencias relativas (frecuencia relativa acumulada) siempre es 1.

ndice

Captulo 1. Estadstica descriptiva

12

Para las variables cuantitativas continuas, la representacin se realiza


mediante intervalos. Cada intervalo recoger todos aquellos valores que se
encuentren en su interior. Para ello, debemos decidir tres cosas:

1.2.1.

El nmero k de intervalos.

Depende del tamao de la muestra. Una seleccin clsica se basa en la


siguiente seleccin:

s
Si el tamao q de la muestra es pequeo entonces n  b qc

Si el tamao q de la muestra es grande entonces n  b1 + 3>22 ln(q)c

Por tamao pequeo se entiende normalmente q  50=

1.2.2.

El tamao de cada intervalo.

La amplitud de cada intervalo se suele considerar constante. Esto es, construimos intervalos de igual tamao. Para calcularlo:
1. Calculamos la diferencia entre la mayor observacin y la menor: D =
{max  {mn


D
2. El tamao de cada intervalo viene dado por: d =
n
D
no entero, se toma el primer o el ltimo intervalo distinto
n
de los dems para ajustar los valores a {mn y {max =
En caso de ser

1.2.3.

El representante de cada intervalo.

Normalmente se selecciona como representante de cada intervalo el punto


medio. Pero esta seleccin es opcional y vara en funcin del inters del estudio.
Ejemplo: Se han tomado los siguientes datos de la cantidad de bacterias
en el agua en 20 pantanos diferentes de Espaa.
18.1 16.2 34.3 56.2 22.1 14.3 12.1 35.6 28.7 27.6
22.4 32.1 10.8

9.5

14.3 17.6 22.5 30.5 23.1 40.2

ndice

1.3. MTODOS GRFICOS PARA DEFINIR UN CONJUNTO DE DATOS 13

Para realizar un estudio de frecuencias, puesto que la variable aleatoria es


continua, debemos construir intervalos.

s
Nmero de intervalos: como q = 20 es pequeo, entonces: n  b 20c =

b4>47c = 4

Tamao de cada intervalo: D = 56>2  9>5 = 46>7 , d =

46>7
4

= 11>6  12

Representante de cada intervalo: Tomamos el punto medio del intervalo.


Entonces:
Intervalo

Representante

Frecuencia

Frecuencia

Frecuencia

Frecuencia

Absoluta

Absoluta

Relativa

Relativa

Acumulada

1.3.

Acumulada

(9>5> 21]

15>25

0>4

0>4

(21> 33]

27

16

0>4

0>8

(33> 45]

39

19

0>15

0>95

(45> 56>2]

50>6

20

0>05

Mtodos grcos para denir un conjunto


de datos

La visualizacin de los datos en estudio permitir una visin rpida de


una descripcin de los mismos. Tendrn diferente tratamiento las variables
cuantitativas y las variables cualitativas.

1.3.1.

Variables cualitativas:

Podemos emplear diagrama de sectores o diagrama de barras. El diagrama


de sectores se emplea para representar de forma grca la frecuencia de una
variable (nmero de veces en que se repite el mismo valor en una variable) o el
porcentaje (nmero de veces en que se repite el mismo valor en una variable
entre el nmero total de casos). Es muy til cuando no tenemos muchos valores
distintos en la variable.
El diagrama de barras se emplea tambin para representar de forma grca
la frecuencia, o el porcentaje de una variable pero su utilidad es para el caso

ndice

Captulo 1. Estadstica descriptiva

14

en que tenemos muchos valores distintos en una variable.


Observacin:
Frecuencia = nr veces valor d en una variable {l
nr veces valor a en una variable xl
Porcentaje = r
n total de casos en la variable xl
Ejercicio: Supongamos que tenemos el siguiente estudio:

Vlidos

Frecuencia Porcentaje Porcentaje Porcentaje


vlido
acumulado
masculino
10
66,7
66,7
66,7
femenino
5
33,3
33,3
100,0
Total
15
100,0
100,0

Esta tabla nos indica la frecuencia de cada valor (nmero de veces que
aparece cada valor de la variable SEXO en el estudio): por ejemplo, tenemos
10 hombres y 5 mujeres en el estudio. Indica tambin el porcentaje de cada caso,
el porcentaje vlido que no es mas que el porcentaje anterior descontando (en
caso de haberlos) los valores perdidos en el estudio y el porcentaje acumulado.
Grcamente:
SEXO
femenino

masculino

ndice
1.3.2.

Variables cuantitativas:

Podemos emplear tablas de frecuencia, histogramas o series temporales. Las


tablas de frecuencia e histogramas se emplean para tener una representacin
rpida de posibles grupos o intervalos en la variable. Por ejemplo, si deseramos

1.3. MTODOS GRFICOS PARA DEFINIR UN CONJUNTO DE DATOS 15

dividir la poblacin por grupos de edad (nios, jvenes, adultos, tercera edad),
es til tener una representacin grca de una posible divisin. Las series
temporales se emplearn en el caso en que la variable medida en el estudio
dependa del tiempo (por ejemplo: nmero de accidentes laborales mensuales).
Ejemplo: Supongamos que tenemos el siguiente estudio:

12
22
24
32
34
35
56
65
67
78
103
Total

Frecuencia Porcentaje Porcentaje Porcentaje


vlido acumulado
1
6,7
6,7
6,7
1
6,7
6,7
13,3
1
6,7
6,7
20,0
2
13,3
13,3
33,3
3
20,0
20,0
53,3
1
6,7
6,7
60,0
2
13,3
13,3
73,3
1
6,7
6,7
80,0
1
6,7
6,7
86,7
1
6,7
6,7
93,3
1
6,7
6,7
100,0
15
100,0
100,0

La tabla nos muestra el nmero de veces que aparece cada valor en el estudio, el porcentaje que representa, el porcentaje vlido y acumulado. Podramos
hacer grupos poblacionales por ejemplo, si deseamos hacer 3 grupos iguales,
tomaramos el primer rango de valores entre 12 aos y 32 aos (ya que incluimos as el 33 % de la poblacin), el segundo rango de valores entre 34 aos
y 56 aos y el tercer intervalo entre 56 aos y 103 aos.
Grcamente:

ndice

Captulo 1. Estadstica descriptiva

16

EDAD
7
6
5
4

Frecuencia

3
2
Desv. tp. = 24,54

Media = 45,6
N = 15,00

0
20,0

40,0

60,0

80,0

100,0

EDAD

1.4.

Mtodos numricos

El propsito de emplear mtodos numricos en un conjunto de datos, es


para realizar una descripcin de los mismos. As, dos estudios aparentemente
similares podrn ser comparados. Estudiaremos dos tipos de medidas: localizacin y variabilidad. Slo sern vlidos para variables cuantitativas.

1.4.1.

Medidas de localizacin:

Dentro de las medidas de localizacin estudiaremos la media, la mediana


y la moda de un conjunto de datos. Se emplean para determinar en torno a
qu valores se encuentran los datos (no tienen porqu coincidir, son medidas
diferentes).
Media: con ella calculamos el valor promedio de una variable. Es la
suma de todos los valores de una variable entre el nmero de casos. Se
Q
P
{l
l=1
representa por  =
.
Q

ndice

1.4. MTODOS NUMRICOS

17

donde { es la variable en estudio, {l son los valores que ha ido tomando y


Q es el nmero de casos en el total de la poblacin. Para obtener la media de
q
P
{l
l=1
la muestra, se representa por { =
donde q es el nmero de casos en la
q
muestra.
Ejemplo: En el ejemplo1 que hemos ido trabajando, la media de edad de
los individuos es
24 + 35 + 103 + 65 + 34 + 32 + 67 + 34 + 22 + 56 + 78 + 32 + 12 + 34 + 56
{ =
=
15
45>6
Como podemos observar en un estudio un poco mas extenso es demasiado laborioso calcular este simple dato, de ah la utilidad de emplear algn
programa que lo ejecute.
Mediana: con ella calculamos el valor intermedio de una variable. Es
aquel valor que una vez ordenados los datos nos deja a la derecha el
50 % de los datos y a su izquierda el 50 restante. Es decir, si el nmero
de datos en el estudio es impar, una vez ordenados es el valor que deja
la mitad de los datos a su derecha y la otra mitad a su izquierda. Si
el nmero de datos es par, entonces una vez ordenados, es la suma de
los dos valores intermedios dividido entre dos. A diferencia de la media,
no est afectada por valores atpicos (extraamente altos o bajos en el
estudio, por ejemplo, el dato de la variable EDAD de un caso con 103
aos)
Ejemplo: En el ejemplo1 que hemos ido trabajando, el nmero de casos
es impar (15). Por tanto para la variable EDAD, la mediana es: 34
12 22 24 32 32 34 34 34 35 56 56 65 67 78 103
Moda: con ella calculamos el dato ms repetido en el estudio. En caso
de existir dos o ms valores con la misma frecuencia tenemos ms de una
moda.
Ejemplo: En el ejemplo1 que hemos ido trabajando, para la variable
EDAD, la moda es: 34
12 22 24 32 32 34 34 34 35 56 56 65 67 78 103

ndice

Captulo 1. Estadstica descriptiva

18

1.4.2.

Medidas de posicin:

Dentro de las medidas de posicin estudiaremos los percentiles y los cuartiles de un conjunto de datos. Se emplean para determinar en torno a qu
valores se encuentra un porcentaje o proporcin determinado de los datos.
Percentil Pt % : Es aquel valor que una vez ordenados los datos nos deja
a la derecha el t % de los datos y a su izquierda el (1  t) % restante.

No est afectado por valores atpicos (extraamente altos o bajos en el

estudio, por ejemplo, el dato de la variable EDAD de un caso con 103


aos)
Ejemplo: En el ejemplo1 que hemos ido trabajando, queremos conocer el
percentil 20: en este caso 24
12 22 24 32 32 34 34 34 35 56 56 65 67 78 103
Cuartiles: Son los percentiles T1 : S25 % (primer cuartil), T2 : S50 % (
segundo cuartil o mediana) y T3 : S75 % (tercer cuartil) que debido a su
inters reciben un nombre especial.
Ejemplo: En el ejemplo1 que hemos ido trabajando, calculamos los tres
cuartiles: primer cuartil: 32 segundo cuartil: 34 tercer cuartil: 65
12 22 24 32 32 34 34 34 35 56 56 65 67 78 103

1.4.3.

Medidas de variabilidad:

Dentro de las medidas de variabilidad estudiaremos el rango, la varianza y la


desviacin estndar. Se emplean para tener una medida de la dispersin de los
datos en un estudio. Esto es, una medida del error que cometemos cuando tras
haber realizado un estudio, decimos que la media de edad de los individuos es
de 45 aos, pertenecen al sexo femenino y leen el Pas y con ello caracterizamos
el perl del individuo del estudio. Adems sirven para comparar dos estudios
similares. Por ejemplo:
Raquel va a una clase de 2r de primaria. La edad media de sus compaeros
es de 7 aos.

ndice

1.4. MTODOS NUMRICOS

19

Pedro tambin va a una clase de 2r de primaria y la edad media de sus


compaeros de clase es de 7 aos.
Veamos los datos de ambas clases (total de la poblacin):

Clase de Raquel
Susanita
Carmen
Gerardo
Raquel

EDAD
6
7
7
8

Clase de Pedro
Carlos
Ana
Antonia
Pedro

EDAD
7
7
7
7

A la vista de los datos (ya que el tamao del estudio es pequeo, slo cuatro
casos) vemos que aunque la edad media, la moda y la mediana (7) son iguales
son segmentos diferentes.
Rango: Es la diferencia entre el valor mximo de la variable y el valor
mnimo en valor absoluto. (Recordemos que estamos tratando variables
numricas y pueden ser valores negativos). Tambin se designa por recorrido de una variable. Notemos que es una medida de fcil interpretacin.
Ejemplo: En la clase de Raquel, el rango de edad es 8  6 = 2 aos. En

la clase de Pedro el rango de edad es 7-7 = 0 aos. Ya tenemos una primera


medida que diferencia claramente ambos estudios.

Desviacin media: Es la media de la diferencia en valor absoluto de las


observacines a la media. Se mide en las mismas unidades que la variable
q
P
en estudio. Se representa por Gp y se calcula Gp = Q1
|{l  | donde

Q es el total de casos y  la media de la poblacin.

l=1

ndice

Ejemplo: En la clase de Raquel, la desviacin media de la variable edad


es: Gp =

|637|+|737|+|737|+|837|
4

= 0>5 aos.

En la clase de Pedro, la desviacin media de la edad es: Gp =

|737|+|737|+|737|+|737|
4

0 aos
Recorrido intercuartilico: Es la diferencia entre el tercer cuartil y el
primer cuartil de la variable en estudio. Se representa por LTU y se
calcula LTU = T3  T1 .

Captulo 1. Estadstica descriptiva

20

Ejemplo: En la clase de Raquel, el recorrido intercuartilico de la variable


edad es: LTU = 8  6 = 2 aos.

En la clase de Pedro, recorrido intercuartilico de la edad es: LTU = 77 = 0

aos
Varianza: Es una medida de dispersin en torno a la media de los datos,
y se calcula como la suma de las diferencias de los datos y la media al
cuadrado entre el nmero de casos. A pesar de su gran utilidad, esta
medida se expresa en unidades al cuadrado de la variable en estudio,
por lo que es de difcil interpretacin y en ocasiones no tiene sentido.
Q
P
({l  )2
Se representa por  2 (sigma cuadrado) y se calcula  2 = l=1
Q
donde Q es el total de casos y  la media de la poblacin. Para calcular
q
P
({l  {)2
l=1
la varianza de una muestra, emplearemos V 2 =
q
Ejemplo: En la clase de Raquel, la varianza de la variable edad es:  2 =
(637)2 +(737)2 +(737)2 +(837)2
4

= 0>666 aos2 .

En la clase de Pedro, la varianza de la edad es:  2 =

(737)2 +(737)2 +(737)2 +(737)2


4

0 aos2
Desviacin estndar: Es la raz cuadrada de la varianza. Notemos que
es ms til que la varianza ya que se mide en las mismas unidades que la
variable en estudio. Adems cuando estudiemos la distribucin normal
ser una medida del intervalo en el cual se encuentran la mayor parte de
los datos en estudio. Se representa por  (sigma).
Ejemplo:
En la clase de Raquel, la desviacin estndar de la variable edad
ndice
q
(637)2 +(737)2 +(737)2 +(837)2
es:  =
=
0>815
aos=
4
q
2
2
2
+(7
En la clase de Pedro, la desviacin estndar de la edad es:  = (737) +(737) +(737)
4
0 aos=

Cuasi-varianza: Es una correcin del clculo de la varianza cuando el


tamao de la muestra es pequeo con respecto de la poblacin en estudio.

1.4. MTODOS NUMRICOS

21

Se representa por v y se calcula v =


2

q
P

l=1

({l  {)2

q1
de la muestra y { la media de la muestra.

donde q es el tamao

Coeciente de variacin: Es una relacin entre la media y la varianza



de una poblacin. Se representa por FY y se calcula FY =
{

ndice

ndice

Captulo 2
Probabilidad
2.1.

Introduccin

La estadstica la podemos clasicar en dos bloques: Estadstica descriptiva e


Inferencia estadstica. La Estadstica no est restringida, como algunos creen, a
ser descriptiva (nmero de tarjetas rojas en un juego, o porcentaje de personas
con ms de 25 aos en una poblacin). Para llegar a conclusiones se deben
elaborar modelos probabilsticos que resuman toda la informacin disponible
sobre el problema. Cuando existe incertidumbre el modelo es descrito mediante
la probabilidad. Un modelo es un conjunto de reglas que explican de manera
simplicada algun problema real.
Para realizar el nexo entre el estudio descriptivo de las variables estadsticas con poblaciones no observadas en su totalidad, se necesitan introducir
los modelos probabilsticos. El clculo de probabilidades establece y estudia
modelos adecuados para la representacin de experimentos aleatorios, podra
considerase el instrumento matemtico necesario para obtener conocimientos
sobre ciertos conjuntos de datos a partir de las observaciones correspondientes
a una muestra. Dichos modelos tienen por objetivo representar situaciones que
estn sujetas a incertidumbre y para cuanticar esa incertidumbre se hace uso
del concepto de probabilidad.
El concepto de probabilidad est relacionado con el concepto de frecuencia
relativa que se introdujo en el captulo de estadstica descriptiva, de tal manera
23

ndice

Captulo 2. Probabilidad

24

que cumple las propiedades de sta. Previo a la denicin de probabilidad y


estudio de sus propiedades, introduciremos una serie de conceptos iniciales as
como un resumen de las principales nociones de combinatoria.
El clculo de probabilidades nos proporciona las reglas para el estudio de
fenmenos aleatorios, estableciendo la base para la inferencia estadistica. A
partir de las nociones de probabilidad, probabilidad condicionada e independencia de sucesos surgen los teoremas fundamentales del Clculo de probabilidades.

2.2.

Anlisis Combinatorio

Se llaman variaciones de p elementos tomados de q a q, a los diferentes


grupos que pueden formarse de modo que cada dos grupos dieran entre s,
bien por la naturaleza de algn elemento o bien por el orden de sucesin de
los mismos. Es importante resaltar por tanto, que importa el orden de los
elementos.

Ypq = p(p  1)(p  2)===(p  q + 1)


Ejemplo. Calcular las posibles variaciones de 2 elementos que se pueden
establecer con los nmeros 1, 2 y 3.
Tendramos 6 posibles parejas: (1,2), (1,3), (2,1), (2,3), (3,1) y (3,3). En este
caso los subgrupos (1,2) y (2,1) se consideran distintos. Aplicando la frmula:
Y32 = 3  2 = 6
Permutaciones. Permutaciones de m elementos diferentes son los distintos
grupos que se pueden formar con los m elementos, diriendo solamente el orden
de sucesin de sus elementos.
Sp = Ypp = p! = p(p  1)(p  2)==>2>1
Ejemplo. Dados tres colores, azul, rojo y verde, el nmero de banderas
tricolores que se pueden formar con la condicin de que ninguno se repita en

ndice

2.2. ANLISIS COMBINATORIO

25

la misma bandera es:


S3 = Y33 = 3! = 3>2>1 = 6
Combinaciones. Combinaciones de m elementos tomados n a n, son los
diferentes grupos que se pueden formar, gurando en cada uno q de estos
elementos, de tal forma que cada dos grupos se diferencien por lo menos en la
naturaleza de un elemento. Es importante resaltar por tanto, que no importa
el orden de los elementos.
q
=
Fp

Ypq
p(p  1)(p  2)===(p  q + 1
=
Sq
1>2>3====q

Ejemplo. Calcular las posibles combinaciones de 2 elementos que se pueden


establecer con los nmeros 1, 2 y 3.
Tendramos 6 posibles parejas: (1,2), (1,3), (2,3). En este caso los subgrupos
(1,2) y (2,1) se consideran iguales, por lo que solo se cuentan una vez. Aplicando
la frmula:

Y32
3>2
=3
=
S2
2>1
combinatorios:

p
pq

p1
p1
+
q1
q

p
p!
=
(p  q)!q!
q

F32 =
Propiedades de Nmeros

p
=
q

p
=
q
q
=
Fp

Variaciones con repeticin. Dados m elementos se llaman variaciones


con repeticin de estos m elementos tomados de n en n a los conjuntos ordenados de n de estos elementos, distintos o repetidos.
q

Y Up>q = p

Permutaciones con repeticin. Dados p elementos distintos {f1 > ===> fp },

los conjuntos ordenados con q =  1 + === +  p donde  1 son el nmero de f1 ,


...,  p es el nmero de fp , entonces
S 1 === p =

q!
 1 !===! p

ndice

Captulo 2. Probabilidad

26

Combinaciones con repeticin. Si tengo q objetos {d1> d2> d3> ===> dq},

puedo formar grupos (no ordenados) tomando p de ellos, pudindose repetir,


de muchas maneras:
a1 , a1 , a2 , ..., am
a1 , an, an, ..., an , an
a7, a13, am , ..., am , an
etc.

Decimos que estos grupos son combinaciones con repeticin de estos n


elementos de orden m, o tambin, tomados de m en m. Mientras que con n
objetos solamente se pueden formar combinaciones ordinarias de rdenes 1, 2,
3, .... n; en cambio, se pueden formar combinaciones con repeticin de cualquier
orden, por grande que sea.
p
FUqp = FUq+p31
=

2.3.

p
Yq+p31
(q + p  1)(q + p  2)===q
=
Sp
p(p  1)===>2>1

Elementos de probabilidad

Diremos que un experimento es aleatorio cuando al repetir un experimento


en las mismas condiciones los resultados son impredecibles, en caso contrario
diremos que es determinista. Ejemplos de fenmenos aleatorios: Lanzamiento
de una moneda, lanzamiento de un dado, sin embargo, el experimento consistente en dejar caer un objeto desde una altura ja y medir el tiempo que
tarda en impactar contra el suelo es un experimento determinista. El clculo
de probabilidades se dedica al estudio de modelos para experimentos aleatorios. A continuacin deniremos los elementos comunes a todos estos modelos
probabilsticos, as como la notacin de uso ms frecuente en este marco.

2.3.1.

Algebra de sucesos

En el estudio de un experimento aleatorio aparecen distintos elementos


asociados a l:

ndice

2.3. ELEMENTOS DE PROBABILIDAD

27

Suceso elemental. Posibles resultados indescomponibles en otros ms


simples.
Ejemplo. En el lanzamiento de una moneda, son sucesos elementales sacar
cara o cruz..
Espacio muestral. A cualquier conjunto que contenga todos los resultados
posibles de un experimento. El espacio muestral ser denotado habitualmente
con la letra E. Los elementos del espacio muestral que son los sucesos elementales, los denotaremos como h1 > h2 5 E.

Suceso aleatorio. A todo subconjunto del espacio muestral D> E  H.

Dentro de esta clase de sucesos cabe destacar dos sucesos especiales, el llamado
suceso seguro, que es el propio conjunto H y el suceso imposible que es el
conjunto vaco .
Suceso contrario o complementario. Dado el suceso D  H, es el

suceso formado por todos los sucesos elementales de H que no lo sean de D.


Se denota por Df o D. Es decir, Df = {h 5 H : h 5
@ D}. Es importante sealar

que D ^ D = H.

Ejemplo. Consideremos el lanzamiento de un dado, si D = {1> 2} entonces

D = H  D = {3> 4> 5> 6}

ndice
Representacin grca del suceso complementario
Suceso diferencia. Dados dos sucesos D y E, pertenecientes al espacio
muestral H, llamamos suceso diferencia de los sucesos D y E a otro suceso F
de H que contiene los sucesos elementales de D que no estn en E. Se escribe
F = D  E. Es decir, F = {h 5 H : h 5 D y h 5
@ E}.

Captulo 2. Probabilidad

28

Representacin grca del suceso diferencia


Ejemplo. Consideremos el lanzamiento de un dado, si D = {2> 4> 6} y E =

{1> 2> 3} entonces D  E = {4> 6} y E  D = {1> 3}

Suceso Unin. La unin de dos sucesos D y E es un suceso que tiene lugar

cuando acontece al menos uno de esos sucesos, se trata del suceso que llamaremos F = DXE formado por todos los sucesos elementales que pertenecen a D
o a E= Es decir, F = {h 5 H : h 5 D o h 5 E}.

Ejemplo. Consideremos el lanzamiento de un dado, si D = {1> 2> 4} y E =

{3> 4} entonces D ^ E = {1> 2> 3> 4}.

ndice

Representacin grca del suceso unin

2.3. ELEMENTOS DE PROBABILIDAD

29

Suceso interseccin. Dados dos sucesos aleatorios D, E  H, se de-

nomina suceso interseccin de D y E al conjunto formado por todos los suce-

sos elementales que pertenecen a la vez a D y E. Es decir, F = D _ E =


{h 5 H : h 5 D y h 5 E}.

Representacin grca del suceso interseccin

Ejemplo. Consideremos el lanzamiento de un dado, si D = {1> 2> 4} y E =

{3> 4} entonces D _ E = {4}.

Suceso diferencia simtrica. La diferencia simtrica entre D y E es el


suceso que acontece cuando ocurre uno de los sucesos D o E pero no los dos
simultneamente, es decir, se trata del suceso aleatorio formado por todos los
sucesos elementales que pertenecen a D y no a E, y los que estn en E y no
en D y se representa por F = D{E = {h 5 H : h 5 (D ^ E) o h 5 (D _ E)} =
{D  E} ^ {E  D}

Ejemplo. Consideremos el lanzamiento de un dado, si D = {1> 2> 3} y E =

{3> 4} entonces D{E = {1> 2> 4} = E{D.

ndice

Captulo 2. Probabilidad

30

Representacin grca del suceso diferencia


Sucesos incompatibles. Dos sucesos se dice que son incompatibles si al
vericarse uno no se puede vericar el otro. En tal caso D _ E nunca se verica
y se cumplir:

D_E =!
Ejemplo. Consideremos el lanzamiento de un dado, si D = {1> 2} y E =

{3> 4} entonces D _ E = !.

Para desarrollos prcticos existen ciertas propiedades que relacionan la

unin, interseccin y el suceso contrario y se conocen como Leyes de Morgan:


D = D
D_E = D^E
D^E = D_E
si quisiramos extender las dos ltimas leyes de Morgan para qvxfhvrv
tendramos:
q
[

Dl =

l=1
q
\

l=1

q
\

Dl

l=1

Dl =

q
[

l=1

Dl

ndice

2.4. DEFINICIONES DE PROBABILIDAD

2.4.

31

Deniciones de Probabilidad

La teora matemtica de la probabilidad calcula nuevas probabilidades a


partir de unas probabilidades iniciales que se pueden obtener de diferentes formas. Para ello existen diferentes interpretaciones del concepto de probabilidad
y a continuacin, expondremos cuatro formas de denir la probabilidad: Mtodo axiomtico, Mtodo frecuencial u objetivista, Mtodo de Laplace, Mtodo
bayesiano o subjetivista.

2.4.1.

Concepto axiomtico de probabilidad

Dado un experimento aleatorio con espacio muestral H, y el conjunto de


todos los posibles subconjuntos de dicho espacio muestral A. Se dene la prob-

abilidad de D  H, o lo que es lo mismo, un suceso D 5 A, como una funcin


denida sobre A y que slo toma valores positivos comprendidos entre 0 y 1.

Es decir, se trata de la aplicacin:

S : A $ [0> 1]  R
D<S (D)

por tanto dado D  A entonces se cumple que S (D) 5 [0> 1]. Esta apli-

cacin permite asociar a cada suceso D un nmero real S (D), siendo S (D)

la incertidumbre con que ocurrir el suceso D en el experimento aleatorio.


Satisface los siguientes axiomas:
Axioma1. A cada suceso D  A le corresponde un nmero real tal que

0  S (D)  1. S (D) recibe el nombre de probabilidad de D.


Axioma 2. S (H) = 1

Axioma 3. Si D1 > D2 > ==== son sucesos disjuntos, es decir, Dl _ Dm = ! ;l> m


" !
"
[
X
S
Dl = S (D1 ^ D2 ^ ====) = S (D1 ) + S (D2 ) + === =
S (Dl )
l=1

l=1

En caso de que el numero de sucesos elementales sea nito, este axioma


sera de la siguiente manera:
Si D1 > D2 > ====Dq son sucesos disjuntos, es decir, Dl _ Dm = ! ;l> m
q
!
q
[
X
S
Dl = S (D1 ^ D2 ^ ====Dq ) = S (D1 ) + S (D2 ) + ===S (Dq ) =
S (Dl )
l=1

l=1

ndice

Captulo 2. Probabilidad

32

Consecuencias de los axiomas de la probabilidad



a. S D = 1  S (D)

b. S (!) = 0

c. Si D> E  H tal que D  E =, S (D)  S (E)


d. S (D)  1> ;D  H

Demostracin
a. En virtud de la propiedad complementaria
D^D=H
si tomamos probabilidades en ambos miembros de la igualdad

S D ^ D = S (H)

por el axioma 2 S D ^ D = S (H) = 1, pero como D y D son disjuntos,

por el axioma 3 tenemos que S D ^ D = S (D) + S (D) = 1, por tanto



S D = 1  S (D)

b. Tenemos que H = !, por tanto H ^ H = H, si tomamos probabilidades a


ambos lados de la igualdad obtendremos

S H ^ H = S (H)

por el axioma 3, S H ^ H = S (H) + S (H) y por otro lado sabemos por

el axioma 2. que S (H) = 1 por tanto

S (H) + S (H) = 1

S H = S (!) = 1  S (H)
= 11=0

c. Sean D y E dos sucesos del espacio muestral H tal que D  E, es decir:

ndice

2.4. DEFINICIONES DE PROBABILIDAD

33

Representacin del suceso D  E


La idea fundamental de esta demostracin consiste en expresar cada suceso
como unin de dos sucesos disjuntos y aplicar el axioma 3 de la siguiente
manera:
E = D ^ (E  D)
S (E) = S [D ^ (E  D)]
teniendo en cuenta que D, y E  D son sucesos disjuntos:
S (E) = S (D) + S (E  D)
por el axioma 1 sabemos que S (E  D)  0, por tanto S (D)  S (E)
d. Sabemos que D  H por tanto por la consecuencia f tenemos que se
cumple S (D)  S (H) = 1

Propiedades
Las siguientes propiedades se deducen de los axiomas y sus consecuencias.
Propiedad 1. Si D y E son dos sucesos cualesquiera de H, se verica que:
S (D ^ E) = S (D) + S (E)  S (D _ E)

ndice

Captulo 2. Probabilidad

34

Para demostrar esta propiedad expresaremos la unin de estos dos sucesos


y la de los sucesos elementales D y E como unin de sucesos disjuntos y
aplicaremos el axioma 3.

De tal manera que podemos escribir:


D ^ E = (D  E) ^ (D _ E) ^ (E  D)
D = (D  E) ^ (D _ E)
E = (E  D) ^ (D _ E)
si tomamos probabilidades y aplicamos el axioma 3
S (D ^ E) = S (D  E) + S (D _ E) + S (E  D)

(2.1)

S (D) = S (D  E) + S (D _ E)

ndice

S (E) = S (E  D) + S (D _ E)
por tanto

S (D  E) = S (D)  S (D _ E)
S (E  D) = S (E)  S (D _ E)

(2.2)

2.4. DEFINICIONES DE PROBABILIDAD

35

sustituyendo (2.2) en la primera frmula de (2.1) obtenemos:


S (D ^ E) = S (D)  S (D _ E) + S (D _ E) + S (E)  S (D _ E)
= S (D) + S (E)  S (D _ E)
Propiedad 2. Consideremos tres sucesos, D> E y F  H, entonces
S (D ^ E ^ F) =
= S (D) + S (E) + S (F)  S (D _ E)  S (D _ F)
S (E _ F) + S (D _ E _ F)
Apliquemos la propiedad 1 a los sucesos D ^ E y F,
S (D ^ E ^ F) = S (D ^ E) + S (F)  S ((D ^ E) _ F)

(2.3)

= S (D ^ E) + S (F)  S ((D _ F) ^ (E _ F))


por otro lado volvamos a aplicar la propiedad 1 a los sucesos (D _ F) y

(E _ F)

S ((D _ F) ^ (E _ F)) = S (D _ F) + S (E _ F)  S (D _ E _ F)(2.4)


S (D ^ E) = S (D) + S (E)  S (D _ E)
sustituyendo (2.4) en (2.3) en obtenemos
S (D ^ E ^ F) = S (D) + S (E) + S (F)  S (D _ E)
S (D _ F)  S (E _ F) + S (D _ E _ F)
Propiedad 3. En general sean q sucesos elementales D1 > D2 > ===> Dq  H

entonces se cumple:
q
!
q
[
X
S
=
Dl
S (Dl ) 
l=1

l=1

1$l1 $l2 $q

1$l1 $l2 $l3 $q

===S

q
\

l=1

Dl

S (Dl1 _ Dl2 )

S (Dl1 _ Dl2 _ Dl3 )  ====

ndice

Captulo 2. Probabilidad

36

Propiedad 4. Dados los sucesos D> E  H se verica


(2.5)

S (D  E) = S (D)  S (D _ E)
S (E  D) = S (E)  S (D _ E)
Propiedad 5. dados los sucesos D> E  H se verica
S (D{E) = S (D) + S (E)  2S (D _ E)
sabemos que

D{E = (D  E) ^ (E  D)
S (D{E) = S (D  E) + S (E  D)
aplicando la propiedad 4
S (D{E) = S (D)  S (D _ E) + S (E)  S (D _ E)
= S (D) + S (E)  2S (D _ E)
Ejemplo 1.
Se lanzan al aire dos monedas, consideremos los siguientes sucesos:
A=sacar cara en la primera
B=sacar cara en la segunda
M=sacar cara en una moneda solamente.
Calcular S (D ^ E ^ P).

El espacio muestral es H = {FF> F[> [F> [[} llamando F = fdud y

[ = fux}, los sucesos D> E y P son:

D = {FF> F[}, E = {FF> [F}, y P = {F[> [F}, por tanto S (D) =

S (E) = S (P) = 12 , S (D _ E) = S (D _ P) = S (E _ P) =

0 entonces

1
4

y S (D _ E _ P) =

1 1 1 1 1 1
+ +    +0
2 2 2 4 4 4
Ejemplo 2. Un fabricante de tornillos tiene un informe que contiene inforS (D ^ E ^ P) =

macin sobre la produccin de estos tornillos: el 1.5 % de todos los tornillos


fabricados no son conformes a especicaciones de longitud, el 1.2 % son defectuosos en cuanto al espesor, y el 0.8 % son defectuosos respecto ambas medidas.

ndice

2.4. DEFINICIONES DE PROBABILIDAD

37

1. Calcular la probabilidad de que alguna de las medidads de longitud o


espesor de un tornillo son no conformes a especicaciones.
2. Calcular la probabilidad de que en un tornillo ninguna de las dos medidads se encuentra fuera de especicaciones.
3. Calcular la probabilidad de que en un cable la longitud es no conforme
a especicaciones, pero el espesor s.
4. Calcular la probabilidad de que un cable es no conforme a especicaciones
en cuanto a longitud o a espesor, pero no en cuanto a ambas medidas.
Sean los siguientes sucesos:
A: Un tornillo seleccionado al azar es no conforme a especicaciones por su
longitud.
B: Un tornillo seleccionado al azar es no conforme a especicaciones por su
espesor.
1. Se trata del suceso D ^ E, por tanto
S (D ^ E) = S (D) + S (E)  S (D _ E)
= 0>015 + 0>012  0>008
= 0>019
esto signica que el 1.9 % de los tornillos fabricados son no conformes a
especicaciones en alguna de las dos medidads consideradas, longitud o espesor.
2. Tendremos que calcular la probabilidad de este suceso D _ E. Para ello,
se utilizar la segunda de las leyes de Morgan y la consecuencia 1 de los
axiomas de probabilidad,

S D_E = S D^E

= 1  S (D ^ E)
= 1  0>019 = 0>981

este resultado nos indica que el 98 % de los tornillos fabricados ninguna de


las dos medidas consideradas se encuentra fuera de las especicaciones.

ndice

Captulo 2. Probabilidad

38

3. Tenemos que calcular


S (D  E) = S (D)  S (D _ E)
= 0>015  0>008
= 0>007
lo cual nos informa de que el 0.7 % de los tornillos fabricados el espesor es
conforme a especicaciones, pero la longitud no.
4. El suceso que tenemos que considera es D{E
S (D{E) = S (D) + S (E)  2S (D _ E)
= 0>015 + 0>012  2  0>008
= 0>011
hay una probabilidad de 0.011 de que un tornillo sea no conforme a especicaciones en cuanto a longitud o a espesor, pero no en cuanto a ambas
medidas.

2.4.2.

Mtodo frecuencial u objetivista

En la esencia de esta interpretacin subyace la llamada concepcin frecuentista de la probabilidad. La frecuencia relativa nos da un cociente menor o igual
que 1, que mide las veces que se repite un suceso despus de realizar un experimento aleatorio una serie de veces bajo condiciones similares. Dicho cociente
tiende a estabilizarse entorno a una cantidad cuando el nmero de pruebas
crece, siendo esta cantidad la que deniremos como probabilidad. Este hecho
se conoce con el nombre de ley de los grandes nmeros que fue demostrada por
Jacques Bernouilli (1654-1705).
Formalicemos esta interpretacin, supongamos que D es un suceso aleatorio
respecto a un cierto experimento aleatorio que se repite un nmero grande de
veces (q veces) en idnticas condiciones y con independencia entre las distintas
repeticiones. Llamemos Sq (D) a la frecuencia relativa de ocurrencia de D, por
tanto
Sq (D) =

Q r de veces que ha ocurrido D


q

ndice

2.4. DEFINICIONES DE PROBABILIDAD

39

Por tanto, a medida que aumenta q stas frecuencias se aproximan a un


ciero valor numrico que nos servir para medir nuestro grado de certidumbre
sobre la posible aparicin del suceso en experiencias futuras. Este valor es lo
que entendemos como probabilidad de ocurrencia del suceso:

Sq (D) $ S (D)
q<"

Esta denicin se debe a Richard von Mises (1883-1953). El inconveniente


fundamental es que para aplicar esta denicin necesitariamos realizar un gran
nmero de veces cada experimento y estudiar el lmite de sus frecuencias relativas. Supongamos que lanzamos una moneda al aire y observamos las veces
que sale cara, anotando el nmero de lanzamientos. Mediante simulacin comprobaremos este experimento y observaremos su resultado.
1

0.9

frecuencia de caras

0.8

0.7

0.6

0.5

0.4

0.3

ndice
0

100

200

300

400
500
600
lanzamientos de moneda

700

800

900

1000

Las frecuencias relativas tienden a estabilizarse alrededor de 0>5, es decir,


toma valores aproximados por exceso o por defecto en torno a 0>5 al aumentar
el nmero de lanzamientos. Es evidente que se trata de un mtodo emprico que
resulta lento y muy trabajoso, por tanto necesitamos buscar otra denicin.

Captulo 2. Probabilidad

40

2.4.3.

Mtodo de Laplace

Vamos a presentar una denicin de probabilidad cuyo principal inconveniente para su aplicacin es que los casos deben ser equiprobables, condicin
que en muchas ocasiones, por razones de simetra, ocurre ya que muchas veces
encontramos todos los resultados de un experimento igualmente verosmiles.
Laplace en 1812 enunci la denicin de probabilidad de un suceso D como
el cociente entre el nmero de casos favorables al suceso y el nmero de casos posibles, teniendo en cuenta que los sucesos elementales tienen que ser
igualmente probables. Formalmente:
Dado un experimento cualquiera con espacio muestral H. Supongamos que
q
S
H=
Dl tal que se cumple Dl _Dm = !, ;l 6= m es decir, sucesos incompatibles
l=1

dos a dos y equiprobables, entonces:

1 = S (H) = S

q
[

l=1

s = S (Dl ) =

Dl

1
;Dl  H
q

de tal manera que sea E  H tal que E =

q
X

S (Dl ) = qs

l=1

p
S

Dl tendremos que

l=1

p nr de sucesos elementales en E
= r
q
n de sucesos elementales en H
r
n de casos favorables en E
=
nr de casos posibles

S (E) =

Ejemplo
En el experimento aleatorio lanzar un dado calcular la probabilidad de que
al lanzar el dado se obtenga un nmero impar.
Solucin: El espacio muestral es H = {1> 2> 3> 4> 5> 6} llamemos D al suceso

que consiste en obtener un nmero impar, D = {1> 3> 5}. Suponemos que todas
las caras tienen igual probabilidad de ocurrencia con lo cual podemos aplicar
la Regla de Laplace:

ndice

2.4. DEFINICIONES DE PROBABILIDAD

41

nr de casos favorables en D
nr de casos posibles
r
n de sucesos elementales en E
= r
n de sucesos elementales en H
3
= 0>5
=
6

S (lpsdu) =

Ejemplo
Queremos calcular la probabilidad de que al extraer una carta de una baraja
francesa (52 cartas) obtengamos un trebol. Si D es el suceso obtener un trebol
se tiene:
S (D) =

13
1
=
52
4

Ejemplo
Consideremos ahora el experimento aleatorio lanzamiento de dos dados
equilibrados para calcular la probabilidad de cada uno de los posibles valores
de la suma de los dos nmeros que pueden aparecer. Sean ({> |) donde {
representa el nmero que aparece en el primer dado, e | representa el nmero
que aparece en el segundo dado. Por tanto H contiene 36 resultados posibles.
Calcular la probabilidad de sacar un 6 en el primer dado

S (D) =

6
1
=
36
6

Calcular la probabilidad de sacar ms puntuacin en el segundo dado


que en el primero:

ndice
5+4+3+2+1
15
=
36
36
5
=
12

S (D) =

Calcular la probabilidad de que la suma de los dos nmeros sea 5


S (D) =

4
36

Captulo 2. Probabilidad

42

2.4.4.

Mtodo Bayesiano o Subjetivista

La denicin que damos a continuacin rompe bastante con las deniciones


que hemos introducido hasta ahora. Mientras las anteriores deniciones presentaban la probabilidad como una propiedad que se observa, en esta denicin
se toma como probabilidad una medida del grado de creencia que tiene una
persona sobre la ocurrencia del suceso de inters basndonos en la experiencia. Por tanto, deniremos la probabilidad de un suceso como la medida del
grado de creencia que tiene una persona dada en un momento dado sobre la
ocurrencia del suceso.

2.5.

Probabilidad Condicionada

Hemos denido la probabilidad de un suceso D referida a todo el espacio


muestral H. En muchas ocasiones disponemos de una informacin adicional
de tal manera que tendremos que tenerla en cuenta, a la hora de calcular una
probabilidad de un cierto suceso. Supongamos que tenemos otro suceso E  H

tal que D _ E 6= !. Supongamos adems que tenemos la certeza de que ha

ocurrido el suceso E y estamos interesados en saber cual es la probabilidad

de D pero sabiendo que ha ocurrido E. Con esta informacin aadida lo que


hemos hecho ha sido reducir el espacio muestral de H a E, y habr adems
que exigir que no sea un espacio nulo, por tanto, debe cumplirse que S (E) A
0. Ms formalmente, dados dos sucesos D y E del espacio muestral H, se
dene la probabilidad condicionada del suceso D al suceso E, a la cantidad
que representamos como S (D@E), y se calcula como:
S (D _ E)
S (E)
S (E) A 0

S (D@E) =

Anlogamente se dene
S (D _ E)
S (D)
S (D) A 0

S (E@D) =

ndice

2.5. PROBABILIDAD CONDICIONADA

43

Ejemplo. Se considera el lanzamiento de un dado y sea D = {sacar impar}

y E = {3> 4}. Calcular la probabilidad de sacar un nmero impar sabiendo que


antes se ha sacado 3 4=

S (D _ E)
S (E)
2
1
3
, S (E) = , S (D _ E) =
S (D) =
6
6
6
1@6 1
=
S (D@E) =
2@6 2
S (D@E) =

Axiomas para la probabilidad condicionada


Axioma 1. S (D@E)  0

evidentemente por la denicin de la probabilidad, S (D@E) =

S (DKE)
S (E)

Axioma 2. S (H@E) = 1
en efecto:

0

S (H _ E)
S (E)
=
=1
S (E)
S (E)

S (H@E) =
Axioma 3.
S(

"
[

Dl @E) =

l=1

"
X

S (Dl @E)

l=1

vlhqgr Dl _ Dm = !
en efecto:

S(

"
[

S
Dl @E) =

l=1

Dl ) _ E

S (E)

l=1

"
[

"
X
l=1

S (Dl _ E)
S (E)

S
=

"
X
l=1

Propiedad 1. S (D@E) = 1  S (D@E)


en efecto:

S (D@E) =

S (D _ E)
S (E)

"
[

(Dl _ E)

l=1

S (E)

ndice
S (Dl @E)

Captulo 2. Probabilidad

44

sabemos que E = (D _ E) ^ D _ E por lo tanto S (E) = S (D _ E) +

S D _ E de donde S D _ E = S (E)  S (D _ E) entonces


S (D _ E)
S (E)
S (E)  S (D _ E)
=
S (E)
= 1  S (D@E)

S (D@E) =

2.5.1.

Sucesos dependientes e independientes

Dados tres sucesos D, E, y F  H diremos que dichos sucesos son inde-

pendientes dos a dos cuando:

a) S (D _ E) = S (D)=S (E) por tanto D y E son independientes y tambin

se cumple que:

S (D _ E)
S (E)
S (D)=S (E)
=
= S (D)
S (E)

S (D@E) =

b) S (D _ F) = S (D)=S (F) por tanto D y F son independientes y tambin

se cumple que S (D@F) = S (D)

c) S (E _ F) = S (E)=S (F) por tanto E y F son independientes y tambin

se cumple que S (E@F) = S (E)

Dados tres sucesos D, E, y F  H diremos que dichos sucesos son mutua-

mente cuando:

a) D, E, y F sean independientes dos a dos


b) S (D _ E _ F) = S (D)=S (E)=S (F)

La independencia de dos sucesos supone la independencia de sus complementarios. Es un ejercicio sencillo comprobar que si D y E son independientes
entonces tambin lo son: D y E, D y E, D y E.
Demostracin:
Veamos por ejemplo el ltimo caso, es decir, si D y E son independientes
entonces tambin lo son D y E.

ndice

2.5. PROBABILIDAD CONDICIONADA

45

en efecto: como D _ E = D ^ E tenemos


S (D _ E) = S (D ^ E) = 1  S (D ^ E)
= 1  [S (D) + S (E)  S (D _ E)]
= 1  [S (D) + S (E)  S (D)=S (E)]
= [1  S (D)] [1  S (E)]
= S (D)S (E)
Regla de la multiplicacin. Teorema de la probabilidad compuesta.
Sean D1 > D2 > ===> Dq  H una coleccin de sucesos aleatorios, se cumple que
S (D1 _ D2 _ === _ Dq ) = S (D1 )=S (D2 @D1 )=S (D3 @D1 _ D2 )
===S (Dq @D1 _ D2 _ === _ Dq31 )
demostracin:
S (D1 _D2 _===_Dq ) = S ((D1 _ D2 _ === _ Dq31 ) _ Dq ) = S (D1 _ D2 _ === _ Dq31 ) =S (Dq @D1

D2 _ === _ Dq31 ) =

=S (D1 _ D2 _ === _ Dq32 ) =S (Dq31 @D1 _ D2 _ === _Dq32 )S (Dq @D1 _D2 _=== _

Dq31 ) = === =

=S (D1 )=S (D2 @D1 )=S (D3 @D1 _ D2 )===S (Dq @D1 _ D2 _ === _ Dq31 )

Los teoremas que quedan por contar nos dicen como calcular las probabilidades de sucesos cuando el suceso seguro est descompuesto en una serie de
sucesos incompatibles de los que conocemos su probabilidad.
Teorema de la probabilidad Total
Sean q sucesos D1 > D2 > ===> Dq incompatibles o mutuamente excluyentes, es
q
[
Dl = H y Dl _ Dm = ! ;l 6= m= Consideremos un suceso E y conocidas
decir:
l=1

las probabilidades condicionadas S (E@D1 )> S (E@D2 )>....,S (E@Dq ) y adems


S (D1 ), S (D2 ),...,S (Dq ), se tiene:
S (E) =

q
X
l=1

S (Dl )=S (E@Dl )

ndice

Captulo 2. Probabilidad

46

Teorema de la probabilidad total


Observando la gura, podemos comprobar como los sucesos Dl forman un
sistema exhaustivo y excluyende de sucesos, pudindose calcular la S (E) a
partir de las cantidades S (E _ Dl )> teniendo en cuenta la denicin de probabilidad condicionada y del hecho de que si los sucesos Dl forman un sistema

exhaustivo y excluyente, los sucesos E _ Dl tambin lo forman.


S (E) = S (E _ H) = S (E _ (D1 ^ D2 ^ === ^ Dq )) = S ((E _ D1 ) ^ (E _

D2 ) ^ === ^ (E _ Dq ) =

=S ((E_D1 )+S (E_D2 )+===+S (E_Dq ) = S (D1 )=S (E@D1 )+S (D2 )=S (E@D2 )+

=== + S (Dq )=S (E@Dq ) =


q
X
=
S (Dl )=S (E@Dl )
l=1

Ejemplo. Se tienen dos urnas, y cada una de ellas contiene un nmero

diferente de bolas blancas y rojas: Primera Urna X1 : 3 bolas blancas y 2 rojas,


segunda Urna X2 : 4 bolas blancas y 2 rojas.
Se realiza el siguiente experimento aleatorio: tiramos una moneda al aire y
si sale cara se elige una bola de la primera urna, y si sale cruz se elige la bola
de la segunda urna. Cul es la probabilidad de que salga una bola blanca?
Estamos ante la siguiente situacin

ndice

2.5. PROBABILIDAD CONDICIONADA

47

3B 2R X1

S (X1 ) = 1@2 S (E@X1 ) = 3@5

4B 2R X2

S (X2 ) = 1@2 S (E@X2 ) = 4@6

Como X1 y X2 forman un sistema incompatible y excluyente de sucesos el


teorema de la probabilidad total permite armar entonces:

S (E) = S (E@X1 )S (X1 ) + S (E@X2 )S (X2 )


19
3 1 4 1
= + = =
=
5 2 6 2
30
Teorema de Bayes
Consideremos qsucesos incompatibles o mutuamente excluyentes D1 > D2 > ===> Dq
q
[
y que forman un sistema exhaustivo, es decir:
Dl = H y Dl _ Dm = ! ;l 6= m=
l=1

Sea E  H un suceso del que conocemos las siguientes probabilidades: S (E@Dl )

;l = 1> ===> q y S (Dl ) ;l = 1> ===> q, entonces, se verica ;m = 1> ==> q:


S (Dm @E) =

S (Dm )=S (E@Dm )


q
X
S (Dl )=S (E@Dl )
l=1

La demostracin es una consecuencia de la denicin de probabilidad condicionada en trminos de la interseccin y del teorema de la probabilidad total:
S (Dm @E) =

S (Dm _ E)
S (Dm )=S (E@Dm )
= q
X
S (E)
S (Dl )=S (E@Dl )
l=1

Ejemplo: Se tienen tres urnas, y cada una de ellas contiene un nmero


diferente de bolas blancas y rojas: Primera Urna X1 : 3 bolas blancas y 2 rojas,
segunda Urna X2 : 4 bolas blancas y 2 rojas, y la tercera urna X3 : 3 bolas rojas
Se realiza el siguiente experimento aleatorio: Alguien elige al azar y con
la misma probabilidad una de las tres urnas, y saca una bola Cul es la
probabilidad de que provenga de la primera urna?
Estamos ante la siguiente situacin

ndice

Captulo 2. Probabilidad

48

3B 2R X1

S (X1 ) = 1@3 S (E@X1 ) = 3@5

4B 2R X2

S (X2 ) = 1@3 S (E@X2 ) = 4@6

0B 3R X3

S (X3 ) = 1@3 S (E@X3 ) = 0

En este caso X1 > X2 > y X3 forman un sistema incompatible y excluyente


(la bola que elegimos debe provenir de una de esas tres urnas y de una slo
de ellas), por tanto es posible aplicar el teorema de Bayes para calcular la
probabilidad que nos piden:
S (X1 @E) =
=
S (X2 @E) =
=
S (X3 @E) =
=

S (X1 )=S (E@X1 )


S (X1 )=S (E@X1 ) + S (X2 )=S (E@X2 ) + S (X3 )=S (E@X3 )
3 1
=
9
5 3
3 1
4 1
1 =
19
=
+
=
+
0=
5 3
6 3
3
S (X2 )=S (E@X2 )
S (X1 )=S (E@X1 ) + S (X2 )=S (E@X2 ) + S (X3 )=S (E@X3 )
4 1
=
10
6 3
3 1
4 1
1 =
19
= + 6 = 3 + 0= 3
5 3
S (X3 )=S (E@X3 )
S (X1 )=S (E@X1 ) + S (X2 )=S (E@X2 ) + S (X3 )=S (E@X3 )
0= 13
=0
3 1
= + 46 = 13 + 0= 13
5 3

ndice

Captulo 3
Variables aleatorias discretas
3.1.

Introduccin

Al analizar un experimento, en ocasiones se hace impracticable estudiar las


caractersticas del experimento sin una referencia numrica de los resultados.
Por ejemplo, se puede medir en una determinada poblacin la caracterstica
"color del pelo". Los datos obtenidos pueden clasicarse en rubio, moreno,
castao, pelirojo y otros para el caso de coloracin articial.
Diremos que el experimento D = {color del pelo de los individuos de la

poblacin} tiene como espacio muestral H que son todos los posibles resul-

tados del experimento. Cada elemento de H se denomina suceso elemental.


Es decir, rubio, moreno, castao, pelirojo y otros son sucesos elementales del
experimento D.
El clculo simple de la mediana de los datos se convierte en una tarea
complicada. Por ello, mediante una funcin matemtica se transladan los datos
categricos a datos numricos. Esto nos conduce a las variables aleatorias.
Ms formalmente:
Denicin. Una variable aleatoria es una funcin X que a cada suceso
elemental e del espacio muestral E le asigna un nico valor real:
[:H$U
h${
49

ndice

Captulo 3. Variables aleatorias discretas

50

La variable as denida se denomina aleatoria porque se desconocen los


resultados del experimento, siendo estos aleatorios.
Propiedades:
1. La composicin de una funcin real con una variable aleatoria es una
nueva variable aleatoria.
[:H$U
h${

J:U$U
| $ J(|)

J([) = J  [ : H $ U
h $ J([(h))

2. Si sobre los elementos del espacio muestral H existe una distribucin de


probabilidad, esta se transmite a los valores que toma la variable X.
Para valores discretos: S ([ = {) = S ({h 5 H @ [(h) = {})

Para valores en un intervalo: S ([ 5 (d> e)) = S ({h 5 H @ [(h) 5 (d> e)})


Las variables aleatorias pueden ser de tres tipos:
a. Discretas: son aquellas variables aleatorias que slo pueden tomar un nmero
nito o un nmero innito numerable de valores. Por ejemplo: [ : H $

{1> 2> 3> 4> 5> 6> 7}; [ : H $ N

b. Continuas: son aquellas variables aleatorias que pueden tomar un nmero


innito no numerable de valores. Por ejemplo: [ : H $ R
c. Mixtas: para un rango de valores toman un conjunto discreto de valores y
para otro rango de valores pueden tomar valores continuos.

3.2.

Funcin de Distribucin

Sea [ una variable aleatoria que representa un experimento D. Para denir


completamente a [, necesitamos conocer dos cosas:
a. Todos los sucesos elementales de H (que es el conjunto de posibles resultados
del experimento D).

ndice

3.2. FUNCIN DE DISTRIBUCIN

51

b. La probabilidad de cada uno de los sucesos.


La distribucin de probabilidad de [ es una funcin sobre el conjunto E,
que a cada elemento de H le asocia la probabilidad de dicho suceso elemental.
Mas formalmente:
Denicin. Sea [ una variable aleatoria denida sobre un espacio muestral H. La funcin de distribucin de [ es: I ({) = S ([ 5 (4> {])
Las propiedades de las funciones de distribucin son:
Propiedad 1. I (4) = 0; I (+4) = 1= Es decir, la probabilidad de obtener
un valor fuera de la recta real (I (4)) es la probabilidad mnima (0).
La probabilidad de obtener algn valor en toda la recta real (I (+4))
es la probabilidad mxima (1).
Propiedad 2. S ({1 ? [  {2 ) = I ({2 )  I ({1 ). Basta con considerar los

siguientes tres sucesos: sean D = {[  {2 }> E = {[  {1 } y F =

{{1 ? [  {2 }= El suceso D es igual a E ^ F siendo E y F dos conjuntos


disjuntos. Por ello, S (D) = S (E ^ F) = S (E) +S (F)= De aqui se deduce

que: S (F) = S (D)  S (E)= Sustituyendo D, E y F por sus expresiones


tenemos entonces:

S ({1 ? [  {2 ) =
= S (D)  S (E) =
= S ([  {2 )  S ([  {1 ) =
= I ({2 )  I ({1 )
De esta propiedad se deduce que S ([ A {) = 1  I ({)
Propiedad 3. La funcin de distribucin es montona no decreciente. Es decir, si {1 ? {2 entonces I ({1 )  I ({2 )=
Propiedad 4. La funcin de distribucin es continua por la derecha. Es decir,
lm |I ({ + %)  I ({)| = 0

%<0

ndice

Captulo 3. Variables aleatorias discretas

52

3.2.1.

Funcin de masa

En una variable aleatoria de tipo discreto, la funcin de masa es la probabilidad de cada elemento de H. Es decir: S ([ = {l ) = sl para todo {l 5 H=
Se verica que la suma de todas las probabilidades es igual a la unidad:
X
X
S ([ = {l ) =
sl = 1=
{l MH

{l MH

La funcin de distribucin de una variable aleatoria discreta es entonces:


X
S ([ = {l )=
I ({) = S ([  {) =
{l ${

Observacin. Debemos tener en cuenta que si d no es un valor admisible

para la variable aleatoria [ entonces S ([ = d) = 0

3.2.2.

Funcin de densidad

Para que una variable aleatoria sea continua debe existir la primera derivada de su funcin de distribucin y sta debe ser continua.
Debemos tener en cuenta, que la probabilidad de cada suceso elemental de
una variable aleatoria continua es cero: lm |I ({ + %)  I ({)| = S ([ = {) = 0
%<0

En una variable aleatoria de tipo continuo, la funcin de densidad es la

probabilidad de cada conjunto de H. La expresin de la funcin de densidad


viene dada por la primera derivada de la funcin de distribucin. Esto se deduce
de:
Por el teorema del punto medio, sabemos que: I ({ + 4{)  I ({) =
4{I 0 () donde { ?   { + 4{

Por otro lado, I ({ + 4{)  I ({) = S ([ 5 ({> { + 4{])


La masa media en el intervalo ({> {+4{] viene dada por:

I ({ + 4{)  I ({)
4{

I ({ + 4{)  I ({)
= I 0 ({) = i({)
4{
Se verica que la integral de todas las probabilidades es igual a la unidad:
R"
S (4 ? [ ? 4) = I (4)  I (4) = 3" i ({)g{ = 1=
Finalmente: lm

4{<0

La funcin de distribucin de una variable aleatoria continua es entonces:


Rd
I (d) = S ([  d) = 3" i({)g{

ndice

3.3. MOMENTOS DE UNA VARIABLE ALEATORIA

3.3.

53

Momentos de una variable aleatoria

Los momentos de una variable aleatoria sirven a modo de caractersticas


para resumir, comparar con otras, etc. Del mismo modo, sirven tambin para
caracterizar diversas distribuciones de probabilidad estndar muy frecuentes
en la vida real.
Denicin. Se denomina momento de orden u 5 N a u donde:
; X
A
{ul sl
si [ es discreta
?
u
u = H ([ ) =
{l MH
A
= R " {u i({)g{ si [ es continua
3"

Denicin. Se denomina momento central de orden u 5 N a pu donde:


; X
A
({l  H([))u sl
si [ es discreta
?
u
{l MH
pu = H [([  H([)) ] =
A
= R " ({  H([))u i ({)g{ si [ es continua
3"

3.3.1.

Esperanza

Es una media ponderada de los posibles valores que puede tomar una variable aleatoria segn la probabilidad de cada suceso. Se representa por  o por
H([) y es una medida de localizacin de la variable aleatoria.
Caso discreto:
 = H([) =

{l sl

{l MH

es decir, la suma de cada uno de los valores que puede tomar la variable
aleatoria [ multiplicado por su probabilidad.
Caso continuo:
 = H([) =

R"

3"

{i ({)g{

es decir, la integral en el dominio de denicin de la variable aleatoria [


de su funcin de densidad multiplicado por {.

ndice

Captulo 3. Variables aleatorias discretas

54

3.3.2.

Varianza

Es una media ponderada de la desviacin a la media de los posibles valores


que puede tomar una variable aleatoria segn la probabilidad de cada suceso.
Se representa por  2 o por Y du([) y es una medida de dispersin de la variable
aleatoria.

Caso discreto:

 2 = Y du([) =

{l MH

({l  )2 sl =

2
X

{l MH

{2l sl  2

Caso continuo:
 2 = Y du([) =

3.3.3.

R"

3"

({  )2 i ({)g{

Desviacin Tpica

Es la raiz cuadrada positiva de la varianza. Se representa por  y es una


medida de dispersin de la variable aleatoria.

Caso discreto:
=

sX

{l MH

({l  )2 sl

Caso continuo:
=

qR
"

3"

({  )2 i ({)g{

ndice

3.4. DESIGUALDAD DE TCHEBYCHEFF

3.4.

55

Desigualdad de Tchebyche

Sea [ una variable aleatoria de media  y desviacin tpica . Se puede


demostrar, que en general la mayor parte de la masa se encuentra en un intervalo centrado en la media de amplitud varias veces la desviacin tpica. La
desigualdad de Tchebyche arma que la probabilidad de obtener un valor que
1
se desvie de la media al menos N es a lo sumo 2 .
N
S (|[  |  N) 

1
N2

De la desigualdad de Tchebyche se deduce que:


S (|[  | ? N) A 1 

1
N2

Este resultado justica que la media es una medida de centralizacin y la


desviacin estndar es una medida de dispersin.

3.5.

Distribuciones notables

Dentro de las variables aleatorias de tipo discreto, detallaremos a continuacin las caractersticas de cuatro tipo de distribuciones frecuentes en experimentos de la vida real.

3.5.1.

Bernoulli

El experimento consiste en observar si cierto suceso ocurre o no. Por ejemplo, podemos estar interesados en vericar si se produce falta de suministro
elctrico en una ciudad o no durante los meses de verano. Para ello, hemos de
conocer:
La probabilidad de xito s (Se produce falta de suministro elctrico).
La probabilidad de fracaso t = (1s) (No se produce falta de suministro
elctrico).

ndice

Captulo 3. Variables aleatorias discretas

56

Se dene este experimento mediante una variable aleatoria [ que toma los
siguientes valores:
[ = 1 si el suceso ocurre (se produce xito).
[ = 0 en caso contrario.
Se representa por [  Ehu(s) con [ =

1 con probabilidad s

0 con probabilidad t = 1  s
Entre las caractersticas de una variable aleatoria de Bernoulli de parmetro
s, destacamos:
1. La funcin de masa de una variable aleatoria de Bernoulli es:
S ([ = 1) = s
S ([ = 0) = t
2. La funcin de distribucin de una variable aleatoria de Bernoulli es:
;
A
A
? 0 si { ? 0
I ({) =
t si 0  { ? 1
A
A
= 1 en otro caso

3. La esperanza de una variable aleatoria de Bernoulli es:


H([) = 0  S ([ = 0) + 1  S ([ = 1) =
=0t+1s=s
4. La varianza de una variable aleatoria de Bernoulli es:
Y du([) =

2
X

{l MH

{2l sl  2 =

= 02  S ([ = 0) + 12  S ([ = 1)  s2 =
= 02  t + 12  s  s2 =
= s  s2 = s(1  s) = st

ndice

3.5. DISTRIBUCIONES NOTABLES

3.5.2.

57

Binomial

El experimento consiste en observar si cierto suceso ocurre o no en q repeticiones del mismo experimento. Por ejemplo, podemos estar interesados en vericar cuntas bombillas son defectuosas en cada caja de 50 en una cadena de
produccin. Para ello, hemos de conocer:
La probabilidad de xito s en cada repeticin del experimento (Se
produce una bombilla defectuosa).
La probabilidad de fracaso t = (1  s) en cada repeticin del experimento (No se produce una bombilla defectuosa).

Se dene este experimento mediante una variable aleatoria [ ={nmero de


xitos obtenidos en las n pruebas}. Se dice entonces que X sigue una binomial
de parmetros q y s.
Se representa por [  Elq(q> s).

Entre las caractersticas de una variable aleatoria Binomial de parmetros

q y s, destacamos:
1. La funcin de masa de una variable aleatoria Binomial es:
!
q
S ([ = {) =
s{ (1  s)q3{ donde { = 1> ===> q
{
La explicacin es la siguiente:
Supongamos el experimento es contar cuntas bombillas defectuosas hay
en una caja de 50 bombillas. Denimos entonces una variable aleatoria [ =
nmero de bombillas defectuosas en la caja de 50.
[ puede tomar valores en: {0> 1> 2> ===> 50} (Si [ = 0 no hay bombillas

defectuosas, si [ = 1 hay una bombilla defectuosa, etc.)

La probabilidad de que haya 7 bombillas defectuosas es: s7 multiplicado


por la probabilidad de que las 43 restantes sean no defectuosas (1  s)47 =

Ahora bien, podemos encontrar las siete bombillas defectuosas a la primera:

las bombillas 1> 2> ===> 7 son defectuosas, o no. Por ejemplo, seran vlidos los
experimentos:

ndice

Captulo 3. Variables aleatorias discretas

58

Las bombillas 1, 3, 6, 20, 25, 31 y 37 son defectuosas.


Las bombillas 5, 12, 18, 22, 41, 42 y 43 son defectuosas.
etc.
Para considerar todos los posibles experimentos en los que una a una,
vamos vericando si estn
o no las cincuenta bombillas, aadimos
defectuosas
!
q
q!
el nmero combinatorio
=
(q

{)!{!
{
2. La esperanza de una variable aleatoria Binomial es:
H([) = qs
3. La varianza de una variable aleatoria Binomial es:
Y du([) = qs(1  s)

ndice

3.5. DISTRIBUCIONES NOTABLES

59

4. Cuando s = 0>5 la distribucin binomial es simtrica:

Binomial(10, 0.5)

25

Porcentaje

20

15

10

0
1,00

2,00

3,00

4,00

5,00

6,00

7,00

8,00

9,00

5. Cuando s A 0>5 la distribucin Binomial es asimetrica negativa.

Binomial(10, 0.7)

30

25

Porcentaje

20

15

10

ndice

0
2,00

3,00

4,00

5,00

6,00

7,00

8,00

9,00

10,00

Captulo 3. Variables aleatorias discretas

60

6. Cuando s ? 0>5 la distribucin Binomial es asimetrica positiva.

Binomial(10, 0.3)

30

25

Porcentaje

20

15

10

0
,00

3.5.3.

1,00

2,00

3,00

4,00

5,00

6,00

7,00

8,00

Geometrica

El experimento consiste en observar cundo sucede el primer xito al realizar n repeticiones independientes del mismo experimento. Por ejemplo,
podemos estar interesados en saber cundo se produce el primer atasco de papel en una fotocopiadora cuando se envan 100 documentos a imprimir. Para
describir el experimento, debemos conocer:
La probabilidad de xito s en cada repeticin del experimento (Se
produce atasco de papel al enviar el documento a imprimir).
La probabilidad de fracaso t = (1  s) en cada repeticin del ex-

perimento (No se produce atasco de papel al enviar el documento a


imprimir).

Se dene este experimento mediante una variable aleatoria [ ={instnte


(repeticin del experimento) en el cual se produce el primer xito}. Se dice
entonces que X sigue una distribucin geomtrica de parmetro s.
Se representa por [  Jhr(s).

ndice

3.5. DISTRIBUCIONES NOTABLES

61

Entre las caractersticas de una variable aleatoria Geomtrica de parmetro


s, destacamos:
1. La funcin de masa de una variable aleatoria Geomtrica es:
S ([ = n) = s (1  s)n31 donde n = 1> 2> ====
La explicacin es la siguiente:
Si el primer xito se produce en el instante n (con probabilidad s), deben
producirse anteriormente n  1 fracasos (con probabilidad (1  s)n31 )=
2. La esperanza de una variable aleatoria Geomtrica es:
H([) =

1
s

3. La varianza de una variable aleatoria Geomtrica es:


Y du([) =

3.5.4.

1
s2

Poisson

El experimento consiste en observar si cierto suceso ocurre o no en q repeticiones del mismo experimento cuando el nemro de repeticiones es muy alto.
Es semejante a una distribucin Binomial cuando el nmero de repeticiones es
muy alto. Por ejemplo, podemos estar interesados en vericar cuntas bombillas son defectuosas en cada caja de 500 en una cadena de produccin. Para
ello, hemos de conocer:
La probabilidad de xito s en cada repeticin del experimento (Se
produce una bombilla defectuosa).
La probabilidad de fracaso t = (1  s) en cada repeticin del experimento (No se produce una bombilla defectuosa).

Se dene este experimento mediante una variable aleatoria [ ={nmero


de xitos obtenidos en las n pruebas}. Se dice entonces que X sigue una distribucin de Poisson de parmetro  donde  = qs.

ndice

Captulo 3. Variables aleatorias discretas

62

Se representa por [  S rlvv().

Entre las caractersticas de una variable aleatoria Poisson de parmetro ,


destacamos:
1. La funcin de masa de una variable aleatoria Poisson es:
!
q
S ([ = {) =
s{ (1  s)q3{ donde q $ 4
{
!
q
{
Entonces: S ([ = {) = lm
s{ (1  s)q3{ = h3
para { = 0> 1> ===
q<"
{!
{
Entre las caractersticas de una variable aleatoria Poisson de parmetro ,
destacamos:
2. La esperanza de una variable aleatoria de Poisson es:
H([) = 
3. La varianza de una variable aleatoria de Poisson es:
Y du([) = 
Observacin. Se dice que la aproximacin de una variable aleatoria binomial por una distribucin de Poisson es buena cuando: q  20 y qs  0>05

Observacin. Se dice que la aproximacin de una variable aleatoria bi-

nomial por una distribucin de Poisson es muy buena cuando: q  100 y


qs  0>1

ndice

Captulo 4
Variables aleatorias continuas
4.1.

Introduccin

Como ya mencionamos antes, las variables continuas son aquellas variables


aleatorias que pueden tomar un nmero innito no numerable de valores. Por
ejemplo: [ : H $ R. En numerosos experimentos los resultados pueden ser

valores en un conjunto continuo. Supongamos que estamos midiendo los tiem-

pos de duracin de las tareas en una fbrica, dichos valores estaran en el


intervalo (0> 4]. Ahora bien, al estar hablando de un conjunto de valores in-

nito las sumas del caso discreto se convierten en integrales. Por otro lado ya
no tiene sentido calcular las probabilidades en un punto, dichas probabilidades
son 0 para que la suma innita no numerable de las probabilidades de todos los
valores de la variable no sea innita, de tal manera que para el caso continuo
lo que se hace es calcular las probabilidades en intervalos.
Al igual que en el caso discreto para calcular la distribucin de probabilidad de una variable continua tenemos que especicar los posibles valores que
toma la variable, es decir su soporte, que estarn en la recta real y sus probabilidades. Se trata de proporcionar la manera en que se encuentra distribuido
el 100 % de la probabilidad entre los diferentes intervalos de valores que puede
tomar la variable. La herramienta que necesitaremos para calcular estas probabilidades es lo que introduciremos con el nombre de funcin de densidad, que
puede interpretarse como un modelo de la curva lmite que obtendramos en
63

ndice

Captulo 4. Variables aleatorias continuas

64

el histograma de una poblacin disminuyendo indenidamente las anchuras de


cada clase. Es decir, cuando de una variable continua se van tomando ms y
ms datos, el polgono de frecuencias relativas presentar un comportamiento
cada vez ms suavizado que nos indicar la presencia de una curva continua
que gobierna la obtencin de los datos.

4.2.

Funcin de Densidad

La funcin de densidad de cualquier variable continua [, que denotaremos


por i[ , se dene como una funcin i : R $ R> integrable no negativa sobre

la recta real, que verica las dos siguientes propiedades:

1. Es una funcin no negativa, es decir, i[ ({)  0 para cualquier { 5 R


2.

+"

i[ ({)g{ = 1=

3"

La funcin de densidad de una variable continua [ permite calcular


cualquier probabilidad acerca de dicha variable mediante integracin:
Z
i[ ({)g{=
S ([ 5 D) =
D

En particular, para d ? e, se tiene que


S [d  [  e] =

i[ ({)g{

la interpretacin geomtrica es que esta probabilidad sera el rea rayada


comprendida entre la curva i[ ({), el eje R[ y las rectas { = d y { = e

ndice
f(x)

X=a

X=b

4.3. FUNCIN DE DISTRIBUCIN

65

Para las variables continuas, la probabilidad de cualquier punto es cero,


ya que
S [[ = d] = S [d  [  d] =

i[ ({)g{ = 0=

Por consiguiente, la probabilidad de un intervalo ser la misma si es abierto que si es cerrado por cualquiera de sus extremos, pues los extremos
son puntos y por tanto tienen probabilidad nula:
S [d  [  e] = S [d  [ ? e] = S [d ? [  e] = S [d ? [ ? e]
Las probabilidades calculadas a partir de una funcin de densidad de la
forma que acabamos de describir verican los axiomas de Kolmogorov:
1. La probabilidad de cualquier suceso es no negativa:
Z
S ([ 5 D) =
i[ ({)g{  0=
D

2. La probabilidad del suceso seguro es 1:


S ([ 5 R) = S (4 ? [ ? 4) =

"

i[ ({)g{ = 1

3"

3. Si D1 y D2 son disjuntos, entonces


Z
S [[ 5 (D1 ^ D2 )] =
i[ ({)g{
Z
ZD1 D2
i[ ({)g{ +
=
D1

i[ ({)g{

D2

= S ([ 5 D1 ) + S ([ 5 D2 ) =

4.3.

Funcin de Distribucin

Otra forma de conocer o indicar la distribucin de probabilidad de una


variable aleatoria es mediante la funcin de distribucin que se trata de una

ndice

Captulo 4. Variables aleatorias continuas

66

funcin que reeja la probabilidad en cada punto de una manera acumulada,


I ([) es la probabilidad de que [ sea menor o igual que {> es decir
I ({) = S ([  {) =

Z{

i({)g{

3"

que nos indica la probabilidad con la que la variable aleatoria [ tomar


valores no superiores a {. Representa el rea comprendida entre la funcin de
densidad i ({) y el eje de las { desde -4 hasta {.
La funcin de distribucin de cualquier variable aleatoria continua [ verica las siguientes propiedades:
1. Es una funcin montona no decreciente, es decir,
{1 ? {2 =, I[ ({1 )  I[ ({2 )=
2. Es una funcin continua, esto es,
lm I[ ({) = I[ (d)=

{<d

3. I[ ({) tiende a 0 cuando { tiende a 4 y a 1 cuando { tiende a 4:


I[ (4) =
I[ (4) =

lm I[ ({) = 0>

{<3"

lm I[ ({) = 1=

{<"

Obsrvese que, para una variable aleatoria continua, [,


S [d ? [  e] = S [d  [  e] = S [d ? [ ? e] = S [d  [  e] = I[ (e)I[ (d)
la funcin de densidad i({) y la funcin de distribucin I ({) vienen relacionadas por el teorema fundamental del Clculo de la siguiente manera:
gI ({)
= i ({)
g{
si existe la derivada
Ejemplo.
Sea [ una variable aleatoria con funcin de densidad
(
n (1  {2 ) vl 1 ? {  1
i({) =
0
En otro caso

ndice

4.3. FUNCIN DE DISTRIBUCIN

67

a) Hallar el valor de n
b) Halla la funcin de distribucin de [
c) Calcula S (0>5  [  1)
Solucin.
a) Utilizamos las propiedades de la funcin de densidad
31

Z"
Z1

1
{3
1
2
=
i ({)g{ = n 1  { g{ = n { 
= n 1 +1
1=
3 1
3
3
3"

31

4
3
n , n = la funcin de densidad de X viene representada en la siguiente
3
4
gura:

b) Funcin de distribucin

0.8
0.6
0.4
0.2
0.0

0.0

0.2

0.4

f(x)

F(x)

0.6

0.8

1.0

1.0

a) Funcin de densidad

-2

-1

-2

b) sabemos que I ({) = S ([  {) =

-1

Z{

3"

i ({)g{. Entonces

si { 5 (4> 1] I ({) = 0


Z{
Z{
Z{

3
1  {2 g{ =
i ({)g{ = 0 + i({)g{ =
si { 5 (1> 1] I ({) =
4
3"
31
31

3
{3 2
{3 3{ 1
+
+
{
= +
4
3
3
4
4
2
si { 5 (1> 4] I ({) = 1

ndice

Captulo 4. Variables aleatorias continuas

68

Esta funcin tambin se puede observar


;
A
A
? 0
3
I ({) =
 {4 + 3{
+ 12
4
A
A
= 1

en la gura b). Por tanto


si {  1

si 1 ? {  1
si { A 1

c) S (0>5  [  1) = I (1)  I (0>5) = 1 

4.4.

3 (31)
2 2

1 3
2

1
4

1
2

27
32

Momentos moda y percentiles de una variable aleatoria

Los momentos de una variable aleatoria sirven a modo de caractersticas


para resumir, comparar con otras, etc. Del mismo modo, sirven tambin para
caracterizar diversas distribuciones de probabilidad estndar muy frecuentes
en la vida real.
Denicin. Se denomina momento de orden u 5 N a u donde:
u = H ([ u ) =

nR
"

{u i({)g{ si [ es continua

nR
"

({  H([))u i({)g{ si [ es continua

3"

Denicin. Se denomina momento central de orden u 5 N a pu donde:


pu = H [([  H([))u ] =

4.4.1.

3"

Esperanza

Es una media ponderada de los posibles valores que puede tomar una variable aleatoria segn la probabilidad de cada suceso. Se representa por  o por
H([) y es una medida de localizacin de la variable aleatoria.
 = H([) =

R"

3"

{i({)g{

es decir, la integral en el dominio de denicin de la variable aleatoria [


de su funcin de densidad multiplicado por {.

ndice

4.4. MOMENTOS MODA Y PERCENTILES DE UNA VARIABLE


ALEATORIA

4.4.2.

69

Varianza

Es una media ponderada de la desviacin a la media de los posibles valores


que puede tomar una variable aleatoria segn la probabilidad de cada suceso.
Se representa por  2 o por Y du([) y es una medida de dispersin de la variable
aleatoria.

 2 = Y du([) =

4.4.3.

R"

3"

({  )2 i({)g{

Desviacin Tpica

Es la raiz cuadrada positiva de la varianza. Se representa por  y es una


medida de dispersin de la variable aleatoria.

=

4.4.4.

qR
"

3"

({  )2 i ({)g{

Moda, mediana y percentiles

La moda de una distribucin de probabilidad es el valor de la distribucin


que tiene mxima probabilidad. La moda es el valor de { en el que la funcin de densidad i({) alcanza su mximo. Pueden existir distintos valores de
la variable que hagan mxima la funcin, pudiendo haber distribuciones que
tengan varias modas.
La mediana de una distribucin como ya dijimos antes es un valor p tal que
S ([  p)  1@2 y S ([  p)  1@2. Por tanto p debe cumplir lo siguiente:
Zp

i ({)g{ =

3"

Z"

i ({)g{ =

ndice

1
2

El percentil o cuantil l de una distribucin con l = 1> 2> ===> 99, es un valor
{l que verica S ([  {l ) 

l satisface

l
.
100

Z{l

3"

S ([  {l )  1 
i ({)g{ =

l
100

l
.
100

Por tanto el percentil

Captulo 4. Variables aleatorias continuas

70

4.5.

Distribuciones notables

Dentro de las variables aleatorias de tipo continuo, detallaremos a continuacin las de distribuciones frecuentes en experimentos de la vida real.

4.5.1.

Uniforme

Esta distribucin es la ms sencilla, modeliza de algn modo la incertidumbre ms completa sobre una variable aleatoria continua. Tiene especial importancia en el mbito computacional, pues es a partir de ella que se pueden
realizar simulaciones de cualquier otra variable aleatoria. La propiedad que
caracteriza a esta distribucin es que la probabilidad de que la variable [
tome valores en cualquier subintervalo de longitud ja dentro del intervalo
(d> e) es siempre la misma.
Una variable aleatoria tiene distribucin uniforme en (d> e) con d y e nmeros
reales cualesquiera tales que d ? e, y se representa X(d> e) si su funcin de densidad es :

i({) =

;
A
A
A
?

1
si d ? { ? e>
ed

A
A
A
= 0

en el resto=

A continuacin en la siguiente gura mostramos un ejemplo grco de esta


funcin de densidad para el caso particular en que d = 1 y e = 1.

ndice

4.5. DISTRIBUCIONES NOTABLES

71

0.0

0.2

0.4

f(t)

0.6

0.8

1.0

Funcion de densidad U(0,1)

-0.2

0.0

0.2

0.4

0.6

0.8

1.0

1.2

Ejemplo: El ngulo D que forma una aguja de una esfera con el eje
vertical (D 5 [0> 2]) tiene una distribucin D  X [0> 2] = Por tanto, su

funcin de densidad es

; 1
A
A
? 2
iD ({) =
A
A
=
0

si 0 ? { ? 2
en el resto

La probabilidad de que dicho ngulo tome un valor que est en el segundo


cuadrante es:

h
 i Z  1
1
> =
g{ = =
S D5
2
2
4
@2

La funcin de distribucin de una variable X(d> e) es


;
A
0
{  d>
A
A
A
A
A
A
A
? {d
d ? { ? e>
I ({) =
A
ed
A
A
A
A
A
A
A
= 1
{  e=

ndice

Captulo 4. Variables aleatorias continuas

72

A continuacin en la siguiente gura mostramos un ejemplo grco de esta


funcin de distribucin para el caso particular en que d = 1 y e = 1.

0.0

0.2

0.4

F(t)

0.6

0.8

1.0

Funcion de distribucion U(0,1)

-0.2

0.0

0.2

0.4

0.6

0.8

1.0

1.2

Ejemplo: Para la variable aleatoria D = angulo entre la aguja y el eje


vertical en la rueda, la funcin de distribucin es
;
A
0
A
A
A
A
A
A
? {
ID ({) =
2
A
A
A
A
A
A
A
=
1

{  0>
0 ? { ? 2>
{  2=

La esperanza de una variable [  X(d> e) es


H([) =

1
1 e2  d2
d+e
: g{ =
=
>
ed
ed 2
2

es decir, el punto medio del intervalo (d> e).

ndice

4.5. DISTRIBUCIONES NOTABLES

73

Adems,

H [2 =

y por lo tanto

{2

1
1 e3  d3
1 2
: g{ =
=
e + de + d2 =
ed
ed 3
3

1 2
e + de + d2 
Y ([) =
3

d+e
2

e2  2de + d2
(e  d)2
=
=
12
12

Ejemplo: Para la variable aleatoria D = "ngulo entre la aguja y el eje


vertical"en la rueda, se tiene que
0 + 2
= >
2
2
(2  0)2
= =
Y (D) =
12
3
H (D) =

4.5.2.

Normal

La distribucin normal o Gaussiana ocupa un lugar central en Estadstica. La distribucin gaussiana, recibe tambin el nombre de distribucin
normal, ya que una gran mayora de las v.a continuas de la naturaleza siguen
esta distribucin.
Se trata de una de las distribuciones tericas mejor estudiadas en los textos
y ms utilizada en la prctica. Su importancia se debe fundamentalmente a
la frecuencia con la que distintas variables asociadas a fenmenos naturales y
cotidianos siguen, aproximadamente, esta distribucin. Caracteres morfolgicos (como la talla o el peso), o psicolgicos (como el cociente intelectual) son
ejemplos de variables de las que frecuentemente se asume que siguen una distribucin normal.
El uso extendido de la distribucin normal en las aplicaciones estadsticas puede explicarse, adems, por otras razones. Muchos de los procedimientos estadsticos habitualmente utilizados asumen la normalidad de los datos
observados. Aunque muchas de estas tcnicas no son demasiado sensibles a
desviaciones de la normal y, en general, esta hiptesis puede obviarse cuando
se dispone de un nmero suciente de datos, resulta recomendable contrastar

ndice

Captulo 4. Variables aleatorias continuas

74

siempre si se puede asumir o no una distribucin normal. La simple exploracin visual de los datos puede sugerir la forma de su distribucin. No obstante, existen otras medidas, grcos de normalidad y contrastes de hiptesis
que pueden ayudarnos a decidir, de un modo ms riguroso, si la muestra de
la que se dispone procede o no de una distribucin normal. Cuando los datos
no sean normales, podremos o bien transformarlos o emplear otros mtodos
estadsticos que no exijan este tipo de restricciones (los llamados mtodos no
paramtricos).
A continuacin se describir la distribucin normal, su ecuacin matemtica
y sus propiedades ms relevantes, proporcionando algn ejemplo sobre sus
aplicaciones a la inferencia estadstica.
La distribucin normal fue reconocida por primera vez por el francs Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855)
elabor desarrollos ms profundos y formul la ecuacin de la curva; de ah
que tambin se la conozca, ms comnmente, como la ampana de Gauss". Su
origen est en el descubrimiento de regularidades en los errores de medicin
que realiz. La distribucin de una variable normal est completamente determinada por dos parmetros, su media y su desviacin estndar, denotadas
generalmente por  y  2 A 0. Se dice que una variable aleatoria [ sigue una
distribucin normal de parmetros  y 2 ( [  Q (>  2 )), si su funcin de

densidad es

!
({  )2
1
exp 
i[ ({) = s
2 2
2

para todo { 5 (4> 4)

ndice

4.5. DISTRIBUCIONES NOTABLES

75

0.00

0.02

0.04

f(t)

0.06

0.08

0.10

Funcion de densidad de N(-6,4)

-20

-15

-10

-5

Se comprueba fcilmente que


1.
i[ ({) A 0>
2.

"

i[ ({)g{ = 1=

3"

Adems,
!

Z "
1
({  )2
g{ = >
{i[ ({) : g{ = s
{ exp 
H ([) =
ndice
2 2
2 3"
3"
!

Z "
Z "
1
({  )2
2
g{ =  2 >
Y ([) =
({  ) i[ ({) : g{ = s
({  )2 exp 
2 2
2 3"
3"
Z

"

es decir, el parmetro  es la media de la distribucin normal, y el


parmetro  2 es su varianza.

Captulo 4. Variables aleatorias continuas

76

Propiedades de la distribucin normal:


La distribucin normal posee ciertas propiedades importantes que conviene
destacar:
Tiene una nica moda, que coincide con su media y su mediana.
La curva normal es asinttica al eje de abscisas. Por ello, cualquier valor
entre -4 y 4 es tericamente posible. El rea total bajo la curva es, por

tanto, igual a 1.

Es simtrica con respecto a su media . Segn esto, para este tipo de


variables existe una probabilidad de un 50 % de observar un dato mayor
que la media, y un 50 % de observar un dato menor.
La distancia entre la lnea trazada en la media y el punto de inexin
de la curva es igual a una desviacin tpica . Cuanto mayor sea , ms
aplanada ser la curva de la densidad.
El rea bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estndar de la media es igual a 0.95. En concreto, existe un 95 % de posibilidades de observar un valor comprendido
en el intervalo (  1>96>  + 1>96).
La forma de la campana de Gauss depende de los parmetros  y . La
media indica la posicin de la campana, de modo que para diferentes
valores de la grca es desplazada a lo largo del eje horizontal. Por otra
parte, la desviacin estndar determina el grado de apuntamiento de la
curva. Cuanto mayor sea el valor de , ms se dispersarn los datos en
torno a la media y la curva ser ms plana. Un valor pequeo de este
parmetro indica, por tanto, una gran probabilidad de obtener datos
cercanos al valor medio de la distribucin.

ndice

4.5. DISTRIBUCIONES NOTABLES

77

Si consideramos el caso particular en el que  = 0 y  2 = 1 la distribucin


se llama normal estndar, o normal tipicada, que habitualmente se denota
por ], es la distribucin Q(0> 1). Su funcin de densidad es por lo tanto
1
2
i] ({) = s h3{ @2 =
2

0.1

0.2

ndice

0.0

f(t)

0.3

0.4

Funcion de densidad de N(0,1)

-4

-2

0
t

Captulo 4. Variables aleatorias continuas

78

Esta distribucin es simtrica con respecto a 0, es decir, verica,


i] ({) = i] ({)
para todo {, lo cual implica que
S (] 5 D) = S (] 5 D)=
Por ejemplo,
S (]  d) = S (]  d)>
S (] A d) = S (] ? d)>
S (d ? ] ? e) = S (e ? ] ? d)
hwf=
La funcin de distribucin de la normal estndar, que suele denotarse
por x, es
Z

1
x (}) = S (]  }) =
i] (w)gw = s
2
3"

w2

h3 2 gw=

3"

Fi(t)

0.6

0.8

1.0

Funcion de distribucion de N(0,1)

0.0

0.2

0.4

ndice

-4

-2

0
t

4.5. DISTRIBUCIONES NOTABLES

79

Al calcular Z, lo que estamos haciendo, en realidad, es un cambio de variable


por el cual movemos la campana de Gauss centrndola en el 0 del eje X, y
modicamos el ancho para que la desviacin standard sea 1:

La integral que aparece en esta frmula no tiene una expresin explcita,


pero x est tabulada, lo cual permite calcular cualquier probabilidad
relacionada con la distribucin normal tipicada.
La tabla con la que trabajaremos incluye x (}) para }  0:
Para obtener, por ejemplo, x (1>16) vamos a la la 1.1, columna
0.06 y se obtenemos que x (1>16) = 0>8770=

Para obtener x (3>045) > observamos que x (3>04) = 0>9988 y x (3>05) =


0>9989 e, interpolando, tomamos x (3>045)  0>99885=

Para obtener x (4>5) > observamos que x (4) = 0>99997> x (5) =


0>9999997, por lo que x (4>5)  0>9999998=

Para obtener el valor de x correspondiente a un nmero negativo


se usa la simetra de la normal estndar, que implica que

x (}) = S (]  }) = S (]  }) = 1  S (]  }) = 1  x (}) =

ndice

Captulo 4. Variables aleatorias continuas

80

Por ejemplo,
x (1>28) = 1  x (1>28) = 1  0>8997 = 0>1003=
Como adems
S (d ? ]  e) = x (e)  x (d) >
con la tabla se puede calcular cualquier probabilidad sobre la distribucin
normal estndar.
De esta manera tenemos tabulada una funcin de Gauss que no depende
de cual sea el promedio y la desviacin standard de nuestra poblacin real.
El cambio de variable hace que se conserve la forma de la funcin y que sirva
para cualquier poblacin, siempre y cuando esa poblacin tenga una distribucin normal. Cuando queremos calcular las probabilidades para una poblacin
real, calculamos Z y entramos en la tabla de la funcin normal standard:

ndice
Ejemplo:
S (} 5 [0>87> 1>28]) = x (1>28)  x (0>87) = 0>8997  0>8078 = 0>0919
S (} 5 [0>34> 0>62]) = x (0>62)  x (0>34) = 0>7324  (1  0>631) = 0>3655
S (]  0>85) = 1  x (0>85) = 1  0>8023 = 0>1977
S (]  0>65) = 1  x (0>65) = 1  (1  x (0>65)) = 0>7422=

4.5. DISTRIBUCIONES NOTABLES

81

Una bsqueda inversa permite hallar los percentiles de la normal estndar. Usualmente se designa mediante } al valor tal que
S (]  } ) = >
o lo que es lo mismo,
x (} ) = 1  =
Para buscar } se mira en la tabla la entrada (1  ) y con su la y su
columna se determina } = Para valores intermedios se interpola.

Ejemplo: Calcular }0>1 > }0>05 > }0>01 y }0>9 .


Solucin: }0>1 = 1>28> }0>05 = 1>645> }0>01 = 2>33> }0>9 = 1>28=
Para calcular probabilidades de distribuciones gaussianas diferentes de
la normal estndar se usa lo que se conoce con el nombre de Tipicar.
Es decir, como lo que est tabulado es la distribucin normal estndar lo
que se hace es transformar la normal con cualquier media y desviacin
estndar a una normal  = 0 y 2 = 1.. Si [  Q (>  2 ) > entonces,
]=

[ 
 Q (0> 1) >


y por tanto

d
[ 
e






e
d
]
= S



d
e
x
=
= x



S (d  [  e) = S

Ejemplo: La cantidad de radiacin que recibe una persona cerca de


una ordenador sigue una distribucin normal con media  = 4>35 mrem
y  = 0>59 mrem.
1. Hallar la probabilidad de que la radiacin est entre 4.00 y 5.00
mrem.
2. Calcular la probabilidad de que la radiacin sea mayor que 5.50
mrem.

ndice

Captulo 4. Variables aleatorias continuas

82

Solucin:
1.
S (4  [  5) = S

[  4>35
5  4>35
4  4>35


0>59
0>59
0>59

= S (0>59  ]  1>10)
= x (1>10)  x (0>59)
= 0>8643  (1  0>7224)
= 0>5867=

S ([  5>5) = S

5>5  4>35
[  4>35

0>59
0>59

= S (]  1>95)
= 1  x (1>95)
= 1  0>9744
= 0>0256=
Ejercicio: La capacidad de un disco de 4Mb es una variable aleatoria
normal con desviacin tpica  = 0>04 Mb. Si se quiere que como mucho
el 2 % de los discos tenga menos de 4 Mb, cul debera ser la capacidad
media de los mismos? (Sol:   4>082.).

4.5.3.

Exponencial

La distribucin exponencial es el equivalente continuo de la distribucin


geomtrica discreta. Esta ley de distribucin describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo
que, el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que
ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente
en el que no ha pasado nada. Ejemplos de este tipo de distribuciones son: El

ndice

4.5. DISTRIBUCIONES NOTABLES

83

tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento de


la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datacin
de fsiles o cualquier materia orgnica mediante la tcnica del carbono 14, C14;
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada
de un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento
a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia
de dos sucesos consecutivos sigue un modelo probabilstico exponencial. Por
ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida
importante. Se usa tambin en modelos de abilidad de sistemas.
Sea  A 0 un nmero real positivo. Se dice que una variable aleatoria [
sigue una distribucin exponencial de parmetro  ([  H{s ()) , si su

funcin de densidad es

i[ ({) =

h3{

para { A 0>

para {  0=

0.4
0.2

f(x)

0.6

0.8

funcin de densidad de una exponencial

0.0

ndice
0

10

Ejemplo: El tiempo (en minutos) que transcurre entre la llegada de


un trabajo a un servidor y la siguiente se distribuye segn una variable
exponencial con parmetro  = 1@6.

Captulo 4. Variables aleatorias continuas

84

1. Cul es la probabilidad de que pasen ms de 10 minutos entre la


llegada de dos trabajos consecutivos?
2. Acaba llegar un trabajo al servidor en este instante, cul es la
probabilidad de que llegue otro en menos de 4 minutos?
Solucin: Sea [ el tiempo (medido en minutos) trancurrido entre dos
llegadas consecutivas.
Puesto que [  H{s ( = 1@6),

R +"
{
{ +"
10
1. S ([ A 10) = 10 16 h3 6 g{ = h3 6 10 = h3 6 = 0>1889.

R4
{
{ 4
4
2. S ([ ? 4) = 0 61 h3 6 g{ = h3 6 0 = 1  h3 6 = 0>4866.

La funcin de distribucin de una variable aleatoria [  H{s() es


(
Z {
0
si {  0>
I ({) = S ([  {) =
i[ (v)gv =
3{
si { A 0=
1h
3"
Ejemplo: La funcin de distribucin del tiempo en minutos que pasa entre
la llegada de un trabajo y la del siguiente en el servidor del ejemplo anterior
es
I[ ({) =

0
{
3 16

1h

si {  0>
si { A 0=

Esta funcin nos permite calcular de forma ms sencilla las probabilidades requeridas:
10

1. S ([ A 10) = 1  I[ (10) = h3 6 = 0>1889.


4

2. S ([ ? 4) = I[ (4) = 1  h3 6 = 0>4866.
Ejercicio. Demuestra que la funcin de densidad de la distribucin exponencial es efectivamente una funcin de densidad.
Se comprueba fcilmente que los momentos de la exponencial son
1

1
Y [[] = 2

H [[] =

ndice

4.5. DISTRIBUCIONES NOTABLES

sabemos que
H [[] =

85

Z"

{h3{

si integramos por partes


x = {
gy = h3{
obtenemos

"
H [[] = {h3{ 0 +

= 

1
h3{

"

Z"

h3{ g{

1


Para obtener la varianza, calculamos primero H [[ ] =


2

Z"

{2 h3{ que

integrando por partes


x = {2
gy = h3{
obtenemos

"
H [ 2 = {2 h3{ 0 +

Z"

2{h3{ g{

2
2
H [[] = 2
=



2
2
1
1

= 2

2

Ejemplo: Para el ejemplo anterior del tiempo entre llegadas de trabajos
por tanto Y [[] = H [[ 2 ]  (H [[])2 =

a un servidor, el tiempo medio entre llegadas es


H([) =

1
= 6 minutos
1@6

ndice

Captulo 4. Variables aleatorias continuas

86

y la varianza del tiempo entre llegadas es


Y ([) =

1
= 36 minutos2 ;
1@62

por tanto  [ = 6 minutos=


Ejercicio: El tiempo en minutos que transcurre entre dos llamadas
consecutivas a una central sigue una distribucin exponencial con media
5.
1. Hallar la varianza de dicha variable.(Sol: 25.)
2. Hallar la probabilidad de que el tiempo que trancurre entre dos
llamadas est entre 2 y 5 minutos. (Sol: 0>302.)
Propiedad de la falta de Memoria
Observemos que, si W  H{s(), la probabilidad de que W sea mayor que

w es

S (W A {) = 1  IW ({) =

1
3{

si {  0>
si { A 0=

Supongamos que el nmero de ocurrencias de un suceso sigue un proceso


de Poisson, y que el nmero esperado de ocurrencias por unidad de tiempo es
. Vamos a demostrar que, en ese caso, los tiempos entre llegadas siguen una
distribucin exponencial.
Puesto que el nmero de ocurrencias dl suceso sigue un proceso de Poisson, la distribucin del nmero de ocurrencias en el intervalo [0> w], que
podemos denotar por Qw , es S r(w). Si W designa al tiempo entre llegadas
resulta que

ndice

(w)0
S (W A w) = S ( nmero de llegadas en [0> w] = 0) = S (Qw = 0) = h3w
= h3
0!
IW (w) = S (W  w) = 1  h3w >
lo cual indica que W  H{s () =
Ejemplo: El nmero de intentos de entradas ilegales recibidas por un
servidor sigue una distribucin de Poisson con una media de 6 intentos

4.5. DISTRIBUCIONES NOTABLES

87

diarios. Cul es la probabilidad de que el tiempo entre dos intentos


consecutivos sea de al menos 6 horas? Y la de que sea de menos de 18
horas?
Solucin: Sea Qw entradas ilegales recibidas en w das
Se tiene que Qw  S r (6w). Por tanto, la variable Pk =el nmero de in-

tentos de entradas ilegales recibidas en k horas y verica Pk  S r(k@4).


Esto implica que la variable aleatoria G=tiempo en das transcurrido en-

tre dos intentos de entradas ilegales consecutivos sigue una distribucin


H{s(6), y la variable K =tiempo en horas transcurrido entre dos intentos
de entradas ilegales consecutivos sigue una distribucin H{s(1@4). Por
consiguiente,
6

S (K  6) = h3 4 = h3 2 = 0>223=
18

S (K ? 18) = 1  h3 4 = 1  h3 2 = 0>989=
Ejercicio: La duracin de cierto tipo de bombillas sigue una distribucin
exponencial con una media de 8 meses.

Hallar la probabilidad de que una bombilla de este tipo dure ms


de 15 meses. (Sol: 0>15.)

Calcular la probabilidad de que una de estas bombillas tenga un


tiempo de vida entre 3 y 12 meses. (Sol: 0>47.)

Hallar la probabilidad de que una bombilla que ha durado ya 10


meses viva al menos 15 meses ms. (Sol: 0>15.)

Hallar la probabilidad de que una bombilla que ha durado ya 20


meses dure entre 23 y 32 meses. (Sol: 0>47.)

Una propiedad importante, y caracterstica de esta distribucin, es su falta

ndice

Captulo 4. Variables aleatorias continuas

88

de memoria: si W  H{s(), entonces


S (W A w + k> W A w)
S (W A w)
S (W A w + k)
=
=
S (W A w)
h3(w+k)
=
h3w
= = h3k

S (W A w + k| W A w) =

= S (W A k) =
As pues la distribucin exponencial es el equivalente en el caso continuo
a la distribucin geomtrica discreta, ya que para amabs el futuro es
independiente del pasado.

4.5.4.

Gamma

Resulta que la exponencial es un caso especial de la distribucin gamma,


ambas tienen un gran nmero de aplicaciones. Las distribuciones exponencial y
gamma juegan un papel importante tanto en teora de colas como en problemas
de conabilidad. El tiempo entre las llegadas en las instalaciones de servicio
y el tiempo de falla de los componentes y sistemas elctricos, frecuentemente
involucran la distribucin exponencial. La relacin entre la gamma y la exponencial permite que la distribucin gamma se utilice en tipos similares de
problemas. Muchos conjuntos de datos tienen distribuciones que tienen probabilidades pequeas cuando los intervalos se acercan al cero y aumentan la
probabilidad durante cierto tiempo cuando el intervalo se mueve en direccin
positiva y decrecen a continuacin a medida que el intervalo pasa el extremo
positivo. Un caso de este tipo de datos es el de componentes electrnicos, pocos
de ellos tienen duraciones muy cortas, muchos tienen duraciones cercanas a la
media y muy pocos duran un tiempo muy largo. Por tanto, la distribucin
gamma es adecuada para estudiar estas situaciones.
Sean  A 0>  A 0 dos nmeros positivos. Se dice que una variable aleatoria
[ sigue una distribucin Gamma de parmetros  y  [  J (> ) si su

ndice

4.5. DISTRIBUCIONES NOTABLES

funcin de densidad es

89

;
?

 31 3{
{ h
si { A 0>
K ()
i({) =
=
0
si {  0

donde

K () =

Z"

{31 h3{ g{,  A 0

es la funcin gamma. Cuando  es entero positivo se verica K ( + 1) = !,


s
K ( + 1) = K () y K 12 = . para cualquier  A 0. Adems, si n es un
nmero entero positivo (n 5 ] + ),

K(n) = (n  1)!
Se puede comprobar que sus primeros momentos son:

H [[] =


Y [[] = 2

La representacin grca de su densidad puede verse en la siguiente gura
para distintos valores de  y  = 1

1.0

funcin de densidad de una gamma

f(x)

0.6

0.8

alfa=1

ndice

0.4

alfa=1.5

0.2

alfa=2

0.0

alfa=4

6
x

10

Captulo 4. Variables aleatorias continuas

90

4.5.5.

Beta

Las distribuciones continuas descritas hasta ahora, a excepcin de la uniforme continua son distribuciones cuyas funciones de densidad son distintas de
cero en un intervalo innito. Para modelar fenmenos restringidos a un intervalo nito necesitamos otro tipo de distribuciones, como la distribucin Beta
cuya funcin de densidad es distinta de cero en el intervalo (0> 1). Constituye
un modelo exible para las proporciones, por lo que resulta una herramienta muy til en problemas estadsticos relacionados con porcentajes o proporciones, especialmente en situaciones en las que se tienen creencias acerca de
su distribucin. Esta distribucin tiene junto con la gamma especial relevancia
dentro de la inferencia bayesiana, dicho tema ser tratado con todo detalle en
otro manual.
Sean  A 0>  A 0 dos nmeros positivos. Se dice que una variable aleatoria
[ sigue una distribucin Beta de parmetros  y  [  Eh (> ) si su
funcin de densidad es
;
? K ( + ) {31 (1  {)31
K () K ()
i ({) =
=
0

si 0 ? { ? 1>
en el resto.

La esperanza y varianza de una variable aleatoria [ con distribucin Eh(> )

es:
H([) =


+

Y ([) =


=
( + ) ( +  + 1)
2

Aunque todas las distribuciones de la familia Beta tienen como soporte


el intervalo (0,1), la forma en que reparten la probabilidad es muy distinta
dependiendo de cules sean los valores de  y . Por ejemplo:
Si  =  = 1> se obtiene una distribucin uniforme (Eh(1> 1) = X(0> 1)).
Si  =  la distribucin es simtrica alrededor de 1@2= A continuacin se
representa la funcin de densidad de varias distribuciones Beta con diferentes
valores de  y 

ndice

4.5. DISTRIBUCIONES NOTABLES

91

2.0

funcin de densidad de una Beta

Beta(5,3)

0.5

1.0

f(x)

1.5

Beta(2,3)

Beta(0.5,0.5)

0.0

Beta(2,2)

0.0

0.2

0.4

0.6

0.8

1.0

Cuando  =  la esperanza es
H([) =



1
=
= >
+
2
2

y la varianza es
Y ([) =

2
1
=
$ 0
42 (2 + 1)
4 (2 + 1) <"

por lo que al aumentar  decrece la varianza y por tanto la probabilidad


esta ms concentrada alrededor de la media, que es 0.5.
Las distribuciones Beta con  ?  dan ms peso a las proporciones
menores que 1@2 que a las mayores que 1@2.

Recprocamente, cuando  A  se le da ms peso a las proporciones


mayores que 1@2.

Ejemplo: La proporcin de chips que necesitan reparacin sigue una


distribucin Beta con  = 3 y  = 2= Hallar el porcentaje esperado de

ndice

Captulo 4. Variables aleatorias continuas

92

piezas que requieren reparacin y determinar cul es la probabilidad de


que, a lo sumo, el 50 % requiera reparacin.
Solucin: Sea [ = proporcin de chips que necesitan reparacin 
Eh(3> 2).

La funcin de densidad de esta variable aleatoria es


(
12{2 (1  {) si 0 ? { ? 1
i[ ({) =
0
en otro caso.
Su esperanza es

3
3
=
= = 0>6=
+
3+2
5

H([) =

La probabilidad de que como mucho la mitad de las piezas necesiten


reparacin se calcula integrando la funcin de densidad en el intervalo
adecuado:
S ([  0>5) =

4.5.6.

1@2

12{2 (1  {) g{ =

5
= 0>313=
16

Distribuciones asociadas a la distribucin Normal

La distribucin ji-cuadrado
Esta distribucin fue introducida por Karl Pearson en 1900, se trata del
caso particular de una distribucin gamma cuando los parmetros son  =
y=

q
2

1
2

siendo q un entero positivo. Su funcin de densidad viene dada por:


i ({) =

q
1
31 3 {2
2
h 0  { ? 4, q A 0
q {
K( q2 )2 2

diremos que [ se distribuye por una "2q ji-cuadrado con q grados de libertad (g.l). Los grados de libertad pueden ser interpretados como el nmero de
valores de la muestra que pueden ser jados arbitrariamente y su cuanticacin
depende del numero de variables o del tamao de la muestra.Una muestra de
tamao n tiene n grados de libertad , pues no establecemos ninguna restriccin sobre los valores que pueden tomar las observaciones muestrales. Si hay
restricciones los niveles de libertad se reducen.

ndice

4.5. DISTRIBUCIONES NOTABLES

93

Se trata de una distribucin unimodal adems su esperanza y varianza es:


q

= 2=q

2
q

Y [[] = 2 = 22 = 2q
2

H [[] =

a continuacin representaremos su funcin de densidad para distintos valores de q y observamos que segn aumentan los grados de libertad la curva
tiende rpidamente a hacerse simtrica, lo cual queda justicado en virtud del
Teorema Central del Lmite que explicaremos en el siguiente captulo.

n=1

0.05

0.10

f(x)

0.15

0.20

0.25

funcin de densidad de una ji-cuadrado

n=8

0.00

n=4

10

15

20

Propiedades asintticas.

p
Se demuestra que para valores de q elevados (q A 30) 2"2q es aproximadap
s

s
mente Q
2q  1> 1 por tanto si tipicamos 2"2q  2q  1  Q (0> 1), sin
embargo tambin podramos utilizar la siguiente aproximacin
"2q  q
\ = s
 Q (0> 1)
2q
Ejercicio. Calcular: a) S ("2150  126), b) S (40  "265  50), c) S ("2220  260),

c) El nmero  tal que S ("2100  ) = 0>6

ndice

Captulo 4. Variables aleatorias continuas

94

a) S ("2100  126) = S

1>42)  0>92

p
s
s
s
2"2150  299  2  126  299 = S (] 

b) S (40  "265  50) = S

s
p
s
s
s
s
80  129  2"265  129  100  129 =

S (2>41  ]  1>36)  0>08


c) S ("2220  260)  0>03

d) S ("2100  ) = 0>6 tenemos que   102>95


Tambin se introduce la distribucin ji-cuadrado como la suma de variables
q
X
Q(0> 1) independientes al cuadrado. es decir, "2q =
]l2 con ]l  Q(0> 1)=
l=1

Otra propiedad importante que hay que comentar es que la suma de dis-

tribuciones de Pearson independientes es otra distribucin ji-cuadrado cuyos


g.l sern la suma de los g.l de las distribuciones de los sumandos. Es lo que
se conoce como la propiedad reproductiva. La distribucin ji-cuadrado se encuentra tabulada y aparece al nal del manual.

Distribucin F de Fisher
Tambin se la conoce como distribucin F de Snedecor o como distribucin
F de Fisher-Snedecor. Una variable aleatoria de distribucin F se construye
como cociente de dos variables de distribucin ji-cuadrado.

Iq>p

"2q
{21 + === + {2q
q con q> p A 0
= 2 q
2 =
|1 + === + |p
"2p
p
p

se conoce como distribucin I con q y q grados de libertad. Adems si


[ = Iq>p entonces se cumple que

1
[

= Ip>q . La distribucin F de Fisher-

Snedecor se encuentra tabulada y aparece al nal del manual. A continuacin


mostramos su funcin de densidad para diferentes grados de libertad.

ndice

4.5. DISTRIBUCIONES NOTABLES

95

1.0

funcin de densidad de una F-Snedecor

0.6

0.8

gl=2

f(x)

gl=9,9

0.0

0.2

0.4

gl=4,6

Distribucin t de Student
Esta distribucin fue obtenida por W.S. Gosset, un qumico que trabajaba
para la cervecera Guiness en Dubln. Una distribucin t de Student se obtiene
de la siguiente manera:
wq =

]
1 2
"
q q

1@2 , q A 0

donde ] es una variable aleatoria normal estndar independiente del denominador.


En la generalidad de los casos, no disponemos de la desviacin standard de
la poblacin, sino de una estimacin calculada a partir de una muestra extrada
de la misma y por lo tanto no podemos calcular Z. En estos casos calculamos el
estadstico w. El estadstico w tiene una distribucin que se denomina distribucin w de Student, que est tabulada para 1, 2, 3, ... etc. grados de libertad
de la muestra con la cual se calcul la desviacin standard. La distribucin w
tiene en cuenta la incertidumbre en la estimacin de la desviacin standard

ndice

Captulo 4. Variables aleatorias continuas

96

de la poblacin, porque en realidad la tabla de w contiene las distribuciones de


probabilidades para distintos grados de libertad:
Se trata de una distribucin simtrica en torno al 0. Para un nmero de
grados de libertad pequeo, es mas ancha que la distribucin normal tipicada. Cuando los grados de libertad tienden a innito, la distribucin w tiende
a coincidir con la distribucin normal standard. Es decir, en la medida que
aumentemos el nmero de observaciones de la muestra, la desviacin standard calculada estar mas prxima a la desviacin standard de la poblacin
y entonces la distribucin w correspondiente se acerca a la distribucin normal
standard. El uso de la distribucin w presupone que la poblacin con que estamos trabajando tiene una distribucin normal. A continuacin representamos
la funcin de densidad para distintos grados de libertad.

0.4

funcin de densidad de una t de Student

0.3

gl=25

0.2
0.1

f(x)

gl=5

0.0

gl=1

-3

-2

-1

La esperanza y la varianza es:


H [[] = 0, q A 1
q
,qA2
Y [[] =
q2

ndice

4.5. DISTRIBUCIONES NOTABLES

97

Se aproxima a la distribucin normal para q A 30 y est relacionada con


la distribucin F de Snedecor de la siguiente manera:
w2q = I1>q

ndice

ndice

Captulo 5
Distribuciones Conjuntas
Hasta ahora, habamos estudiado distribuciones de probabilidad para una
variable aleatoria. Sin embargo, a menudo nos interesa estudiar ms de una
variable aleatoria en un experimento aleatorio. Por ejemplo, en la clasicacin
de seales emitidas y recibidas, cada seal se clasica como de baja, media
o alta calidad. Podemos denir X = nr de seales de baja calidad recibida e
Y = nr de seales de alta calidad. Otro ejemplo, puede ser que, al estudiar
la contaminacin del agua en general, se mida la concentracin de varios contaminantes presentes en sta. De los ejemplos anteriores surge la necesidad de
estudiar modelos de probabilidad que contengan ms de una variable aleatoria.
En general, si X e Y son dos variables aleatorias la distribucin de probabilidad
que dene simultneamente su comportamiento se llama distribucin de probabilidad conjunta. En este captulo, se estudiarn conceptos generales para
distribuciones de probabilidad discretas y continuas con dos variables aleatorias. La extensin de estos conceptos a un mayor nmero de variables aleatorias
resultar directa. Primero consideraremos el caso discreto.

5.1.

Distribuciones discretas multivariantes

Supongamos que se estudia las cadas de red en una universidad, estas


pueden ser de tres tipos (0> 1> 2), bajo dos formas de operacin (0> 1). Se dispone
de las probabilidades de tipo ([1 ) de cada del sistema, bajo el modo ([2 ) de
99

ndice

Captulo 5. Distribuciones conjuntas

100

operacin indicado, en un da, lo cual puede verse en la siguiente tabla:


[2 \[1

0.1 0.4 0.1 0.6

0.2 0.2 0

0.4

0.3 0.6 0.1 1


de tal manera que se tiene que S ([1 = 1> [2 = 0) = 0>4 que sera una
probabilidad conjunta. La tabla dene la distribucin conjunta de ([1 > [2 )
mediante su funcin de masa de probabilidad de la siguiente manera
i ([1 > [2 ) = S ([1 = {1 > [2 = {2 )
A partir de la distribucin conjunta, en el caso multivariante se denen
diversas distribuciones de inters:
1. La distribucin marginal de [1 : i1 ([1 ) = S ([1 = {1 ) =
X

{1

S ([1 = {1 > [2 = {2

{2

i ([1 > [2 )

{2

2. La distribucin marginal de [2 : i2 ([2 ) = S ([2 = {2 ) =

S ([1 = {1 > [2 = {2 )

{1

i ([1 > [2 )
3. La distribucin de [2 condicionada a [1 = {1 :
i2 ([2 @[1 ) = S ([2 = {2 @[1 = {1 ) =
=

S ([1 = {1 > [2 = {2 )
S ([1 = {1 )

i ([1 > [2 )
i1 ([1 )

4. La distribucin de [1 condicionada a [2 = {2 :
S ([1 = {1 > [2 = {2 )
i1 ([1 @[2 ) = S ([1 = {1 @[2 = {2 ) =
S ([2 = {2 )
i ([1 > [2 )
=
i2 ([2 )
5. Diremos que [1 y [2 son independientes si se cumple
S ([1 = {1 > [2 = {2 ) = S ([1 = {1 ) =S ([2 = {2 )

ndice

5.2. DISTRIBUCIONES CONTINUAS MULTIVARIANTES

101

Ejemplo. En la tabla anterior se tiene


i1 (0) = S ([1 = 0) = S ([1 = 0> [2 = 0) + S ([1 = 0> [2 = 1) = 0>1 +
0>2 = 0>3
i2 (0) = S ([2 = 0) = S ([1 = 0> [2 = 0)+S ([1 = 1> [2 = 0)+S ([1 = 2> [2 = 0) =
0>1 + 0>4 + 0>1 = 0>6

i (0> 0) = 0>1 6= 0>3>0>6 = i1 (0)=i2 (0)


por tanto [1 y [2 no son independientes.
i1 (1@0) = S ([1 = 1@[2 = 0) =

S ([1 =1>[2 =0)


S ([2 =0)

0>4
.
0>6

De esta forma se

puede establecer la distribucin de probabilidad de [1 @[2 = 0 sus posibles


valores son para [1 = 0> 1> 2 por tanto las demas probabilidades seran
i1 (0@0) =
i1 (2@0) =

S ([1 =0>[2 =0)


S ([2 =0)
S ([1 =2>[2 =0)
S ([2 =0)

=
=

0>1
0>6
0>1
.
0>6

Para esta distribucin se podran calcular todas las medidas caractersticas


como media, varianza, mediana,.... En general el caso n-variante sera
i ([1 > ===> [n ) = S ([1 = {1 > ===> [n = {n )
y la distribucin marginal de [1
i1 ([1 ) =

i ([1 > ===> [n )

{2 >===>{n

5.2.

Distribuciones continuas multivariantes

Estas mismas ideas desarrolladas para el caso discreto pueden extenderse


al caso continuo. Para un vector aleatorio de variables aleatorias continuas
([1 > ===> [n ) se tendr una funcin de densidad multivariante i({1 > ===> {n ) que
satisface
Z Z

===

Un

i({1 > ===> {n )  0


i({1 > ===> {n )g{1 ===g{n = 1

ndice

Captulo 5. Distribuciones conjuntas

102

y
S (d1  [1  e1 > ===> dn  [n  en )
Zen Ze1
=
=== i({1 > ===> {n )g{1 ===g{n
dn

d1

y la funcin de distribucin es

I ({1 > ===> {n ) = S ([1  {1 > ===> [n  {n )


Z{n Z{1
=
===
i (w1 > ===> wn )gw1 ===gwn
3"

3"

Ejemplo
Consideremos la funcin de densidad
(
6h32{1 h33{2
i ({1 > {2 ) =
0

{1 A 0, {2 A 0
uhvwr

a) Demostrar que es funcin de densidad


b) Calcular S (1  [1  2> 2  [2  3) > S (0  [1  2> 2  [2  4)
c) Calcular su Funcin de distribucin
a) se tiene
Z Z
=

"

i ({1 > {2 ) g{2 g{1


Z "
6h32{1 h33{2 g{2 g{1 = 1
0

por tanto se trata de una funcin de densidad.


ndice
Z3 Z2
34
39

32{1 33{2
32
b) S (1  [1  2> 2  [2  3) =
6h
h
g{1 g{2 = h  h
h  h36

0>0003

S (0  [1  2> 2  [2  4) =
0>0024
c) La funcin de distribucin es

Z2 Z"
0

6h32{1 h33{2 g{2 g{1 = 1  h34 h36 =

5.2. DISTRIBUCIONES CONTINUAS MULTIVARIANTES

I ({1 > {2 ) =

R {1 R {2

3" 3"

103

6h32w1 h33w2 gw2 gw1 = (1  h32{1 ) (1  h33{2 )

En general la marginal de [1 se calculara como


i1 ({1 ) =

Z"

===

3"

Z"

i ({1 > ===> {n )g{n ===g{2

3"

y se dice que [1 > ===> [n son independientes si


I ({1 > ===> {n ) = I ({1 )=I ({2 )===I ({n )
o equivalentemente
i({1 > ===> {n ) = i1 ({1 )=i2 ({2 )====in ({n )
en el ejemplo anterior, la marginal densidad de [1 es
;
A
para {1  0>
A
Z "
? 0
i ({1 > {2 ) g{2 =
i1 ({1 ) =
A
3"
A
= R " 6h32{1 h33{2 g{ = 2h32{1 para { A 0>
2
1
0

y la densidad marginal de [2 es
;
A
para {2  0
A
? 0
i2 ({2 ) =
A
A
= 3h33{1 para { A 0
2

Por tanto, las funciones de distribucin marginales son


;
A
para {1  0
A
? 0
I1 ({1 ) =
A
A
= (1  h32{1 ) para { A 0
1
I2 ({2 ) =

;
A
A
? 0

para {2  0

A
A
= (1  h33{2 ) para { A 0
2

se tiene que I ({1 > {2 ) = I1 ({1 ) I2 ({2 ) para todos los valores de {1 y {2 ,

y por tanto [1 y [2 son independientes.

ndice

Captulo 5. Distribuciones conjuntas

104

La funcin de densidad de [1 condicionada por [2 = {2 es


i1 ({1 |{2 ) =

i ({1 > {2 )
i2 ({2 )

para i2 ({2 ) 6= 0> y la de [2 |[1 = {1 es


i2 ({2 |{1 ) =

i ({1 > {2 )
=
i1 ({1 )

Ejemplo: Consideramos la densidad bivariante

i ({1 > {2 ) =

;
A
A
?

2
3

({1 + 2{2 ) 0 ? {1 ? 1> 0 ? {2  1>

A
A
= 0

uhvwr

La marginal de [2 es

i2 ({2 ) =

"

i ({1 > {2 ) g{1 =

3"

;
A
A
? 0

{2 5
@ (0> 1)

A
A
= R 1 2 ({ + 2{ ) g{ = 1 (1 + 4{ ) si 0 ? { ? 1
1
2
1
2
2
3
0 3

La densidad de [1 condicionada a [2 = {2 (con {2 5 (0> 1)) es


; 2
({1 + 2{2 )
2{1 + 4{2
A
3
A
0 ? {1 ? 1
=
A 1
?
1 + 4{2
({
+
4{
)
1
2
i ({1 > {2 )
3
=
i ({1 |{2 ) =
A
i2 ({2 )
A
A
=
0
uhvwr
En los casos en que [1 y [2 son independientes se tiene que
i ({1 |{2 ) =

5.3.

i1 ({1 ) i2 ({2 )
i ({1 > {2 )
=
= i1 ({1 ) =
i2 ({2 )
i2 ({2 )

Propiedades del Operador Esperanza

Dada una variable aleatoria [ se puede denir la transformacin j([) y


calcular su esperanza denida mediante:
; "
R
A
?
j({)i ({)g{ caso continuo
H [j([)] =
3"
A
= P j({l )i ({l ) caso discreto
l

ndice

5.3. PROPIEDADES DEL OPERADOR ESPERANZA

105

como casos particulares tenemos:


1) Cuando j([) = 0 es la esperanza
2) Cuando j([) = ([  )2 la esperanza de sta funcin es lo que se ha

denido como varianza.

Propiedades Lineales
a) Dada una variable aleatoria [ siendo j1 ([) y j2 ([), dos funciones de [
y tales que H [j1 ([)] y H [j2 ([)] existen, entonces se cumple: 1) H [j1 ([) + j2 ([)] =
H [j1 ([)] + H [j2 ([)], 2) H [dj1 ([)] = dH [j1 ([)]
b) En general dada una variable aleatoria [ siendo j1 ([), j2 ([)> ===> jq ([)
funciones de [ y d1 > d2 > ===> dq constantes, se verica
H [d1 j1 ([) + d2 j2 ([) + === + dq jq ([)] = d1 H [j1 ([)] + d2 H [j2 ([)] + === +
dq H [jq ([)]
Analogamente se dene
Y [j ([)] = H [j ([)  H [j([)]]2
Si j ([) = d{ + e
Y (d{ + e) = d2 Y ({)
Y (d{ + e) = H [d{ + e  H (d{ + e)]2 = H [d{ + e  dH ({)  e]2 = H [d{  dH ({)]2 =

d2 H [{  H ({)]2 = d2 Y ({)

Todas estas deniciones se extienden al caso multivariante. Para \ =

j ([1 > ===> [q ) se tiene


; " "
R R
R"
A
A
===
j ([1 > ===> [q ) i ([1 > ===> [q ) g{q ====g{1
?
3" 3"
3"
H [\ ] =
P R"
P
A
A
===
j ([1 > ===> [q ) i ([1 > ===> [q )
=
{1
{n

caso continuo
caso discreto

3"

Si consideramos el caso particular en que j({1 > {2 ) = ({1  1 ) ({2  2 )

La esperanza de j({1 > {2 ) es

H [([1  1 ) ([2  2 )] = Fry ([1 > [2 )


que es lo que se conoce como covarianza entre variables aleatorias.

ndice

Captulo 5. Distribuciones conjuntas

106

Denicin. La covarianza poblacional entre las variables X e Y se dene


como
fry([> \ ) = H[([  [ )(\  \ )]
[ = H[[]
\

= H[\ ]

Decimos que [ e \ estn incorreladas cuando fry([> \ ) = 0. La covarianza


va a aparecer de manera natural al obtener rectas de regresin y se encarga
de medir el grado de asociacin lineal que existe entre ambas variables, de
momento podemos indicar que existe asociacin entre el signo de la covarianza
y la orientacin de la nube de puntos. Una orientacin como la que nos muestra

mpg

15

20

25

30

35

40

45

la siguiente gura nos indica que la fry{>| A 0.

15

20

25

30

35

Fitted : horsepower

Ahora bien, como esta medida depende de las unidades de medida se dene
otra que mide lo mismo pero es adimensional
Denicin. El coeciente de correlacin entre [ e \ se dene como
Fry([> \ )
u=p
Y ([) Y (\ )

ndice

Captulo 6
Teorema Central del Lmite
6.1.

Introduccin

Cuando los eventos no pueden denirse de manera nita o denida, se emplean las sucesiones de variables aleatorias. Para ilustrar este concepto veamos
el siguiente ejemplo:
Un mdico controla el colesterol de sus pacientes del siguiente modo: si
cada q ml de sangre el nmero de miligramos de colesterol se encuentra por
encima del nivel establecido, el paciente debe repetir la prueba. Si cada q ml
de sangre el nmero de miligramos de colesterol se encuentra por debajo del
nivel establecido, el paciente debe repetir la prueba. En caso de que el nmero
de miligramos de colesterol se encuentre dentro de los lmites normales en q
ml de sangre se da por sano al paciente y no hay que repetirle la prueba.
Cada anlisis puede caracterizarse por una variable aleatoria [l = {nmero
de miligramos de colesterol en n ml de sangre fuera de los lmites normales}.
El mdico est interesado en que el resultado de la prueba en q ml de sangre
sea nula.
Para caracterizar el evento, suponemos que cada variable aleatoria [l viene
caracterizada por su funcin de distribucin Il ({). Existen diversas deniciones
de convergencia de sucesiones de variables aleatorias:
1. Convergencia en probabilidad
2. Convergencia en distribucin
107

ndice

Captulo 6. Teorema central del lmite

108

3. Convergencia casi segura.


Los resultados probabilsticos varan de acuerdo con el tipo de convergencia.

6.2.

Convergencia

En el ejemplo anterior, cada experimento depende del nmero de ml de sangre que se toma de cada paciente. Denominamos sucesin de variables aleatorias al conjunto innito numerable [1 > [2 > ===> [q > === que se denota por {[q }=

Cuando todas las variables aleatorias provienen de la misma poblacin, a medida que crece n observamos que convergen hacia un mismo patrn. Para ver
este resultado, consideremos el siguiente ejemplo:
Una empresa electrica contabiliza el nmero de apagones en una ciudad
cada q noches. Se sabe que la distribucin de apagones sigue una distribucin
Binomial de parmetros Elq(q> 0>2). El evento puede caracterizarse mediante
una sucesin de variables aleatorias [l ={nmero de apagones en i noches}
Si realiza el estudio en 10 noches consecutivas la distribucin de la variable aleatoria [10 es:

Bin10

3,0

Frecuencia

2,5

2,0

ndice

1,5

1,0

0,5

0,0
1

Si realiza el estudio en 20 noches consecutivas la distribucin de la variable aleatoria [20 es:

6.2. CONVERGENCIA

109

Bin20

Frecuencia

0
2

Si realiza el estudio en 100 noches consecutivas la distribucin de la


variable aleatoria [100 es:
Bin100

12

Frecuencia

10

0
11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

6.2.1.

Convergencia en probabilidad

Supongamos que las variables aleatorias [l que forman la sucesin {[q }

estn denidas en el mismo espacio de probabilidad ([> l> S ) y consideramos


la variable aleatoria lmite hacia la cual convergen [. La sucesin de variables
aleatorias {[q } converge en probabilidad a la variable aleatoria [ cuando para

todo % A 0:

lm S (|[q  [|  %) = 0

q<"

ndice

Captulo 6. Teorema central del lmite

110

s=
Se designa este tipo de convergencia: [q $
 [= La interpretacin de la
convergencia en probabilidad es que dado cualquier valor positivo, siempre

existe un elemento de la sucesin de variables aleatorias {[q } lo sucientemente prximo a la variable aleatoria lmite [ que coincide en todo el espacio
de probabilidad excepto a lo sumo en un conjunto de puntos de probabilidad
nula.
De este tipo de convergencia se establece la ley dbil de los grandes
nmeros:
Sea [ una variable aleatoria con esperanza  y varianza  2 , ambas nitas.
Sean [1 > [2 > ===> [q > === una sucesin de variables aleatorias independientes con
la misma distribucin que [, y consideremos la variable aleatoria

q =
[

q
X

[l

l=1

q } converge en probabilidad a :
Entonces la sucesin {[
q s= 
[

$
Es decir, la media muestral se aproxima a la esperanza  de la distribucin
lmite [ a media que crece q.

6.2.2.

Convergencia en distribucin

Supongamos que las variables aleatorias [l > con funcin de distribucin


I ([l )> que forman la sucesin {[q } estn denidas en el mismo espacio de

probabilidad ([> l> S ) y consideramos la variable aleatoria lmite hacia la


cual convergen [, con funcin de distribucin I ([). La sucesin de variables
aleatorias {[q } converge en distribucin a la variable aleatoria [ cuando:
lm Iq ({) = I ({) en todos los puntos de continuidad de I ({)

q<"

g=
Se designa este tipo de convergencia: [q $
 [=

ndice

6.3. TEOREMA CENTRAL DEL LMITE

6.2.3.

111

Convergencia casi segura

Supongamos que las variables aleatorias [l que forman la sucesin {[q }

estn denidas en el mismo espacio de probabilidad ([> l> S ) y consideramos


la variable aleatoria lmite hacia la cual convergen [. La sucesin de variables
aleatorias {[q } converge casi seguro a la variable aleatoria [ cuando:
S

lm [q = [ = 1

q<"

f=v=
Se designa este tipo de convergencia: [q 
$ [= La interpretacin de la convergencia casi segura es que la sucesin de variables aleatorias {[q } converge

a la variable aleatoria lmite [ excepto a lo sumo en un conjunto de puntos


de probabilidad nula.

De este tipo de convergencia se establece la ley fuerte de los grandes


nmeros:
Sea [ una variable aleatoria con esperanza  y varianza  2 , ambas nitas. Sean [1 > [2 > ===> [q > === una sucesin de variables aleatorias independientes
igualmente distribuidas con la misma esperanza matemtica H[[l ] = , entonces
q
X
l=1

[l
f=v=


$

Es decir, el conjunto de elementos en los cuales la media muestral de la


sucesin de variables aleatorias converge a la esperanza cuando q crece indenidamente tiene probabilidad 1.

6.3.

Teorema central del lmite

Una sucesin [1 > [2 > ===> [q > === de variables aleatorias verica el teorema
central del lmite si la variable \q = [1 + [2 + === + [q cumple:

Equivalentemente:

\q  H[\q ] g=
]q = p
 Q(0> 1)
Y du[\q ] $

ndice

Captulo 6. Teorema central del lmite

112
q
X
l=1

q
X
[l  H[
[l ]

Y du[

l=1

q
X

[l ]

g=

$ Q(0> 1)

l=1

ndice

Captulo 7
Inferencia estadstica
7.1.

Introduccin

El inters de la Inferencia Estadstica se centra en analizar e interpretar las


observaciones como mtodo para obtener conclusiones sobre la ley de probabilidad del fenmeno en estudio. Supongamos que queremos estudiar el peso
de los profesores de universidad en Espaa. Primero tendremos que denir la
poblacin de inters como el conjunto de todos los profesores de Espaa. Estamos interesados en conocer parmetros que caractericen la posible distribucin
que siguen estos datos. Si se dispusiera del tiempo y de los recursos necesarios
se podra hacer un censo a la poblacin y dichos parmetros quedaran perfectamente delimitados, pero normalmente esto no es posible siendo necesario
elegir una muestra que sea lo ms representativa posible de la poblacin y
utilizarla para inferir sobre todo aquello que desconozcamos. Digo lo ms representativa en el sentido de que sea aquella que nos permita estimar los valores
lo ms parecidos a aquellos que se obtendran si tuvisemos la poblacin entera.
Dependiendo de cual es nuestro grado de desconocimiento se pueden plantear
diversos problemas de inferencia estadstica los cules pueden distinguirse as:
En muchos problemas la distribucin de probabilidad que gener los
datos experimentales es completamente conocida excepto para los valores
de uno o ms parmetros (media, varianza, coeciente de correlacin).
Ello caracteriza los problemas de Estimacin Puntual. por ejemplo,
113

ndice

Captulo 7. Inferencia estadstica

114

se podra saber que el tiempo de espera para el establecimiento de una


conexin telefnica sigue una distribucin exponencial con parmetro
desconocido.
En otras ocasiones el objetivo puede ser proporcionar un rango de variacin
para un determinado parmetro desconocido de la distribucin. Es decir, precisar un intervalo numrico en el que se pueda armar de forma
razonable que dicho parmetro se encuentra. Hablamos entonces de Estimacin por intervalos de conanza.
En muchos problemas de estadstica, tras haber analizado los datos experimentales, se debe tomar una decisin de entre una clase de decisiones
posibles, con la particularidad de que las consecuencias de cada decisin
posible dependen del valor desconocido de cierto parmetro. Se trata de
corroborar o invalidar una determinada armacin acerca de los parmetros de una distribucin o de la propia distribucin. En este caso estamos
estudiando los problemas de Contraste de Hiptesis.
Es muy importante que sepamos distinguir bien lo que es el mundo poblacional y el muestral. La distribucin desconocida I de la variable aleatoria
involucrada en un problema de inferencia estadstica recibe el nombre de distribucin terica o distribucin de la poblacin. Sin embargo en la prctica es
muy dicil de disponer de la poblacin entera teniendo que ocuparnos de las observaciones a partir de las cules ha de intentarse disminuir el desconocimiento
que tengamos de la distribucin terica I de la variable [ que estemos estudiando. Para garantizar la representatividad de la muestra en la poblacin
se pueden utilizar diversos procedimientos de muestreo, pero el que nosotros
vamos a considerar es el siguiente:
Muestreo Aleatorio Simple (m.a.s). Una muestra se denomina muestra
laeatoria simple si:
(i) Cada elemento de la poblacin tiene la misma probabilidad de ser elegido.
(ii) Los elementos se seleccionan de forma independiente.

ndice

7.1. INTRODUCCIN

115

Existe una consideracin importante que es preciso aclarar antes de manipular estos conceptos:
Cuando se ha obtenido una muestra aleatoria de tamao q: ({1 > {2 > ===> {q ),
disponemos simplemente de un conjunto de q valores numricos, sin embargo
cuando se est planicando la obtencin de la muestra laeatoria todava no se
sabe que valores numricos resultarn, de manera que deben considerarse como
variables aleatorias: ([1 > [2 > ===> [q ). En otras palabras, es como si la poblacin
entera fuera un gran cajn, del cual en una posible extraccin obtendra unos
valores de la muestra, pero en otra extraccin obtendra otros valores distintos
y as sucesivamente, de tal manera que desde un segundo punto de vista, una
muestra aleatoria puede ser tratada como un conjunto de q variables aleatorias.
Formalmente, una muestra aleatoria simple p=d=v, de tamao q, de una
variable aleatoria [ con distribucin terica I , es una coleccin de q variables aleatorias ([1 > [2 > ===> [q ) independientes e igualmente distribuidas con
distribucin comn I . Por tanto la funcin de distribucin conjunta de una
muestra aleatoria simple ([1 > [2 > ===> [q ) es:
I ({1 > {2 > ===> {q ) = I ({1 )=I ({2 )===I ({q )
y anlogamente con la funcin de densidad conjunta:
i ({1 > {2 > ===> {q ) = i ({1 )=i ({2 )===i ({q )
donde  es el parmetro (o coleccin de parmetros) que interesa conocer
de la distribucin. Por tanto se supone que la forma de la distribucin es
conocida salvo por . Se llama parmetro de una distribucin a cualquier
caracterstica de la distribucin que genera los datos experimentales, que tenga
un valor desconocido. En general, en un problema de estadstica, se tendr
frecuentemente un vector de parmetros  = (1 > ===> n ) desconocido donde el
conjunto l de todos los valores posibles del parmetro  o  se llama espacio
paramtrico. La caracterstica importante del espacio paramtrico l es que
debe contener todos los valores posibles de los parmetros de un problema
concreto, para tener la seguridad de que el valor verdadero del parmetro o
vector sea un punto de l.

ndice

Captulo 7. Inferencia estadstica

116

Un problema de inferencia estadstica (o simplemente de estadstica) es un


problema en el cual se han de analizar datos que han sido generados de acuerdo
con una distribucin de probabilidad desconocida, y en el que se pretende hacer
algun tipo de inferencia acerca de tal distribucin. En otras palabras, en un
problema de estadstica existen dos o ms distribuciones de probabilidad que
podran haber generado algunos datos experimentales. Analizando los datos,
se intenta conocer la distribucin desconocida y lo que se hace en la prctica es
determinar la verosimilud de que cada una de las distribuciones posibles sea la
correcta, o simplemente escoger aqulla distribucin de mayor verosimilitud.
Supongamos que tenemos una variable aleatoria [ que representa la variable Peso de los estudiantes femeninos universitarios en Espaa, entonces se
puede asumir que [ sigue una distribucin Q(>  2 ) siendo los parmetros
de inters (desconocidos)  = (>  2 ). Para estimar el parmetro  podemos
escoger una muestra de 8 estudiantes:
45>6> 48> 54> 52> 56>5> 58>9> 60>3> 68
y calcular la media muestral { = 55>4. Este valor aproxima al verdadero
valor del parmetro . pero si eligisemos otra muestra:
44>6> 43>1> 56>4> 51>5> 58>5> 68>9> 61>3> 57>4
el valor de la media sera { = 55>2 que tambin aproxima al verdadero
valor del parmetro . Lo ms importante que se ha de sealar es que la media
muestral vara de una muestra a otra siendo por tanto otra variable aleatoria
que tendr una distribucin.

7.2.

Estimacin Puntual

Estadstico. Cualquier funcin de los elementos de la muestra.


Estimador. Consideremos una variable aleatoria [ caracterizada por la
funcin de densidad i ({) siendo , el parmetro a estimar, llamaremos estimado W de  a cualquier funcin de la muestra que no contiene el parmetro
desconocido, por tanto tambin se trata de una variable aleatoria, ya que su

ndice

7.2. ESTIMACIN PUNTUAL

117

valor va cambiando a medida que se obtienen distintas muestras. Formalmente


a los estadsticos o estimadores se les denotar por:
b
 = W ([1 > ===> [q )

Todo estimador es siempre un estadstico.

Los estadsticos ms habituales


son:
q
X
2
La media muestral: [ = q1
[l , la varianza muestral: V[
=
l=1

la cuasivarianza muestral:

W2
V[

1
q31

1
q

q
X

2
[l  [ ,
l=1

q
X
2

[l  [ . Es importante sealar que


l=1

no hay que confundir con las correspondientes caractersticas poblacionales


R
La media poblacional o esperanza:  = H([) = {i ({)g{, la varianza
R
poblacional:  2 = Y du([) = ({  )2 i ({)g{
Estimacin. Una estimacin puntual de un parmetro  de una distribu-

cin conocida de una poblacin dada mediante una muestra, es obtener un


valor para dicho parmetro desconocido.

7.2.1.

Distribucin muestral

La distribucin de probabilidad correspondiente a un estadstico se denomina distribucin muestral. Un resultado muy importante que ayuda a conocer
cmo es la distribucin muestral de variables que se obtienen como suma de
muchas variables es el ya estudiado Teorema Central del Lmite.
Distribucin en el muestreo de la Media muestral ([)
Dada una muestra aleatoria simple {1 > ===> {q independientemente de su distribucin I ({), i ({) con H ({l ) =  ;l y Y du ({l ) =  2 , (en una muestra

aleatoria simple en la realizacin {1 > ===> {q estos se pueden considerar los valores
procedentes de una nica variable aleatoria [) podemos calcular la esperanza
q
X
1
y varianza de la media muestral [ = q
{l :
l=1


{1 + === + {q
= q1 [H ({1 ) + === + H ({q )] = q1 [ + === + ] =
H [ = H
q
q
=
q

ndice

Captulo 7. Inferencia estadstica

118

{1 + === + {q
Y du([) = Y du
= q12 [Y du ({1 ) + === + Y du ({q )] = q12 [ 2 + === +  2 ] =
q
q 2
2
=
q2
q
La distribucin de la media muestral slo se conoce en dos situaciones:
1) Si la poblacin de la que procede la muestra [ sigue una distribucin
Normal es decir, Q (> ), entonces


[  Q > s
q

2) En cualquier poblacin siga la distribucin que siga si la muestra es de


un tamao grande, por lo menos q  30. (Teorema Central del Lmite).


[  Q > s
q

La correspondiente desviacin tpica de la media se denomina error estndar

y se denota por:



 [ =s
q
Observar que a medida que aumenta el tamao de la muestra el error

disminuye. Por tanto, cuanto mayor sea el tamao muestral mejor ser nuestra
inferencia sobre la media poblacional.
Comprobemos estos resultados a travs de experimentos de simulacin. A
continuacin se muestra un histograma correspondiente a 100 valores procedentes de una distribucin uniforme (0,1):
18

16

14

ndice

12

10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

7.2. ESTIMACIN PUNTUAL

119

y a continuacin mostramos el histograma correspondiente a 100 medias


de tamao 1000 de uniformes.

300

250

200

150

100

50

0
0.4

0.45

0.5

0.55

0.6

0.65

Distribucin en el muestreo de la Varianza muestral (V 2 )

Dada una muestra aleatoria simple {1 > ===> {q independientemente de su distribucin I ({), i ({) con H ({l ) =  ;l y Y du ({l ) =  2 , (en una muestra

aleatoria simple en la realizacin {1 > ===> {q estos se pueden considerar los valores
procedentes de una nica variable aleatoria [) podemos calcular la esperanza
q
X

de la varianza muestral v2 = q1
{l  [ :
l=1

ndice

Captulo 7. Inferencia estadstica

120

q
X

({l  )  [  

1 X
{l  [ = l=1
q l=1
q
q
h
X

i
({l  )2 + [    2 ({l  ) [  

q
X

({l  )2

q
X

({l  )2

q
X

({l  )2

q
X

({l  )2

v2 =

l=1

l=1

l=1

l=1

l=1

q
q
X

2
[ 
l=1

q
X

 2([  ) l=1

+ [    2([  )

({l  )2
q

!
q
1X
{l  
q l=1

2
+ [    2([  )2
 ([  )2

Por tanto llegando a esta expresin tenemos que la esperanza matemtica


de v2 vale:

q
X

({l  )
:
9
:
9 l=1
2
2:
9
 ([  ) :
H v
= H9
q
8
7
5

q
X

({l  )
9
9 l=1
= H9
9
q
7
=

q
X
l=1

H ({l  )2
q

:
:

:  H ([  )2
:
8

 H ([  )2

ndice

teniendo en cuenta que H ({l  )2 =  2 y que adems sabemos que H ([  )2 =

7.2. ESTIMACIN PUNTUAL

121

2
tenemos nalmente:
q

2
H v2 =  2 
q
q1 2
=

q
Si denimos la cuasi-varianza muestral como

ve2 =

q
X
2

{l  [
l=1

q1

y calculamos la esperanza, tenemos


6
5 q
X
2
{l  [ :
9
:
9 l=1
2
:
9
H ve
= H9
:
q

1
8
7
5

6
q
X

2
{l  [ :
9
9 q l=1
:
:
= H9
9q  1
:
q
7
8

q 2
= H
ve
q1

q
q q1 2
=
H ve2 =

q1
q1 q
= 2

Estos resultados son independientes de la distribucin de partida, la respuesta acerca de la distribucin de este estimador la podemos dar con el
siguiente teorema:
Teorema. Si la poblacin de la que procede la muestra [ sigue una distribucin Normal es decir, Q (> ), y sea [1 > [2 > ===> [q una m.a.s de dicha
distribucin.


a) [  Q > s
q

ndice

Captulo 7. Inferencia estadstica

122

b)

"2q31
ve2

2
q1

c) y adems [ y ve2 son independientes

La distribucin "2q se dene como la suma de q normales al cuadrado

independientes de media 0 y varianza 1, es decir


"2q = N (0> 1)2 + === + N (0> 1)2
esta distribucin est tabulada en funcin de q. Se tiene que

H "2q = q

Y du "2q = 2q

por tanto es inmediato comprobar que

2
H "2q31 =  2
q1
2
2
4
24
Y du ve
=
2 Y du "q31 =
q1
(q  1)

H ve2 =

A continuacin comprobaremos va simulaciones la distribucin que sigue


la cuasivarianza muestral, para ello nos generamos 100 muestras de una normal
Q(0> 1), y para cada una de ellas obtenemos su correspondiente cuasivarianza
muestral, por tanto obtendremos una muestra de valores de la cuasivarianza
muestral, para la cual dibujamos su histograma:
30

25

20

ndice

15

10

0
0.6

0.7

0.8

0.9

1.1

1.2

1.3

1.4

1.5

7.2. ESTIMACIN PUNTUAL

123

Distribucin en el muestreo de una proporcin


Consideremos una poblacin formada por un nmero determinado de elementos que presentan o no una caracterstica determinada, y sea s la proporcin de los que la poseen, por tanto t = 1  s ser la proporcin de los que no

la poseen. Si tomamos una muestra de esta poblacin, cada elemento {l toma


el valor 1 con probabilidad s si posee dicha caracterstica y toma el valor 0
con probabilidad 1  s en caso de que no la tenga. Por tanto se modela como

una variable de Bernoulli. Tomando todas las muestras de tamao q para cada
una de ellas habr una proporcin de los que poseen esa caracterstica, de tal
amnera que una estimacin de s sera el estadstico:

sb =

q
X

{l

l=1

Para ver cmo es de precisa esta estimacin es necesario conocer su distribucin. Existen dos maneras de verlo:
1. Como {l  E(s) entonces

q
X
l=1

{l  E(q> s), por tanto

H (b
s) =

q !
X
H
{l
l=1

q
qs
=s
=
q
q !
X
1
{l
Y du(b
s) = 2 Y du
q
l=1
qs(1  s)
q2
s(1  s)
=
q

2. Para muestras grandes q  30, se tiene utilizando el Teorema Central


del Lmite que

sb  s
q
 Q (0> 1)
s(13s)
q

ndice

Captulo 7. Inferencia estadstica

124

Ejemplo. Supongamos que se desea estimar la proporcin de estudiantes


de una titulacin de 1000 personas que preeren exmenes con libro. Tomamos
una muestra de 100 estudiantes obtenindose que 60 de ellos lo preeren.
Cual sera la probabilidad de que la proporcin de estudiantes que preenen
exmenes con libro sea menor que el 50 %.
Primero una estimacin de s es el estadstico

sb =

q
X

{l

l=1

q
60
=
= 0>6
100

s(1  s)
pero no conocemos s, entonces sustituimos s por una
q
sb(1  sb)
estimacin 0>6, quedando que Y du(b
s) es aproximadamente igual a
=
q
0>6(130>6)
= 0>0024 y la desviacin tpica 4>899 0 1032 .
100
la Y du(b
s) =

4
s
b

s
0>5

s
D
S (b
s ? 0>5) = S C q
?q
3

s(13s)
q

s(13s)
q

E
0>5  sb F
F
= SE
C] ? r sb(1  sb) D
q
= S (] ? 20>41)
= 0
Estadstico de Student. Distribucin t de Student


o equivalentemente que
Saber que [  Q > s
q
[ 
  Q(0> 1)
s
q
puede resultar de poca utilidad si la varianza poblacional  2 es un parmetro
desconocido. Cuando ocurre esto, podramos pensar que el resultado no ser

ndice

7.2. ESTIMACIN PUNTUAL

125

muy distinto si sustituimos  por el valor de la cuasivarianza muestral v ya


que para valores muestrales grandes  2 y v2 tendrn valores parecidos. Si realizamos esta sustitucin obtenemos el siguiente resultado:
Teorema de Student. Si ([1 > [2 > ===> [q ) es una muestra aleatoria simple
de una poblacin Q(> ), el estadstico de Student:
[ 
[ 
=
V
ve
s
s
q
q1

tiene distribucin w de Student con q  1 grados de libertad=

Demostracin:

La distribucin wq se dene como


Q (0> 1)
wq = q
1 2
"
q q

q [   @
s
[ 
=r
sabemos que
, basta observar que q [   @ 
V
1
s
qV 2 @ 2
q1
q1
"2
"2
ve2
V2
Q(0> 1), mientras que segn el Teorema de Fisher, 2  q31 o 2  q31

q1 
q
siendo independientes numerador y denominador con lo cual por la denicin
tenemos:

[ 
 wq31
V
s
q1
Recordemos que esta distribucin est tabulada en funcin de q. Se tiene
que
H (wq ) = 0
Y du(wq ) =

q
q2

y para muestras grandes, q  30, podemos utilizar la distribucin Q(0> 1).


wq $ Q(0> 1)

ndice

Captulo 7. Inferencia estadstica

126

Distribucin de la diferencia de medias muestrales ({  |) en dos

poblaciones normales con  { y  | conocidas

Sean ([1 > [2 > ===> [q ) y (\1 > \2 > ===> \p ) dos muestras aleatorias simples de
poblaciones Q({ >  { ) y Q(| >  | ) respectivamente, sabemos que:

{
[  Q { > s
q

|
\  Q | > s
p
se cumple por la propiedad reproductiva que
3
4
s
2
2


|
{
[  \  Q C{  | >
+ D
q
p

= H [ H \
H [ \
= {  |



Y du [  \
= Y du [ + Y du \

[ y \ son independientes
2{  2|
=
+
q
p

por tanto:

[  \  {  |
r
 Q(0> 1)
 2{  2|
+
q
p

(7.1)

Distribucin de la diferencia de medias muestrales ({  |) en dos

poblaciones normales con  { y  | desconocidas

Supuesto que las varianzas poblacionales son desconocidas, el resultado


anterior no podra servirnos y hay que buscar una solucin de tipo Student,
que reemplaze la armacin anterior por otra que no dependa de las varianzas
poblacionales.
Por el Teorema de Fisher recordemos que
(q  1)ve{ 2
 "2q31
 2{
(p  1)ve| 2
 "2p31
 2|

ndice

7.2. ESTIMACIN PUNTUAL

127

Luego segn la propiedad de aditividad de la distribucin "2 ,


(q  1)ve{ 2 (p  1)ve| 2
+
 "2q+p32
 2{
 2|

puesto que [ e \ son independientes de ve{ 2 y ve| 2 (en virtud nuevamente

del teorema de Fisher), la denicin de la distribucin w asegura que:


r

 2{  2|
+
[  \  {  | @
q
p w
r
q+p32
h
i
2
2
(p31)e
v|
(q31)e
v{
1
+
2
2
q+p32


{

(7.2)

sin embargo como podemos observar de nada nos vale esta expresin a no

ser que se pudiesen eliminar los parmetros desconocidos 2{ y  2| . La forma


de arreglar esta situacin es suponiendo que ambas varianzas poblaciones son
iguales  2{ =  2| =  2 > en este caso (6.2) se reduce a:
r

qp
[  \  {  |
q+p
s
qV{2 + pV|2
q+p2
r

qp
[  \  {  |
q+p
s
=
(q  1) ve2{ + (p  1)e
v2|
q+p2
 wq+p32
que ya no contiene ningn parmetro desconocido.
Por tanto en el caso en que las varianzas poblacionales son desconocidas
pero adems no pudieran suponerse iguales, no existe una solucin exacta de
determinar la distribucin en el muestreo de [  \ , dando lugar a adoptar

soluciones aproximadas.

Si los tamaos muestrales no son muy pequeos, (q> p  15), ve2{ y ve2| son
buenas aproximaciones de  2{ y  2| respectivamente, por tanto si sustitu-

imos en (??) las varianzas poblacionales por la cuasivarianzas muestrales,

ndice

Captulo 7. Inferencia estadstica

128

se obtiene que:

[  \  {  |
r
 Q(0> 1)
ve2{ ve2|
+
q
p
Para el caso en que q p sean pequeos, se han propuesto diferentes
aproximaciones, la ms popular es la debida a Welch, segn la cual

[  \  {  |
r
 wi
ve2{ ve2|
+
q
p

siendo i el nmero de grados de libertad, el entero ms prximo a


2
2
ve{ ve2|
+
q
p
2 2
2 2  2
ve|
ve{
1
1
+ p+1
q+1
q
p
Finalmente hay que considerar el caso de los llamados datos apareados,
es decir, si ([1 > \1 ) > ([2 > \2 ) > ===> ([q > \q ) se trata de una muestra aleatoria
simple de una poblacin bidimensional ([> \ ), cuyas componentes no son independientes, que se distribuye
con!distribucin normal de medias (1 > 2 ) y

 2{  {|
matriz de covarianzas
con  {| 6= 0. podramos estar interesa {|  2|
dos en la comparacin de dos medias poblacionales. Un ejemplo muy tpico de
esta situacin consiste en comparar las medias de una cierta caracterstica de
los individuos de una poblacin, antes ([) y despus (\ ) de un tratamiento.
Ahora nuestros datos no son independientes y la forma de razonar el estadsp
tico ser de otra manera. En efecto, [  \  Q(1  2 >  2{ +  2|  2 {| ),

y las diferencias, ([1  \1 ) > ([2  \2 ) > ===> ([q  \q ) constituirn una mues-

tra aleatoria simple q


de la poblacin [  \ . Por tanto su media muestral

[  \  Q(1  2 >
 2{ +  2|  2 {| @q) por tanto:
s [  \  (1  2 )
q p 2
 Q(0> 1)
 { +  2|  2 {|

si alguno de los elementos de la matriz de covarianzas no fuese conocido


este resultado no sera utilizable y aplicaramos el teorema de Student:
s
[  \  (1  2 )
q1
 wq31
vW

ndice

7.2. ESTIMACIN PUNTUAL


2

1
q

129
2

siendo vW la varianza muestral de la muestra ([l  \l ), es decir, vW =

2
([l  \l )2  [  \

q
X
l=1

Distribucin del cociente de las cuasivarianzas muestrales


Por el Teorema de Fisher recordemos que
(q  1)ve{ 2
 "2q31
 2{
(p  1)ve| 2
 "2p31
 2|

De la denicin de la F-Snedecor tendremos que:


(q  1)ve{ 2
@(q  1)
 2{
(p  1)ve| 2
@(p  1)
 2|
=

Ejemplos:

ve{ 2
 2| ve{ 2
 2{
=
 Iq31>p31
ve| 2
 2{ ve| 2
 2|

Sea una poblacin [  Q(> ) y dada una muestra aleatoria simple

([1 > [2 > ===> [q ) de tamao q = 4 :

a) Calcular la S ([ A 2) si  = 1, y  = 3
solucin:
[  Q(3> 1), teniendo en cuenta que  es conocida se utilizar como es[ 
tadstico   Q(0> 1), entonces:
s
q
[ 
2
23
) = S (] A 2) = S (] ?
S ([ A 2) = S (  A  ) = S (] A
1
s
s
s
q
q
4
2) = 0>9772
b) Calcular la S ([ A 1) si  es desconocida,  = 3 y V 2 = 2
solucin:

ndice

Captulo 7. Inferencia estadstica

130

[  Q(3> ), teniendo en cuenta que  es desconocida se utilizar como


[ 
estadstico
 wq31 , entonces:
V
s
q1
1
[ 
13
A
) = S (w431 A q
S ([ A 1) = S (
) = S (w3 A
V
V
2
s
s
431
q1
q1
2>45) = S (w3 ? 2>45) = 0>95
c) Calcular la S (V 2 A 4) si  = 1y  = 3

solucin:
Se utilizar como estadstico
S (V 2 A 4) = S (

7.2.2.

qV{2
(q  1)ve{ 2
=
 "2q31 , entonces:
 2{
 2{

qV{2
4q
A 2 ) = S ("2q31 A
2
{
{

4>4
)
12

= S ("23 A 16) = 0>01

Propiedades de los estimadores

En este apartado discutimos las propiedades que nos gustara que tuviera
un buen estimador puntual b
 de un parmetro , basndonos en una muestra
de tamao q.

Centrado o Insesgado
Un estimador es insesgado si su esperanza coincide con el parmetro poblacional desconocido que estima. Formalmente un estimador b
 es centrado o

insesgado para , si para cualquier tamao muestral


h i
 =
H b

La insesgadez es una propiedad de la variable aleatoria estimador, no de


una estimacin concreta, se tiene que entender como una propiedad media
referida al conjunto de todos los valores que puede presentar el estimador,
en el sentido de que si tomamos todas las posibles muestras de un tamao
concreto, se calcula en cada una de ellas el valor del estimador, se calcula la
media de todas esas estimaciones, y si el valor que sale coincide con el del
parmetro, el estimador es insesgado.

ndice

7.2. ESTIMACIN PUNTUAL

131

Cuando el estimador no es centrado, se dice que es sesgado y se tiene que:

h i
H b
 =  + vhvjr(b
)
h i
vhvjr(b
) = H b
 

la cantidad vhvjr(b
) recibe el nombre de sesgo del estimador, es equivalente

a un error sistemtico positivo o negativo, cuando es positivo indica que si


utilizamos dicho estimador se tender en media a sobrestimar el valor del

parmetro desconocido, mientras que si es negativo se tender a subestimarlo.


La propiedad de insesgado es muy importante si un parmetro se tiene que
estimar repetidamente en situaciones donde se espera tenga el mismo valor, ya
que el uso reiterado de un estimador sesgado llevara a una segura acumulacin
de errores en alguna direccin. La insesgadez es una propiedad especialmente
importante cuando se han de combinar distintas estimaciones de un mismo
parmetro, ya que los estimadores sesgados, de sesgo desconocido, no pueden
ser combinados (por ejemplo, para mejorar la estimacin). No obstante, hay
ocasiones en que se tiene un estimador ligeramente sesgado, que an as es
preferible a otros estimadores insesgados por tener una variabilidad muestral
ms pequea que la de stos, de tal forma que dicho estimador sesgado se halla
ms prximo al verdadero valor del parmetro. Por tanto, la propiedad de que
un estimador sea centrado es deseable pero no concluyente. Mostramos esta
idea en la siguiente gura:

ndice

Captulo 7. Inferencia estadstica

132
0.4

0.35
No Centrado

0.3
Centrado

0.25

0.2

0.15

0.1

0.05

0
-5

-4

-3

-2

-1

Los dos estadsticos b


1 (Centrado o insesgado) y b
2 (No centrado o sesgado)

estiman el valor  = 0, y podemos observar como el primero a pesar de ser


insesgado tiene mucha variabilidad sin embargo el segundo a pesar de ser sesga-

do tiene mucha menos variabilidad. Como conclusin, interesarn estimadores


insesgados pero no con demasiada varianza y si esto no es posible se preferirn
estimadores no demasiado sesgados pero con baja varianza.
Ejemplo de estimador insesgado. Dada una muestra aleatoria simple
{1 > ===> {q independientemente de su distribucin I ({), i ({) con H ({l ) = 
;l y Y du ({l ) =  2 , (en una muestra aleatoria simple en la realizacin {1 > ===> {q

estos se pueden considerar los valores procedentes de una nica variable aleatoria [) podemos calcular la esperanza y varianza de la media muestral [ =
q
X
1
{l :
q
l=1


{1 + === + {q
H [ =H
q
q
=
q

1
q

[H ({1 ) + === + H ({q )] =

1
q

[ + === + ] =

Por tanto la media muestral es un estimador insesgado de la media. Por


otro lado la cuasi-varianza muestral es un estimador insesgado de la varianza
poblacional H [e
v2 ] =  2

ndice

7.2. ESTIMACIN PUNTUAL

133

Ejemplo de estimador sesgado. Si consideramos



b=

si calculamos H [b
] = H

{1 + === + {q31
q

{1 + === + {q31
q

1
q

[H ({1 ) + === + H ({q31 )] =

(q  1)


 =   6= , siendo el sesgo vhvjr(b
) = 
q
q
q
Tenemos que la varianza muestral es un estimador sesgado de la varianza
poblacional,

2
H v2 =  2 
q
q1 2

=
q
Error cuadrtico Medio
A la hora de estimar un parmetreo como es desconocido no sabemos si
sus posibles estimaciones se encuentran cerca o lejos del valor del parmetro.
El error que podemos cometer al tomar como valor del parmetro  el pque
b
proporciona el estimador sera la diferencia,
  , para eliminar el signo de

2
b
estas diferencias se utiliza su cuadrado,    . Supongamos que pudisemos
obtener todas las posibles muestras de la poblacin de partida y calcular para

cada una de ellas esta cantidad, y calcular su media o esperanza matemtica,

que es lo que denimos como error cuadrtico medio, ECM del estimador:

2
HFP b
 =H b


de tal manera que un valor pequeo de este error indicar que en media,
este estimador no se encuentra lejos del verdadero valor del parmetro, por el
contrario, si toma un valor alto ser seal de que dicho estimador no aproxima
bien en media el valor desconocido.
Si hacemos un poco de algebra y manipulamos esta expresin (sumamos y

ndice

Captulo 7. Inferencia estadstica

134


restamos H b
 ), obtendremos la siguiente expresin:


2
HFP b
 = H b
+H b
 H b

h
i h
i2
= H b
H b
  H b

h
i2
h
i2
h
i h

= H b
H b

+H H b

 2H b
H b

H b

h
i2
h
i h
i
= Y du b
 + H b
    2H b
H b

H b


2
= Y du b
 + vhvjr b
 0
que para estimadores centrados al ser el vhvjr = 0 es igual a la varianza.

De esta descomposicin se deduce que un valor alto del error cuadrtico medio
se puede deber a un alto valor de la varianza o del sesgo. Se pretende buscar
aquellos estimadores que tengan un ECM mnimo, con lo cual para el caso
de los estimadores insesgados esta bsqueda se reduce a encontrar entre los
estimadores centrados aquellos de varianza mnima.
Eciencia o Precisin
Un estimador es eciente cuando tiene varianza mnima. Esta propiedad
signica que el estimador que se utilice genere estimaciones parecidas en las
diferentes muestras que se puedan extraer de la poblacin. Al tener poca variabilidad estamos concentrndonos cerca del verdadero valor del parmetro.
Formalmente, se dice que un estimador b
1 es ms eciente que b
2 si:


Y du b
1 ? Y du b
2

y se dene la eciencia de un estimador b


 como

1

hi lflhqfld b
 =
Y du b


1 como
y se dene la eciencia relativa de b
2 con respecto a b


hilflhqfld b

2
Y du b
1
b
b


HU 2 @1 =
=
hilflhqfld b
1
Y du b
2

ndice

7.2. ESTIMACIN PUNTUAL

135

Esta propiedad se centra en la dispersin de la distribucin del estimador, la


cual seala que se preeren aquellos que cometen menores errores en promedio.
Dentro de la clase de estimadores insesgados nos quedaremos con aquel que
tenga mnima varianza.
En una poblacin normal la media y la mediana muestral son estimadores
centrados del valor de la media . Sin embargo, la varianza de la media muestral
es

2
q

mientras que la varianza de la mediana muestral para tamaos grandes

de la muestra se aproxima a

2
,
2q

como:

Y du(phgldqd)
= 1>57
Y du(phgld)
Se deduce, que para muestras grandes la varianza de la mediana muestral
es un 57 % ms alta que la de la media.
Combinaciones Lineales de Estimadores Centrados Imaginemos que
tenemos muestras independientes con las que calculamos estimadores insesgados, b
1 y b
2 del mismo parmetro. Cmo podramos combinarlos para obtener
el mejor estimador que resuma la informacin?
Consiremos el siguiente estimador:

b
 = db
1 + (1  d) b
2

que es un estimador insesgado

2 = dH b
1 + (1  d) H b
2
H b
 = H db
1 + (1  d) b
= d + (1  d)  = 

se tendra que elegir d tal que b


 sea de mnima varianza:



1 + (1  d)2 Y du b
2
Y du b
 = d2 Y du b

minimizamos esta funcin respecto d





g
Y du b
 = 2dY du b
1  2(1  d)Y du b
2 = 0
gd

hi lflhqfld b
1
W


d =
hilflhqfld b
1 + hi lflhqfld b
2

ndice

Captulo 7. Inferencia estadstica

136

La combinacin lineal ptima es aquella que da ponderaciones directamente


proporcionales a la precisin de cada estimador.
Normalmente se investiga la eciencia de un estimador comparando su
varianza con una cantidad, denominada cota de Cramr-Rao:
Dada una muestra aleatoria de tamao q, [ = ({1 > ===> {q ), la funcin de
verosimilitud es
O([; ) = i ({1 > ===> {q > )
A partir de la funcin de verosimilitud se dene la variable aleatoria score:
C ln O([; )
C
que tiene las siguientes caractersticas
VF() =

H (VF()) = 0
Y du (VF()) = H

C ln O([; )
C

= L()

representando L() la llamada cantidad de informacin de Fisher, que


la muestra contiene respecto al parmetro . Teniendo en cuenta todo esto, se
deduce que:
h
h
i2
i2
1 + vhvjr0 (b
1 + vhvjr0 (b
)
)

Y du(b
) 
2 =
L()
C ln O([;)
H
C
= FFU

expresin conocida como cota de Crmer-Rao, que indica que la varianza


de un estimador para un tamao de muestra dado no puede ser menor que esa
cota.
Implicaciones en el tipo de muestreo que utilizamos. Al ser el muestreo que
utilizamos aleatorio simple se verica:
"
"
2 #
2 #
C ln O([; )
C ln i({; )
H
= qH
C
C
y la cota es:

h
i2
1 + vhvjr0 (b
)

Y du(b
) 
2
i ({;)
qH C ln C

ndice

7.2. ESTIMACIN PUNTUAL

137

si el estimador es centrado en muestras aleatorias simples la cota quedara:


Y du(b
) 

qH

1
C ln i ({;)
C


por tanto un estimador b
 es eciente si y solo si el ECM b
 = FFU y un

estimador insesgado es eciente si y solo si Var b
 = FFU.

Consistencia

La consistencia de un estimador hace referencia a su comportamiento cuando la muestra es grande. Se deseara que cuando la muestra es muy grande, el
estimador debe estar muy prximo a . Pensar qe si la poblacin fuese nita
y pudisemos observar todos sus elementos, el estimador debera ser igual al
valor del parmetro.
Estas dos condiciones garantizan que el estimador insesgado sea consistente:

q<"
H b
q $ 

q<"
Y du b
q $ 0



q<"
q<"
q $
si el estimador es sesgado ser consistente si: Y du b
q $ 0 y vhvjr b

q<"
0 (asintticamente insesgado) pero observar que la primera condicin (H b
q $
) es equivalente a que el sesgo del estimador tienda a 0.

Otra propiedad asinttica sera la de estimador asintticamente e-

ciente:

Ejemplo.


q<"
Y du b
q $ FFU

Dada una poblacin Poisson de parmetro  y una muestra de tamao q, si


como estimador del parmetro poblacional  a la media muestral. Comprobar
sus propiedades.
{  S () y tenemos una m.a.s [ = ({1 > ===> {q ) se toma como estimador
b
 = [, las caractersticas poblacionales de la distribucin de Poisson son las
siguientes:

ndice

Captulo 7. Inferencia estadstica

138

H ({) = 
Y du({) = 
h3 {
i({> ) =
{!

Es insesgado, porque sabemos que H [ =  = H({) = . Por otro lado

q<"
2
la Y du [ = q = Y du({)
= q por tanto Y du [ $ 0, y es un estimador
q

consistente. Veamos si se trata de un estimador eciente, para ello calculemos

la CCR:

h3 {
{!
= ln h3 + { ln   ln {!

ln i({> ) = ln

=  + { ln   ln {!
C ln i({; )
{
{
= 1 + =
C


por tanto
H

"

C ln i({; )
C

2 #

= H

"

{


2 #

H ({  )2
=
2
Y du({)

=
= 2
2


1
=


nalmente la cota de Camr-Rao es


FFU =


1

= Y du [
1 =
q
q

por tanto al alcanzar la varianza del estimador la cota de Cramr Rao dicho
estimador es eciente.

ndice

7.3. MTODOS DE CALCULAR ESTIMADORES

7.3.

139

Mtodos de Calcular Estimadores

Necesitamos establecer distintos criterios que nos permitan obtener de entre los innitos estimadores de un parmetro el mas adecuado como primer
paso antes de comprobar las deseables propiedades requeridas para un buen
estimador. Estableceremos dos procedimientos de estimacin: Mtodo de los
momentos y Mtodo de Mxima Verosimilitud.

7.3.1.

Mtodo de los Momentos

El mtodo de los momentos consiste en igualar momentos muestrales a


momentos poblacionales de esta manera formamos un sistema de ecuaciones
del cual se despejan los parmetros desconocidos en funcin de la muestra.
Supongamos que la poblacin de partida tiene una funcin de densidad con n
parmetros desconocidos i ({; 1 > ===> n ), el mtodo de estimacin por el mtodo de los momentos consiste en igualar los momentos poblacionales con sus
correspondientes momentos muestrales:
Momentos poblacionales: u = H ({u ) =

Momentos muestrales: du =

q
X

{ul

( P
R

{ul sl

discreto

{ i({)g{ continuo
u

l=1

q
La justicacin terica de este mtodo de estimacin se basa en el hecho de

que H (du ) = u es decir, que du es un estimador centrado del momento poblacional u , y en el llamado Teorema de Knintchine que establece la consistencia
de du como estimador del momento poblacional u .
Propiedades:
Son Consistentes
No son (exactamente) insesgados
No tienen Varianza o ECM mnimo.

ndice

Captulo 7. Inferencia estadstica

140

7.3.2.

Mtodo de Mxima Verosimilitud

Como ya comentamos antes, dada una muestra aleatoria de tamao q,


[ = ({1 > ===> {q ), la funcin de verosimilitud es
O([; ) = i ({1 > ===> {q > )
Ahora bien, en un problema de estimacin se conoce un valor particular de [ = ({1 > ===> {q ), si sustituimos [ por el valor observado, la funcin
i ({1 > ===> {q > ) proporciona para cada valor de , la probabilidad de obtener el
valor muestral [ = ({1 > ===> {q ) para ese . Supongamos que la probabilidad
de obtener el vector observado i({1 > ===> {q > ) es muy alta cuando  tiene un
valor particular, por ejemplo  = 0 y que es muy pequea para cualquier
otro valor  5 X (al espacio paramtrico). Entonces lo lgico sera elegir como

estimador de  aquel que me maximice la probabilidad de obtener la muestra

observada, es decir, de lo efectivamente ocurrido. El planteamiento operativo


es el siguiente:
Disponemos de una variable aleatoria { con funcin de densidad i({> ) o
funcin de masa o cuanta S ({ = {> ), siendo  un parmetro desconocido,
dada una muestra aleatoria de tamao q, [ = ({1 > ===> {q ) obtenemos su funcin
de verosimilitud
O([; ) = i({1 > ===> {q > )
= i({1 > ) i ({2 > ) === i ({q > )
donde i({l > ) representa la funcin de densidad o de cuanta del i-simo
elemento muestral. Para el clculo del estimador se utiliza el siguiente criterio:
O([; b
) = p
d{O([; )
MX

La funcin de verosimilitud es multiplicativa y dicil para calcular su mximo por lo que para mayor sencillez se halla el valor de b
 en su logaritmo
(transformacin montona creciente), siendo el estimador mximo verosmil b
,
aquel que verica:

ln O([; b
) = pd{ ln O([; )
MX

ndice

7.3. MTODOS DE CALCULAR ESTIMADORES

141

suponiendo que esta funcin es diferenciable y que su mximo no ocurre


en un extremo de su campo de denicin, hallando el logaritmo de la funcin,
derivamos respecto a  e igualamos a cero. Si la funcin de densidad o de
cuanta contiene ms de un parmetro el procedimiento es anlogo si ms que
derivar respecto a cada uno de ellos e igualar las derivadas a cero. As en
general:

O([; 1 > ===>  n )


= i ({1 > 1 > ===> n ) i({2 > 1 > ===> n ) === i({q > 1 > ===> n )
llamando a  = (1 > ===>  n ) calculamos su logaritmo
ln O([; )
= ln i ({1 > ) ln i({2 > ) === ln i({q > )
= ln i ({1 > ) + ln i ({2 > ) + === + ln i({q > )
q
X
ln i ({l > )
=
l=1

derivando respecto a (1 > ===>  n ) e igualando a cero las derivadas obtenemos:
<
q
C ln O([; ) X C ln i({l > )
A
A
=
=0 A
A
A
C1
C1
A
@
l=1
.......................................................
A
q
A
A
C ln O([; ) X C ln i({l > )
A
A
=
=0 A
>
C2
C
2
l=1

De aqu surge un sistema de ecuaciones del cual se deducen los estimadores


b
l = l ({1 > ===> {q ) ;l = 1> ===> q.
Una vez calculados estos mximos hay que comprobar que realmente son

los mximos de la funcin calculando las segundas derivadas y comprobando


para el caso univariante que la derivada segunda evaluada en b
PY es negativa
y para ms de un parmetro habra que calcular el hessiano evaluado en los
estimadores y comprobar que es denida negativa.
Propiedades
El mtodo de Mxima Verosimilitud proporciona estimadores que son:

ndice

Captulo 7. Inferencia estadstica

142

Asintticamente insesgados
Con distribucin asintticamente Normal
Asintticamente de varianza mnima
por tanto es el estimador ms e p
ciente, asintticamente b
PY  Q > FFU()

Invariantes en el siguiente sentido: si b


PY es el estimador mximo-verosmil

de un parmetro  y j es una funcin continua biunvoca j b


PY es el

estimador mximo-verosmil de j ().

Ejemplo. Dada una variable con funcin de densidad


i({) =

e{e31
0

0{1
resto

Calcular:
a) El estimador del parmetro poblacional e por el mtodo de los momentos.
b) El estimador del parmetro poblacional e por el mtodo de mxima
verosimilitud.
Solucin:
a) Mtodo de los momentos. du = u
e+1 1
e+1

Z1
{
1
d1 = 1 > d1 = [ y 1 = H ({) = {e{e31 g{ = e
=e
0 =
e+1 0
e+1
0

e
e+1
por tanto igualando momentos muestrales y poblacionales [ =
bePP = [
1[
b) Mtodo de mxima verosimilitud

e
e+1

O([> e) = i({1 > e) i({2 > e) === i({q > e) = e{e31


e{e31
=== e{e31
=
1
2
q
q !e31
Y
{l
eq
l=1

q !e31
q !
Y
Y
ln O([> e) = ln eq + ln
{l
= q ln e + (e  1) ln
{l
l=1

l=1

ndice

7.4. ESTIMACIN POR INTERVALOS DE CONFIANZA

C ln O([; )
=
Ce

q
e

q
X
l=1

C ln O([; )
= 0 +,
Ce
bePY =

7.4.

lnC

3q

q
Y
l=1

ln {l =

q + e ln

143

q !
Y
{l
q + e ln
l=1

q
Y
l=1

{l

e
!

q !
Y
{l = 0 =,
= 0 +, q + e ln
l=1

{l D

Estimacin por intervalos de Conanza

Este mtodo consiste en encontrar un intervalo dentro del cul se encuentra el parmetro desconocido con una probabilidad muy lata que llamaremos
nivel de conanza. Aparece el concepto de intervalo de conanza que es un
rango de valores entre los que posiblemente se encuentre el verdadero valor del
parmetro. Formalmente, sea { una v.a. con funcin de densidad i({> ) de
parmetro desconocido , dada una m.a.s ({1 > ===> {q ), y el nivel de conanza
que se dene como 1   donde  es el nivel de signicacin. Un intervalo de

conanza 1   se dene por

1 ({1 > ===> {q )    2 ({1 > ===> {q )


donde 1 ({1 > ===> {q ) y 2 ({1 > ===> {q ) son dos valores que dependen nicamente de la muestra de tal forma que si se tienen muchas muestras diferentes
e independientes, se construye el intervalo de conanza para cada una de ellas.
Esta idea es muy importante ya que a partir de la misma se explica el concepto
de conanza. Supongamos que queremos construir un intervalo de conanza
para el parmetro  con un nivel de conanza del 95 % esto quiere decir que
1   = 0>95, y el sentido es el siguiente: el 100(1  ) % de los intervalos de

conanza que construiramos si dispusiramos de 100 muestras contendran al


verdadero valor del parmetro.

Cmo construir un intervalo?. La forma de proceder es la siguiente, dado


 se construye una variable z = j (> {) con distribucin conocida, y con j
continua y montona en  denominado estadstico pivote. Dado  y z se

ndice

Captulo 7. Inferencia estadstica

144

trata de encontrar dos valores d> e tales que:


S (d  z  e) = 1  
y entonces como
S (d  z  e) = S (d  j (> {)  e)
se despeja  en la desigualdad de tal manera que se deja solo, lo cual se
puede realizar al ser j una funcin continua y montona

S (d  j (> {)  e) = S j 31 (d> {)    j31 (e> {)

Por tanto, a la hora de construir un intervalo de conanza para el parmetro


 se necesita un estadstico que en su expresin lleve el parmetro desconocido
y cuya distribucin sea conocida.

7.4.1.

Intervalo de conanza para la media de una poblacin


normal con varianza conocida

Se considera una poblacin o variable aleatoria [  Q(>  2 ) y se dispon-

dr de una muestra aleatoria simple ({1 > ===> {q ) de dicha poblacin. El esq
X
1
tadstico que consideraremos es [ = q
{l , de manera que la expresin
l=1

del estadstico pivote que vamos a utilizar para el caso en que la varianza es
conocida y que depende de  ser
[ 
  Q (0> 1)
s
q

en las tablas de la Normal encontramos valores }@2 tal que S (] A }@2 ) =


1  x }@2 = y la construccin del intervalo con colas iguales se desarrolla
2
de la siguiente forma:
3
4
[ 
E
F
S C}@2    }@2 D = 1  
s
q

ndice

7.4. ESTIMACIN POR INTERVALOS DE CONFIANZA

145

despejando el parmetro en cuestin  tenemos el intervalo de conanza


(IC)
S



=1
[  }@2 s    [ + }@2 s
q
q

por tanto el LF (1  ) :


[ }@2 s
q
y como }@2 y }@2 son simtricos alrededor del 0, el intervalo es el ms

corto posible al nivel 1  =

Ejemplo. De una poblacin normal Q(>  = 2>5) se extrae una m.a.s. de


q
P
tamao 30, siendo
{l = 77. Calcula un intervalo de conanza de la media
l=1

de la poblacin al nivel de conanza 0>95=


Solucin. [ =l

q
P

l=1

77
30

= 2>57, teniendo en cuenta que la poblacin de la

que procede la muestra es normal con varianza conocida, el intervalo que nos
piden sera con 1   = 0>9>5 por tanto  = 0>05



= 0>95
S [  }0>05@2 s    [ + }0>05@2 s
q
q

[ }0>05@2 s
q

2>5
2>5
LF0>95 () = 2>57  1>96 s > 2>57 + 1>96 s
30
30

por tanto la media se encontrar con un 95 % de conanza en el intervalo


[1>68> 3>46]

7.4.2.

Intervalo de conanza para la media de una poblacin


normal con varianza desconocida

Se considera una poblacin o variable aleatoria [  Q(>  2 ) y se dispon-

dr de una muestra aleatoria simple ({1 > ===> {q ) de dicha poblacin. El esq
X
tadstico que consideraremos es [ = q1
{l , de manera que la expresin
l=1

ndice

Captulo 7. Inferencia estadstica

146

del estadstico pivote que vamos a utilizar para el caso en que la varianza es
conocida y que depende de  ser
[ 
 wq31
ve
s{
q

en las tablas de la t-Student encontramos valores w@2 tal que S (wq31 A


w@2 ) = 1  x w@2 =
y la construccin del intervalo con colas iguales se
2
desarrolla de la siguiente forma:
3

E
F
[ 
F=1
w
SE

w

@2
@2
C
D
ve{
s
q

despejando el parmetro en cuestin  tenemos el intervalo de conanza


(IC)
S

ve{
ve{
=1
[  w@2 s    [ + w@2 s
q
q

por tanto el LF (1  ) :

ve{
[ w@2 s
q

Ejemplo. La Ocina de Control de Calidad del canal de Isabel II con vistas


a establecer los lmites mximos y mnimos vlidos para el consumo de agua de
la localidad de Cobea tom muestras de tamao 10, de media [ = 998 fp3
y desviacin tpica ve = 5 fp3 . Suponiendo que la cantidad de agua contenida

en el pozo sigue una ley normal. Se pide calcular dichos lmites de conanza
al nivel de conanza 95 %=

En este caso la poblacin procede de una muestra con varianza y media


desconocidas, por tanto el intervalo de conanza que me piden es:
1   = 0>95, la w de Student para @2 = 0>025 y 9 grados de libertad vale

w130>025 = 2>262. Es importante darse cuenta de como vienen las tablas, las
tablas que adjuntamos al nal del libro, son reas por la izquierda y de una

cola si son simtricas, como en estas tablas damos la cola derecha, tenemos que
calcular el punto que deja a la izquierda un rea de 0.975 a la izquierda que es

ndice

7.4. ESTIMACIN POR INTERVALOS DE CONFIANZA

147

el punto que deja a la derecha un rea de 0>025. Por tanto una vez calculado
el punto crtico, el intervalo de conanza LF (1   = 0>95) :
5
998 2>262 s
9
[994>23> 1001> 77]

7.4.3.

Intervalo de conanza para la varianza de una


poblacin normal

Se considera una poblacin o variable aleatoria [  Q(>  2 ) y se dispon-

dr de una muestra aleatoria simple ({1 > ===> {q ) de dicha poblacin. El estadstico que consideraremos es:

ve2 =

q
X

2
{l  [
l=1

q1

de manera que el estadstico pivote que consideraremos es


(q  1) ve2
 "2q31
2

determinando valores "2d > "2e tal que

S "2d  "2q31  "2e

(q  1) ve2
 "2q31> 
S "2q31>13  
2
2
2
!

(q  1) ve2
1
1

 2
S
"2q31>13 
2
"q31> 
2
2
!

2
1

1
S

 2
"2q31>13 
(q  1) ve2
"q31> 
2
2

!
2
(q  1) ve
S
 2 
"2q31> 
2

el intervalo aleatorio de conanza para  2 ser:


"
#
(q  1) ve2 (q  1) ve2
> 2
"2q31> 
"q31>13 
2

Ejemplo.

= 1
= 1
= 1
= 1
= 1

ndice

Captulo 7. Inferencia estadstica

148

7.4.4.

Intervalo de conanza para la diferencia de medias de dos poblaciones normales basado en muestras independientes

Dadas dos poblaciones normales Q({ >  { ) y Q(| >  | ) se toman dos
muestras de tamao q y p y sean [ e \ las medias muestrales respectivamente. Sabemos que la diferencia de medias
muestrales
r cuando! { y
 2{  2|
+
por
 | son conocidas se distribuye segn una Q {  | >
q
p
tanto el intervalo de conanza vendr dado por:
3

S C[  \  }@2

 2|
+
 {  |  [  \ + }@2
q
p

 2{

= 1

4
 2|
+ D
q
p

 2{

Cuando son desconocidas pero supuestas iguales  { =  | y para muestras


grandes el intervalo de conanza viene dado por:
[  \ wp+q32> 2 Vf
donde Vf2 =

1
p+q32

1
1
+
q p

(p  1) V{2 + (q  1) V|2

Cuando son desconocidas pero supuestas distintas  { 6=  | y para muestras grandes el intervalo de conanza viene dado por:

[  \ wn> 2
5

donde n =

3
E
E
E
C

6
2 V2 2
|:
9 V{
+
7
8

42

V{2 FF
F
pD
p31

E
E
E
C

42

V|2 FF
F
qD
q31

V{2 V|2
+
q
p

ndice

7.4. ESTIMACIN POR INTERVALOS DE CONFIANZA

7.4.5.

149

Intervalo de conanza para la diferencia de medias de dos poblaciones normales basado en datos
pareados

G = [\  Q(1 2 >

p 2
 { +  2|  2 {| ), y las diferencias, ([1  \1 ) > ([2  \2 ) > ===> ([q

constituirn una muestra aleatoria simple de


qla poblacin [  \ . Por tanto su
media muestral G = [  \  Q(1  2 >
 2{ +  2|  2 {| @q) por tanto:
s [  \  (1  2 )
q p 2
 Q(0> 1)
 { +  2|  2 {|

si alguno de los elementos de la matriz de covarianzas no fuese conocido


este resultado no sera utilizable y aplicaramos el teorema de Student:
s
[  \  (1  2 )
q1
 wq31
vW
2

1
q

siendo vW la varianza muestral de la muestra ([l  \l ), es decir, vW =

2
([l  \l )2  [  \

q
X
l=1

el intervalo de conanza ser

vW
G wq31>@2 s
q

7.4.6.

Intervalos en muestras grandes

en esta seccin se estudiar como construir intervalos de conanza para el


caso en que tengamos tamaos de muestra grandes

ndice

Intervalo de conanza para una proporcin


Para calcular el parmetro s de una distribucin binomial o bien el parmetro
s de una distribucin de proporciones tomamos una muestra de tamao q existiendo una proporcin sb =

u
q

que tienen una caracterstica determinada.

Sabemos que la distribucin muestral de las proporciones por el Teorema Central del lmite se tiene v
u

sb3s

u s(1
t

 s)
q

 Q (0> 1) ,

v sb3s
u
us
t b(1 

sb)

 Q (0> 1) y el

Captulo 7. Inferencia estadstica

150

intervalo de conanza para s es


LF(1  ) :
sb }@2

sb(1  sb)
q

comprobacin de que sb(1  sb)  V 2 . Sabemos que los elementos de la

distribucin binomial toman nicamente dos posibles valores {l = 0> 1, por


2
P
P
P 2
{l  [
{l
{l
2
2
2
2
=
[ =
[ =
tanto {l = {l por tanto V =
q
q
q

2
[  [ = [ 1  [ = sb(1  sb)
Intervalo de conanza para la diferencia de dos proporciones

Supongamos ahora que estamos interesados en conocer si existen diferencias


entre dos proporciones, s1 y s2 = Utilizando el Teorema Central del Lmite se
tiene que:
s

sb1  sb2  (s1  s2 )

sb1 (1  sb1 ) sb2 (1  sb2 )


+
q1
q2

 Q(0> 1)

por tanto, el intervalo de conanza al 100 (1  ) % para s1  s2 es


s
sb1 (1  sb1 ) sb2 (1  sb2 )
+
q1
q2
sb1  sb2 }@2

Intervalo de conanza para la media de cualquier distribucin


Por el Teorema Central del Lmite, el intervalo de conanza al 100 (1  ) %

para  = H [[] es independientemente de la distribucin


ve{
[ }@2 s
q

Intervalo de conanza para un parmetro de cualquier distribucin


Si tomamos el EMV del parmetro , es decir, b
PY sabemos que entonces

independientemente de la distribucin

b
PY  Q (> FFU ())

ndice

7.4. ESTIMACIN POR INTERVALOS DE CONFIANZA

151

portanto el intervalo

de conanza al 100 (1  ) % para  es, llamando a


o b
PY = log O b
PY
v
u
1
u
b

PY }@2 t
o00 b
PY

7.4.7.

Determinacin del tamao muestral

A veces nos interesar conocer el tamao q de la muestra representativa de una poblacin jada la longitud del intervalo de conanza. En dichas
situaciones se puede calcular el tamao muestral necesario para garantizar la
longitud que deseamos jar. Por ejemplo supongamos que nuestra poblacin
es Normal y con varianza conocida, para este caso el intervalo de conanza es:

[ }@2 s
q
sabemos que cuando q es grande para cualquier distribucin se tiene



=1
S [  }@2 s    [ + }@2 s
q
q

por tanto

[    }@2 s
q
la longitud de este intervalo de conanza sera:



O = [ + }@2 s  [  }@2 s
q
q

= }@2 s
q
por tanto

S [    O

donde [   es el error de estimacin. Suponiendo dicho error en el mx

imo valor que puede tener [   = }@2 I se obtiene


S

q=

}@2 
[ 

por tanto si jamos un nivel de conanza y un error mximo que estamos


dispuestos a aceptar, se puede calcular el valor de q para el cual se cumple
esto.

ndice

Captulo 7. Inferencia estadstica

152

7.5.

Contrastes de Hiptesis

Dentro del campo de la inferencia estadstica, que como hemos sealado


se trata de una disciplina que se ocupa de desarrollar procedimientos que permiten "pronunciarse", en condiciones de incertidumbre, acerca de conjeturas
de carcter general, es decir, que afectan a una poblacin, a partir de la informacin suministrada por una muestra extrada al azar, de tamao reducido;
se introduce uno de sus conceptos fundamentales: el contrate o test de hiptesis estadsticas, entendindose como hiptesis estadstica cualquier conjetura,
asercin, o armacin relacionada con la distribucin o modelo de probabilidad
de una o varias poblaciones univariantes o multivariantes. Los contrastes de
hiptesis dan respuesta estadstica a los interrogantes que nos planteamos en
investigaciones empricas, dan solucin a una pregunta planteada que necesita
una toma de decisin. En esta seccin estamos por tanto interesados en aceptar o rechazar ciertas hiptesis que plantearemos acerca de los parmetros de
una distribucin, o sobre misma distribucin a partir de la informacin que
proporciona una muestra. Los contrastes se clasican en dos clases:
Contrastes paramtricos: Este tipo de contrastes hacen referencia a
los parmetros de una distribucin que es conocida, es decir, el modelo de
probabilidad de partida se conoce.
Contrastes no paramtricos: Este tipo de contrastes hacen referencia
al modelo de probabilidad de partida que se desconoce.
Se llama hiptesis a cualquier declaracin o asercin acerca de un parmetro
o caracerstica de la poblacin. Una hiptesis es, a menudo, sugerida por una
teora subyacente y la distribucin de los datos bajo la hiptesis es un miembro
de una clase bien determinada. Un contraste de hiptesis es una regla que
especica:
Para qu valores de la muestra se toma la decisin de aceptar una determinada hiptesis.
Para qu valores de la muestra se toma la decisin de rechazar una determinada hiptesis.en favor de otra.

ndice

7.5. CONTRASTES DE HIPTESIS

153

A continuacin deniremos formalmente en trminos estadsticos las herramientas que se utilizarn para desarrollar toda esta metodologa

7.5.1.

Tipos de Hiptesis, errores y Potencia

Hiptesis nula y alternativa


Consideramos una muestra aleatoria ({1 > ===> {q ) de una poblacin [ que
sigue una determinada distribucin de probabilidad i . Dada dicha muestra se
trata de decidir con ella si es ms probable que  5 X0 o que  5 X1 donde X0

y X1 constituyen una particin del espacio paramtrico, es decir, l = X0 ^ X1 .

Formalmente queremos contrastar la hiptesis nula K0 :  5 X0 frente a la

hiptesis alternativa K1 :  5 X1 . Donde la hiptesis nula es la hiptesis que

se contrasta y la mantendremos a menos que se demuestre que es falsa, sin


embargo, puede ser rechazada por los datos. Se suele elegir de la siguiente
manera:
K0 :  = 0 donde 0 es un valor conocido
K0 : 1 = 2
K0 : [  Qrupdo (Caso No paramtrico)

Cuando rechazamos K0 es porque la evidencia emprica de los datos hace

mucho ms plausible la hiptesis alternativa K1 , este tipo de hiptesis suele


tener formas mas complicadas que la hiptesis nula:
Existen los llamados contrastes bilaterales, ya que al rechazar la hiptesis nula no sabemos en qu sentido puede ser falsa
K0 :  6= 0

Existen los llamados contrastes unilaterales, de tal manera que si rec-

hazamos la hiptesis nula o bien es porque verdadero valor del parmetro es


menor que la cantidad especicada en la nula o mayor.
K0 :  ? 0  A 0
como podemos comprobar existen hiptesis simples que son las que especican un nico valor para el parmetro,  = 0 y estn las llamadas hiptesis
compuestas ya que especican un intervalo de valores,  ? 0  A 0 .

ndice

Captulo 7. Inferencia estadstica

154

Errores en un Contraste de hiptesis


A la hora de llevar a cabo un contraste tenemos que delimitar lo que entenderemos como regin de aceptacin y regin de rechazo y en base a ello
deniremos los distintos errores que podemos cometer en un contraste. Tratamos de decidir si es sensato rechazar (o aceptar) la hiptesis de que el valor
de un determinado parmetro se situa en una determinada regin del espacio
paramtrico. Por lo tanto, un test consistir en dividir el espacio muestral en
dos regiones: Una regin crtica U, o de rechazo de la hiptesis K0 , y una regin
de aceptacin D de la hiptesis K0 .
A la hora de realizar un contraste de hiptesis podemos incurrir en los
siguientes errores:
Error de tipo I: Error que consiste en rechazar la hiptesis nula cuando
es verdadera
Error de tipo II: Error que consiste en aceptar la hiptesis nula cuando
es falsa.
Las probabilidades de cometer estos errores se calculan de la siguiente manera:
Llamaremos  a la probabilidad de cometer el error de tipo I que es el nivel
de signicacin del contraste  = S (error de tipo I) = S (rechazar K0 @ K0 es cierta) =
S (Regin Crtica@ K0 es cierta) por tanto la probabilidad de aceptar la hiptesis nula cuando es cierta es 1  .

Llamaremos  a la probabilidad de cometer el error de tipo II  = S (error

de tipo II) = S (aceptar K0 @ K0 es falsa) = S (Regin Aceptacin@ K0 es falsa)


por tanto la probabilidad de rechazar la hiptesis nula cuando es falsa es 1 ,
que se conoce con el nombre de Potencia del Contraste.

La siguiente tabla nos recoge las probabilidades de los distintos tipos de


decisin que tomamos segn el estado de la hiptesis nula:
Estado/Decisin Aceptar H0

Rechazar H0

H0 verdadera

H0 falsa

1


1

ndice

7.5. CONTRASTES DE HIPTESIS

155

Ejemplo. Determinadas piezas de un ordenador que se fabrican presentan


un grosor en mm se distribuye como una Normal de media 20. Queremos
contrastar si en los ltimos meses dichas medidas han podido cambiar.
El contraste que plantearamos sera:
K0 :

 = 20

K1 :

 6= 20

Ejemplo. Un especialista est interesado en la resistencia de las piezas


de un circuito elctrico instalado en una sala de ordenadores que siguen una
distribucin normal [  Q(> 0>252 ). Desea contrastar
K0 :

=5

K1 :

 6= 5

mediante el anlisis 8 piezas. Si la regin de aceptacin es [4>85> 5>15]


a) Encontrar el valor de 
b) Encontrar la potencia del contraste para detectar una resistencia media
verdadera de 5.1
c) Repetir para n=10
Solucin:

a)  = S (uhfk K0 @K
@ [4>85> 5>15] @[  Q(5> 0>252 ) =
0 verd.) = S [ 5

[35I
0>15I
S [  5 A 0>15 = S 0>25@
=
A 0>25@
8
8

0>15I
[35
I A
=2S 0>25@
 2S (] A 1>7) = 2  0>0446 = 0>0892
8
0>25@ 8

Bajo la hiptesis nula [  Q(5> 0>252 ) por lo tanto [  Q(5> 0>252 @8)

@ [4>85> 5>15] @[  Q(5>1> 0>252 ) =


b) 1 = S (uhfk
K0 @K
0 falsa.) = S [ 5
[35>1
[35>1
I ? 4>8535>1
I
I A 5>1535>1
I
S 0>25@
+ S 0>25@
8
0>25@ 8
8
0>25@ 8
=S (] ? 2>82) + S (] A 0>566) = 0>0023 + 0>2843 = 0>2866
Por tanto  = S (dfhs K0 @K0 falsa.) = 0>7134

A la vista de estas deniciones parece lgico pensar que nos interesara


conseguir que las probabilidades de ambos tipos de error sean lo ms pequeas
posibles, sin embargo minimizar ambas a la vez no es posible, ya que jando un
tamao muestral si disminuimos la probabilidad de un error entonces aumenta

ndice

156

Captulo 7. Inferencia estadstica

la probabilidad del otro error. En la prctica lo que se hace es jar la probabilidad de cometer un error de tipo I, es decir, se ja el nivel de signicacin,
los cuales son habitualmente valores reducidos  = {0>1> 0>05> 0>01} = La forma
de construir un contraste jado el nivel de signicacin consiste en construir
un estadstico (Est) el cual tendr una distribucin de probabilidad bajo la
hiptesis nula, se calcula el valor puntual del mismo con los valores observados
de la muestra (Est1 ), jado  la regin de rechazo se obtiene a partir de la
distribucin, y como esta distribucin es conocida, elegiremos el punto (Estf )
que determina dicha regin de la siguiente forma:

S (Hvw A Hvwf @K0 cierta) = 

siendo la regin de rechazo aquellos valores del estadstico que sean superiores al valor Hvwf , en el caso de que nuestro contraste sea unilateral por la
derecha, es decir, cuando la hiptesis alternativa es  A 0 . Sin embargo la
regin de rechazo para el caso en el cual nuestro contraste sea unilateral por la
izquierda, es decir, cuando la hiptesis alternativa es  ? 0 , primero se calcula

S (Hvw ? Hvwf @K0 cierta) = 

siendo la regin de rechazo aquellos valores del estadstico que sean inferiores al valor Hvwf . Cuando el contraste es bilateral se rechaza por ambas colas,
es decir, se busca en la distribucin el punto que deja a la derecha un rea
de @2 y el que deja a la izquierda un rea de @2= Si dicha distribucin es
simtrica rechazamos cuando |Hvw1 | A Hvwf . En la siguiente gura ilustramos

esta idea para el caso de un contraste unilateral por la derecha.

ndice

7.5. CONTRASTES DE HIPTESIS

157

Distribucion de Est bajo la nula

Acept

Rechazo
D

Est c

Esta sera una forma de realizar el contraste de hiptesis, sin embargo existe
otra manera ms precisa a la hora de decidir una hiptesis u otra, esta idea
se basa en el concepto del p-valor, el cual utiliza la informacin muestral que
disponemos en el problema concreto que se plantea en la decisin.
Se trata de calcular como en el anterior procedimiento el valor del estadstico para la muestra que disponemos, una vez obtenido dicho valor Est1
calculamos segun que hiptesis alternativa el rea que deja a la derecha o
a la izquierda de ese valor. Si ese rea (probabilidad) es mayor que un valor de signicacin que jamos a-priori se aceptara la hiptesis nula, ya que
estaramos diciendo que el punto se encuentra en la regin de aceptacin, si
ocurre lo contrario rechazaramos la nula. Ms formalmente (caso unilateral
por la derecha):
s  ydoru = S (Hvw  Hvw1 @K0 )
Como se puede observar el p-valor no se ja a-priori sino que queda determinado a partir de la muestra. se rechaza o se acepta para cada nivel de
signicacin de la siguiente forma:

ndice

Captulo 7. Inferencia estadstica

158

s  ydoru   (Se acepta K0 )

s  ydoru   (Se rechaza K0 )


Observemos a travs de esta gura este procedimiento para el caso particular en que  = 0>05

D istrib u cio n de E st b a jo la nu la
P -v a lo r

A cep t

R ech a zo
D

0 . 05

Est 1

7.6.

Relacin entre intervalos de conanza y


Contrastes

Cuando construimos un intervalo de conanza para un parmetro que desconocemos estamos dando un posible rango de valores que dicho parmetro
puede tener, al hacer contrastes de hiptesis se aceptar una hiptesis cuando
el intervalo de conanza incluya el parmetro que se muestra en dicha hiptesis.
Es decir:
Se acepta la hiptesis  = 0 +, cuando el intervalo de conanza (1  )
para  incluye 0

ndice

7.7. CONTRASTES PARA POBLACIONES NORMALES

159

7.7.

Contrastes para poblaciones normales

7.7.1.

Contrastes para la media de una poblacin normal con varianza conocida

Supongamos que [ = ({1 > {2 > ===> {q ) es una muestra aleatoria simple m.a.s.
de una poblacin normal de media  y varianza  2 conocida. Queremos realizar
el siguiente contraste unilateral:
K0 :

 = 0

K1 :

 A 0

Bajo la hiptesis nula (es decir, si la hiptesis nula es cierta), se sabe que
]=

[ 
  Q (0> 1)
s
q

Por tanto, jado el nivel de signicacin , rechazaremos la hiptesis nula


en favor de la alternativa, si para valores de la muestra el valor del estadstico
es signicativamente grande, es decir:
Si } =

{  0
 A } se rechaza K0
s
q
4
3

{ F
E
s  ydoru = S C] A } =  0 D
s
q
Rechazar si s  ydoru ? 

Supongamos ahora que queremos realizar un contraste bilateral:


K0 :

 = 0

K1 :

 6= 0

para este caso, una vez jado el nivel de signicacin, se rechaza la hiptesis
nula (en favor de la alternativa) si el valor del estadstico es grande o pequeo,
es decir:

ndice

Captulo 7. Inferencia estadstica

160

{  0
 A }@2 se rechaza K0
s
q
o
{  0
Si } =
 ? }@2 se rechaza K0
s
q

Si } =

que se trata lo mismo que

{  0

Si } =  A }@2 se rechaza K0

q
4

{  0 F

E
s  ydoru = S C|]| A } =  D

q
Rechazar si s  ydoru ? 
Estas situaciones se ilustran en la siguiente gura:

Rechazo
Regin de
Aceptacin
D

0.05

ndice
Rechazo

Regin
Aceptacin

Rechazo

7.7. CONTRASTES PARA POBLACIONES NORMALES

7.7.2.

161

Contrastes para la media de una poblacin normal con varianza desconocida

Supongamos que [ = ({1 > {2 > ===> {q ) es una muestra aleatoria simple m.a.s.
de una poblacin normal de media  y varianza  2 desconocida. Queremos
realizar el siguiente contraste unilateral:
K0 :

 = 0

K1 :

 A 0

Bajo la hiptesis nula (es decir, si la hiptesis nula es cierta), se sabe que
[  0
 wq31
ve
s{
q

Por tanto, jado el nivel de signicacin , rechazaremos la hiptesis nula


en favor de la alternativa, si para valores de la muestra el valor del estadstico
es signicativamente grande, es decir:
Si w =

[  0
A wq31> se rechaza K0
ve
s{
q
3
4

E
{  0 F
F
s  ydoru = S E
Cwq31 A w = ve{ D
s
q
Rechazar si s  ydoru ? 

Supongamos ahora que queremos realizar un contraste bilateral:


K0 :

 = 0

K1 :

 6= 0

para este caso, una vez jado el nivel de signicacin, se rechaza la hiptesis
nula (en favor de la alternativa) si el valor del estadstico es grande o pequeo,
es decir:

ndice

Captulo 7. Inferencia estadstica

162

[  0
A wq31>@2 se rechaza K0
ve
s{
q
o
[  0
? wq31>@2 se rechaza K0
Si w =
ve
s{
q

Si w =

que se trata lo mismo que

[


0

Si w =
A wq31>@2 se rechaza K0
v
e
{

4
3

{  0 F

E
s  ydoru = S C|wq31 | A } =  D

q
Rechazar si s  ydoru ? 

7.7.3.

Contrastes para la varianza de una poblacin normal

Se quiere realizar el siguiente contraste unilateral:


K0 :

 2 =  20

K1 :

 2 ? 20

sabemos que, si K0 es cierta


(q  1) ve2
 "2q31
 20

Por tanto, jado el nivel de signicacin , rechazaremos la hiptesis nula


en favor de la alternativa, si para valores de la muestra el valor del estadstico
es signicativamente pequeo, es decir:
(q  1) ve2
? "2q31>13 se rechaza K0
 20

(q  1) ve2
2
s  ydoru = S "q31>13 ?
 20
Rechazar si s  ydoru ? 
Si "2 =

ndice

7.8. CONTRASTES PARA DOS POBLACIONES

163

Supongamos ahora que queremos realizar un contraste bilateral:


K0 :

 2 =  20

K1 :

 2 6=  20

para este caso, una vez jado el nivel de signicacin, se rechaza la hiptesis
nula (en favor de la alternativa) si el valor del estadstico es grande o pequeo,
es decir:

(q  1) ve2
A "2q31>@2 se rechaza K0
 20
o
(q  1) ve2
=
? "2q31>13@2 se rechaza K0
 20

Si "2 =
Si "2

que se trata lo mismo que

2 (q  1) ve2

A "2q31>@2 se rechaza K0
Si " =

 20

2 2 (q  1) ve2

s  ydoru = S " A " =

 20
Rechazar si s  ydoru ? 

7.8.

Contrastes para dos poblaciones

7.8.1.

Comparacin de medias, muestras independientes,


varianzas iguales

Queremos comparar la distribucin de dos variables aleatorias, por tanto


disponemos de dos muestras aleatorias independientes [1 > ===> [p y \1 > ===> \q :
K0 :

1 = 2

K1 :

1 6= 2

ndice

Captulo 7. Inferencia estadstica

164

Poblaciones Normales
Si la hiptesis nula, K0 es cierta, es decir 1  2 = 0, el estadstico del

contraste

Hvw =
donde Vf2 =

1
p+q32

[ \
q
Vf p1 +

1
q

 wp+q32

(p  1) V{2 + (q  1) V|2 . La regin de aceptacin del

contraste se dene como |Hvw|  w@2

UD : [  \  wp+q32>@2 Vf

y el p-valor sera

Caso General

1
1
+
p q

s  ydoru = S |wp+q32 | A Hvw


= Hvw1

Si K0 es cierta y el tamao de ambas muestras es grande, sabemos que


Hvw =

[ \
q
Vf2 p1 +

1
q

 Q(0> 1)

por lo que la regin de aceptacin sera:

UD : [  \  }@2 Vf

1
1
+
p q

Ejemplo. Se tienen los datos sobre el porcentaje de rotura de un tipo de


camisas, las primeras 6 muestras antes de lavar y las siguientes 7 muestras
despus de 50 lavados.Se quiere saber si podemos concluir que las medias de
ambas muestras dieren.
Antes

12.3 13.7 10.4 11.4 14.9 12.6

Despus 15.7 10.3 12.6 14.5 12.6 13.8 11.9


Disponemos de los siguientes datos: muestras independientes, p = 6, q = 7,
[ = 12>55> \ = 13>06, V{ = 1>6 y V| = 1>78.

K0 :

1 = 2

K1 :

1 6= 2

ndice

7.8. CONTRASTES PARA DOS POBLACIONES

165

Si suponemos igual varianza, la estimacin de  2 es la siguiente: Vf2 =


1
6+732

{(6  1)  1>62 + (7  1)  1>782 } = 2>89 = 1>72 .

La regin de aceptacin con  = 0>05


r
r

1
1 1
1
UD : [  \  w11>0>05@2 Vf
+ = 2>2  1>7 
+ = 2>081
p q
6 7

y como [  \ = 0>51, tenemos que pertenece a la regin de aceptacin,

por tanto a un nivel de signicacin del 5 % aceptamos que no existen diferencias entre ambas muestras, pudiendo concluir que el tejido de las camisas
presenta una alta calidad.
El valor del estadstico por otro lado es:

[  \
Hvw = q
= 0>54  w11>0>05@2 = 2>2
Vf2 p1 + q1

7.8.2.

Comparacin de medias, muestras dependientes


apareadas

Queremos contrastar
K0 :

1 = 2

K1 :

1 6= 2

donde G = [  \  Q(1  2 >

p 2
 { +  2|  2 {| ), y las diferencias,

([1  \1 ) > ([2  \2 ) > ===> ([q  \q ) constituirn una muestra aleatoria simple

de la
qpoblacin [  \ . Por tanto su media muestral G = [  \  Q(1 
2 >
 2{ +  2|  2 {| @q) por tanto:
s [  \  (1  2 )
q p 2
 Q(0> 1)
 { +  2|  2 {|

si alguno de los elementos de la matriz de covarianzas no fuese conocido


este resultado no sera utilizable y aplicaramos el teorema de Student:
Hvw =

s
[  \  (1  2 )
q1
 wq31
vW

ndice

Captulo 7. Inferencia estadstica

166
2

1
q

siendo vW la varianza muestral de la muestra ([l  \l ), es decir, vW =

2
([l  \l )2  [  \

q
X
l=1

el intervalo de conanza ser

vW
G wq31>@2 s
q
Ahora bien, la regin de aceptacin sera
|Hvw|  wq31>@2

7.8.3.

Comparacin de medias, muestras independientes,


varianzas distintas

Caso Poblacines normales

K0 :

1 = 2

K1 :

1 6= 2

Cuando las varianzas son desconocidas pero supuestas distintas  { 6=  | y

para muestras grandes el intervalo de conanza viene dado por:


s
V{2 V|2
[  \ wn> 2
+
q
p
5

donde n =

6
2 V2 2
|:
9 V{
+
7
8

2 2
E V{ F
E
F
E
C

pD

p31

E
E
E
C

42

V|2 FF
F
qD
q31

El estadstico del contraste bajo la hiptesis nula K0


[ \
Hvw = r
 wn> 2
V{2 V|2
+
q
p

Se acepta la hiptesis nula si

|Hvw|  wn> 2

ndice

7.8. CONTRASTES PARA DOS POBLACIONES

167

Caso general
Si el tamao de ambas muestras, q y p son grandes, sabemos que la w
se distribuye como una normal estndar, ]  Q(0> 1), siendo la regin de
aceptacin:

|Hvw|  } 2

7.8.4.

Comparacin de varianzas

Dadas dos muestras independientes se quiere comparar:


K0 :

 21 =  22

K1 :

 21 6=  22

el estadstico del contraste que utilizaremos bajo la hiptesis nula K0 es:


Hvw =

V{2
V{2 @ 21
=
 Iq31>p31
V|2 @ 21
V|2

y buscando en las tablas los valores If1 y If2


S (Iq31>p31 ? If1 ) = @2
S (Iq31>p31 A If2 ) = @2
por tanto la regin de aceptacin ser
If1  Hvw  If2
Si queremos contrastar
K0 :
K1 :

 21   22
 21 A 22

el estadstico del contraste que utilizaremos bajo la hiptesis nula K0 es:


Hvw =

V{2 @ 21
V2
= {2  Iq31>p31
2
2
V| @ 1
V|

pero se buscara en las tablas el valor If tal que


S (Iq31>p31 A If ) = 
siendo la regin de aceptacin
Hvw  If

ndice

Captulo 7. Inferencia estadstica

168

7.9.

Contrastes en muestras grandes

En esta seccin analizaremos con ms detalle la realizacin de contrastes


de hiptesis para el caso en que los tamaos de muestra son sucientemente
grandes, en secciones anteriores hemos comentado algun caso, sin embargo
especicaremos cuatro casos que pueden presentarse.

7.9.1.

Contrastes para una proporcin

Supongamos que estamos interesados en realizar el siguiente contraste


K0 :

s = s0

K1 :

s 6= s0

sabemos que cuando K0 es cierta


sb  s0
 Q(0> 1)
Hvw = p
sb0 (1  sb0 ) @q

por tanto rechazaremos la hiptesis nula si


|Hvw| A }@2

7.9.2.

Contrastes para la diferencia de dos proporciones

Dadas dos muestras aleatorias simples de tamaos q1 y q2 , si estamos


interesados en contrastar
K0 :

s1  s2 = 0

K1 :

s1  s2 6= 0

sabemos que cuando K0 es cierta

donde

sb1  sb2
 Q(0> 1)
Hvw = p
sb0 (1  sb0 ) @q1 + sb0 (1  sb0 ) @q2

q1 sb1 + q2 sb2
q1 + q2
por tanto rechazaremos la hiptesis nula si
sb0 =

|Hvw| A }@2

ndice

7.9. CONTRASTES EN MUESTRAS GRANDES

7.9.3.

169

Contrastes para la media de cualquier distribucin

Para contrastar
K0 :

 = 0

K1 :  6= 0
independientemente de la distribucin, rechazaremos la hiptesis K0 si

[  0
A }!2
ve
s{
q

7.9.4.

Contrastes para un parmetro de cualquier dis-

tribucin
Para contrastar

K0 :

 = 0

K1 :  6= 0
se rechazar la hiptesis nula K0 si

b
PY  0
q
A }!2
 o00 b1
( PY )

siendo b
PY el estimador de mxima verosimilitud de , independientemente

de la distribucin

ndice

ndice

Captulo 8
SPSS
SPSS es un software estadstico para el tratamiento estadstico de bases de
datos. Esta gua introduce al lector al manejo de cheros de datos con SPSS
y el tratamiento estadstico bsico del mismo. El chero de trabajo es el que
se describe en la Tabla 1.

Estacin

Viajeros Medios de Transporte

Atocha

650000

Embajadores

387560

Laguna

365000

Aluche

250000

Fanjul

318900

Las guilas

276000

Cuatro Vientos

412500

San Jose Valderas

312000

Alcorcn

121200

Las Retamas

152050

Mstoles

175250

Mstoles-El Soto

25000

171

ndice

Captulo 8. SPSS

172

8.1.

Introduccin de datos

Al iniciar SPSS, la primera orden que solicita el programa es la apertura o


introduccin de una base de datos.

ndice

Seleccionamos la opcin: Introducir datos.y pulsamos

. Tenemos

ahora una hoja de clculo donde las variables quedan representadas en las
columnas y los casos en las. El procesador tiene dos vistas de la base de
datos: Vista de datos y Vista de variables.

8.1. INTRODUCCIN DE DATOS

173

Seleccionamos la pestaa Vista de variables. Posicionamos el ratn sobre


la primera variable en el campo: Nombre.
Nuestra primera variable se denomina: Estacion. Al escribir el nombre de
la variable y pulsar enter, se activan los campos restantes.
El campo Tipo se reere al tipo de la variable.

ndice

Captulo 8. SPSS

174

Las opciones de numrica, coma, punto y notacin cientica se reeren a


variables de tipo numrico. Se puede especicar el nmero de decimales
que se muestran en la vista de datos, sin ms que escribir el nmero
deseado en el campo: Cifras Decimales. El campo de anchura se reere
al nmero de caracteres que tiene el dato.
La opcin fecha permite especicar el formato en el que se desea representar el dato. Las opciones mas frecuentes son indicando el dia, mes y
ao (dd-mm-aaaa), el mes y el ao (mmmaaaa) y el dia ao. No obstante,
existe la opcin de personalizar este campo en un formato cmodo para
el usuario.
La opcin Dolar y Moneda personalizada permiten especicar el formato
en el que se desea representar un dato de tipo moneda.
Por ltimo, la opcin cadena permite especicar el nmero de caracteres
de una variable de tipo texto.
Nuestra variable Estacin es de tipo cadena. El nmero de caracteres mximo que tiene esta variable es 16 (caso de Mstoles-El Soto). Al especicar el
campo tipo, se actualizan los campos anchura y decimales.
El campo Etiqueta se reere a la descripcin ms detallada de la variable.
Escribimos: Nombre de la estacin de la lnea C5 de la red de cercanias de
Madrid.
El campo Valores se reere a la descripcin detallada de valores nmericos
de la variable. Esta opcin se activa unicamente en caso de variables numricas.Por ejemplo, a la hora de disear una base de datos, si se decide codicar de
modo numrico una variable categrica, esta opcin es til para recuperar el
signicado de cada valor. un caso sencillo, es una variable que describa el sexo
de cada caso, codicada como 0 si es una mujer y 1 si es un varn. En dicho
caso, aadimos cada etiqueta de valor, con el valor numrico correspondiente,
tal y como se ilustra en la siguiente imagen:

ndice

8.1. INTRODUCCIN DE DATOS

175

Una vez se han asignado todas las etiquetas de valor, se pulsa en


para que sea efectivo.
El campo Perdidos se reere a la asignacin de valores nmericos de la
variable catalogados como perdidos. Esta opcin se activa unicamente en caso
de variables numricas.Por ejemplo, a la hora de disear una base de datos,
se decide codicar con valor -99 un dato perdido. En dicho caso, aadimos un
valor discreto como valor perdido, tal y como se ilustra en la siguiente imagen:

ndice

Tambin existe la opcin de considerar un rango de valores como datos


perdidos (por ejemplo, si la variable mide la edad de un individuo, se puede
considerar como rango de valores perdidos, aquellos datos que se encuentren
entre -99 y 0). Una vez se han asignado todos los valores perdidos, se pulsa en
para que sea efectivo.

Captulo 8. SPSS

176

Los campos columnas y alineacin se reeren a formatos de presentacin


de los datos en la vista de datos. Por ltimo, el campo Medida se actualiza al
especicar el tipo de dato.
Una vez se describen las variables del estudio, insertamos los valores de
cada caso en la vista de datos:

ndice

Para no perder el trabajo realizado, seleccionar del menu Archivo la opcin


Guardar como.

8.1. INTRODUCCIN DE DATOS

177

ndice

Asignar un nombre al archivo, por ejemplo: prctica.

178

Captulo 8. SPSS

Existen diversos formatos para guardar los datos generados: .sav (son datos
con formato SPSS), .xls (datos con formato Excel),...Seleccionar en la pestaa
Tipo: excel 2.1 para guardar los datos y abrir el chero desde Excel para ver
el resultado. Se puede seleccionar las variables que se desea archivar, sin ms
que pulsar sobre Variables y marcar las variables que se desean guardar.
Al iniciar SPSS, o desde el programa podemos abrir una base de datos
creada en una sesin anterior. Si la base de datos es de tipo SPSS el programa
la abre directamente. En otro caso, se ejecuta un asistente para importar los
datos desde otro formato. Seleccionamos abrir datos desde el menu Archivo.

ndice

8.1. INTRODUCCIN DE DATOS

179

Seleccionamos tipo Excel y escribimos practica en Nombre. Pulsar en Aceptar.

ndice

Captulo 8. SPSS

180

Se inicia entonces el asistente para importar los datos. Si el chero excel es


un libro unicamente se pueden importar las hojas del chero de una en una.

ndice

8.2.

Estadstica descriptiva

Para realizar un grco de frecuencias de las variables de nuestro chero de


trabajo, seleccionar Frecuencias, dentro del men de estadsticos descriptivos
del men Analizar.

8.2. ESTADSTICA DESCRIPTIVA

181

Seleccionar la variable Medios y transladarla al men de la derecha pulsando sobre

. Las pestaas estadsticos y grcos permiten seleccionar

entre una amplia coleccin de opciones: cuartiles, percentiles, moda, varianza,


grco de barras, grco de sectores,...La pestaa formato permite ordenar
la visualizacin de los resultados segn la frecuencia o los valores, comparar
diversas variables y suprimir tablas con ms categorias de las especicadas.
Seleccionar moda en el men estadsticos y grco de barras de frecuencias
en el men grcos. Al pulsar aceptar, se ejecuta el proceso FREQUENCIES
con las indicaciones seleccionadas.

ndice

Captulo 8. SPSS

182

El visor de resultados permite editar los grcos y los resultados para cambiar los formatos de color, tipo de letra, etc. El men de la izquierda del visor
permite navegar entre los distintos resultados generados.

ndice

Para realizar un anlisis descriptivo de las variables de nuestro chero de


trabajo, seleccionar Descriptivos, dentro del men de estadsticos descriptivos

8.3. GENERACIN DE VARIABLES ALEATORIAS

183

del men Analizar.

Seleccionar las variables Viajeros y Medios y transladarlas al men de la


derecha pulsando sobre

. La pestaa opciones permite seleccionar entre

una amplia coleccin de estadsticos: cuartiles, percentiles, moda, varianza,


etc.

8.3.

Generacin de variables aleatorias

SPSS permite crear y modicar variables existentes. Para ello, selecionar


Calcular del men Transformar. El siguiente proceso permite crear una nueva
variable de destino, seleccionando un nombre distinto a las restantes variables.
En este caso se puede especicar el tipo de variable y la etiqueta de descripcin. Para modicar una variable existente, escribimos su nombre en variable de destino. El campo de expresin numrica permite realizar operaciones
matemticas entre variables y crear nuevas variables aleatoriamente.

ndice

Captulo 8. SPSS

184

Para crear una variable aleatoria, por ejemplo una variable normal de media
3 y desviacin tpica 2, escribimos AleaNormal en el campo variable de destino,
seleccionamos la funcin RV.NORMAL(media,desv_tip) del menu funciones,
especicamos la media y la desviacin estndar y pulsamos aceptar.

Se crea entonces la variable AleaNormal, de tipo numrico con el mismo


nmero de casos que las variables restantes. Como ejercicio, crear una variable
aleatoria binomial, AleaBinom, de parmetros q = 5 y s = 0>45.

ndice

8.4.

Contrastes de hiptesis disponibles

Para contrastar la hiptesis de que la media de una variable sea igual a un


valor determinado, seleccionar Prueba T para una muestra del men Comparar
medias del men Analizar.

8.4. CONTRASTES DE HIPTESIS DISPONIBLES

185

Seleccionar la variable Viajeros y transladarla al men de la derecha. Supongamos estamos interesados en contrastar si la media de esta variable es 280.000.
Escribir entonces 280000 en el campo Valor. La pestaa de opciones permite
seleccionar el nivel de conanza del contraste y el tratamiento de los casos con
valores perdidos. Para visualizar el resultado, pulsar aceptar.

ndice

Captulo 8. SPSS

186

El visor de resultados muestra la siguiente tabla, en la que se recogen los


valores del estadstico del contraste y el intervalo de conanza. Con los datos
obtenidos no podemos rechazar la hiptesis de que la media de los datos sea
280000.

Prueba para una muestra


Valor de prueba = 280000

Viajeros

,151

gl

11

Sig. (bilateral)
,883

Diferencia
de medias
7121,667

95% Intervalo de
confianza para la
diferencia
Inferior
Superior
-96695,27 110938,61

Para contrastar la hiptesis de que la media de dos variables son iguales,


seleccionar Prueba T para muestras relacionadas en el men Comparar medias
del men Analizar.

ndice

8.4. CONTRASTES DE HIPTESIS DISPONIBLES

187

Seleccionar Medios y AleaBinom para contrastar la hiptesis de si sus medias son iguales y transladarlas al men de la derecha pulsando sobre el botn
. La pestaa de opciones permite seleccionar el nivel de conanza del contraste y el tratamiento de los casos con valores perdidos. Para visualizar el
resultado, pulsar aceptar.

ndice

ndice

8.5.

TABLAS
Tabla 1: Funci
on de distribuci
on de la variable Binomial(n, p)

0.05
0 0.9500
1 1.0000

0.1
0.9000
1.0000

0.2
0.8000
1.0000

0.3
0.7000
1.0000

0.4
0.6000
1.0000

p
0.5
0.5000
1.0000

0.6
0.4000
1.0000

0.7
0.3000
1.0000

0.8
0.2000
1.0000

0.9
0.1000
1.0000

0.95
0.0500
1.0000

n=2

0 0.9025
1 0.9975
2 1.0000

0.8100
0.9900
1.0000

0.6400
0.9600
1.0000

0.4900
0.9100
1.0000

0.3600
0.8400
1.0000

0.2500
0.7500
1.0000

0.1600
0.6400
1.0000

0.0900
0.5100
1.0000

0.0400
0.3600
1.0000

0.0100
0.1900
1.0000

0.0025
0.0975
1.0000

n=3

0
1
2
3

0.8574
0.9928
0.9999
1.0000

0.7290
0.9720
0.9990
1.0000

0.5120
0.8960
0.9920
1.0000

0.3430
0.7840
0.9730
1.0000

0.2160
0.6480
0.9360
1.0000

0.1250
0.5000
0.8750
1.0000

0.0640
0.3520
0.7840
1.0000

0.0270
0.2160
0.6570
1.0000

0.0080
0.1040
0.4880
1.0000

0.0010
0.0280
0.2710
1.0000

0.0001
0.0073
0.1426
1.0000

n=4

0
1
2
3
4

0.8145
0.9860
0.9995
1.0000
1.0000

0.6561
0.9477
0.9963
0.9999
1.0000

0.4096
0.8192
0.9728
0.9984
1.0000

0.2401
0.6517
0.9163
0.9919
1.0000

0.1296
0.4752
0.8208
0.9744
1.0000

0.0625
0.3125
0.6875
0.9375
1.0000

0.0256
0.1792
0.5248
0.8704
1.0000

0.0081
0.0837
0.3483
0.7599
1.0000

0.0016
0.0272
0.1808
0.5904
1.0000

0.0001
0.0037
0.0523
0.3439
1.0000

0.0000
0.0005
0.0140
0.1855
1.0000

n=5

0
1
2
3
4
5

0.7738
0.9774
0.9988
1.0000
1.0000
1.0000

0.5905
0.9185
0.9914
0.9995
1.0000
1.0000

0.3277
0.7373
0.9421
0.9933
0.9997
1.0000

0.1681
0.5282
0.8369
0.9692
0.9976
1.0000

0.0778
0.3370
0.6826
0.9130
0.9898
1.0000

0.0313
0.1875
0.5000
0.8125
0.9688
1.0000

0.0102
0.0870
0.3174
0.6630
0.9222
1.0000

0.0024
0.0308
0.1631
0.4718
0.8319
1.0000

0.0003
0.0067
0.0579
0.2627
0.6723
1.0000

0.0000
0.0005
0.0086
0.0815
0.4095
1.0000

0.0000
0.0000
0.0012
0.0226
0.2262
1.0000

n=6

0
1
2
3
4
5
6

0.7351
0.9672
0.9978
0.9999
1.0000
1.0000
1.0000

0.5314
0.8857
0.9841
0.9987
0.9999
1.0000
1.0000

0.2621
0.6554
0.9011
0.9830
0.9984
0.9999
1.0000

0.1176
0.4202
0.7443
0.9295
0.9891
0.9993
1.0000

0.0467
0.2333
0.5443
0.8208
0.9590
0.9959
1.0000

0.0156
0.1094
0.3437
0.6563
0.8906
0.9844
1.0000

0.0041
0.0410
0.1792
0.4557
0.7667
0.9533
1.0000

0.0007
0.0109
0.0705
0.2557
0.5798
0.8824
1.0000

0.0001
0.0016
0.0170
0.0989
0.3446
0.7379
1.0000

0.0000
0.0001
0.0013
0.0158
0.1143
0.4686
1.0000

0.0000
0.0000
0.0001
0.0022
0.0328
0.2649
1.0000

n=1

ndice

Tabla 2: Funci
on de distribuci
on de la variable Binomial(n, p)

0.1
0.4783
0.8503
0.9743
0.9973
0.9998
1.0000
1.0000
1.0000

0.2
0.2097
0.5767
0.8520
0.9667
0.9953
0.9996
1.0000
1.0000

0.3
0.0824
0.3294
0.6471
0.8740
0.9712
0.9962
0.9998
1.0000

0.4
0.0280
0.1586
0.4199
0.7102
0.9037
0.9812
0.9984
1.0000

p
0.5
0.0078
0.0625
0.2266
0.5000
0.7734
0.9375
0.9922
1.0000

0.6
0.0016
0.0188
0.0963
0.2898
0.5801
0.8414
0.9720
1.0000

0.7
0.0002
0.0038
0.0288
0.1260
0.3529
0.6706
0.9176
1.0000

0.8
0.0000
0.0004
0.0047
0.0333
0.1480
0.4233
0.7903
1.0000

0.9
0.0000
0.0000
0.0002
0.0027
0.0257
0.1497
0.5217
1.0000

0.95
0.0000
0.0000
0.0000
0.0002
0.0038
0.0444
0.3017
1.0000

n=7

0
1
2
3
4
5
6
7

0.05
0.6983
0.9556
0.9962
0.9998
1.0000
1.0000
1.0000
1.0000

n=8

0
1
2
3
4
5
6
7
8

0.6634
0.9428
0.9942
0.9996
1.0000
1.0000
1.0000
1.0000
1.0000

0.4305
0.8131
0.9619
0.9950
0.9996
1.0000
1.0000
1.0000
1.0000

0.1678
0.5033
0.7969
0.9437
0.9896
0.9988
0.9999
1.0000
1.0000

0.0576
0.2553
0.5518
0.8059
0.9420
0.9887
0.9987
0.9999
1.0000

0.0168
0.1064
0.3154
0.5941
0.8263
0.9502
0.9915
0.9993
1.0000

0.0039
0.0352
0.1445
0.3633
0.6367
0.8555
0.9648
0.9961
1.0000

0.0007
0.0085
0.0498
0.1737
0.4059
0.6846
0.8936
0.9832
1.0000

0.0001
0.0013
0.0113
0.0580
0.1941
0.4482
0.7447
0.9424
1.0000

0.0000
0.0001
0.0012
0.0104
0.0563
0.2031
0.4967
0.8322
1.0000

0.0000
0.0000
0.0000
0.0004
0.0050
0.0381
0.1869
0.5695
1.0000

0.0000
0.0000
0.0000
0.0000
0.0004
0.0058
0.0572
0.3366
1.0000

n=9

0
1
2
3
4
5
6
7
8
9

0.6302
0.9288
0.9916
0.9994
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.3874
0.7748
0.9470
0.9917
0.9991
0.9999
1.0000
1.0000
1.0000
1.0000

0.1342
0.4362
0.7382
0.9144
0.9804
0.9969
0.9997
1.0000
1.0000
1.0000

0.0404
0.1960
0.4628
0.7297
0.9012
0.9747
0.9957
0.9996
1.0000
1.0000

0.0101
0.0705
0.2318
0.4826
0.7334
0.9006
0.9750
0.9962
0.9997
1.0000

0.0020
0.0195
0.0898
0.2539
0.5000
0.7461
0.9102
0.9805
0.9980
1.0000

0.0003
0.0038
0.0250
0.0994
0.2666
0.5174
0.7682
0.9295
0.9899
1.0000

0.0000
0.0004
0.0043
0.0253
0.0988
0.2703
0.5372
0.8040
0.9596
1.0000

0.0000
0.0000
0.0003
0.0031
0.0196
0.0856
0.2618
0.5638
0.8658
1.0000

0.0000
0.0000
0.0000
0.0001
0.0009
0.0083
0.0530
0.2252
0.6126
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0006
0.0084
0.0712
0.3698
1.0000

n = 10

0
1
2
3
4
5
6
7
8
9
10

0.5987
0.9139
0.9885
0.9990
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.3487
0.7361
0.9298
0.9872
0.9984
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000

0.1074
0.3758
0.6778
0.8791
0.9672
0.9936
0.9991
0.9999
1.0000
1.0000
1.0000

0.0282
0.1493
0.3828
0.6496
0.8497
0.9527
0.9894
0.9984
0.9999
1.0000
1.0000

0.0060
0.0464
0.1673
0.3823
0.6331
0.8338
0.9452
0.9877
0.9983
0.9999
1.0000

0.0010
0.0107
0.0547
0.1719
0.3770
0.6230
0.8281
0.9453
0.9893
0.9990
1.0000

0.0001
0.0017
0.0123
0.0548
0.1662
0.3669
0.6177
0.8327
0.9536
0.9940
1.0000

0.0000
0.0001
0.0016
0.0106
0.0473
0.1503
0.3504
0.6172
0.8507
0.9718
1.0000

0.0000
0.0000
0.0001
0.0009
0.0064
0.0328
0.1209
0.3222
0.6242
0.8926
1.0000

0.0000
0.0000
0.0000
0.0000
0.0001
0.0016
0.0128
0.0702
0.2639
0.6513
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0010
0.0115
0.0861
0.4013
1.0000

ndice

Tabla 3: Funci
on de distribuci
on de la variable Binomial(n, p)

0.05
0 0.5688
1 0.8981
2 0.9848
3 0.9984
4 0.9999
5 1.0000
6 1.0000
7 1.0000
8 1.0000
9 1.0000
10 1.0000
11 1.0000

0.1
0.3138
0.6974
0.9104
0.9815
0.9972
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2
0.0859
0.3221
0.6174
0.8389
0.9496
0.9883
0.9980
0.9998
1.0000
1.0000
1.0000
1.0000

0.3
0.0198
0.1130
0.3127
0.5696
0.7897
0.9218
0.9784
0.9957
0.9994
1.0000
1.0000
1.0000

0.4
0.0036
0.0302
0.1189
0.2963
0.5328
0.7535
0.9006
0.9707
0.9941
0.9993
1.0000
1.0000

p
0.5
0.0005
0.0059
0.0327
0.1133
0.2744
0.5000
0.7256
0.8867
0.9673
0.9941
0.9995
1.0000

0.6
0.0000
0.0007
0.0059
0.0293
0.0994
0.2465
0.4672
0.7037
0.8811
0.9698
0.9964
1.0000

0.7
0.0000
0.0000
0.0006
0.0043
0.0216
0.0782
0.2103
0.4304
0.6873
0.8870
0.9802
1.0000

0.8
0.0000
0.0000
0.0000
0.0002
0.0020
0.0117
0.0504
0.1611
0.3826
0.6779
0.9141
1.0000

0.9
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0028
0.0185
0.0896
0.3026
0.6862
1.0000

0.95
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0016
0.0152
0.1019
0.4312
1.0000

n = 12

0
1
2
3
4
5
6
7
8
9
10
11
12

0.5404
0.8816
0.9804
0.9978
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2824
0.6590
0.8891
0.9744
0.9957
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0687
0.2749
0.5583
0.7946
0.9274
0.9806
0.9961
0.9994
0.9999
1.0000
1.0000
1.0000
1.0000

0.0138
0.0850
0.2528
0.4925
0.7237
0.8822
0.9614
0.9905
0.9983
0.9998
1.0000
1.0000
1.0000

0.0022
0.0196
0.0834
0.2253
0.4382
0.6652
0.8418
0.9427
0.9847
0.9972
0.9997
1.0000
1.0000

0.0002
0.0032
0.0193
0.0730
0.1938
0.3872
0.6128
0.8062
0.9270
0.9807
0.9968
0.9998
1.0000

0.0000
0.0003
0.0028
0.0153
0.0573
0.1582
0.3348
0.5618
0.7747
0.9166
0.9804
0.9978
1.0000

0.0000
0.0000
0.0002
0.0017
0.0095
0.0386
0.1178
0.2763
0.5075
0.7472
0.9150
0.9862
1.0000

0.0000
0.0000
0.0000
0.0001
0.0006
0.0039
0.0194
0.0726
0.2054
0.4417
0.7251
0.9313
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0005
0.0043
0.0256
0.1109
0.3410
0.7176
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0022
0.0196
0.1184
0.4596
1.0000

n = 13

0
1
2
3
4
5
6
7
8
9
10
11
12
13

0.5133
0.8646
0.9755
0.9969
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2542
0.6213
0.8661
0.9658
0.9935
0.9991
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0550
0.2336
0.5017
0.7473
0.9009
0.9700
0.9930
0.9988
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000

0.0097
0.0637
0.2025
0.4206
0.6543
0.8346
0.9376
0.9818
0.9960
0.9993
0.9999
1.0000
1.0000
1.0000

0.0013
0.0126
0.0579
0.1686
0.3530
0.5744
0.7712
0.9023
0.9679
0.9922
0.9987
0.9999
1.0000
1.0000

0.0001
0.0017
0.0112
0.0461
0.1334
0.2905
0.5000
0.7095
0.8666
0.9539
0.9888
0.9983
0.9999
1.0000

0.0000
0.0001
0.0013
0.0078
0.0321
0.0977
0.2288
0.4256
0.6470
0.8314
0.9421
0.9874
0.9987
1.0000

0.0000
0.0000
0.0001
0.0007
0.0040
0.0182
0.0624
0.1654
0.3457
0.5794
0.7975
0.9363
0.9903
1.0000

0.0000
0.0000
0.0000
0.0000
0.0002
0.0012
0.0070
0.0300
0.0991
0.2527
0.4983
0.7664
0.9450
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0009
0.0065
0.0342
0.1339
0.3787
0.7458
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0031
0.0245
0.1354
0.4867
1.0000

n = 11

ndice

Tabla 4: Funci
on de distribuci
on de la variable Binomial(n, p)

0.05

0.1

0.2

0.3

0.4

p
0.5

0.6

0.7

0.8

0.9

0.95

n = 14

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14

0.4877
0.8470
0.9699
0.9958
0.9996
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2288
0.5846
0.8416
0.9559
0.9908
0.9985
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0440
0.1979
0.4481
0.6982
0.8702
0.9561
0.9884
0.9976
0.9996
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0068
0.0475
0.1608
0.3552
0.5842
0.7805
0.9067
0.9685
0.9917
0.9983
0.9998
1.0000
1.0000
1.0000
1.0000

0.0008
0.0081
0.0398
0.1243
0.2793
0.4859
0.6925
0.8499
0.9417
0.9825
0.9961
0.9994
0.9999
1.0000
1.0000

0.0001
0.0009
0.0065
0.0287
0.0898
0.2120
0.3953
0.6047
0.7880
0.9102
0.9713
0.9935
0.9991
0.9999
1.0000

0.0000
0.0001
0.0006
0.0039
0.0175
0.0583
0.1501
0.3075
0.5141
0.7207
0.8757
0.9602
0.9919
0.9992
1.0000

0.0000
0.0000
0.0000
0.0002
0.0017
0.0083
0.0315
0.0933
0.2195
0.4158
0.6448
0.8392
0.9525
0.9932
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0004
0.0024
0.0116
0.0439
0.1298
0.3018
0.5519
0.8021
0.9560
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0015
0.0092
0.0441
0.1584
0.4154
0.7712
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0004
0.0042
0.0301
0.1530
0.5123
1.0000

n = 15

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

0.4633
0.8290
0.9638
0.9945
0.9994
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2059
0.5490
0.8159
0.9444
0.9873
0.9978
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0352
0.1671
0.3980
0.6482
0.8358
0.9389
0.9819
0.9958
0.9992
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0047
0.0353
0.1268
0.2969
0.5155
0.7216
0.8689
0.9500
0.9848
0.9963
0.9993
0.9999
1.0000
1.0000
1.0000
1.0000

0.0005
0.0052
0.0271
0.0905
0.2173
0.4032
0.6098
0.7869
0.9050
0.9662
0.9907
0.9981
0.9997
1.0000
1.0000
1.0000

0.0000
0.0005
0.0037
0.0176
0.0592
0.1509
0.3036
0.5000
0.6964
0.8491
0.9408
0.9824
0.9963
0.9995
1.0000
1.0000

0.0000
0.0000
0.0003
0.0019
0.0093
0.0338
0.0950
0.2131
0.3902
0.5968
0.7827
0.9095
0.9729
0.9948
0.9995
1.0000

0.0000
0.0000
0.0000
0.0001
0.0007
0.0037
0.0152
0.0500
0.1311
0.2784
0.4845
0.7031
0.8732
0.9647
0.9953
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0008
0.0042
0.0181
0.0611
0.1642
0.3518
0.6020
0.8329
0.9648
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0022
0.0127
0.0556
0.1841
0.4510
0.7941
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0006
0.0055
0.0362
0.1710
0.5367
1.0000

n = 16

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

0.4401
0.8108
0.9571
0.9930
0.9991
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.1853
0.5147
0.7892
0.9316
0.9830
0.9967
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0281
0.1407
0.3518
0.5981
0.7982
0.9183
0.9733
0.9930
0.9985
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0033
0.0261
0.0994
0.2459
0.4499
0.6598
0.8247
0.9256
0.9743
0.9929
0.9984
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000

0.0003
0.0033
0.0183
0.0651
0.1666
0.3288
0.5272
0.7161
0.8577
0.9417
0.9809
0.9951
0.9991
0.9999
1.0000
1.0000
1.0000

0.0000
0.0003
0.0021
0.0106
0.0384
0.1051
0.2272
0.4018
0.5982
0.7728
0.8949
0.9616
0.9894
0.9979
0.9997
1.0000
1.0000

0.0000
0.0000
0.0001
0.0009
0.0049
0.0191
0.0583
0.1423
0.2839
0.4728
0.6712
0.8334
0.9349
0.9817
0.9967
0.9997
1.0000

0.0000
0.0000
0.0000
0.0000
0.0003
0.0016
0.0071
0.0257
0.0744
0.1753
0.3402
0.5501
0.7541
0.9006
0.9739
0.9967
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0015
0.0070
0.0267
0.0817
0.2018
0.4019
0.6482
0.8593
0.9719
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0005
0.0033
0.0170
0.0684
0.2108
0.4853
0.8147
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0009
0.0070
0.0429
0.1892
0.5599
1.0000

ndice

Tabla 5: Funci
on de distribuci
on de la variable Binomial(n, p)
0.1
0.1668
0.4818
0.7618
0.9174
0.9779
0.9953
0.9992
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.2
0.0225
0.1182
0.3096
0.5489
0.7582
0.8943
0.9623
0.9891
0.9974
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.3
0.0023
0.0193
0.0774
0.2019
0.3887
0.5968
0.7752
0.8954
0.9597
0.9873
0.9968
0.9993
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000

0.4
0.0002
0.0021
0.0123
0.0464
0.1260
0.2639
0.4478
0.6405
0.8011
0.9081
0.9652
0.9894
0.9975
0.9995
0.9999
1.0000
1.0000
1.0000

p
0.5
0.0000
0.0001
0.0012
0.0064
0.0245
0.0717
0.1662
0.3145
0.5000
0.6855
0.8338
0.9283
0.9755
0.9936
0.9988
0.9999
1.0000
1.0000

0.6
0.0000
0.0000
0.0001
0.0005
0.0025
0.0106
0.0348
0.0919
0.1989
0.3595
0.5522
0.7361
0.8740
0.9536
0.9877
0.9979
0.9998
1.0000

0.7
0.0000
0.0000
0.0000
0.0000
0.0001
0.0007
0.0032
0.0127
0.0403
0.1046
0.2248
0.4032
0.6113
0.7981
0.9226
0.9807
0.9977
1.0000

0.8
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0005
0.0026
0.0109
0.0377
0.1057
0.2418
0.4511
0.6904
0.8818
0.9775
1.0000

0.9
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0008
0.0047
0.0221
0.0826
0.2382
0.5182
0.8332
1.0000

0.95
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0012
0.0088
0.0503
0.2078
0.5819
1.0000

n = 17

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17

0.05
0.4181
0.7922
0.9497
0.9912
0.9988
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

n = 18

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

0.3972
0.7735
0.9419
0.9891
0.9985
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.1501
0.4503
0.7338
0.9018
0.9718
0.9936
0.9988
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0180
0.0991
0.2713
0.5010
0.7164
0.8671
0.9487
0.9837
0.9957
0.9991
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0016
0.0142
0.0600
0.1646
0.3327
0.5344
0.7217
0.8593
0.9404
0.9790
0.9939
0.9986
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0001
0.0013
0.0082
0.0328
0.0942
0.2088
0.3743
0.5634
0.7368
0.8653
0.9424
0.9797
0.9942
0.9987
0.9998
1.0000
1.0000
1.0000
1.0000

0.0000
0.0001
0.0007
0.0038
0.0154
0.0481
0.1189
0.2403
0.4073
0.5927
0.7597
0.8811
0.9519
0.9846
0.9962
0.9993
0.9999
1.0000
1.0000

0.0000
0.0000
0.0000
0.0002
0.0013
0.0058
0.0203
0.0576
0.1347
0.2632
0.4366
0.6257
0.7912
0.9058
0.9672
0.9918
0.9987
0.9999
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0014
0.0061
0.0210
0.0596
0.1407
0.2783
0.4656
0.6673
0.8354
0.9400
0.9858
0.9984
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0009
0.0043
0.0163
0.0513
0.1329
0.2836
0.4990
0.7287
0.9009
0.9820
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0012
0.0064
0.0282
0.0982
0.2662
0.5497
0.8499
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0015
0.0109
0.0581
0.2265
0.6028
1.0000

n = 19

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

0.3774
0.7547
0.9335
0.9868
0.9980
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.1351
0.4203
0.7054
0.8850
0.9648
0.9914
0.9983
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0144
0.0829
0.2369
0.4551
0.6733
0.8369
0.9324
0.9767
0.9933
0.9984
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0011
0.0104
0.0462
0.1332
0.2822
0.4739
0.6655
0.8180
0.9161
0.9674
0.9895
0.9972
0.9994
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0001
0.0008
0.0055
0.0230
0.0696
0.1629
0.3081
0.4878
0.6675
0.8139
0.9115
0.9648
0.9884
0.9969
0.9994
0.9999
1.0000
1.0000
1.0000
1.0000

0.0000
0.0000
0.0004
0.0022
0.0096
0.0318
0.0835
0.1796
0.3238
0.5000
0.6762
0.8204
0.9165
0.9682
0.9904
0.9978
0.9996
1.0000
1.0000
1.0000

0.0000
0.0000
0.0000
0.0001
0.0006
0.0031
0.0116
0.0352
0.0885
0.1861
0.3325
0.5122
0.6919
0.8371
0.9304
0.9770
0.9945
0.9992
0.9999
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0006
0.0028
0.0105
0.0326
0.0839
0.1820
0.3345
0.5261
0.7178
0.8668
0.9538
0.9896
0.9989
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0016
0.0067
0.0233
0.0676
0.1631
0.3267
0.5449
0.7631
0.9171
0.9856
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0017
0.0086
0.0352
0.1150
0.2946
0.5797
0.8649
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0020
0.0132
0.0665
0.2453
0.6226
1.0000

ndice

Tabla 6: Funci
on de distribuci
on de la variable Binomial(n, p)

0.05

0.1

0.2

0.3

0.4

p
0.5

0.6

0.7

0.8

0.9

0.95

n = 20

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

0.3585
0.7358
0.9245
0.9841
0.9974
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.1216
0.3917
0.6769
0.8670
0.9568
0.9887
0.9976
0.9996
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0115
0.0692
0.2061
0.4114
0.6296
0.8042
0.9133
0.9679
0.9900
0.9974
0.9994
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0008
0.0076
0.0355
0.1071
0.2375
0.4164
0.6080
0.7723
0.8867
0.9520
0.9829
0.9949
0.9987
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0000
0.0005
0.0036
0.0160
0.0510
0.1256
0.2500
0.4159
0.5956
0.7553
0.8725
0.9435
0.9790
0.9935
0.9984
0.9997
1.0000
1.0000
1.0000
1.0000
1.0000

0.0000
0.0000
0.0002
0.0013
0.0059
0.0207
0.0577
0.1316
0.2517
0.4119
0.5881
0.7483
0.8684
0.9423
0.9793
0.9941
0.9987
0.9998
1.0000
1.0000
1.0000

0.0000
0.0000
0.0000
0.0000
0.0003
0.0016
0.0065
0.0210
0.0565
0.1275
0.2447
0.4044
0.5841
0.7500
0.8744
0.9490
0.9840
0.9964
0.9995
1.0000
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0013
0.0051
0.0171
0.0480
0.1133
0.2277
0.3920
0.5836
0.7625
0.8929
0.9645
0.9924
0.9992
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0006
0.0026
0.0100
0.0321
0.0867
0.1958
0.3704
0.5886
0.7939
0.9308
0.9885
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0004
0.0024
0.0113
0.0432
0.1330
0.3231
0.6083
0.8784
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0003
0.0026
0.0159
0.0755
0.2642
0.6415
1.0000

n = 25

0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

0.2774
0.6424
0.8729
0.9659
0.9928
0.9988
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0718
0.2712
0.5371
0.7636
0.9020
0.9666
0.9905
0.9977
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0038
0.0274
0.0982
0.2340
0.4207
0.6167
0.7800
0.8909
0.9532
0.9827
0.9944
0.9985
0.9996
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0001
0.0016
0.0090
0.0332
0.0905
0.1935
0.3407
0.5118
0.6769
0.8106
0.9022
0.9558
0.9825
0.9940
0.9982
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0000
0.0001
0.0004
0.0024
0.0095
0.0294
0.0736
0.1536
0.2735
0.4246
0.5858
0.7323
0.8462
0.9222
0.9656
0.9868
0.9957
0.9988
0.9997
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

0.0000
0.0000
0.0000
0.0001
0.0005
0.0020
0.0073
0.0216
0.0539
0.1148
0.2122
0.3450
0.5000
0.6550
0.7878
0.8852
0.9461
0.9784
0.9927
0.9980
0.9995
0.9999
1.0000
1.0000
1.0000
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0003
0.0012
0.0043
0.0132
0.0344
0.0778
0.1538
0.2677
0.4142
0.5754
0.7265
0.8464
0.9264
0.9706
0.9905
0.9976
0.9996
0.9999
1.0000
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0005
0.0018
0.0060
0.0175
0.0442
0.0978
0.1894
0.3231
0.4882
0.6593
0.8065
0.9095
0.9668
0.9910
0.9984
0.9999
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0004
0.0015
0.0056
0.0173
0.0468
0.1091
0.2200
0.3833
0.5793
0.7660
0.9018
0.9726
0.9962
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0005
0.0023
0.0095
0.0334
0.0980
0.2364
0.4629
0.7288
0.9282
1.0000

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0012
0.0072
0.0341
0.1271
0.3576
0.7226
1.0000

ndice

Tabla 7: Funci
on de distribuci
on de la variable Poisson()

x
0
1
2
3
4
5
6
7

0.10
0.9048
0.9953
0.9998
1.0000
1.0000
1.0000
1.0000
1.0000

0.20
0.8187
0.9825
0.9989
0.9999
1.0000
1.0000
1.0000
1.0000

0.30
0.7408
0.9631
0.9964
0.9997
1.0000
1.0000
1.0000
1.0000

0.40
0.6703
0.9384
0.9921
0.9992
0.9999
1.0000
1.0000
1.0000

0.50
0.6065
0.9098
0.9856
0.9982
0.9998
1.0000
1.0000
1.0000

0.60
0.5488
0.8781
0.9769
0.9966
0.9996
1.0000
1.0000
1.0000

0.70
0.4966
0.8442
0.9659
0.9942
0.9992
0.9999
1.0000
1.0000

0.80
0.4493
0.8088
0.9526
0.9909
0.9986
0.9998
1.0000
1.0000

0.90
0.4066
0.7725
0.9371
0.9865
0.9977
0.9997
1.0000
1.0000

1.00
0.3679
0.7358
0.9197
0.9810
0.9963
0.9994
0.9999
1.0000

x
0
1
2
3
4
5
6
7
8
9

1.10
0.3329
0.6990
0.9004
0.9743
0.9946
0.9990
0.9999
1.0000
1.0000
1.0000

1.20
0.3012
0.6626
0.8795
0.9662
0.9923
0.9985
0.9997
1.0000
1.0000
1.0000

1.30
0.2725
0.6268
0.8571
0.9569
0.9893
0.9978
0.9996
0.9999
1.0000
1.0000

1.40
0.2466
0.5918
0.8335
0.9463
0.9857
0.9968
0.9994
0.9999
1.0000
1.0000

1.50
0.2231
0.5578
0.8088
0.9344
0.9814
0.9955
0.9991
0.9998
1.0000
1.0000

1.60
0.2019
0.5249
0.7834
0.9212
0.9763
0.9940
0.9987
0.9997
1.0000
1.0000

1.70
0.1827
0.4932
0.7572
0.9068
0.9704
0.9920
0.9981
0.9996
0.9999
1.0000

1.80
0.1653
0.4628
0.7306
0.8913
0.9636
0.9896
0.9974
0.9994
0.9999
1.0000

1.90
0.1496
0.4337
0.7037
0.8747
0.9559
0.9868
0.9966
0.9992
0.9998
1.0000

2.00
0.1353
0.4060
0.6767
0.8571
0.9473
0.9834
0.9955
0.9989
0.9998
1.0000

x
0
1
2
3
4
5
6
7
8
9
10
11
12

2.10
0.1225
0.3796
0.6496
0.8386
0.9379
0.9796
0.9941
0.9985
0.9997
0.9999
1.0000
1.0000
1.0000

2.20
0.1108
0.3546
0.6227
0.8194
0.9275
0.9751
0.9925
0.9980
0.9995
0.9999
1.0000
1.0000
1.0000

2.30
0.1003
0.3309
0.5960
0.7993
0.9162
0.9700
0.9906
0.9974
0.9994
0.9999
1.0000
1.0000
1.0000

2.40
0.0907
0.3084
0.5697
0.7787
0.9041
0.9643
0.9884
0.9967
0.9991
0.9998
1.0000
1.0000
1.0000

2.50
0.0821
0.2873
0.5438
0.7576
0.8912
0.9580
0.9858
0.9958
0.9989
0.9997
0.9999
1.0000
1.0000

2.60
0.0743
0.2674
0.5184
0.7360
0.8774
0.9510
0.9828
0.9947
0.9985
0.9996
0.9999
1.0000
1.0000

2.70
0.0672
0.2487
0.4936
0.7141
0.8629
0.9433
0.9794
0.9934
0.9981
0.9995
0.9999
1.0000
1.0000

2.80
0.0608
0.2311
0.4695
0.6919
0.8477
0.9349
0.9756
0.9919
0.9976
0.9993
0.9998
1.0000
1.0000

2.90
0.0550
0.2146
0.4460
0.6696
0.8318
0.9258
0.9713
0.9901
0.9969
0.9991
0.9998
0.9999
1.0000

3.00
0.0498
0.1991
0.4232
0.6472
0.8153
0.9161
0.9665
0.9881
0.9962
0.9989
0.9997
0.9999
1.0000

ndice

Tabla 8: Funci
on de distribuci
on de la variable Poisson()

x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14

3.10
0.0450
0.1847
0.4012
0.6248
0.7982
0.9057
0.9612
0.9858
0.9953
0.9986
0.9996
0.9999
1.0000
1.0000
1.0000

3.20
0.0408
0.1712
0.3799
0.6025
0.7806
0.8946
0.9554
0.9832
0.9943
0.9982
0.9995
0.9999
1.0000
1.0000
1.0000

3.30
0.0369
0.1586
0.3594
0.5803
0.7626
0.8829
0.9490
0.9802
0.9931
0.9978
0.9994
0.9998
1.0000
1.0000
1.0000

3.40
0.0334
0.1468
0.3397
0.5584
0.7442
0.8705
0.9421
0.9769
0.9917
0.9973
0.9992
0.9998
0.9999
1.0000
1.0000

3.50
0.0302
0.1359
0.3208
0.5366
0.7254
0.8576
0.9347
0.9733
0.9901
0.9967
0.9990
0.9997
0.9999
1.0000
1.0000

3.60
0.0273
0.1257
0.3027
0.5152
0.7064
0.8441
0.9267
0.9692
0.9883
0.9960
0.9987
0.9996
0.9999
1.0000
1.0000

3.70
0.0247
0.1162
0.2854
0.4942
0.6872
0.8301
0.9182
0.9648
0.9863
0.9952
0.9984
0.9995
0.9999
1.0000
1.0000

3.80
0.0224
0.1074
0.2689
0.4735
0.6678
0.8156
0.9091
0.9599
0.9840
0.9942
0.9981
0.9994
0.9998
1.0000
1.0000

3.90
0.0202
0.0992
0.2531
0.4532
0.6484
0.8006
0.8995
0.9546
0.9815
0.9931
0.9977
0.9993
0.9998
0.9999
1.0000

4.00
0.0183
0.0916
0.2381
0.4335
0.6288
0.7851
0.8893
0.9489
0.9786
0.9919
0.9972
0.9991
0.9997
0.9999
1.0000

x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

4.10
0.0166
0.0845
0.2238
0.4142
0.6093
0.7693
0.8786
0.9427
0.9755
0.9905
0.9966
0.9989
0.9997
0.9999
1.0000
1.0000
1.0000

4.20
0.0150
0.0780
0.2102
0.3954
0.5898
0.7531
0.8675
0.9361
0.9721
0.9889
0.9959
0.9986
0.9996
0.9999
1.0000
1.0000
1.0000

4.30
0.0136
0.0719
0.1974
0.3772
0.5704
0.7367
0.8558
0.9290
0.9683
0.9871
0.9952
0.9983
0.9995
0.9998
1.0000
1.0000
1.0000

4.40
0.0123
0.0663
0.1851
0.3594
0.5512
0.7199
0.8436
0.9214
0.9642
0.9851
0.9943
0.9980
0.9993
0.9998
0.9999
1.0000
1.0000

4.50
0.0111
0.0611
0.1736
0.3423
0.5321
0.7029
0.8311
0.9134
0.9597
0.9829
0.9933
0.9976
0.9992
0.9997
0.9999
1.0000
1.0000

4.60
0.0101
0.0563
0.1626
0.3257
0.5132
0.6858
0.8180
0.9049
0.9549
0.9805
0.9922
0.9971
0.9990
0.9997
0.9999
1.0000
1.0000

4.70
0.0091
0.0518
0.1523
0.3097
0.4946
0.6684
0.8046
0.8960
0.9497
0.9778
0.9910
0.9966
0.9988
0.9996
0.9999
1.0000
1.0000

4.80
0.0082
0.0477
0.1425
0.2942
0.4763
0.6510
0.7908
0.8867
0.9442
0.9749
0.9896
0.9960
0.9986
0.9995
0.9999
1.0000
1.0000

4.90
0.0074
0.0439
0.1333
0.2793
0.4582
0.6335
0.7767
0.8769
0.9382
0.9717
0.9880
0.9953
0.9983
0.9994
0.9998
0.9999
1.0000

5.00
0.0067
0.0404
0.1247
0.2650
0.4405
0.6160
0.7622
0.8666
0.9319
0.9682
0.9863
0.9945
0.9980
0.9993
0.9998
0.9999
1.0000

ndice

Tabla 9: Funci
on de distribuci
on de la variable Poisson()

x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35

6
0.0025
0.0174
0.0620
0.1512
0.2851
0.4457
0.6063
0.7440
0.8472
0.9161
0.9574
0.9799
0.9912
0.9964
0.9986
0.9995
0.9998
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

6.5
0.0015
0.0113
0.0430
0.1118
0.2237
0.3690
0.5265
0.6728
0.7916
0.8774
0.9332
0.9661
0.9840
0.9929
0.9970
0.9988
0.9996
0.9998
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

7
0.0009
0.0073
0.0296
0.0818
0.1730
0.3007
0.4497
0.5987
0.7291
0.8305
0.9015
0.9467
0.9730
0.9872
0.9943
0.9976
0.9990
0.9996
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

7.5
0.0006
0.0047
0.0203
0.0591
0.1321
0.2414
0.3782
0.5246
0.6620
0.7764
0.8622
0.9208
0.9573
0.9784
0.9897
0.9954
0.9980
0.9992
0.9997
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

8
0.0003
0.0030
0.0138
0.0424
0.0996
0.1912
0.3134
0.4530
0.5925
0.7166
0.8159
0.8881
0.9362
0.9658
0.9827
0.9918
0.9963
0.9984
0.9993
0.9997
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

8.5
0.0002
0.0019
0.0093
0.0301
0.0744
0.1496
0.2562
0.3856
0.5231
0.6530
0.7634
0.8487
0.9091
0.9486
0.9726
0.9862
0.9934
0.9970
0.9987
0.9995
0.9998
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

9
0.0001
0.0012
0.0062
0.0212
0.0550
0.1157
0.2068
0.3239
0.4557
0.5874
0.7060
0.8030
0.8758
0.9261
0.9585
0.9780
0.9889
0.9947
0.9976
0.9989
0.9996
0.9998
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

9.5
0.0001
0.0008
0.0042
0.0149
0.0403
0.0885
0.1649
0.2687
0.3918
0.5218
0.6453
0.7520
0.8364
0.8981
0.9400
0.9665
0.9823
0.9911
0.9957
0.9980
0.9991
0.9996
0.9999
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

10
0.0000
0.0005
0.0028
0.0103
0.0293
0.0671
0.1301
0.2202
0.3328
0.4579
0.5830
0.6968
0.7916
0.8645
0.9165
0.9513
0.9730
0.9857
0.9928
0.9965
0.9984
0.9993
0.9997
0.9999
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000

15
0.0000
0.0000
0.0000
0.0002
0.0009
0.0028
0.0076
0.0180
0.0374
0.0699
0.1185
0.1848
0.2676
0.3632
0.4657
0.5681
0.6641
0.7489
0.8195
0.8752
0.9170
0.9469
0.9673
0.9805
0.9888
0.9938
0.9967
0.9983
0.9991
0.9996
0.9998
0.9999
1.0000
1.0000
1.0000
1.0000

ndice

Tabla 10: Funci


on de distribuci
on de la variable Normal(0,1)

0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
4.0

0.00
0.500000
0.539828
0.579260
0.617911
0.655422
0.691462
0.725747
0.758036
0.788145
0.815940
0.841345
0.864334
0.884930
0.903200
0.919243
0.933193
0.945201
0.955435
0.964070
0.971283
0.977250
0.982136
0.986097
0.989276
0.991802
0.993790
0.995339
0.996533
0.997445
0.998134
0.998650
0.999032
0.999313
0.999517
0.999663
0.999767
0.999841
0.999892
0.999928
0.999952
0.999968

0.01
0.503989
0.543795
0.583166
0.621720
0.659097
0.694974
0.729069
0.761148
0.791030
0.818589
0.843752
0.866500
0.886861
0.904902
0.920730
0.934478
0.946301
0.956367
0.964852
0.971933
0.977784
0.982571
0.986447
0.989556
0.992024
0.993963
0.995473
0.996636
0.997523
0.998193
0.998694
0.999065
0.999336
0.999534
0.999675
0.999776
0.999847
0.999896
0.999931
0.999954
0.999970

0.02
0.507978
0.547758
0.587064
0.625516
0.662757
0.698468
0.732371
0.764238
0.793892
0.821214
0.846136
0.868643
0.888768
0.906582
0.922196
0.935745
0.947384
0.957284
0.965620
0.972571
0.978308
0.982997
0.986791
0.989830
0.992240
0.994132
0.995604
0.996736
0.997599
0.998250
0.998736
0.999096
0.999359
0.999550
0.999687
0.999784
0.999853
0.999900
0.999933
0.999956
0.999971

0.03
0.511966
0.551717
0.590954
0.629300
0.666402
0.701944
0.735653
0.767305
0.796731
0.823814
0.848495
0.870762
0.890651
0.908241
0.923641
0.936992
0.948449
0.958185
0.966375
0.973197
0.978822
0.983414
0.987126
0.990097
0.992451
0.994297
0.995731
0.996833
0.997673
0.998305
0.998777
0.999126
0.999381
0.999566
0.999698
0.999792
0.999858
0.999904
0.999936
0.999958
0.999972

0.04
0.515953
0.555670
0.594835
0.633072
0.670031
0.705401
0.738914
0.770350
0.799546
0.826391
0.850830
0.872857
0.892512
0.909877
0.925066
0.938220
0.949497
0.959070
0.967116
0.973810
0.979325
0.983823
0.987455
0.990358
0.992656
0.994457
0.995855
0.996928
0.997744
0.998359
0.998817
0.999155
0.999402
0.999581
0.999709
0.999800
0.999864
0.999908
0.999938
0.999959
0.999973

0.05
0.519939
0.559618
0.598706
0.636831
0.673645
0.708840
0.742154
0.773373
0.802337
0.828944
0.853141
0.874928
0.894350
0.911492
0.926471
0.939429
0.950529
0.959941
0.967843
0.974412
0.979818
0.984222
0.987776
0.990613
0.992857
0.994614
0.995975
0.997020
0.997814
0.998411
0.998856
0.999184
0.999423
0.999596
0.999720
0.999807
0.999869
0.999912
0.999941
0.999961
0.999974

0.06
0.523922
0.563559
0.602568
0.640576
0.677242
0.712260
0.745373
0.776373
0.805105
0.831472
0.855428
0.876976
0.896165
0.913085
0.927855
0.940620
0.951543
0.960796
0.968557
0.975002
0.980301
0.984614
0.988089
0.990863
0.993053
0.994766
0.996093
0.997110
0.997882
0.998462
0.998893
0.999211
0.999443
0.999610
0.999730
0.999815
0.999874
0.999915
0.999943
0.999963
0.999975

0.07
0.527903
0.567495
0.606420
0.644309
0.680822
0.715661
0.748571
0.779350
0.807850
0.833977
0.857690
0.879000
0.897958
0.914657
0.929219
0.941792
0.952540
0.961636
0.969258
0.975581
0.980774
0.984997
0.988396
0.991106
0.993244
0.994915
0.996207
0.997197
0.997948
0.998511
0.998930
0.999238
0.999462
0.999624
0.999740
0.999822
0.999879
0.999918
0.999946
0.999964
0.999976

0.08
0.531881
0.571424
0.610261
0.648027
0.684386
0.719043
0.751748
0.782305
0.810570
0.836457
0.859929
0.881000
0.899727
0.916207
0.930563
0.942947
0.953521
0.962462
0.969946
0.976148
0.981237
0.985371
0.988696
0.991344
0.993431
0.995060
0.996319
0.997282
0.998012
0.998559
0.998965
0.999264
0.999481
0.999638
0.999749
0.999828
0.999883
0.999922
0.999948
0.999966
0.999977

0.09
0.535856
0.575345
0.614092
0.651732
0.687933
0.722405
0.754903
0.785236
0.813267
0.838913
0.862143
0.882977
0.901475
0.917736
0.931888
0.944083
0.954486
0.963273
0.970621
0.976705
0.981691
0.985738
0.988989
0.991576
0.993613
0.995201
0.996427
0.997365
0.998074
0.998605
0.998999
0.999289
0.999499
0.999651
0.999758
0.999835
0.999888
0.999925
0.999950
0.999967
0.999978

ndice

Tabla 11: Inversa de la funci


on de distribuci
on de la variable Chi-Cuadrado.
Gr.Lib.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100

20.005
0.000039
0.010025
0.071722
0.206989
0.411742
0.675727
0.989256
1.344413
1.734933
2.155856
2.603222
3.073824
3.565035
4.074675
4.600916
5.142205
5.697217
6.264805
6.843971
7.433844
8.033653
8.642716
9.260425
9.886234
10.519652
11.160237
11.807587
12.461336
13.121149
13.786720
20.706535
27.990749
35.534491
43.275180
51.171932
59.196304
67.327563

20.01
0.000157
0.020101
0.114832
0.297109
0.554298
0.872090
1.239042
1.646497
2.087901
2.558212
3.053484
3.570569
4.106915
4.660425
5.229349
5.812212
6.407760
7.014911
7.632730
8.260398
8.897198
9.542492
10.195716
10.856361
11.523975
12.198147
12.878504
13.564710
14.256455
14.953457
22.164261
29.706683
37.484852
45.441717
53.540077
61.754079
70.064895

20.025
0.000982
0.050636
0.215795
0.484419
0.831212
1.237344
1.689869
2.179731
2.700389
3.246973
3.815748
4.403789
5.008751
5.628726
6.262138
6.907664
7.564186
8.230746
8.906516
9.590777
10.282898
10.982321
11.688552
12.401150
13.119720
13.843905
14.573383
15.307861
16.047072
16.790772
24.433039
32.357364
40.481748
48.757565
57.153173
65.646618
74.221927

20.05
0.003932
0.102587
0.351846
0.710723
1.145476
1.635383
2.167350
2.732637
3.325113
3.940299
4.574813
5.226029
5.891864
6.570631
7.260944
7.961646
8.671760
9.390455
10.117013
10.850811
11.591305
12.338015
13.090514
13.848425
14.611408
15.379157
16.151396
16.927875
17.708366
18.492661
26.509303
34.764252
43.187958
51.739278
60.391478
69.126030
77.929465

20.1
0.015791
0.210721
0.584374
1.063623
1.610308
2.204131
2.833107
3.489539
4.168159
4.865182
5.577785
6.303796
7.041505
7.789534
8.546756
9.312236
10.085186
10.864936
11.650910
12.442609
13.239598
14.041493
14.847956
15.658684
16.473408
17.291885
18.113896
18.939242
19.767744
20.599235
29.050523
37.688648
46.458888
55.328940
64.277844
73.291090
82.358136

ndice

Tabla 12: Inversa de la funci


on de distribuci
on de la variable Chi-Cuadrado.
Gr.Lib.
20.9
1
2.705543
2
4.605170
3
6.251389
4
7.779440
5
9.236357
6
10.644641
7
12.017037
8
13.361566
9
14.683657
10 15.987179
11 17.275009
12 18.549348
13 19.811929
14 21.064144
15 22.307130
16 23.541829
17 24.769035
18 25.989423
19 27.203571
20 28.411981
21 29.615089
22 30.813282
23 32.006900
24 33.196244
25 34.381587
26 35.563171
27 36.741217
28 37.915923
29 39.087470
30 40.256024
40 51.805057
50 63.167121
60 74.397006
70 85.527043
80 96.578204
90 107.565009
100 118.498004

20.95
3.841459
5.991465
7.814728
9.487729
11.070498
12.591587
14.067140
15.507313
16.918978
18.307038
19.675138
21.026070
22.362032
23.684791
24.995790
26.296228
27.587112
28.869299
30.143527
31.410433
32.670573
33.924438
35.172462
36.415029
37.652484
38.885139
40.113272
41.337138
42.556968
43.772972
55.758479
67.504807
79.081944
90.531225
101.879474
113.145270
124.342113

20.975
5.023886
7.377759
9.348404
11.143287
12.832502
14.449375
16.012764
17.534546
19.022768
20.483177
21.920049
23.336664
24.735605
26.118948
27.488393
28.845351
30.191009
31.526378
32.852327
34.169607
35.478876
36.780712
38.075627
39.364077
40.646469
41.923170
43.194511
44.460792
45.722286
46.979242
59.341707
71.420195
83.297675
95.023184
106.628568
118.135893
129.561197

20.99
6.634897
9.210340
11.344867
13.276704
15.086272
16.811894
18.475307
20.090235
21.665994
23.209251
24.724970
26.216967
27.688250
29.141238
30.577914
31.999927
33.408664
34.805306
36.190869
37.566235
38.932173
40.289360
41.638398
42.979820
44.314105
45.641683
46.962942
48.278236
49.587884
50.892181
63.690740
76.153891
88.379419
100.425184
112.328793
124.116319
135.806723

20.995
7.879439
10.596635
12.838156
14.860259
16.749602
18.547584
20.277740
21.954955
23.589351
25.188180
26.756849
28.299519
29.819471
31.319350
32.801321
34.267187
35.718466
37.156451
38.582257
39.996846
41.401065
42.795655
44.181275
45.558512
46.927890
48.289882
49.644915
50.993376
52.335618
53.671962
66.765962
79.489978
91.951698
104.214899
116.321057
128.298944
140.169489

ndice

Tabla 13: Inversa de la funci


on de distribuci
on de la variable t-Student.
Gr.Lib.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
100
1000

t0.9
3.077684
1.885618
1.637745
1.533206
1.475884
1.439756
1.414924
1.396815
1.383029
1.372184
1.363430
1.356217
1.350171
1.345030
1.340606
1.336757
1.333379
1.330391
1.327728
1.325341
1.323188
1.321237
1.319460
1.317836
1.316345
1.314972
1.313703
1.312527
1.311434
1.310415
1.303077
1.298714
1.290075
1.282398

t0.95
6.313752
2.919986
2.353380
2.131847
2.015048
1.943180
1.894579
1.859548
1.833113
1.812461
1.795885
1.782288
1.770933
1.761310
1.753050
1.745884
1.739607
1.734064
1.729133
1.724718
1.720743
1.717144
1.713872
1.710882
1.708141
1.705618
1.703288
1.701131
1.699127
1.697261
1.683851
1.675905
1.660234
1.646379

t0.975
12.706205
4.302653
3.182449
2.776445
2.570582
2.446912
2.364624
2.306004
2.262157
2.228139
2.200985
2.178813
2.160369
2.144787
2.131450
2.119905
2.109816
2.100922
2.093024
2.085963
2.079614
2.073873
2.068658
2.063899
2.059539
2.055529
2.051831
2.048407
2.045230
2.042272
2.021075
2.008559
1.983972
1.962339

t0.99
31.820516
6.964557
4.540703
3.746954
3.364930
3.142668
2.997952
2.896459
2.821438
2.763769
2.718079
2.680998
2.650309
2.624494
2.602480
2.583487
2.566934
2.552380
2.539483
2.527977
2.517648
2.508325
2.499867
2.492159
2.485107
2.478630
2.472660
2.467140
2.462021
2.457262
2.423257
2.403272
2.364217
2.330083

t0.995
63.656741
9.924843
5.840909
4.604097
4.032159
3.707428
3.499483
3.355387
3.249836
3.169273
3.105806
3.054540
3.012276
2.976843
2.946713
2.920782
2.898231
2.878440
2.860935
2.845340
2.831360
2.818756
2.807336
2.796940
2.787436
2.778715
2.770683
2.763262
2.756386
2.749996
2.704459
2.677793
2.625891
2.580755

ndice

Tabla 14: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.9.

d./n.
1
1 39.863458
2
8.526316
3
5.538319
4
4.544771
5
4.060420
6
3.775950
7
3.589428
8
3.457919
9
3.360303
10
3.285015
11
3.225202
12
3.176549
13
3.136205
14
3.102213
15
3.073186
16
3.048110
17
3.026232
18
3.006977
19
2.989900
20
2.974653
21
2.960956
22
2.948585
23
2.937356
24
2.927117
25
2.917745
26
2.909132
27
2.901192
28
2.893846
29
2.887033
30
2.880695
40
2.835354
60
2.791068
120
2.747807

2
49.500000
9.000000
5.462383
4.324555
3.779716
3.463304
3.257442
3.113118
3.006452
2.924466
2.859511
2.806796
2.763167
2.726468
2.695173
2.668171
2.644638
2.623947
2.605612
2.589254
2.574569
2.561314
2.549290
2.538332
2.528305
2.519096
2.510609
2.502761
2.495483
2.488716
2.440369
2.393255
2.347338

3
53.593245
9.161790
5.390773
4.190860
3.619477
3.288762
3.074072
2.923796
2.812863
2.727673
2.660229
2.605525
2.560273
2.522224
2.489788
2.461811
2.437434
2.416005
2.397022
2.380087
2.364888
2.351170
2.338727
2.327390
2.317017
2.307491
2.298712
2.290595
2.283069
2.276071
2.226092
2.177411
2.129991

4
55.832961
9.243416
5.342644
4.107250
3.520196
3.180763
2.960534
2.806426
2.692680
2.605336
2.536188
2.480102
2.433705
2.394692
2.361433
2.332745
2.307747
2.285772
2.266303
2.248934
2.233345
2.219274
2.206512
2.194882
2.184242
2.174469
2.165463
2.157136
2.149415
2.142235
2.090950
2.040986
1.992302

5
57.240077
9.292626
5.309157
4.050579
3.452982
3.107512
2.883344
2.726447
2.610613
2.521641
2.451184
2.394022
2.346724
2.306943
2.273022
2.243758
2.218253
2.195827
2.175956
2.158227
2.142311
2.127944
2.114911
2.103033
2.092165
2.082182
2.072981
2.064473
2.056583
2.049246
1.996820
1.945710
1.895875

6
58.204416
9.325530
5.284732
4.009749
3.404507
3.054551
2.827392
2.668335
2.550855
2.460582
2.389067
2.331024
2.282979
2.242559
2.208082
2.178329
2.152392
2.129581
2.109364
2.091322
2.075123
2.060497
2.047227
2.035132
2.024062
2.013893
2.004519
1.995851
1.987811
1.980333
1.926879
1.874720
1.823812

7
58.905953
9.349081
5.266195
3.978966
3.367899
3.014457
2.784930
2.624135
2.505313
2.413965
2.341566
2.282780
2.234103
2.193134
2.158178
2.128003
2.101689
2.078541
2.058020
2.039703
2.023252
2.008397
1.994915
1.982625
1.971376
1.961039
1.951510
1.942696
1.934521
1.926916
1.872522
1.819393
1.767476

8
59.438981
9.366770
5.251671
3.954940
3.339276
2.983036
2.751580
2.589349
2.469406
2.377150
2.303997
2.244575
2.195350
2.153904
2.118530
2.087982
2.061336
2.037889
2.017098
1.998534
1.981858
1.966796
1.953124
1.940658
1.929246
1.918758
1.909087
1.900141
1.891842
1.884121
1.828863
1.774829
1.721959

9
59.857585
9.380544
5.239996
3.935671
3.316281
2.957741
2.724678
2.561238
2.440340
2.347306
2.273502
2.213525
2.163820
2.121955
2.086209
2.055331
2.028388
2.004674
1.983639
1.964853
1.947974
1.932725
1.918880
1.906255
1.894693
1.884067
1.874267
1.865199
1.856786
1.848958
1.792902
1.738020
1.684248

ndice

Tabla 15: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.9.

d./n.
10
1 60.194980
2
9.391573
3
5.230411
4
3.919876
5
3.297402
6
2.936935
7
2.702510
8
2.538037
9
2.416316
10 2.322604
11 2.248230
12 2.187764
13 2.137635
14 2.095396
15 2.059319
16 2.028145
17 2.000936
18 1.976980
19 1.955725
20 1.936738
21 1.919674
22 1.904255
23 1.890252
24 1.877480
25 1.865782
26 1.855028
27 1.845109
28 1.835930
29 1.827412
30 1.819485
40 1.762686
60 1.707009
120 1.652379

12
60.705212
9.408132
5.215618
3.895527
3.268239
2.904721
2.668111
2.501958
2.378885
2.284051
2.208725
2.147437
2.096588
2.053714
2.017070
1.985386
1.957716
1.933340
1.911702
1.892363
1.874975
1.859255
1.844974
1.831942
1.820003
1.809023
1.798891
1.789513
1.780807
1.772704
1.714563
1.657429
1.601204

15
61.220343
9.424711
5.200313
3.870360
3.238011
2.871222
2.632230
2.464216
2.339624
2.243515
2.167094
2.104851
2.053160
2.009535
1.972216
1.939921
1.911695
1.886811
1.864705
1.844935
1.827148
1.811057
1.796431
1.783076
1.770834
1.759571
1.749173
1.739543
1.730600
1.722272
1.662411
1.603368
1.545002

20
61.740292
9.441309
5.184482
3.844338
3.206650
2.836340
2.594732
2.424637
2.298322
2.200744
2.123046
2.059677
2.006982
1.962453
1.924314
1.891272
1.862361
1.836845
1.814155
1.793843
1.775551
1.758989
1.743921
1.730152
1.717520
1.705890
1.695144
1.685187
1.675932
1.667309
1.605151
1.543486
1.482072

24
30
40
60
120
62.002046 62.264970 62.529052 62.794279 63.060639
9.449616
9.457927
9.466244
9.474565
9.482891
5.176365
5.168111
5.159719
5.151187
5.142513
3.830994
3.817422
3.803615
3.789568
3.775275
3.190523
3.174084
3.157324
3.140230
3.122792
2.818345
2.799960
2.781169
2.761952
2.742290
2.575327
2.555457
2.535096
2.514218
2.492792
2.404097
2.383016
2.361362
2.339097
2.316181
2.276827
2.254720
2.231958
2.208493
2.184270
2.178426
2.155426
2.131691
2.107161
2.081765
2.100005
2.076214
2.051610
2.026118
1.999652
2.035993
2.011492
1.986102
1.959732
1.932278
1.982718
1.957575
1.931466
1.904287
1.875915
1.937663
1.911933
1.885163
1.857234
1.828001
1.899044
1.872774
1.845393
1.816764
1.786720
1.865561
1.838792
1.810841
1.781557
1.750747
1.836242
1.809010
1.780528
1.750627
1.719090
1.810348
1.782685
1.753706
1.723222
1.690993
1.787307
1.759241
1.729793
1.698758
1.665869
1.766667
1.738223
1.708334
1.676776
1.643256
1.748068
1.719268
1.688962
1.656907
1.622782
1.731217
1.702083
1.671382
1.638853
1.604147
1.715878
1.686428
1.655352
1.622371
1.587107
1.701854
1.672104
1.640673
1.607260
1.571459
1.688981
1.658947
1.627177
1.593350
1.557031
1.677122
1.646819
1.614725
1.580502
1.543683
1.666160
1.635601
1.603198
1.568595
1.531293
1.655997
1.625193
1.592496
1.557527
1.519759
1.646547
1.615511
1.582531
1.547210
1.508990
1.637737
1.606479
1.573228
1.537569
1.498912
1.574111
1.541076
1.505625
1.467157
1.424757
1.510718
1.475539
1.437342
1.395201
1.347568
1.447226
1.409379
1.367602
1.320340
1.264573

ndice

Tabla 16: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.95.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
161.447639
18.512821
10.127964
7.708647
6.607891
5.987378
5.591448
5.317655
5.117355
4.964603
4.844336
4.747225
4.667193
4.600110
4.543077
4.493998
4.451322
4.413873
4.380750
4.351244
4.324794
4.300950
4.279344
4.259677
4.241699
4.225201
4.210008
4.195972
4.182964
4.170877
4.084746
4.001191
3.920124

2
199.500000
19.000000
9.552094
6.944272
5.786135
5.143253
4.737414
4.458970
4.256495
4.102821
3.982298
3.885294
3.805565
3.738892
3.682320
3.633723
3.591531
3.554557
3.521893
3.492828
3.466800
3.443357
3.422132
3.402826
3.385190
3.369016
3.354131
3.340386
3.327654
3.315830
3.231727
3.150411
3.071779

3
215.707345
19.164292
9.276628
6.591382
5.409451
4.757063
4.346831
4.066181
3.862548
3.708265
3.587434
3.490295
3.410534
3.343889
3.287382
3.238872
3.196777
3.159908
3.127350
3.098391
3.072467
3.049125
3.027998
3.008787
2.991241
2.975154
2.960351
2.946685
2.934030
2.922277
2.838745
2.758078
2.680168

4
224.583241
19.246794
9.117182
6.388233
5.192168
4.533677
4.120312
3.837853
3.633089
3.478050
3.356690
3.259167
3.179117
3.112250
3.055568
3.006917
2.964708
2.927744
2.895107
2.866081
2.840100
2.816708
2.795539
2.776289
2.758710
2.742594
2.727765
2.714076
2.701399
2.689628
2.605975
2.525215
2.447237

5
230.161878
19.296410
9.013455
6.256057
5.050329
4.387374
3.971523
3.687499
3.481659
3.325835
3.203874
3.105875
3.025438
2.958249
2.901295
2.852409
2.809996
2.772853
2.740058
2.710890
2.684781
2.661274
2.639999
2.620654
2.602987
2.586790
2.571886
2.558128
2.545386
2.533555
2.449466
2.368270
2.289851

6
233.986000
19.329534
8.940645
6.163132
4.950288
4.283866
3.865969
3.580580
3.373754
3.217175
3.094613
2.996120
2.915269
2.847726
2.790465
2.741311
2.698660
2.661305
2.628318
2.598978
2.572712
2.549061
2.527655
2.508189
2.490410
2.474109
2.459108
2.445259
2.432434
2.420523
2.335852
2.254053
2.175006

7
236.768400
19.353218
8.886743
6.094211
4.875872
4.206658
3.787044
3.500464
3.292746
3.135465
3.012330
2.913358
2.832098
2.764199
2.706627
2.657197
2.614299
2.576722
2.543534
2.514011
2.487578
2.463774
2.442226
2.422629
2.404728
2.388314
2.373208
2.359260
2.346342
2.334344
2.249024
2.166541
2.086770

8
238.882695
19.370993
8.845238
6.041044
4.818320
4.146804
3.725725
3.438101
3.229583
3.071658
2.947990
2.848565
2.766913
2.698672
2.640797
2.591096
2.547955
2.510158
2.476770
2.447064
2.420462
2.396503
2.374812
2.355081
2.337057
2.320527
2.305313
2.291264
2.278251
2.266163
2.180170
2.096968
2.016426

9
240.543255
19.384826
8.812300
5.998779
4.772466
4.099016
3.676675
3.388130
3.178893
3.020383
2.896223
2.796375
2.714356
2.645791
2.587626
2.537667
2.494291
2.456281
2.422699
2.392814
2.366048
2.341937
2.320105
2.300244
2.282097
2.265453
2.250131
2.235982
2.222874
2.210697
2.124029
2.040098
1.958763

ndice

Tabla 17: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.95.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
241.881747
19.395897
8.785525
5.964371
4.735063
4.059963
3.636523
3.347163
3.137280
2.978237
2.853625
2.753387
2.671024
2.602155
2.543719
2.493513
2.449916
2.411702
2.377934
2.347878
2.320953
2.296696
2.274728
2.254739
2.236474
2.219718
2.204292
2.190044
2.176844
2.164580
2.077248
1.992592
1.910461

12
243.906038
19.412511
8.744641
5.911729
4.677704
3.999935
3.574676
3.283939
3.072947
2.912977
2.787569
2.686637
2.603661
2.534243
2.475313
2.424660
2.380654
2.342067
2.307954
2.277581
2.250362
2.225831
2.203607
2.183380
2.164891
2.147926
2.132303
2.117869
2.104493
2.092063
2.003459
1.917396
1.833695

15
245.949926
19.429135
8.702870
5.857805
4.618759
3.938058
3.510740
3.218406
3.006102
2.845017
2.718640
2.616851
2.533110
2.463003
2.403447
2.352223
2.307693
2.268622
2.234063
2.203274
2.175670
2.150778
2.128217
2.107673
2.088887
2.071642
2.055755
2.041071
2.027458
2.014804
1.924463
1.836437
1.750497

20
248.013082
19.445768
8.660190
5.802542
4.558131
3.874189
3.444525
3.150324
2.936455
2.774016
2.646445
2.543588
2.458882
2.387896
2.327535
2.275570
2.230354
2.190648
2.155497
2.124155
2.096033
2.070656
2.047638
2.026664
2.007471
1.989842
1.973590
1.958561
1.944620
1.931653
1.838859
1.747984
1.658680

24
249.051775
19.454089
8.638501
5.774389
4.527153
3.841457
3.410494
3.115240
2.900474
2.737248
2.608974
2.505482
2.420196
2.348678
2.287826
2.235405
2.189766
2.149665
2.114143
2.082454
2.054004
2.028319
2.005009
1.983760
1.964306
1.946428
1.929940
1.914686
1.900531
1.887360
1.792937
1.700117
1.608437

30
250.095148
19.462411
8.616576
5.745877
4.495712
3.808164
3.375808
3.079406
2.863652
2.699551
2.570489
2.466279
2.380334
2.308207
2.246789
2.193841
2.147708
2.107143
2.071186
2.039086
2.010248
1.984195
1.960537
1.938957
1.919188
1.901010
1.884236
1.868709
1.854293
1.840872
1.744432
1.649141
1.554343

40
251.143153
19.470736
8.594411
5.716998
4.463793
3.774286
3.340430
3.042778
2.825933
2.660855
2.530905
2.425880
2.339180
2.266350
2.204276
2.150711
2.103998
2.062885
2.026410
1.993819
1.964515
1.938018
1.913938
1.891955
1.871801
1.853255
1.836129
1.820263
1.805523
1.791790
1.692797
1.594273
1.495202

60
252.195739
19.479064
8.572004
5.687744
4.431380
3.739797
3.304323
3.005303
2.787249
2.621077
2.490123
2.384166
2.296596
2.222950
2.160105
2.105813
2.058411
2.016643
1.979544
1.946358
1.916486
1.889445
1.864844
1.842360
1.821727
1.802719
1.785149
1.768857
1.753704
1.739574
1.637252
1.534314
1.429013

120
253.252854
19.487394
8.549351
5.658105
4.398454
3.704667
3.267445
2.966923
2.747525
2.580122
2.448024
2.340995
2.252414
2.177811
2.114056
2.058895
2.010663
1.968100
1.930237
1.896318
1.865739
1.838018
1.812760
1.789642
1.768395
1.748795
1.730650
1.713800
1.698107
1.683452
1.576610
1.467267
1.351886

ndice

Tabla 18: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.975.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
647.789011
38.506329
17.443443
12.217863
10.006982
8.813101
8.072669
7.570882
7.209283
6.936728
6.724130
6.553769
6.414254
6.297939
6.199501
6.115127
6.042013
5.978052
5.921631
5.871494
5.826648
5.786299
5.749805
5.716639
5.686366
5.658624
5.633109
5.609564
5.587768
5.567535
5.423937
5.285611
5.152331

2
799.500000
39.000000
16.044106
10.649111
8.433621
7.259856
6.541520
6.059467
5.714705
5.456396
5.255889
5.095867
4.965266
4.856698
4.765048
4.686665
4.618874
4.559672
4.507528
4.461255
4.419918
4.382768
4.349202
4.318726
4.290932
4.265483
4.242094
4.220525
4.200572
4.182061
4.050992
3.925265
3.804638

3
864.162972
39.165495
15.439182
9.979199
7.763589
6.598799
5.889819
5.415962
5.078119
4.825621
4.630025
4.474185
4.347178
4.241728
4.152804
4.076823
4.011163
3.953863
3.903428
3.858699
3.818761
3.782886
3.750486
3.721080
3.694273
3.669736
3.647192
3.626408
3.607187
3.589359
3.463260
3.342520
3.226890

4
899.583310
39.248418
15.100979
9.604530
7.387886
6.227161
5.522594
5.052632
4.718078
4.468342
4.275072
4.121209
3.995898
3.891914
3.804271
3.729417
3.664754
3.608344
3.558706
3.514695
3.475408
3.440126
3.408268
3.379359
3.353009
3.328894
3.306741
3.286321
3.267438
3.249925
3.126114
3.007659
2.894308

5
921.847903
39.298228
14.884823
9.364471
7.146382
5.987565
5.285237
4.817276
4.484411
4.236086
4.043998
3.891134
3.766674
3.663423
3.576415
3.502116
3.437944
3.381968
3.332718
3.289056
3.250084
3.215087
3.183488
3.154816
3.128684
3.104770
3.082802
3.062554
3.043830
3.026466
2.903722
2.786315
2.673988

6
937.111083
39.331458
14.734718
9.197311
6.977702
5.819757
5.118597
4.651696
4.319722
4.072131
3.880651
3.728292
3.604256
3.501365
3.414665
3.340631
3.276689
3.220915
3.171844
3.128340
3.089509
3.054639
3.023154
2.994586
2.968549
2.944720
2.922831
2.902655
2.883998
2.866696
2.744382
2.627370
2.515401

7
948.216889
39.355205
14.624395
9.074141
6.853076
5.695470
4.994909
4.528562
4.197047
3.949824
3.758638
3.606515
3.482669
3.379933
3.293360
3.219431
3.155577
3.099877
3.050868
3.007416
2.968630
2.933799
2.902347
2.873808
2.847795
2.823988
2.802118
2.781959
2.763317
2.746027
2.623781
2.506792
2.394794

8
956.656221
39.373022
14.539887
8.979580
6.757172
5.599623
4.899341
4.433260
4.101956
3.854891
3.663819
3.511777
3.387987
3.285288
3.198738
3.124822
3.060973
3.005271
2.956257
2.912797
2.873999
2.839155
2.807689
2.779135
2.753106
2.729283
2.707396
2.687220
2.668562
2.651256
2.528863
2.411672
2.299410

9
963.284579
39.386883
14.473081
8.904682
6.681054
5.523407
4.823217
4.357233
4.025994
3.778963
3.587899
3.435846
3.312032
3.209300
3.122712
3.048753
2.984859
2.929112
2.880052
2.836546
2.797704
2.762815
2.731307
2.702711
2.676642
2.652780
2.630856
2.610643
2.591950
2.574610
2.451939
2.334406
2.221730

ndice

Tabla 19: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.975.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
968.627444
39.397975
14.418942
8.843881
6.619154
5.461324
4.761116
4.295127
3.963865
3.716792
3.525672
3.373553
3.249668
3.146861
3.060197
2.986163
2.922195
2.866376
2.817245
2.773671
2.734764
2.699813
2.668244
2.639590
2.613466
2.589551
2.567576
2.547315
2.528575
2.511191
2.388161
2.270198
2.157011

12
976.707950
39.414615
14.336552
8.751159
6.524549
5.366244
4.665830
4.199667
3.868220
3.620945
3.429613
3.277277
3.153175
3.050155
2.963282
2.889048
2.824886
2.768881
2.719574
2.675831
2.636762
2.601657
2.569941
2.541148
2.514890
2.490848
2.468752
2.448375
2.429524
2.412034
2.288157
2.169192
2.054820

15
984.866841
39.431261
14.252711
8.656541
6.427728
5.268667
4.567787
4.101213
3.769357
3.521673
3.329935
3.177201
3.052713
2.949321
2.862093
2.787518
2.723032
2.666719
2.617118
2.573096
2.533762
2.498405
2.466451
2.437429
2.410954
2.386705
2.364412
2.343847
2.324816
2.307154
2.181903
2.061308
1.944992

20
993.102805
39.447911
14.167381
8.559943
6.328555
5.168401
4.466740
3.999453
3.666906
3.418544
3.226145
3.072773
2.947671
2.843691
2.755902
2.680793
2.615799
2.559003
2.508943
2.464484
2.424735
2.388983
2.356652
2.327271
2.300455
2.275879
2.253274
2.232411
2.213095
2.195160
2.067714
1.944470
1.824920

24
997.249245
39.456238
14.124146
8.510873
6.278040
5.117192
4.414999
3.947220
3.614196
3.365369
3.172519
3.018711
2.893191
2.788811
2.700640
2.625166
2.559824
2.502697
2.452321
2.407562
2.367526
2.331500
2.298907
2.269277
2.242222
2.217418
2.194595
2.173522
2.154006
2.135879
2.006868
1.881696
1.759725

30
1001.414408
39.464566
14.080523
8.461274
6.226879
5.065227
4.362393
3.894016
3.560410
3.311017
3.117617
2.963278
2.837247
2.732377
2.643735
2.567813
2.502042
2.444504
2.393736
2.348602
2.308208
2.271840
2.238919
2.208976
2.181619
2.156527
2.133427
2.112088
2.092317
2.073944
1.942916
1.815202
1.689944

40
1005.598097
39.472895
14.036509
8.411132
6.175050
5.012471
4.308876
3.839780
3.505474
3.255396
3.061330
2.906346
2.779693
2.674223
2.585005
2.508529
2.442228
2.384181
2.332924
2.287322
2.246478
2.209678
2.176343
2.146000
2.118261
2.092800
2.069345
2.047664
2.027563
2.008872
1.875197
1.744046
1.614147

60
1009.800110
39.481226
13.992098
8.360436
6.122529
4.958891
4.254398
3.784446
3.449302
3.198402
3.003533
2.847768
2.720356
2.614152
2.524226
2.447066
2.380105
2.321422
2.269552
2.223359
2.181945
2.144594
2.110728
2.079873
2.051639
2.025699
2.001781
1.979653
1.959118
1.940008
1.802770
1.666791
1.529942

120
1014.020239
39.489557
13.947285
8.309170
6.069293
4.904446
4.198904
3.727940
3.391799
3.139914
2.944078
2.787365
2.659029
2.551924
2.461122
2.383111
2.315324
2.255839
2.203191
2.156242
2.114094
2.076031
2.041473
2.009946
1.981058
1.954483
1.929947
1.907218
1.886098
1.866418
1.724205
1.581034
1.432677

ndice

Tabla 20: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.99.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
4052.180695
98.502513
34.116222
21.197690
16.258177
13.745023
12.246383
11.258624
10.561431
10.044289
9.646034
9.330212
9.073806
8.861593
8.683117
8.530965
8.399740
8.285420
8.184947
8.095958
8.016597
7.945386
7.881134
7.822871
7.769798
7.721254
7.676684
7.635619
7.597663
7.562476
7.314100
7.077106
6.850893

2
4999.500000
99.000000
30.816520
18.000000
13.273934
10.924767
9.546578
8.649111
8.021517
7.559432
7.205713
6.926608
6.700965
6.514884
6.358873
6.226235
6.112114
6.012905
5.925879
5.848932
5.780416
5.719022
5.663699
5.613591
5.567997
5.526335
5.488118
5.452937
5.420445
5.390346
5.178508
4.977432
4.786510

3
5403.352014
99.166201
29.456695
16.694369
12.059954
9.779538
8.451285
7.590992
6.991917
6.552313
6.216730
5.952545
5.739380
5.563886
5.416965
5.292214
5.185000
5.091890
5.010287
4.938193
4.874046
4.816606
4.764877
4.718051
4.675465
4.636570
4.600907
4.568091
4.537795
4.509740
4.312569
4.125892
3.949100

4
5624.583330
99.249372
28.709898
15.977025
11.391928
9.148301
7.846645
7.006077
6.422085
5.994339
5.668300
5.411951
5.205330
5.035378
4.893210
4.772578
4.668968
4.579036
4.500258
4.430690
4.368815
4.313429
4.263567
4.218445
4.177420
4.139960
4.105622
4.074032
4.044873
4.017877
3.828294
3.649047
3.479531

5
5763.649554
99.299296
28.237081
15.521858
10.967021
8.745895
7.460435
6.631825
6.056941
5.636326
5.316009
5.064343
4.861621
4.694964
4.555614
4.437420
4.335939
4.247882
4.170767
4.102685
4.042144
3.987963
3.939195
3.895070
3.854957
3.818336
3.784770
3.753895
3.725399
3.699019
3.513840
3.338884
3.173545

6
5858.986107
99.332589
27.910657
15.206865
10.672255
8.466125
7.191405
6.370681
5.801770
5.385811
5.069210
4.820574
4.620363
4.455820
4.318273
4.201634
4.101505
4.014637
3.938573
3.871427
3.811725
3.758301
3.710218
3.666717
3.627174
3.591075
3.557991
3.527559
3.499475
3.473477
3.291012
3.118674
2.955854

7
5928.355732
99.356374
27.671696
14.975758
10.455511
8.259995
6.992833
6.177624
5.612865
5.200121
4.886072
4.639502
4.440997
4.277882
4.141546
4.025947
3.926719
3.840639
3.765269
3.698740
3.639590
3.586660
3.539024
3.495928
3.456754
3.420993
3.388219
3.358073
3.330252
3.304499
3.123757
2.953049
2.791764

8
5981.070308
99.374215
27.489177
14.798889
10.289311
8.101651
6.840049
6.028870
5.467123
5.056693
4.744468
4.499365
4.302062
4.139946
4.004453
3.889572
3.790964
3.705422
3.630525
3.564412
3.505632
3.453034
3.405695
3.362867
3.323937
3.288399
3.255827
3.225868
3.198219
3.172624
2.992981
2.823280
2.662906

9
6022.473245
99.388093
27.345206
14.659134
10.157762
7.976121
6.718752
5.910619
5.351129
4.942421
4.631540
4.387510
4.191078
4.029680
3.894788
3.780415
3.682242
3.597074
3.522503
3.456676
3.398147
3.345773
3.298634
3.255985
3.217217
3.181824
3.149385
3.119547
3.092009
3.066516
2.887560
2.718454
2.558574

ndice

Tabla 21: Inversa de la funci


on de Distribuci
on de la variable F-Snedecor con = 0.99.
d./n.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
6055.846707
99.399196
27.228734
14.545901
10.051017
7.874119
6.620063
5.814294
5.256542
4.849147
4.539282
4.296054
4.100267
3.939396
3.804940
3.690931
3.593066
3.508162
3.433817
3.368186
3.309830
3.257606
3.210599
3.168069
3.129406
3.094108
3.061754
3.031992
3.004524
2.979094
2.800545
2.631751
2.472077

12
6106.320708
99.415852
27.051819
14.373587
9.888275
7.718333
6.469091
5.666719
5.111431
4.705870
4.397401
4.155258
3.960326
3.800141
3.666240
3.552687
3.455198
3.370608
3.296527
3.231120
3.172953
3.120891
3.074025
3.031615
2.993056
2.957848
2.925573
2.895881
2.868472
2.843095
2.664827
2.496116
2.336300

15
6157.284615
99.432511
26.872195
14.198202
9.722219
7.558994
6.314331
5.515125
4.962078
4.558140
4.250867
4.009619
3.815365
3.655697
3.522194
3.408947
3.311694
3.227286
3.153343
3.088041
3.029951
2.977946
2.931118
2.888732
2.850186
2.814982
2.782703
2.753000
2.725577
2.700180
2.521616
2.352297
2.191504

20
6208.730222
99.449171
26.689791
14.019609
9.552646
7.395832
6.155438
5.359095
4.807995
4.405395
4.099046
3.858433
3.664609
3.505222
3.371892
3.258737
3.161518
3.077097
3.003109
2.937735
2.879556
2.827447
2.780504
2.737997
2.699325
2.663991
2.631580
2.601744
2.574188
2.548659
2.368876
2.197806
2.034588

24
6234.630894
99.457502
26.597523
13.929064
9.466471
7.312721
6.074319
5.279264
4.728998
4.326929
4.020910
3.780485
3.586753
3.427387
3.294029
3.180811
3.083502
2.998974
2.924866
2.859363
2.801050
2.748802
2.701720
2.659072
2.620260
2.584787
2.552239
2.522268
2.494579
2.468921
2.287998
2.115364
1.950018

30
6260.648579
99.465833
26.504534
13.837660
9.379329
7.228533
5.992010
5.198130
4.648582
4.246933
3.941132
3.700789
3.507042
3.347596
3.214110
3.100733
3.003241
2.918516
2.844201
2.778485
2.719955
2.667490
2.620191
2.577329
2.538305
2.502624
2.469872
2.439701
2.411817
2.385967
2.203382
2.028479
1.860005

40
6286.782054
99.474165
26.410813
13.745379
9.291189
7.143222
5.908449
5.115610
4.566649
4.165287
3.859573
3.619181
3.425293
3.265641
3.131906
3.018248
2.920458
2.835420
2.760786
2.694749
2.635896
2.583111
2.535496
2.492321
2.452990
2.417007
2.383960
2.353501
2.325335
2.299211
2.114232
1.936018
1.762849

60
6313.030053
99.482497
26.316351
13.652198
9.202015
7.056737
5.823566
5.031618
4.483087
4.081855
3.776071
3.535473
3.341287
3.181274
3.047135
2.933046
2.834806
2.749309
2.674211
2.607708
2.548393
2.495149
2.447081
2.403461
2.363691
2.327279
2.293812
2.262941
2.234372
2.207854
2.019411
1.836259
1.655693

120
6339.391275
99.490829
26.221139
13.558096
9.111771
6.969023
5.737286
4.946052
4.397769
3.996481
3.690436
3.449440
3.254760
3.094191
2.959453
2.844737
2.745852
2.659701
2.583944
2.516783
2.456813
2.402919
2.354209
2.309955
2.269562
2.232536
2.198465
2.167001
2.137851
2.110762
1.917191
1.726320
1.532992

ndice

Tabla 22: Tabla N


umeros aleatorios: enteros entre 0 y 99999 (generados con R)
F/C

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

(9)

(10)

(11)

(12)

(13)

(14)

1
2
3
4
5

26776
50497
72729
45900
91137

58587
71432
82438
15381
8023

56041
97244
98941
26830
85925

75428
92480
19202
67457
87911

7539
10677
39210
58260
89117

81909
92645
40180
15374
47587

64024
1524
91722
66338
55514

66807
98592
29687
75653
30607

13802
84356
76807
25902
96123

74725
81799
57258
12879
11541

2799
26367
16231
41307
81671

29420
95085
99558
64205
24105

55658
12466
79083
32017
39002

29160
38906
32391
35523
97611

6
7
8
9
10

2376
17051
957
22101
41170

67450
26498
42261
6192
66324

51703
25584
4385
1934
58985

42217
91979
54277
19657
69805

11795
77400
94698
16669
71953

23621
22776
11730
25450
77425

65350
56040
16071
85714
36563

39467
22435
28241
18916
18591

90119
97466
3752
1496
62319

53702
74123
40192
6748
76389

93851
1101
52688
93755
99498

19669
52823
6771
56021
56511

49657
47786
88840
64238
68715

55993
47325
71069
51774
75296

11
12
13
14
15

30742
95666
93110
90645
97635

49670
99865
86598
22597
69574

71057
76952
50607
82137
50828

37457
36248
76476
52820
30791

16076
75368
86257
62965
17717

88682
9585
4632
69131
78012

16327
72868
58981
34284
85168

28598
17399
81988
62301
62303

18404
19172
15995
29621
81324

5566
82578
53623
6126
57733

73529
25046
49151
7696
30852

23560
91609
91370
71938
63055

36999
72422
19190
11781
23

82372
48658
60046
14559
95478

16
17
18
19
20

80240
80862
43427
92070
85890

17894
83430
15731
94035
54340

76439
11309
97566
26069
37710

78997
71641
37773
98132
50306

20154
25482
29217
193
49998

10691
20834
52348
7773
84727

22162
69628
55833
13652
74400

37148
57126
38643
57296
92483

60721
37823
27632
59076
78224

74415
29008
48540
42704
45492

8494
40083
56235
53975
3130

98625
99021
50341
89585
35599

55400
14532
55651
40019
9447

44742
95218
54863
78628
93100

21
22
23
24
25

82538
10754
26382
9807
1566

53819
54497
86888
86300
12576

3263
38602
99358
47633
34414

54277
48482
38917
29377
65407

56849
11182
93718
24185
68823

30684
87055
56844
51250
21709

3957
50460
2020
24083
71684

93205
8779
39650
69873
16499

59928
82931
92519
38677
56947

17549
38152
2591
81570
48773

63830
54386
75922
19361
26503

32722
32788
25358
5646
71420

1158
21975
89784
49992
38416

20147
62641
42634
3476
42098

26
27
28
29
30

96601
65765
93149
48118
50701

55773
77404
9225
25194
90987

94873
91177
99855
20321
59982

71563
92974
61119
72967
88440

49804
30059
2867
37846
5281

88245
51552
85676
75223
63030

76084
69232
13265
9684
47832

80925
97687
32033
9902
91895

53675
51251
49811
25720
89447

12570
37841
49440
82390
64589

71807
50155
34591
10396
2045

70666
75057
4879
29440
56713

17089
36146
48714
56365
93948

40792
95666
83286
29035
31621

31
32
33
34
35

58675
1786
48296
67249
1184

27633
3049
95979
8290
431

84054
36187
76644
79587
80464

43366
73802
28201
55283
73696

81807
49173
19397
29492
39576

4494
39327
21863
34125
67691

13193
81359
23131
42268
68429

98635
13568
59787
8174
23136

90297
81631
84671
65380
92304

35950
75835
37111
25364
95586

96733
75020
29557
97529
82145

79604
47744
35822
95022
80409

63143
83222
21655
92717
58204

13752
3995
32874
11163
18476

36
37
38
39
40

31502
40385
6963
96217
83400

76846
44388
66476
61946
68653

15726
60011
49753
43477
88819

16618
94438
37252
73574
73830

30147
92339
44290
87898
2601

23803
23189
93051
58602
45578

62360
51268
85417
88025
84875

30211
63329
96677
77917
94095

13199
41252
5438
43313
4526

3719
66229
49234
77767
59115

11569
85295
97683
53201
16098

44869
73411
56383
65031
2160

34063
91496
87896
73587
44591

42618
17875
16307
57447
31417

41
42
43
44
45

82596
62795
62705
69701
55126

69182
56332
53583
14325
61604

33665
76478
8698
32404
97351

9031
59500
80458
28122
92042

24088
96982
22278
77263
13671

51114
48999
38374
70035
61187

17453
23288
16028
75515
17472

17757
13414
49731
40888
21014

18401
45139
5239
4622
27759

32777
48252
4162
37098
38819

2362
70676
46221
87182
86487

77
86478
64108
71848
84136

77202
503
89291
5859
58632

31344
57491
81909
14685
70884

46
47
48
49
50

43083
86676
64883
1349
56253

42949
81458
81215
70196
17135

65080
15048
63380
65073
81205

25760
7074
83723
40500
28874

13012
31737
91447
1458
50609

17930
26102
20155
96145
77928

35514
75136
57045
56292
88600

67207
89060
89102
93303
75732

6977
17469
65856
20019
21098

84242
85087
69573
5999
79329

20189
67990
34789
35601
78049

31025
53302
14392
31400
81304

24928
72388
73467
97307
3798

71931
48653
24605
7440
40407

ndice

Bibliografa
[1] Horra Navarro J.(1995), Estadstica aplicada, Madrid : Daz de Santos,
D.L.
[2] Susan Milton J.S.and Arnold J.C. (2004), "Probabilidad y estadstica con
aplicaciones para ingeniera y ciencias computacionales , Mxico [etc.] :
McGraw-Hill, cop.
[3] Pea Snchez D. (2001), Fundamentos de estadstica, Madrid : Alianza,
D.L.
[4] Prez Lpez C. (2003), "Estadstica : problemas resueltos y aplicaciones",
Madrid [etc.] : Pearson, D.L.
[5] Ros S.(1997), Iniciacin estadstica, Madrid : Paraninfo.
[6] Ross, S. M. (2004). Introduction to probability and statistics for engineers
and scientists , Amsterdam [etc.] : Elsevier Academic Press, cop.
[7] Ruz-Maya Prez L. and Martn Pliego F.J. (1999), "Fundamentos de inferencia estadstica", Editorial AC, libros cientcos y tcnicos Madrid.

ndice

Vous aimerez peut-être aussi