Vous êtes sur la page 1sur 274

Probabilidades y Estadstica

Flix Mguez Marn


Departamento de Matemtica Aplicada y
Mtodos Informticos
ETSI de Minas de Madrid
Septiembre de 2012












Contenido
1 El concepto de probabilidad 5
1.1 Experimentos aleatorios. Regularidad estadstica . . . . . . . . . . . . . . 5
1.2 Espacio muestral. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Asignacin de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Espacio muestral nito . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Espacio muestral acotado . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Frmula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Sucesos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.8 Experimentos independientes . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.9 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Variables Aleatorias 27
2.1 Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Funcin de distribucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Variables discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Variables continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Variables mixtas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6 Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.1 Funcin de distribucin conjunta . . . . . . . . . . . . . . . . . . . 42
2.7 Variable aleatoria bidimensional discreta . . . . . . . . . . . . . . . . . . . 43
2.7.1 Condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8 Variable aleatoria bidimensional continua . . . . . . . . . . . . . . . . . . 45
2.8.1 Condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.9 Variables independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.10 Generalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1
2 CONTENIDO
2.11 Funciones de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . 51
2.11.1 Funcin de una variable . . . . . . . . . . . . . . . . . . . . . . . . 51
2.11.2 Funcin de varias Vas . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.11.3 Transformacin general de Vas continuas . . . . . . . . . . . . . . 57
2.11.4 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 59
2.12 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3 Valores Esperados 63
3.1 Esperanza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Interpretacin experimental . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3 Esperanza de una funcin de una variable . . . . . . . . . . . . . . . . . . 69
3.4 Esperanza de una funcin de varias variables . . . . . . . . . . . . . . . . 71
3.5 Varianza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . 73
3.6 Interpretacin experimental . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.7 Acotacin de Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.8 Varianza de una combinacin lineal de Vas independientes . . . . . . . . . 77
3.9 La covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.10 Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.11 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4 Modelos principales 87
4.1 Variable aleatoria normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2 Clculo de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3 Teorema Central del Lmite . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 Variable aleatoria binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5 Variable aleatoria de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.6 Procesos de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.7 Variables relacionadas con la Normal . . . . . . . . . . . . . . . . . . . . . 102
4.7.1 Lognormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.7.2 Ji-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5 Estimacin 109
5.1 El mtodo estadstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2 Muestra aleatoria simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.3 La media muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.4 La varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
CONTENIDO 3
5.4.1 Clculo de la varianza muestral . . . . . . . . . . . . . . . . . . . . 115
5.4.2 Caso particular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.5 Convergencia en Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.6 Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.7 Sesgo de un estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.8 Varianza de un estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.9 Estimadores consistentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.10 El mtodo de mxima verosimilitud . . . . . . . . . . . . . . . . . . . . . 123
5.10.1 Generalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.11 El mtodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.12 Muestreo sin reemplazamiento . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.13 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6 Intervalos 137
6.1 Intervalos de conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.2 Intervalos para la normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.1 Intervalos para . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.2 Tamaos de muestra . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2.3 Intervalos para . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.3 Intervalos asintticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
6.4 Intervalos para p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.4.1 Aplicacin al muestreo de poblaciones nitas . . . . . . . . . . . . 149
6.5 Intervalos de tolerancia para la normal . . . . . . . . . . . . . . . . . . . . 151
6.6 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7 Modelo lineal 157
7.1 Modelo lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.1.1 Estimacin de mnimos cuadrados . . . . . . . . . . . . . . . . . . 159
7.1.2 Propiedades de los estimadores . . . . . . . . . . . . . . . . . . . . 164
7.2 Estimacin de mxima verosimilitud . . . . . . . . . . . . . . . . . . . . . 166
7.3 Intervalos de conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
7.3.1 Para los parmetros
0
y
1
. . . . . . . . . . . . . . . . . . . . . . 167
7.3.2 Para el parmetro . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.3.3 Para la recta (x) =
0
+
1
x . . . . . . . . . . . . . . . . . . . . 168
7.4 De tolerancia para Y (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
7.5 Interpretacin geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
4 CONTENIDO
7.6 Valoracin del ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
7.7 Regresin lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
7.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
8 Modelizacin 183
8.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.2 La funcin de distribucin emprica . . . . . . . . . . . . . . . . . . . . . . 184
8.3 La funcin de masa emprica . . . . . . . . . . . . . . . . . . . . . . . . . 187
8.4 La funcin de densidad emprica . . . . . . . . . . . . . . . . . . . . . . . 189
8.5 La funcin de cuantiles emprica . . . . . . . . . . . . . . . . . . . . . . . 193
8.6 Modelizacin con los cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . 196
8.6.1 Estimacin de los parmetros . . . . . . . . . . . . . . . . . . . . . 197
8.7 Resumen y comparacin de muestras . . . . . . . . . . . . . . . . . . . . . 200
8.7.1 Centro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
8.7.2 Dispersin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
8.7.3 Simetra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
8.7.4 Valores atpicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
8.7.5 Diagramas de caja (Box-Plot) . . . . . . . . . . . . . . . . . . . . . 202
8.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
A Soluciones a los Ejercicios 207
A.1 Captulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
A.2 Captulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
A.3 Captulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
A.4 Captulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
A.5 Captulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
A.6 Captulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
A.7 Captulo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
A.8 Captulo 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
B Tablas 267
1
El concepto de probabilidad
1.1 Experimentos aleatorios. Regularidad estadstica
El conocimiento cientco se fundamenta en la observacin y medida, la elabo-
racin de teoras y el contraste experimental. Este ltimo es su rasgo distintivo, frente a
seudociencias o dogmas, y el que le conere utilidad, sin por ello renunciar a la belleza,
y a l nos referimos a continuacin.
Cada realizacin de un experimento proporciona un resultado, y en cada resultado
se mide el valor de una o varias propiedades: la regularidad, en la repeticin bajo
idnticas condiciones experimentales, de estos valores, permite la construccin de mode-
los.
En la Naturaleza encontramos propiedades para las que somos capaces de construir
modelos o explicaciones deterministas, junto con otras que no pueden ser predichas
exactamente, fuera de toda duda. Tales propiedades se denominan aleatorias.
Ejemplo 1 El resultado del lanzamiento de una moneda o un dado. La trayectoria de
una partcula en movimiento browniano. El tiempo de vida de un tomo radioactivo.
La longitud de una cola de clientes o el tiempo de espera de cada uno de ellos. La
pluviometra, caudal de avenidas uviales, nmero de terremotos en una regin a lo
largo del tiempo, ...
En estas situaciones es posible an construir modelos experimentalmente contrasta-
bles usando una forma peculiar de regularidad, la regularidad estadstica:
Denicin 1 Un experimento es aleatorio si, aunque ninguno de los resultados posi-
bles se puede asegurar de antemano, realizado independientemente un gran nmero
5
6 1. EL CONCEPTO DE PROBABILIDAD
de veces, la frecuencia relativa con que aparece cada clase de ellos tiende a estabilizarse
alrededor de un valor lmite llamado su probabilidad experimental.
Supongamos que cada vez que se realiza el experimento aleatorio slo nos interesa
si el resultado tiene la propiedad A (y entonces lo anotamos con 1) o no la tiene (y lo
anotamos con 0). Cada sucesin de realizaciones independientes produce una sucesin
experimental particular (x
1
; x
2
; :::; x
n
; :::), donde x
i
= 0 1. Adems
P
n
i=1
x
i
representa
el nmero de veces que result A en las n ocasiones y
P
n
i=1
x
i
=n la frecuencia relativa.
Resulta entonces que
lim
n!1
1
n
n
X
i=1
x
i
= p
A
cualquiera que sea la sucesin experimental. Aqu las sucesiones, a diferencia de las que
estudia el Anlisis Matemtico, pueden ser extraordinariamente irregulares y no hay un
trmino general del que se deduzcan todos. Sin embargo estamos seguros que, en la
prctica, en todas ellas se produce la misma convergencia.
Ejemplo 2 Se lanza repetidamente una moneda equilibrada representando los resultados
del siguiente modo: en abscisas el nmero de orden del lanzamiento (n = 1; 2; :::) y
en ordenadas la frecuencia relativa de caras obtenidas (nmero total de caras en los n
primeros lanzamientos dividido por n). En seguida se observa, a medida que n aumenta,
cmo dicha frecuencia se estabiliza alrededor del valor 1=2.
1.1. EXPERIMENTOS ALEATORIOS. REGULARIDAD ESTADSTICA 7
Ejemplo 3 La radioactividad es la emisin espontnea de energa (partculas alfa, beta y
rayos gamma) que producen algunos ncleos atmicos. Cuando un ncleo emite radiacin
se dice que decae; despus del decaimiento el ncleo se ha transformado en otro diferente.
No es posible predecir si un ncleo determinado decaer o no en un periodo de
observacin jado (0; t). Sin embargo, un mol de substancia contiene del orden de
n = 6:022 10
23
tomos, y si n
t
es el nmero de decaidos se observa que la propor-
cin p
t
= n
t
=n es prcticamente constante. Por ejemplo, un tomo de radio 226 decae
en un periodo de t aos con probabilidad experimental p
t
= 1 exp(4:327 10
4
t).
Ejemplo 4 El nmero n de molculas de un gas ideal en un recipiente V de volumen
1 cm
3
, a 1 atm y 25
0
C, es del orden de 10
19
. Las molculas se mueven con distintas
velocidades, pues no todas tienen la misma energa, producindose intercambios debidos a
los choques entre ellas. En la prctica es imposible predecir la posicin y velocidad de una
molcula en cada instante. Sin embargo s pueden comprobarse proporciones estables en
el conjunto de las n, es decir, el balance global es de equilibrio estadstico. Por ejemplo,
si n
v
es el nmero de ellas en cualquier instante y cualquier parte de volumen v, se
observa que n
v
=n - v=V, es decir, las molculas no ocupan ninguna posicin preferente.
Ejemplo 5 (el mtodo de Montecarlo) Supongamos una gura arbitraria situada en el
plano. Vamos a medir, aproximadamente, su supercie s sirvindonos de un experimento
aleatorio. Construimos un cuadrado de lado ` suciente para incluir la gura, y elegimos
puntos dentro del cuadrado de modo aleatorio. Para ello introducimos bolas numeradas,
por ejemplo de 1 a 1000, en una urna. Se extrae una bola y se anota su nmero, sea
x. Se introduce de nuevo y se hace otra extraccin, sea y. El par (x; y) seala, con
precisin de milsimas de `, un punto del cuadrado. Si de un total de n puntos as
elegidos resultaron n
s
dentro de la gura, a la larga cabe esperar que
n
s
n
-
s
`
2
as que
s -
n
s
n
`
2
Si, en particular, la gura es una circunferencia de radio r, s = r
2
y podramos apro-
ximar con una lotera:
-
n
s
n
`
2
r
2
Disponemos pues de un mtodo fsicamente aceptable para medir la incertidumbre en
los experimentos aleatorios: la probabilidad experimental. La Teora de Probabilidades,
8 1. EL CONCEPTO DE PROBABILIDAD
que estudiamos a continuacin, es una descripcin matemtica, formal, de los experimen-
tos aleatorios. Un lenguaje descriptivo adecuado para construir modelos, descripciones
idealizadas, de cada sistema aleatorio en estudio, con los que facilitar la realizacin de
predicciones contrastables.
1.2 Espacio muestral. Sucesos
Denicin 2 Se llama espacio muestral al conjunto de todos los resultados
posibles de un experimento aleatorio.
Ante cada experimento lo primero y fundamental es identicar su espacio muestral.
Ejemplo 6 En el experimento de lanzar 2 monedas los resultados son los pares (x
1
; x
2
)
(el subndice identica cada una de las 2 monedas) donde x
i
= c + ( 1 y 0, los smbolos
son convencionales). El conjunto de resultados posibles es = (c; c); (c; +); (+; c); (+; +).
Observar que (c; +) y (+; c) son resultados diferentes.
Ejemplo 7 El decaimiento o no de un ncleo radioactivo en un intervalo de tiempo
jado (0; t) es aleatorio. En un conjunto de n ncleos los resultados posibles son todas
las n-tuplas (x
1
; x
2
; :::; x
n
) (el subndice identica a cada ncleo) donde x
i
= 0 (no
decaido) 1 (decaido). En total hay 2
n
resultados en (2 posibilidades para x
1
que hay
que multiplicar por 2 para x
2
;... etc.).
Ejemplo 8 En el experimento de lanzar una moneda hasta que aparezca cara los resul-
tados posibles son = c; +c; + +c; + + +c; ::::.
Ejemplo 9 En el experimento de observar, desde un instante incial t = 0, el tiempo
que transcurre hasta que decae un ncleo es aleatorio, los resultados posibles son todos
los nmeros del intervalo (0; +).
Denicin 3 Un suceso es un subconjunto de resultados.
Un subconjunto se puede denir sealando cules son cada uno de sus elementos, o
mejor, sealando una propiedad que slo ellos poseen. De esta segunda forma un suceso
es el conjunto de resultados de que tienen cierta propiedad.
El suceso A se reere a la vez a la propiedad A y al conjunto de resultados que la
tienen.
Ha sucedido A arma que el resultado ! obtenido en el experimento tiene la
propiedad A, es decir que ! A.
1.2. ESPACIO MUESTRAL. SUCESOS 9
Ejemplo 10 En el experimento de lanzar un dado, el suceso se obtiene un nmero
par se representa por A = 2; 4; 6. Si el resultado obtenido es uno de estos 3 se realiza
el suceso, y en otro caso no se realiza.
En el experimento de lanzar 2 monedas, el suceso se obtiene exactamente una cara
se representa por A = (c; +); (+; c). Si el resultado obtenido es uno de estos 2 se
realiza el suceso, y en otro caso no se realiza.
En el sistema de n ncleos radioactivos el suceso en el intervalo (0; t) han decaido k
ncleos consta de todas las n-tuplas (x
1
; x
2
; :::; x
n
) (el subndice identica a cada ncleo,
donde x
i
= 0 si no decaido y x
i
= 1 si decaido) con k unos y nk ceros, cualquiera que
sea el modo como se repartan en la enupla (es decir, cualquiera que sean los k ncleos
decaidos). En total hay

n
k

resultados en dicho suceso (nmero de combinaciones: todas


las elecciones distintas de k posiciones para los decaidos entre las n).
Denicin 4 Cada resultado !
i
dene un suceso elemental. El propio es el
suceso seguro. El conjunto vacio representa un suceso imposible, es decir, cualquier
propiedad que no se realice en ningn resultado.
Si A
i
y A
j
son sucesos tales que A
i
A
j
= , o sea, no hay ningn resultado que
tenga a la vez ambas propiedades, se llaman excluyentes o incompatibles.
Las propiedades que denen los sucesos se pueden combinar mediante los operadores
y, o y no, segn las reglas de la lgica, para producir nuevos sucesos. En la
representacin conjuntista las operaciones correspondientes son, respectivamente, la in-
terseccin, la unin, y la complementacin (respecto de ). As que al realizar estas
operaciones con los subconjuntos de que representan sucesos, se obtendrn subcon-
juntos que tambin representarn sucesos.
Si A
1
; A
2
; ::: son sucesos, mediante la representacin conjuntista es facil denotar
proposiciones interesantes, como las siguientes:
sucede algn A
i
== 'A
i
(o sea, el resultado pertenece al menos a uno de los
A
i
)
suceden todos los A
i
==A
i
no sucede ningn A
i
==('A
i
)
c
= A
c
i
Observar que en los ejemplos 6 y 7 el nmero de resultados posibles es nito, en el 8
es innito numerable y en el 9 innito no numerable. As que las operaciones con sucesos
se tienen que extender incluso a innitos sucesos, pues si el nmero de elementos de
10 1. EL CONCEPTO DE PROBABILIDAD
(resultados posibles) es innito, tambin puede serlo el nmero de sucesos (subconjuntos
de ) que nos interesan.
Hay sin embargo algunas dicultades matemticas en esta representacin conjuntista
que merece la pena comentar. Como cada suceso est representado por un subconjunto
del espacio muestral, pareciera que los sucesos equivaldran simplemente a la familia
}() de todos los subconjuntos de , lo cual resulta tcnicamente aceptable si es
nito o innito numerable, pero no si es innito no numerable (en particular R R
k
).
Hay que limitarse aqu a usar una familia ms reducida, llamada de Borel (denotada E
E
k
respectivamente), que, por construccin, usa los intervalos (de R; rectngulos de
R
k
) como conjuntos bsicos, e incluye a todos los conjuntos que se engendran a partir
de aqullos mediante operaciones de unin, interseccin y complementacin.
En resumen, siempre que trabajemos con un experimento aleatorio daremos por
sentado que hay seleccionada una clase adecuada de sucesos: una familia T de sub-
conjuntos de , incluyendo al propio y a , cerrada para las operaciones
de conjuntos. El par (; T) se denomina espacio probabilizable.
1.3 Probabilidad
El referente son las probabilidades experimentales (los valores a la larga de las
frecuencias relativas, o las proporciones estables en un sistema en equilibrio). Para cada
suceso A su probabilidad es un nmero de [0; 1] (como las frecuencias relativas), pero la
aplicacin no puede ser arbitraria, debiendo respetar las dems propiedades que puedan
descubrirse en las frecuencias. En lugar de un catlogo exhaustivo de propiedades, bastan
2 (axiomas) que implican todas las dems:
Denicin 5 Sea un espacio probabilizable (; T). Una probabilidad es una aplicacin
P : T [0; 1] tal que:
(i) (axioma de aditividad) si A
i
(en nmero nito o numerable) son tales que
A
i
A
j
= (incompatibles) entonces
P('A
i
) =
X
P(A
i
)
(ii) P() = 1
Se llama a (; T; P) una distribucin de probabilidades.
1.4. ASIGNACIN DE PROBABILIDADES 11
Tal aplicacin es una medida aditiva, como una masa, y es provechoso ver as la
probabilidad.
Ahora mediante representaciones adecuadas de unos sucesos por medio de otros y
el empleo de estos 2 axiomas, se deducen todas las frmulas necesarias. Veamos unos
ejemplos.
Ejemplo 11 Demostremos que P(A) = 1 P(A
c
). Como = A ' A
c
y A A
c
=
aplicando el primer axioma: P() = 1 = P(A' A
c
) = P(A) +P(A
c
).
Ejemplo 12 Demostremos que P() = 0. Como = ' y = , aplicando el
primer axioma: P() = P() +P().
Ejemplo 13 Demostremos que si A B (el suceso A implica al B: si sucede A sucede
B) entonces P(A) _ P(B). Como B = A ' (B A
c
) y A (B A
c
) = , aplicando el
primer axioma P(B) = P(A) +P(B A
c
), de donde resulta lo propuesto.
1.4 Asignacin de probabilidades
Los axiomas y las frmulas que de ellos se deducen slo relacionan las probabilidades
de unos sucesos con las de otros, pero no determinan sus valores: estos slo pueden
ser aproximados mediante la experimentacin, o bien postulados a partir de
razonamientos fsicos.
Un ejemplo particular, muy notable, de esto ltimo es el llamado modelo de
equiprobabilidad, o de eleccin al azar, que examinamos a continuacin. Corres-
ponde a un reparto homogeneo, uniforme, no preferencial, sobre , de la masa total
de probabilidad de valor 1, asociando a cada suceso una masa proporcional a su talla,
adecuadamente medida, pero sin importar ninguna otra cualidad de estos conjuntos.
1.4.1 Espacio muestral nito
Denicin 6 Sea un conjunto nito, es decir card() < (su cardinal, o nmero
de elementos). Diremos que P es una distribucin equiprobable, o al azar, si para
cada suceso A es:
P(A) =
card(A)
card()
El clculo de probabilidades se reduce pues, en este caso, a contar el nmero de
resultados de cada suceso. En particular, para cada suceso elemental resulta P(!
i
) =
12 1. EL CONCEPTO DE PROBABILIDAD
1=card() (lo que tambin podra haberse elegido como punto de partida para denir
la equiprobabilidad). Es evidente que si el card() no es nito no puede denirse la
equiprobabilidad. Los denominados juegos de azar, como el lanzamiento de una moneda
o un dado bien equilibrados, los naipes, las loterias, etc., son situaciones que pueden ser
descritas por este modelo.
Ejemplo 14 Se lanza n veces una moneda. Los resultados son todas las n-tuplas (x
1
; x
2
;
:::; x
n
) donde x
i
es c + y card () = 2
n
. Si la moneda es equiprobable (es decir
P(c) = P(+) = 1=2) cada resultado debera tener la misma probabilidad, no importa
cuantas caras y cruces muestre, y sta es 1=2
n
. El suceso obtener k caras tiene

n
k

resultados posibles. Entonces


P (k caras) =
1
2
n

n
k

Sin embargo si la moneda no es equiprobable (en general si P(c) = p y P(+) =


1p) los resultados no tienen la misma probabilidad (depende de cuntas caras y cruces
muestren) y ya no es obvio cmo calcular la probabilidad de cada uno: si la probabilidad
de cara fuese mayor que la de cruz los resultados con ms caras seran los ms probables.
Esto es as en el experimento anlogo de observar el nmero de ncleos que decaen,
de un total de n, en un intervalo de tiempo jado. El suceso decaen k ncleos tiene

n
k

resultados, pero estos no son, en general, equiprobables.


Veremos la solucin en la Seccin 1.8 (ejemplo 24).
Ejemplo 15 qu probabilidad hay de que en un grupo tomado al azar de n personas al
menos 2 hayan nacido el mismo da? (suponer todos los aos de 365 das y n<365).
Los resultados posibles son todas las n-tuplas (x
1
; x
2
; :::; x
n
) donde cada x
i
es un
nmero desde 1 hasta 365, de manera que hay 365
n
(365 para x
1
que hay que multiplicar
por 365 para x
2
etc.). Interpretaremos grupo tomado al azar de n personas como
que dichos resultados son equiprobables, es decir, la probabilidad de cada uno de ellos
es 1=365
n
. Cuntos resultados tienen distintas las n fechas?: la primera se puede
elegir de 365 formas, que hay que multiplicar por 364 para la segunda, etc., as que son
365(365 1)(365 2):::[365 (n1)]. La probabilidad de que todos los cumpleaos sean
1.5. PROBABILIDAD CONDICIONAL 13
distintos es:
p =
365(365 1)(365 2):::[365 (n 1)]
365
n
=

1
1
365

1
2
365

::

1
n 1
365

:
Y la pedida (suceso complementario) vale 1 p. En particular, con n = 23 es prctica-
mente 1=2.
1.4.2 Espacio muestral acotado
Denicin 7 Sea innito no numerable (por ejemplo R
k
) y acotado, es decir
med() < (su medida: longitud si k = 1, supercie si k = 2, etc.). Diremos que P
es una distribucin equiprobable, o al azar, si para cada suceso A es:
P(A) =
med(A)
med()
Observar la analoga de esta frmula con la del caso nito, y que si la med() no es
nita no es posible la equiprobabilidad.
Ejemplo 16 supongamos una ruleta continua (sin topes para detener la aguja). Se
impulsa y se mide el ngulo que forma la aguja al detenerse con una referencia. =
0 < ' _ 2 y aceptando el modelo equiprobable para la ruleta, P(el ngulo es menor
que ) = 1=2, pues med() = 2 y med[0; ) = .
Ejemplo 17 (cont. del 5) el mecanismo de eleccin de los puntos en el cuadrado es
sin duda al azar. P(el punto est dentro de la gura) = s=`
2
, pues med() = `
2
y
med(gura) = s.
1.5 Probabilidad condicional
Notacin: de ahora en adelante, para ms sencillez, denotaremos AB en lugar de AB,
ABC en lugar de A B C etc.
Mediante el concepto de probabilidad condicional se tiene en cuenta la posible infor-
macion parcial sobre el resultado del experimento: si se sabe que ha sucedido B, cul
es la probabilidad de que tambin haya sucedido A? (es decir, sabiendo que el resul-
tado est en B qu probabilidad hay de que en particular est en AB)? Denotaremos
P(A [ B) el nmero buscado.
14 1. EL CONCEPTO DE PROBABILIDAD
Las frecuencias relativas nos dan la gua para su clculo. Si en n realizaciones del
experimento, sucedi B en n
B
de ellas, y AB en n
AB
, la frecuencia relativa condicional
(de realizaciones de A entre las de B) es f
AjB
= n
AB
=n
B
, que puede tambin expresarse
por medio de las frecuencias incondicionales:
f
AjB
= n
AB
=n
B
=
n
AB
=n
n
B
=n
=
f
AB
f
B
y si n es sucientemente grande, estas ltimas se estabilizan en torno a las correspon-
dientes probabilidades experimentales, que en la Teora corresponden a P(AB) y P(B).
Denicin 8 La probabilidad condicional de A dado B es:
P(A [ B) =
P(AB)
P(B)
La denicin exige que P(B) > 0, es decir que B no sea imposible.
Ejemplo 18 Se lanzan 2 dados. Sabiendo que la suma de los puntos obtenidos es menor
que 5 calcular la probabilidad de que sea par.
El espacio muestral consta de 36 resultados (x
1
; x
2
), donde x
i
es el punto que muestra
cada dado. Si los dados son equilibrados entonces todos los resultados deben tener la
misma probabilidad que debe valer P(x
1
; x
2
) = 1=36 para cada resultado.
La probabilidad que hay que calcular es condicional:
P(S = par [ S < 5) =
P(S = par y S < 5)
P(S < 5)
=
4=36
6=36
=
2
3
pues:
P(S = par y S < 5) = P(S = 2 ' S = 4)
= P(S = 2) +P(S = 4)
= 1=36 + 3=36 = 4=36
P(S < 5) = P(S = 2 ' S = 3 ' S = 4)
= P(S = 2) +P(S = 3) +P(S = 4)
= 1=36 + 2=36 + 3=36 = 6=36
1.5. PROBABILIDAD CONDICIONAL 15
y
P(S = 2) = P((1; 1)) = 1=36
P(S = 3) = P((1; 2); (2; 1)) = 2=36
P(S = 4) = P((1; 3); (3; 1); (2; 2)) = 3=36
Observar que la funcin P( [ B) dene una distribucin de probabilidades sobre los
sucesos de B (que son las intersecciones de los de con B) considerado como nuevo
espacio muestral. Como tal satisface los axiomas (comprubelo):
1. si A
i
son sucesos tales que A
i
A
j
= , entonces
P('A
i
[ B) =
X
P(A
i
[ B)
2.
P(B [ B) = 1
En la investigacin de los experimentos aleatorios muchas veces las probabilidades
condicionales se calculan o aproximan usando este punto de vista, mejor que usando su
denicin: trabajando en el experimento restringido de espacio muestral B, ms simple
que el global de espacio .
Tambin podemos denir la de B dado A
P(B [ A) =
P(AB)
P(A)
y teniendo en cuanta ambas es
P(AB) = P(A [ B)P(B) = P(B [ A)P(A)
y es usando frmulas como sta que puede ser ms sencillo calcular las probabilidades
incondicionales sobre los sucesos de a partir de las condicionales (obtenidas, como se
ha dicho, razonando directamente en el experimento restringido).
Ejemplo 19 Sean A
i
(i = 1; :::n) sucesos arbitrarios. Compruebe que
P(A
1
A
2
A
n
) = P (A
1
) P(A
2
[ A
1
)P(A
3
[ A
1
A
2
) P(A
n
[ A
1
A
2
A
n1
)
16 1. EL CONCEPTO DE PROBABILIDAD
Ejemplo 20 una urna contiene r bolas rojas y b blancas. Se extraen sucesivamente y
sin reemplazamiento 4 bolas Calculemos la probabilidad de la secuencia (RBRB).
P(R) =
r
r +b
P(B [ R) =
b
r +b 1
P(R [ RB) =
r 1
r +b 2
P(B [ RBR) =
b 1
r +b 3
y la probabilidad pedida resulta:
P(RBRB) =
rb(r 1)(b 1)
(r +b)(r +b 1)(r +b 2)(r +b 3)
1.6 Frmula de Bayes
Proposicin 1 (frmula de la probabilidad total) Sean A
i
(i = 1; 2; :::) sucesos
tales que A
i
A
j
= (incompatibles) y 'A
i
= (es decir, los A
i
constituyen una par-
ticin de ). Sea un suceso B. Entonces, como B = B = B('A
i
) = '(BA
i
) y
(BA
i
) (BA
j
) = BA
i
A
j
= B = , aplicando el primer axioma:
P(B) = P ('(A
i
B)) =
X
P (A
i
B)
y ahora aplicando la denicin de probabilidad condicional
P(B) =
X
P(B [ A
i
)P(A
i
)
Ejemplo 21 Un lote de piezas mecanizadas ha sido producido por 3 mquinas difer-
entes: el 20% por la 1, el 30% por la 2 y el 50% por la 3. El 1% de la produccin de
la 1 es defectuosa, as como el 2% de la 2 y el 3% de la 3. Qu proporcin de piezas
defectuosas hay en el lote?
Sean M
1
, M
2
y M
3
los sucesos una pieza tomada del lote ha sido fabricada por una
u otra mquina. D el suceso una pieza tomada del lote es defectuosa. Estos sucesos
1.6. FRMULA DE BAYES 17
cumplen las condiciones de arriba. Por lo tanto:
P(D) =
X
P(D [ M
i
)P(M
i
) = 0:01 0:20 + 0:02 0:30 + 0:03 0:50 = 0:023
Proposicin 2 (frmula de Bayes) Para cada uno de los A
j
es:
P(A
j
[ B) =
P(A
j
B)
P(B)
=
P(B [ A
j
)P(A
j
)
P
P(B [ A
i
)P(A
i
)
Observar que si B sucede es porque ha sucedido alguno de los A
i
. Si llamamos a
stos las causas posibles de B, entonces la frmula de Bayes evala la probabilidad de
cada una de ellas.
Ejemplo 22 (cont.) Se ha seleccionado al azar una pieza del lote y ha resultado defec-
tuosa, qu probabilidad hay de que haya sido producida por la mquina 1?
P(M
1
[ D) =
P(D [ M
1
)P(M
1
)
P(D)
=
0:01 0:2
0:023
= 0:08696
Anlogamente obtendriamos P(M
2
[ D) = 0:26087 y P(M
3
[ D) = 0:65217
En muchas ocasiones se trata de clasicar un individuo tomado al azar de una
poblacin en una de dos categoras sobre la base de cierto ensayo indirecto. Por ejemplo
el anlisis qumico de una muestra de un bloque de explotacin para estimar si es de
mineral o no, o una prueba mdica para estimar si el paciente tiene o no una enfermedad,
o un control de calidad para estimar si el producto es bueno o defectuoso.
Denotemos por ejemplo S (sano), E (enfermo), S

(la prueba dice sano) y E

(la
prueba dice enfermo). Entonces los resultados posibles son:
E S
E

correcto error 1
S

error 2 correcto
Toda ensayo tiene limitaciones: el error 1 son falsos positivos y el 2 falsos negativos.
Una terminologa habitual es:
P (E) es la prevalencia de la enfermedad en la poblacin estudiada.
18 1. EL CONCEPTO DE PROBABILIDAD
P (E

[ E) es la sensibilidad del ensayo: proporcin de verdaderos positivos (en el


mbito mdico, capacidad del ensayo para detectar la enfermedad).
P (S

[ S) es la especicidad del ensayo: proporcin de verdaderos negativos (en el


mbito mdico, capacidad del ensayo para detectar a los sanos).
Sensibilidad y especicidad valoran la validez de la prueba pero en la prctica clnica
al mdico le interesan ms los valores predictivos:
P (E [ E

) es valor predictivo positivo o probabilidad de padecer la enfermedad si la


prueba es positiva.
P (S [ S

) es valor predictivo negativo o probabilidad de estar realmente sano con


una prueba negativa.
Ejemplo 23 Ciertos refuerzos estructurales pueden presentar corrosin (S) o no pre-
sentarla (N). Y cierto ensayo seala corrosin (S

) o no la seala (N

). Se someten
al ensayo 1000 refuerzos de los que 10 tienen corrosin y 990 no la tienen. El en-
sayo identica 9 de los 10 correctamente, y de los 990 seala incorrectamente 99 como
corroidos:
S N
S

9 99 108
N

1 891 892
10 990 1000
As presentados los resultados, todas las probabilidades se estiman directamente con
las frecuencias relativas:
P (S) = 10=1000 = 0:01
P (S

[ S) = 9=10 = 0:9
P (N

[ N) = 891=990 = 0:9
P (S [ S

) = 9=108
P (N [ N

) = 891=892
Ejemplo 24 (cont.) Supongamos que, en cambio, sabemos que la sensibilidad y especi-
cidad del mtodo de anlisis de la corrosin son P (S

[ S) = 0:9 y P (N

[ N) = 0:9 y
1.7. SUCESOS INDEPENDIENTES 19
que P (S) = 0:01. Entonces con la frmula de Bayes:
P (S [ S

) =
P (S

[ S) P (S)
P (S

[ S) P (S) +P (S

[ N) P (N)
=
0:9 0:01
0:9 0:01 + (1 0:9) (1 0:01)
=
9
108
1.7 Sucesos independientes
Como
P(A [ B) =
P (AB)
P (B)
y
P(B [ A) =
P (AB)
P (A)
siempre es
P(A [ B)P (B) = P(B [ A)P (A) = P (AB) (1.1)
Si, en un experimento, se encontrase que para los sucesos A y B es P(A [ B) =
P(A)
1
, es natural decir que A es independiente de B. Pero entonces (sustituyendo
en 1.1) tambin es P(B [ A) = P(B), es decir, tambin B es independiente de A: la
informacin de que uno de ellos se ha realizado no modica la probabilidad
del otro. Y tambin es
P(AB) = P(A)P(B)
que a su vez implica a las anteriores. Tenemos as la siguiente
Denicin 9 Las 3 igualdades numricas
P(A [ B) = P(A)
P(B [ A) = P(B)
P(AB) = P(A)P(B)
son equivalentes. Si se verican, los sucesos A y B se dice que son independientes.
La interpretacin experimental es la siguiente: sean n
A
, n
B
y n
AB
los nmeros
de veces que suceden A, B y AB respectivamente, en el total de n realizaciones del
experimento aleatorio. La independencia quiere decir que, para n sucientemente grande,
1
Esto es una igualdad numrica, no una frmula.
20 1. EL CONCEPTO DE PROBABILIDAD
se verican las 3 igualdades equivalentes entre las frecuencias relativas:
n
AB
n
B
-
n
A
n
=
n
AB
n
A
-
n
B
n
=
n
AB
n
-
n
A
n
n
B
n
La independencia es muy importante cuando se conoce a priori (ms que en su
constatacin a posteriori) como veremos en la prxima seccin.
Tngase en cuenta que la independencia de los sucesos A y B slo depende de la
distribucin P y no exige ninguna relacin entre ellos en trminos de inclusiones,
intersecciones etc.
Y que no se deben confundir los sucesos independientes con los incompatibles: precsa-
mente si son incompatibles, es decir AB = , entonces no pueden ser independientes,
pues P (AB) = 0 y entonces P(A [ B) = 0 pero P (A) > 0; e igual para la P(B [ A).
Ms simple: la informacin de que uno de ellos se ha realizado es suciente para saber
que el otro no se ha realizado.
Ejemplo 25 se elige una carta de una baraja de 40. Los sucesos A =rey y B =copas
son independientes, pues P(A) = 4=40 = 1=10, P(B) = 10=40 = 1=4, y P(AB) = 1=40.
Ejemplo 26 se lanza un dado equiprobable. Los sucesos el punto es mayor que 2 y
el punto es par son independientes.
P(par > 2) = P(4; 6) =
1
3
P(par) = P(2; 4; 6) =
1
2
P(> 2) = P(3; 4; 5; 6) =
2
3
Ejemplo 27 Se lanza un dado dos veces. Sabiendo que la suma de los puntos es 7
calculemos la probabilidad de que la primera tirada fuese 1
P(X
1
= 1 [ X
1
+X
2
= 7) =
P(X
1
= 1; X
2
= 6)
P(X
1
+X
2
= 7)
=
1=36
6=36
=
1
6
= P (X
1
= 1)
y obviamente resulta lo mismo para cualquier otro valor de la primera tirada: el resultado
de la primera tirada es independiente de la suma si sta es 7. No as para cualquier otro
valor jado de la suma: en el caso extremo P(X
1
= 6 [ X
1
+X
2
= 12) = 1
1.8. EXPERIMENTOS INDEPENDIENTES 21
Denicin 10 En general n sucesos son independientes si para cada eleccin de k de
ellos (k = 2; :::; n) es:
P(A
i
1
A
i
2
:::A
i
k
) = P(A
i
1
)P(A
i
2
):::P(A
i
k
)
En particular:
P(A
1
A
2
:::A
n
) = P(A
1
)P(A
2
):::P(A
n
)
Los sucesos independientes surgen de modo natural en los experimentos independien-
tes, que estudiamos ahora.
1.8 Experimentos independientes
Supongamos, sin prdida de generalidad, 2 experimentos aleatorios (
1
; T
1
; P
1
) y
(
2
; T
2
; P
2
). Nos interesamos ahora en el estudio conjunto de ambos, es decir, sean
realizados simultaneamente o en sucesin, en el experimento conjunto (; T; P):
El espacio muestral es =
1

2
, constituido por todos los pares ordenados
(!
1
; !
2
) de resultados de uno y otro.
Los sucesos T son los engendrados por los A
1
A
2
con A
1
T
1
y A
2
T
2
.
La probabilidad P sobre los sucesos de T est determinada por las P (A
1
A
2
), pero
stas no estn en general determinadas por las P
1
y P
2
: dependen de la conexin fsica
que haya entre los experimentos.
Salvo en el caso especialmente importante en que los experimentos parciales sean
fsicamente independientes.
Proposicin 3 Si los experimentos (
1
; T
1
; P
1
) y (
2
; T
2
; P
2
) son independientes, la
distribucin de probabilidades en el experimento conjunto (; T; P) est determinada
por las P
1
y P
2
y es
P(A
1
A
2
) = P
1
(A
1
)P
2
(A
2
)
Demostracin. Si los experimentos son independientes los sucesos de T de la forma
A
1

2
(que slo dependen del primer experimento: el suceso se realiza si sucede A
1
en
el primero no importa cual sea el resultado del segundo) y
1
A
2
(que slo dependen
del segundo experimento: el suceso se realiza si sucede A
2
en el segundo no importa cual
sea el resultado del primero) son necesariamente independientes (cf 1.7).
22 1. EL CONCEPTO DE PROBABILIDAD
Pero es obvio que
A
1
A
2
= (A
1

2
) (
1
A
2
)
y si los (A
1

2
) y (
1
A
2
) son independientes
P(A
1
A
2
) = P((A
1

2
) (
1
A
2
))
= P(A
1

2
)P(
1
A
2
)
Pero P(A
1

2
) = P
1
(A
1
) y P(
1
A
2
) = P
2
(A
2
) as que
P(A
1
A
2
) = P
1
(A
1
)P
2
(A
2
)
Proposicin 4 En general, en un experimento compuesto de n independientes, si A
i
es
un suceso del experimento i-simo, es
P(A
1
A
2
A
n
) = P
1
(A
1
)P
2
(A
2
):::P
n
(A
n
):
Ejemplo 28 Se lanza una moneda con probabilidad p de cara n veces. El experimento
est compuesto por los n (lanzamientos) parciales. En cada experimento parcial es
i
=
c; + con P (c) = p y P (+) = 1 p. Cada resultado del experimento conjunto es de la
forma (!
1
!
2
:::!
n
) con !
i
= c +. Como los resultados de las tiradas son fsicamente
independientes
P (!
1
!
2
:::!
n
) = P (!
1
) P (!
2
) P (!
n
)
Por ejemplo, la probabilidad de que las k primeras tiradas sean cara y las n k
ltimas cruz es
P(cc
(k)
c + +
(nk)
+) = P(c)P(c)
(k)
P(c)P(+)P(+)
(nk)
P(+)
= p
k
(1 p)
nk
y obviamente es la misma para cada disposicin prejada de k caras y n k cruces en
las n tiradas. Igual da si se tiran n monedas iguales y se calcula la probabilidad de que
k seleccionadas muestren cara y las restantes cruz.
Como el nmero de resultados con k caras es

n
k

y cada uno de ellos tiene la misma


1.9. EJERCICIOS PROPUESTOS 23
probabilidad anterior, la probabilidad de obtener k caras es
P (k caras) =

n
k

p
k
(1 p)
nk
0 _ k _ n
Ejemplo 29 Como los ncleos radioactivos decaen independientemente unos de otros
(excepto cuando se produce una reaccin en cadena por sin), y la probabilidad de
decaimiento en un intervalo de tiempo (0; t) es la misma para cada uno, sea p
t
, la
probabilidad de que decaigan k seleccionados en dicho intervalo es
p
k
t
(1 p
t
)
nk
y la probabilidad de que decaigan k ncleos es
P (k ncleos) =

n
k

p
k
t
(1 p
t
)
nk
0 _ k _ n
1.9 Ejercicios propuestos
1. Deducir una formula para P(A'B) en el caso general (es decir cuando AB ,= y
no vale el primer axioma).
2. Tenemos un dado equiprobable (la probabilidad de cada punto es 1=6) y lo tru-
camos para conseguir que la probabilidad de tener 6 sea el doble que la de no
tenerlo, y los dems puntos tengan la misma probabilidad (pero obviamente dis-
tinta a la inicial). Calcular la probabilidad de tener par.
3. En un dado trucado es P(2) = P(4) = P(6) = p y P(1) = P(3) = P(5) = q;
adems P(par) = P(impar) + 0:1 Calcular estas probabilidades.
4. Halle el valor de la constante c si tiene n resultados y sus probabilidades fuesen
P(!
i
) = ic; (i = 1; ::; n). (sugerencia: tenga en cuenta que
P
n
x=1
x = n(n+1)=2 ).
5. Si A y B son independientes, compruebe que tambin lo son: A
c
y B; A y B
c
; A
c
y B
c
.
6. Un jugador muy experto expres su sorpresa a Galileo por observar que, al jugar
con 3 dados, la suma 10 aparece con ms frecuencia que la 9, y, sin embargo, segn
l haba igual nmero de casos favorables: suma 9={126, 135, 144, 225, 234,
333}, suma 10={136, 145, 226, 235, 244, 334}. Galileo, en sus Considerazione
Sopra il Giuoco dei Dadi mostr que esto no era as. Qu respondi Galileo?
24 1. EL CONCEPTO DE PROBABILIDAD
7. (vea el ejemplo 25) Se tira una moneda con probabilidad p de cara n veces ( n
monedas iguales). a) Calcular la probabilidad de obtener menos de k caras. b) de
no obtener ninguna cara. c) de obtener por lo menos una cara.
8. En un lote de N piezas hay Np defectuosas (0 < p < 1 es la fraccin de defectuosas).
a) Si se elige una pieza al azar probabilidad de que sea defectuosa? b) Si se eligen
n con reemplazamiento (cada una elegida se devuelve al lote para la siguiente
extraccin) probabilidad de obtener k defectuosas? (0 _ k _ n).
9. (cont.) Si se eligen n sin reemplazamiento (cada una elegida no se devuelve al lote
para la siguiente extraccin; o lo que es igual, se sacan las n a la vez) probabilidad
de obtener k defectuosas? (0 _ k _ min(n; Np)).
10. Cul es la probabilidad de que en 6 lanzamientos de un dado equilibrado aparezca
el 3 al menos una vez? Y ms de 4 veces?
11. Cierto sistema consta de n componentes montados en serie. El sistema funciona
mientras funcionen todos. Los componentes funcionan independientemente y cada
uno tiene una probabilidad p de fallar. Calcule la abilidad del sistema, es decir,
la probabilidad de que no falle.
12. Idem si el sistema consta de n componentes montados en paralelo, y entonces el
sistema funciona mientras funcione al menos uno. (sugerencia: calcule la proba-
bilidad del suceso complementario "fallan todos").
13. Asigne probabilidades a cada uno de los resultados del experimento tirar una
moneda con probabilidad p de cara hasta que salga cara. Compruebe que la
suma es 1. Calcule la probabilidad de que salga cara en un nmero par de tiradas.
(sugerencia: los resultados posibles son = c; +c; + +c; :::. Tenga en cuenta la
independencia de las tiradas. Adems
P
1
x=k
r
x
= r
k
=(1 r) si [r[ < 1).
14. Supongamos que en una pregunta de test con m alternativas si el alumno no
sabe la respuesta intenta acertarla eligiendo al azar. Sea p la probabilidad de
que sepa la respuesta, y 1 la de que sabindola conteste correctamente. Calcule
la probabilidad de que un alumno que haya contestado correctamente supiese en
realidad la respuesta. (sugerencia: denote S=sabe la respuesta, N=no sabe,
S

=responde correctamente, N

=no responde correctamente)


15. En cierto yacimiento se prev, a partir de un modelo estadstico global, que el
30% de los bloques de explotacin son de mineral, pero sin poder asegurar, ante
1.9. EJERCICIOS PROPUESTOS 25
cada bloque particular, si lo es o no. Para resolver este problema se pone a punto
un mtodo de estimacin que, contrastado sobre un cierto nmero de bloques, da
los siguientes resultados: cuando un bloque es de mineral el mtodo acierta el
80% de las veces, y cuando es de estril el 75%. a) Qu proporcin de bloques
sern clasicados como mineral? b) Calcular los valores predictivos del mtodo.
(Denote M=bloque de mineral, M

=bloque estimado como mineral, E=blo-


que de estril, E

=bloque estimado como estril)


En los 3 ejercicios siguientes use la denicin de la seccin 1.4.2
16. Se elige un punto al azar en un cuadrado de lado `, y con l como centro se dibuja
un crculo de radio r (siendo 2r < `). Probabilidad de que un vrtice del cuadrado
quede dentro del crculo?
17. A lo largo de cierta falla se producen terremotos. Los que tienen su epicentro a
menos de 10 km de cierta presa, localizada 1 km fuera de la falla, son peligrosos.
Suponiendo que los epicentros se localizan al azar en cualquier segmento que se
considere de la falla, qu probabilidad hay de que un terremoto peligroso tenga
su epicentro a menos de 5 km de la presa?
18. Sea una circunferencia en el plano z = 0 de R
3
con centro en el origen y radio r, y
sea el punto (0; 0; d). Desde dicho punto se hace un sondeo para intentar cortar a
la circunferencia, pero toma una inclinacin aleatoria respecto al eje z de ngulo
' (0; c) (no importa en qu direccin). Probabilidad de cortar al cuerpo?








2
Variables Aleatorias
2.1 Variable aleatoria
Nos interesamos de ahora en adelante en las distribuciones de probabilidades
numricas (R, E, 1) (cf. Seccin 1.3): el conjunto de resultados es R y los sucesos E
son los engendrados por los intervalos de R.
El modo natural de construirlas es mediante el concepto de variable aleatoria: los
resultados de los experimentos poseen propiedades que se pueden medir y nos interesamos
en sus valores.
Denicin 1 Sea una distribucin de probabilidades (, T, 1). Una variable aleato-
ria es una funcin A : R tal que
\1 E A
1
(1) T
donde A
1
(1) = . [ A (.) 1.
Es decir, todo suceso numrico es la imagen de un suceso del experimento. En todas
las situaciones en que, de ahora en adelante, utilicemos las Vas, nunca ser necesario
plantearse si efectivamente la particular funcin numrica de los resultados satisface
la condicin de la denicin. Para nuestros propsitos basta saber que si es nito
o numerable cualquier funcin denida sobre es una Va. Y si es no numerable
cualquier funcin continua, excepto, a lo sumo, en un nmero nito o numerable de
puntos, es una Va. En estas condiciones si A e 1 son Vas denidas sobre el mismo
tambin lo son, por ejemplo, A
2
, A +1 , A1 , min(A, 1 ), etc.
27
28 2. VARIABLES ALEATORIAS
Ejemplo 1 En 3 lanzamientos de una moneda el espacio muestral es
= (ccc) , (cc+) , (c +c) , (+cc) , (c + +) , (+c+) , (+ +c) , (+ + +)
La funcin A = nmero de caras toma los valores:
A (ccc) = 3
A (cc+) = A (c +c) = A (+cc) = 2
A (c + +) = A (+c+) = A (+ +c) = 1
A (+ + +) = 0
Algunas preimgenes son
A
1
(2) = (cc+) , (c +c) , (+cc)
A
1
((, 1]) = (c + +) , (+c+) , (+ +c) , (+ + +)
A
1
((, 1)) = (+ + +)
Ejemplo 2 Ms general, en : lanzamientos de una moneda el espacio muestral es =
(r
1
, r
2
, ..., r
n
) : r
i
= c +. La funcin A = nmero de caras est denida sobre
los 2
n
elementos de y sus valores posibles son 0, 1, 2, ..., :. Si el nmero de caras en
el resultado particular (r
1
, r
2
, ..., r
n
) es r entonces A(r
1
, r
2
, ..., r
n
) = r.
Ejemplo 3 Un experimento anlogo al anterior es el nmero de ncleos radioactivos,
de un total de :, que decaen en un intervalo de tiempo jado (0, t).
Ejemplo 4 El nmero de veces que hay que lanzar una moneda hasta obtener cara.
Ejemplo 5 El ngulo que forma la aguja de una ruleta continua respecto al origen.
Ejemplo 6 El tiempo que transcurre, desde un instante de observacin inicial, hasta
que decae un ncleo.
El nombre variable aleatoria para una funcin debe entenderse en el sentido de varia-
ble dependiente (de los resultados del experimento). Denotaremos las variables aleatorias
con letras maysculas, como A, 1, 7,... (en seguida veremos que necesitamos la notacin
habitual en Anlisis para las funciones, como ), q 1, con otro propsito) y con las
minsculas correspondientes sus valores, por ejemplo, A (.) = r.
2.1. VARIABLE ALEATORIA 29
Como se dijo al principio cada variable aleatoria representa
1
una distribucin de
probabilidades sobre R.
Denicin 2 Sea la Va A denida sobre (, T, 1). Su distribucin de probabili-
dades es (R, E, 1
X
) denida por
1
X
(1) = 1(A
1
(1)) \1 E
En las aplicaciones, salvo casos muy simples, esta conexin entre las probabilidades
de los sucesos del experimento (lado derecho de la frmula anterior) y las probabilidades
de los sucesos de R (lado izquierdo) no se hace explcita y la 1
X
(1) se da directamente
o se trata de modelizar a partir de un conjunto de observaciones experimentales de A.
Para simplicar la notacin escribiremos 1 (A 1) en lugar de 1
X
(1). Con ella
representamos la pregunta: cuando se haga el experimento y se mida el valor
de A en el resultado cul es la probabilidad de que el valor medido sea un
nmero del intervalo 1?
Ms particularmente escribiremos:
1 (a < A < /) si 1 = (a, /)
1 (a < A _ /) si 1 = (a, /]
1 (A _ /) si 1 = (, /]
1 (A /) si 1 = (/, +); etc.
Experimentalmente 1 (a < A < /), por ejemplo, representa la proporcin de veces
que, a larga, el valor medido de A est en (a, /); 1 (A _ /) en (, /], etc.
Todas las frmulas generales de la probabilidad, denidas para conjuntos arbitrarios,
se traducen sin dicultad. Por ejemplo:
1 (< A < +) = 1
1 (A _ r +/) = 1 (A _ r) +1 (r < A _ r +/) / 0 (2.1)
pues (, r +/] = (, r] '(r, r +/] y los dos intervalos de la derecha son disjuntos.
1 (A r) = 1 1 (A _ r) (2.2)
etc.
1
Con ms precisin, equivale: se prueba que para cada distribucin de probabilidades numrica es
posible construir una variable aleatoria que tenga esa distribucin.
30 2. VARIABLES ALEATORIAS
Denicin 3 (Variables discretas) Si el conjunto de valores posibles de la funcin A
(el conjunto de imgenes, o recorrido, denotado A ()) es numerable (nito o innito)
la variable se llama discreta.
Ejemplo 7 las variables de los ejemplos 2 y 3 con valores posibles 0, 1, 2, ...:. La del
ejemplo 4 con valores posibles 1, 2, 3, ....
Denicin 4 (Variables continuas) Si el conjunto de valores posibles de la funcin
A es no numerable (un intervalo de R, acotado o no), la variable se llama continua.
Ejemplo 8 la del ejemplo 5 con valores posibles [0, 2]. La del ejemplo 6 con valores
posibles (0, +).
2.2 Funcin de distribucin
Nuestro inters en el trabajo con las variables aleatorias es conocer su distribucin de
probabilidades, sin que en la mayor parte de las aplicaciones nos importe la forma de
la propia funcin A. Puede ser adems que diferentes variables aleatorias, medidas en
experimento distintos, tengan la misma distribucin, o ley de probabilidades. La
ventaja de las variables aleatorias es que dicha distribucin (que es una funcin de
conjuntos) se puede especicar de modo ms cmodo por medio de ciertas funciones
reales de variable real (vale decir por una frmula).
Denicin 5 La funcin de distribucin
2
de la variable aleatoria A es
1 (r) = 1 (A _ r) \r R
Se prueba que la distribucin de probabilidades 1 (A 1) est determinada por la
funcin de distribucin 1 (r), es decir, la probabilidad de cualquier 1 se puede calcular
a partir de las probabilidades de los intervalos (, r].
Ejemplo 9 Para (a, /], de (2.1)
1(a < A _ /) = 1(/) 1(a) (2.3)
Ejemplo 10 Para (/, +), de (2.2):
1(A /) = 1 1(/)
2
Tambin se suele llamar la funcin de distribucin acumulada
2.3. VARIABLES DISCRETAS 31
De la denicin se sigue que 1 (r) es montona no decreciente, pues de (2.3)
1 (r +/) 1 (r) = 1 (r < A _ r +/) _ 0 / 0 (2.4)
y tiene lmites 1 () = 1(A _ ) = 1(c) = 0. y 1 (+) = 1(A _ +) =
1(R) = 1.
Se prueba adems que siempre es continua por la derecha:
lim
h!0
+
(1 (r +/) 1 (r)) = lim
h!0
+
1 (r < A _ r +/) = 1 (O) = 0
Recprocamente, cualquier funcin 1 : R (0, 1) con las propiedades citadas es la
funcin de distribucin de una variable aleatoria.
Por la izquierda, sin embargo, no tiene por qu ser continua:
lim
h!0

(1 (r) 1 (r /)) = lim


h!0

1 (r / < A _ r) = 1 (A = r)
y slo lo ser en cada r tal que 1 (A = r) = 0.
Si A es discreta se ve fcilmente que 1 (r) es discontinua en cada uno de sus valores
posibles r A (), en los cuales es 1 (A = r) 0, y de valor constante entre cada 2
puntos de discontinuidad.
Si A es continua, en todos los casos que nosotros vamos a estudiar 1 (r) es continua.
Segn que A sea discreta o continua existen otras funciones equivalentes a la 1 ms
cmodas y que estudiamos a continuacin.
2.3 Variables discretas
Denicin 6 Si la variable A es discreta, es decir, su conjunto de valores posibles es
numerable, sea o = A (), su funcin de masa de probabilidades es
) (r) = 1 (A = r) \r o
y cero en otro caso.
La 1 (A 1) se calcula sumando los valores de ) (r) en los puntos de o que
pertenecen a 1:
1 (A 1) =

x2B\S
) (r)
32 2. VARIABLES ALEATORIAS
y se sigue que

x2S
) (r) = 1
y recprocamente, cualquier funcin ) (r) 0 sobre un conjunto numerable o tal que

x2S
) (r) = 1 es una funcin de masa.
En particular la 1 es
1 (r) =

u2S;ux
) (n) \r R
Ejemplo 11 La funcin de masa uniforme, o equiprobable, es
) (r) =
1
:
r = 1, 2, ..., :
La funcin de distribucin es
1 (r) =
_

_
0 r < 1
k
n
/ _ r < / + 1 (1 _ / < :)
1 r _ :
Ejemplo 12 La funcin de masa de Bernoulli de parmetro j (0, 1) es
) (r) = j
x
(1 j)
1x
r = 0, 1
La funcin de distribucin es
1 (r) =
_

_
0 r < 0
1 j 0 _ r < 1
1 r _ 1
El modelo bsico que da lugar a esta clase de variables aleatorias es un experimento
con slo 2 resultados posibles, digamos cara y cruz, con probabilidades respectivas j y
1 j, que se realiza una vez. La variable aleatoria es A (cara) = 1 y A (cruz) = 0.
Ejemplo 13 La funcin de masa binomial de parmetros : N y j (0, 1) es
)(r) =
_
:
r
_
j
x
(1 j)
nx
r = 0, 1, ..., :
2.3. VARIABLES DISCRETAS 33
Efectivamente ) (r) 0 y (frmula del binomio de Newton):
[j + (1 j)]
n
=
n

x=0
_
:
r
_
j
x
(1 j)
nx
= 1
El conjunto de valores posibles de una Va con esta funcin de masa es 0, 1, 2, ..., :.
El modelo bsico que da lugar a esta clase de variables aleatorias es un experimento
como el del ejemplo anterior (de Bernoulli) que se realiza : veces independientemente.
La variable aleatoria A =nmero de caras en los : lanzamientos, es binomial.
0 2 4 6 8 10
0
0.2
0.4
p = 0.2
0 2 4 6 8 10
0
0.2
0.4
p = 0.5
0 2 4 6 8 10
0
0.2
0.4
p = 0.8
funciones de masa binomiales con : = 10 y j = 0.2, 0.5 y 0.8
34 2. VARIABLES ALEATORIAS
Ejemplo 14 La funcin de masa geomtrica de parmetro j (0, 1) es
)(r) = (1 j)
x1
j r = 1, 2, 3, ...
Efectivamente )(r) 0 y
1

x=1
(1 j)
x1
j =
j
1 j
1

x=1
(1 j)
x
=
j
1 j

1 j
1 (1 j)
= 1
El modelo bsico que da lugar a esta clase de variables aleatorias es el siguiente:
un experimento con slo 2 resultados posibles, digamos cara y cruz, con probabilidades
respectivas j y 1 j, se realiza independientemente hasta obtener cara. La variable
aleatoria A =nmero de tiradas hasta que aparece cara es geomtrica.
Efectivamente, los valores posibles de A son los enteros 1, 2, 3.... El valor A = r
se observa si las primeras r 1 tiradas son cruz y la tirada r es cara. La probabilidad
de esta disposicin particular es (por la independencia de los resultados parciales que la
componen) (1 j)
x1
j.
Ejemplo 15 La funcin de masa de Poisson de parmetro ` 0 es
)(r) = c

`
x
r!
r = 0, 1, 2, ...
Efectivamente
1

x=0
c

`
x
r!
= 1
recordando que
c

= 1 +` +
`
2
2!
+
`
3
3!
+
Las variables aleatorias de Poisson aparecen en muchos sistemas de la naturaleza y
la vida cotidiana en los que nos interesamos en el nmero de acontecimientos de cierta
clase que aparecen en intervalos de observacin jos, temporales o espaciales: nmero
de clientes que llegan a una ventanilla en demanda de servicio, o de terremotos de cierta
intensidad, o de accidentes graves, distribucin espacial de animales, plantas, galaxias
etc. En el Captulo IV la estudiaremos con ms detalle.
2.4. VARIABLES CONTINUAS 35
2.4 Variables continuas
Denicin 7 Si la variable aleatoria es continua, es decir, el conjunto de sus valores
posibles A () es no numerable (un intervalo de R, que puede ser acotado o no), en todos
los casos que vamos a estudiar existe una funcin integrable ) (r) _ 0 (cero \r , A ()),
llamada de densidad de probabilidad, tal que
1 (A 1) =
_
B
) (n) dn (2.5)
Se sigue que
_
R
) (n) dn = 1
y recprocamente, cualquier funcin integrable ) (r) _ 0 que satisfaga la frmula anterior
es la funcin de densidad de una variable aleatoria.
La relacin con 1 es (frmula (2.5) con 1 = (, r])
1 (r) = 1 (A _ r) =
_
x
1
) (n) dn (2.6)
de manera que 1 es continua (primer teorema fundamental del clculo integral). Adems
en cada r en que ) (r) sea continua (como ) es Riemann integrable a lo ms tiene una
cantidad numerable de discontinuidades)
1
0
(r) = ) (r) (2.7)
es decir, 1 (r) es una funcin primitiva de ) (r).
Ejemplo 16 Se elige un punto al azar en el crculo r
2
+ j
2
_ 1 y se dene la Va
1=distancia del punto al centro, con recorrido [0, 1]. Hallemos su funcin de distribu-
cin. Sea r [0, 1] jado. El suceso 1 _ r se realiza si el punto cae dentro del crculo
interior de radio r y su probabilidad es el cociente de las supercies de dicho crculo y
el total (cf 1.4.2)
1
R
(r) = 1 (1 _ r) =
r
2

= r
2
r [0, 1]
as que la densidad de 1 es
)
R
(r) = 1
0
R
(r) = 2r r [0, 1]
Ejemplo 17 (cont:) En el mismo experimento sea el ngulo que forma el radio vector
36 2. VARIABLES ALEATORIAS
del punto con el eje de abscisas, con recorrido [0, 2]. El suceso _ , se realiza si
el punto cae dentro del sector, medido desde el eje de abscisas, de amplitud , y su
probabilidad es el cociente de las supercies de dicho sector y del crculo
1

(,) = 1 ( _ ,) =
,,2

=
,
2
, [0, 2]
as que la densidad de es
)

(,) = 1
0
R
(,) =
1
2
, [0, 2]
De (2.4) y (2.5)
1 (r
1
< A _ r
2
) =
_
x
2
x
1
) (r) dr = 1 (r
2
) 1 (r
1
) (2.8)
De (2.5), en particular, es
1 (A = r) =
_
x
x
)(n)dn = 0 \r
Esto es as formalmente (propiedad de la integral de Riemann), pero tambin conforme
con la realidad experimental: pues los valores de una A continua slo se observan a una
precisin dada y la frecuencia relativa de cada uno de ellos tiende a cero a medida que
la precisin aumenta. As pues, con las variables continuas con las que vamos a trabajar
es
1 (r
1
< A < r
2
) = 1 (r
1
_ A < r
2
) = 1 (r
1
< A _ r
2
) = 1 (r
1
_ A _ r
2
)
y en particular 1 (r) = 1 (A _ r) = 1 (A < r).
Tngase presente que ) (r) (a diferencia de la funcin de masa de una variable dis-
creta) no es una probabilidad, y puede tomar valores arbitrariamente grandes.
Ejemplo 18 la funcin de densidad ) (r) = ln(r) para r (0, 1). Efectivamente es
una densidad pues ) (r) 0 para r (0, 1) y
_
1
0
ln(r) dr = [r(lnr 1)]
1
0
= 1
2.4. VARIABLES CONTINUAS 37
Adems ) (r) no est acotada
lim
x!0
+
(ln(r)) =
Sin embargo, de (2.7) y (2.8) con / 0
) (r) = lim
h!0
1 (r +/) 1 (r)
/
= lim
h!0
1 (r < A _ r +/)
/
la ltima fraccin es el cociente de la masa de probabilidad en el intervalo, 1(r < A _ r),
dividida por la longitud /, es decir la densidad de probabilidad.
Del lmite se sigue que
1 (r < A _ r +/) = ) (r) / +r (/) (2.9)
con
lim
h!0
r (/)
/
= 0
y puede decirse que, salvo un innitsimo de orden superior a /
1 (r < A _ r +/) - ) (r) /
Ejemplo 19 (cont.) Se elige un punto al azar en el crculo r
2
+j
2
_ 1 y se dene la Va
1 distancia del punto al centro, con recorrido [0, 1]. Hallemos su densidad directamente.
Sea r [0, 1] jado. El suceso r < 1 _ r +/ se realiza si el punto cae entre los crculos
de radios r y r + /. Su probabilidad es el cociente de las supercies de dicha corona y
del crculo
1 (r < 1 _ r +/) =
(r +/)
2
r
2

= 2r/ +/
2
as que, de (2.9)
)
R
(r) / +r (/) = 2r/ +/
2
)
R
(r) +
r (/)
/
= 2r +/
y resulta
)
R
(r) = 2r r [0, 1]
Denicin 8 La funcin inversa de la 1 (r) = j, (que existe ya que 1 es estrictamente
creciente y continua), se llama funcin de cuantiles:
r = 1
1
(j) j (0, 1)
38 2. VARIABLES ALEATORIAS
y el nmero r se llama el cuantil de orden j y se denota tambin como r
p
.
En particular el cuantil r
0:5
se llama la mediana.
Ejemplo 20 la funcin de densidad uniforme en (a, /) es
) (r) =
1
/ a
r (a, /)
y cero en otro caso. Es inmediato que
_
R
) (r) dr =
_
a
1
0 dr +
_
b
a
1
/ a
dr +
_
+1
b
0 dr
=
_
r
/ a
_
b
a
= 1
El conjunto de valores posible de una variable aleatoria con esta densidad es (a, /). Su
funcin de distribucin y de cuantiles son
1 (r) =
_

_
0 r _ a
_
x
a
1
/ a
dn =
r a
/ a
r (a, /)
1 r _ /
r = 1
1
(j) = a +j (/ a) j (0, 1)
Ejemplo 21 la funcin de densidad exponencial (de parmetro ` 0) es
) (r) = `exp(`r) r 0
y cero en otro caso.
_
R
) (r) dr =
_
0
1
0 dr +
_
+1
0
`exp(`r) dr
= [exp(`r)]
+1
0
= 1
El conjunto de valores posibles de una variable aleatoria con esta densidad es (0, +).
Su funcin de distribucin y de cuantiles son
1 (r) =
_
_
_
0 r _ 0
_
x
0
`exp(`n) dn = 1 exp(`r) r 0
2.4. VARIABLES CONTINUAS 39
r = 1
1
(j) =
1
`
ln(1 j) j (0, 1)
0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t
f(t)
=1
=1/2
Densidades exponenciales
0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t
F(t)
=1/2
=1
Funciones de distribucion exponenciales
Ejemplo 22 la funcin de densidad de Gauss, o normal, de parmetros j R y
o 0, es
) (r) =
1
o
_
2
exp
_

1
2
_
r j
o
_
2
_
< r < +
40 2. VARIABLES ALEATORIAS
En el Captulo 4 se har un estudio detallado.
Ejemplo 23 la funcin de densidad de Cauchy es
) (r) =
1
(1 +r
2
)
< r < +
Efectivamente ) (r) 0 y
_
+1
1
dr
(1 +r
2
)
=
1

[arctan(r)]
+1
1
=
1

2

_

2
__
= 1
El conjunto de valores posibles de una variable aleatoria con esta densidad es (, +).
Su funcin de distribucin y de cuantiles son
1 (r) =
_
x
1
dn
(1 +n
2
)
=
1

arctan(r) +
1
2
r R
r = 1
1
(j) = tan
_
j
1
2
_
j (0, 1)
-10 -5 0 5 10
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
x
f(x)
densidad de Cauchy
2.5. VARIABLES MIXTAS 41
2.5 Variables mixtas
Una Va A es mixta si es una mezcla de discreta y continua: su funcin de distribu-
cin es continua salvo en un conjunto numerable o.
Ejemplo 24 Se elige un punto al azar en el (0, 1) y se dene la VA A = distancia del
punto al origen si el punto cae en (0, 1,2) y A = 1,2 si el punto cae en [1,2, 1). La
funcin de distribucin de A es:
1(r) =
_

_
0 r _ 0
r r (0, 1,2)
1 r _ 1,2
El recorrido de A es (0, 1,2) con densidad ) (r) = 1 y el punto 1,2 con masa
1 (A = 1,2) = 1,2
Ejemplo 25 En un sistema en el que las llegadas de clientes y los tiempos de servicio
son aleatorios, la Va A =tiempo de espera para el servicio es mixta. Si al llegar un
cliente el sistema est desocupado el tiempo de espera es cero y 1 (A = 0) = j (podemos
interpretar el valor de j como la proporcin de tiempo que, a la larga, el sistema est
desocupado). Pero si al llegar un cliente el sistema est ocupado su tiempo de espera
toma valores en (0, a) (a es el tiempo mximo de espera) con una densidad ) (r) tal que
_
a
0
) (r) dr = 1 j.
2.6 Variable aleatoria bidimensional
Denicin 9 Dos variables aleatorias medidas simultaneamente sobre los resultados del
mismo experimento denen una variable aleatoria bidimensional, sea (A, 1 ) :
R
2
.
Ejemplo 26 Sea un experimento con 3 resultados posibles, a, / y c, con probabilidades
respectivas j
a
, j
b
y j
c
, (j
a
+ j
b
+ j
c
= 1). Se realiza : veces independientemente. Se
denen las Vas A =nmero de veces que result a, e 1 =nmero de veces que result
/.
El recorrido de la Va (A, 1 ) es el conjunto (r, j) [ r, j 0, 1, 2, ...:, r + j _ :.
El de A y el de 1 es 0, 1, 2, ...:.
42 2. VARIABLES ALEATORIAS
Ejemplo 27 En el experimento de elegir un punto al azar en el crculo r
2
+j
2
_ 1. Las
coordenadas cartesianas (A, 1 ) del punto tienen recorrido (r, j) [ r
2
+ j
2
_ 1. Las
coordenadas polares (1, ) del punto tienen recorrido [0, 1] [0, 2].
Como en cada realizacin del experimento no podemos asegurar el resultado .
que se va a obtener, tampoco podemos asegurar el punto (A (.) , 1 (.)) R
2
que va a
resultar, y nuestro inters se dirige a calcular la probabilidad de que pertenezca a uno u
otro conjunto del plano numrico.
Denicin 10 Sea la Va (A, 1 ) denida sobre (, T, 1). Su distribucin de probabi-
lidades es (R
2
, E
2
, 1
X;Y
) denida por
1
X;Y
(1) = 1((A, 1 )
1
(1)) \1 E
2
En las aplicaciones, salvo casos muy simples, esta conexin entre las probabilidades
de los sucesos del experimento (lado derecho de la frmula anterior) y las probabilidades
de los sucesos de R
2
(lado izquierdo) no se hace explcita y la 1
X;Y
(1) se da directamente.
Para simplicar la notacin escribiremos 1 ((A, 1 ) 1) en lugar de 1
X;Y
(1). Con
ella representamos la pregunta: cuando se haga el experimento y se midan los
valores de A y de 1 en el resultado cul es la probabilidad de que el punto
obtenido est en el conjunto 1 del plano numrico?
Ms particularmente escribiremos:
1 (A 1
1
, 1 1
2
) si 1 = 1
1
1
2
con 1
1
E y 1
2
E
1 (a < A < /, c < 1 < d) si 1 = (a, /) (c, d)
1 (A _ a, 1 _ /) si 1 = (, a] (, /] etc.
2.6.1 Funcin de distribucin conjunta
Nuestro inters es conocer esta distribucin que, como en el caso unidimensional, se puede
especicar de modo ms cmodo por medio de ciertas funciones reales de variables reales
(vale decir por una frmula).
Denicin 11 La funcin de distribucin conjunta de la variable (A, 1 ) es
1 (r, j) = 1 (A _ r, 1 _ j) \r, j R (2.10)
Es decir, la probabilidad de cualquier 1 se puede calcular a partir de las probabili-
dades de los intervalos (, r] (, j].
2.7. VARIABLE ALEATORIA BIDIMENSIONAL DISCRETA 43
Por ejemplo, para 1 = (r, r+/](j, j+/] , (/ 0, / 0) es (comprubelo haciendo
una gura!):
1(r < A _ r+/, j < 1 _ j +/) = 1(r+/, j +/) 1(r+/, j) 1(r, j +/) +1(r, j)
(2.11)
Se prueba que 1 (r, j) es continua por la derecha y montona no decreciente en cada
una de las variables, y que tiene lmites 1 (, j) = 1 (r, ) = 1 (, ) = 0
y 1 (+, +) = 1. Slo estas propiedades no bastan para que una 1(r, j) sea una
funcin de distribucin; adems ha de ser

2
1 (r, j) = 1(r +/, j +/) 1(r +/, j) 1(r, j +/) +1(r, j) _ 0 (2.12)
Las funciones de distribucin de cada una de las variable A e 1 , sean 1
X
(r) y
1
Y
(j), se llaman marginales, y estn determinadas por la 1 (r, j):
1 (r, +) = 1 (A _ r, 1 _ +) = 1 (A _ r) = 1
X
(r)
1 (+, j) = 1 (A _ +, 1 _ j) = 1 (1 _ j) = 1
Y
(j)
Sin embargo, en general, las marginales no determinan la 1 (r, j).
2.7 Variable aleatoria bidimensional discreta
Denicin 12 Si A e 1 son ambas discretas con recorrido conjunto o, la funcin
de masa conjunta, equivalente a la 1 (r, j), es
) (r, j) = 1 (A = r, 1 = j) \(r, j) o
y cero en otro caso.
Se sigue que

(x;y)2S
) (r, j) = 1
Cualquier probabilidad se calcula as
1 ((A, 1 ) 1) =

(x;y)2B\S
) (r, j)
44 2. VARIABLES ALEATORIAS
Adems las funciones de masa, marginales, de A e 1 son
)
X
(r) =

y
) (r, j) (2.13)
)
Y
(j) =

x
) (r, j)
Ejemplo 28 Sea (A, 1 ) la Va del ejemplo 26. Obtengamos la )(r,j). Para ello hemos
de sumar las probabilidades de todos los resultados (:-tuplas) con dicha composicin: r
de tipo a e j de tipo / (y naturalmente : r j de tipo c) cualquiera que sea el orden
en que hayan aparecido. Pero para cada resultado particular la probabilidad es, por la
independencia de los ensayos, j
x
a
j
y
b
j
nxy
c
, y hay
_
:
r
__
: r
j
_
=
:!
r!j!(: r j)!
distintos con dicha composicin (primero se eligen, entre los nmeros 1 a :, las r posi-
ciones de las a, que se multiplican por las elecciones para las j entre las :r restantes).
En conclusin:
)(r, j) =
:!
r!j!(: r j)!
j
x
a
j
y
b
j
nxy
c
r, j 0, 1, 2, ...:, r +j _ :
La Va (A, 1 ) se denomina trinomial de parmetros (:, j
a
, j
b
, j
c
). Es claro que tanto
A como 1 son binomiales de parmetros (:, j
a
) y (:, j
b
) respectivamente.
2.7.1 Condicionales
Si j es un valor jado del recorrido de la Va 1 , por lo tanto con 1 (1 = j) = )
Y
(j) 0,
recordando la frmula de la probabilidad condicional (Seccin 1.5) es
1 (A = r [ 1 = j) =
1 (A = r, 1 = j)
1 (1 = j)
=
) (r, j)
)
Y
(j)
y se ve que la funcin de la derecha, de argumento r y parmetro j, es una funcin de
masa, pues, usando (2.13)
1
)
Y
(j)

x
) (r, j) =
1
)
Y
(j)
)
Y
(j) = 1
Denicin 13 Sea (A.1 ) discreta con masa ) (r, j). Para cada valor 1 = j jado del
recorrido de 1 la Va (A [ 1 = j) se llama condicional y su funcin de masa es
2.8. VARIABLE ALEATORIA BIDIMENSIONAL CONTINUA 45
)(r [ j) =
)(r, j)
)
Y
(j)
\r R
Observar que hay tantas Vas condicionales cuantos valores puedan jarse en el recor-
rido de 1 . Naturalmente todo lo dicho puede repetirse cambiando los papeles de A e
1 , obtenindose las )(j [ r).
Ejemplo 29 (cont. del 28) Sea jado 0 < j < :.La Va (A [ 1 = j) tiene recorrido
0, 1, ..., : j. Su fm es:
)(r [ j) =
_
n
x
__
nx
y
_
j
x
a
j
y
b
j
c
nxy
_
n
y
_
j
y
b
(1 j
b
)
ny
=
_
: j
r
__
j
a
j
a
+j
c
_
x
_
1
j
a
j
a
+j
c
_
nyx
Resulta que (A [ 1 = j) es una Va binomial de parmetros (: j) y j
a
,(j
a
+j
c
).
Efectivamente, jados los 1 = j resultados de tipo /, cada uno de los :j restantes
slo pueden ser de tipo a c con probabilidades ahora:
1(. = a [ . ,= /) =
1(. = a)
1(. = a) +1(. = c)
=
j
a
j
a
+j
c
y anlogamente para c.
2.8 Variable aleatoria bidimensional continua
Denicin 14 Si A e 1 son ambas continuas, en todos los casos que vamos a estu-
diar existe una funcin integrable ) (r, j) _ 0 (cero en todo (r, j) que no sea del recorrido
de (A, 1 )), llamada de densidad conjunta, tal que
1 ((A, 1 ) 1) =
_ _
B
) (n, ) dnd \1 E
2
(2.14)
Se sigue que
_ _
R
2
) (n, ) dnd = 1
En particular tomando 1 = (, r] (, j] resulta que
1 (r, j) = 1 (A _ r, 1 _ j) =
_
x
1
_
y
1
) (n, ) dnd
46 2. VARIABLES ALEATORIAS
de manera que 1 es continua. Y en cada (r, j) en que ) (r, j) sea continua
0
2
1 (r, j)
0r0j
= ) (r, j) (2.15)
De (2.11) y (2.15)
lim
h!0
k!0
1(r < A _ r +/, j < 1 _ j +/)
//
= lim
h!0
k!0

2
1(r, j)
//
=
0
2
1(r, j)
0r0j
= )(r, j)
la primera fraccin de la izquierda es el cociente de la masa de probabilidad en el rec-
tngulo, 1(r < A _ r + /, j < 1 _ j + /), dividida por la supercie //, es decir la
densidad de probabilidad.
Del lmite se sigue que
1(r < A _ r +/, j < 1 _ j +/) = ) (r, j) // +r (//) (2.16)
con
lim
h!0
k!0
r (//)
//
= 0
y puede decirse que, que salvo un innitsimo de orden superior a //, es
1(r < A _ r +/, j < 1 _ j +/) - )(r, j)//
La funcin de densidad, marginal, de A se deduce de
1
X
(r) = 1 (A _ r, 1 _ +) =
_
x
1
__
+1
1
) (n, ) d
_
dn
y es
)
X
(r) = 1
0
X
(r) =
_
+1
1
) (r, ) d (2.17)
y anlogamente
)
Y
(j) =
_
+1
1
) (n, j) dn
De (2.14), en particular, resulta (propiedad de la integral de Riemann) que si 1 es
un conjunto de supercie nula (un punto o una curva por ejemplo) es
1 ((A, 1 ) 1) =
_ _
B
) (n, ) dnd = 0
2.8. VARIABLE ALEATORIA BIDIMENSIONAL CONTINUA 47
as que, con las variables continuas con las que vamos a trabajar es
1 (a _ A _ /, c _ 1 _ d) = 1 (a < A < /, c < 1 < d)
1 (A _ a, 1 _ /) = 1 (A < a, 1 < /)
etc.
Ejemplo 30 Sean (A, 1 ) la coordenadas de un punto elegido al azar en el crculo r
2
+
j
2
_ 1. Si (r, j) y (r +/, j +/) son puntos del crculo
1(r < A _ r +/, j < 1 _ j +/) =
//

(cociente de supercies por ser el punto elegido al azar; Seccin 1.4.2 ). Se sigue de
(2.16) que
) (r, j) // +r (//) =
//

es decir
) (r, j) =
1

r
2
+j
2
_ 1
que es una densidad uniforme, o equiprobable, en el crculo.
La densidad marginal de la A se obtiene con
)
X
(r) =
_
+1
1
) (r, j) dj =
_
+
p
1x
2

p
1x
2
1

dj =
2
_
1 r
2

r [1, 1]
pues ) (r, j) = 0 para r jado e j ,
_

_
1 r
2
, +
_
1 r
2
_
. La de la 1 es obviamente
anloga.
2.8.1 Condicionales
Si j es un valor jado del recorrido de la Va 1 tal que )
Y
(j) 0, la funcin
) (r, j)
)
Y
(j)
de argumento r y parmetro j, es una funcin de densidad, pues, usando (2.17)
1
)
Y
(j)
_
R
) (r, j) dr =
1
)
Y
(j)
)
Y
(j) = 1
48 2. VARIABLES ALEATORIAS
Denicin 15 Sea (A.1 ) continua con densidad ) (r, j). Para cada valor 1 = j jado
tal que )
Y
(j) 0 la Va (A [ 1 = j) se llama condicional y su funcin de densidad es
)(r [ j) =
)(r, j)
)
Y
(j)
\r R
Observar que hay tantas Vas condicionales cuantos valores puedan jarse en el recor-
rido de 1 con )
Y
(j) 0. Naturalmente todo lo dicho puede repetirse cambiando los
papeles de A e 1 , obtenindose las )(j [ r).
Ejemplo 31 Sean (A, 1 ) la coordenadas de un punto elegido al azar en el crculo r
2
+
j
2
_ 1. La densidad conjunta y la marginal de la A son (ejemplo 30)
) (r, j) =
1

r
2
+j
2
_ 1
)
X
(r) =
2
_
1 r
2

r [1, 1]
y las densidades condicionales de (1 [ A = r), para cada r (1, 1) (pues para r = 1
es )
X
(r) = 0) resultan
)(j [ r) =
)(r, j)
)
X
(r)
=
1

2
p
1x
2

=
1
2
_
1 r
2
j
_

_
1 r
2
, +
_
1 r
2
_
de manera que las (1 [ A = r) son uniformes, o equiprobables (y naturalmente lo mismo
sucede para las (A [ 1 = j)).
2.9 Variables independientes
Vimos en la seccin 2.6.1 que la distribucin de probabilidades de (A, 1 ) determina
las de A e 1 por separado (marginales), pero stas, en general, no determinan aqulla.
Salvo en el caso siguiente:
Denicin 16 Las variables A e 1 son independientes si
1 (A , 1 1) = 1 (A ) 1 (1 1) \, 1 E
Proposicin 1 Las siguientes condiciones, todas equivalentes, son necesarias y su-
cientes para la independencia:
2.9. VARIABLES INDEPENDIENTES 49
(i) con las funciones de distribucin:
1(r, j) = 1
X
(r)1
Y
(j)
(ii) con las funciones de masa o densidad:
)(r, j) = )
X
(r))
Y
(j)
(iii) con las condicionales:
)(r [ j) = )
X
(r) \j
que a su vez equivale a:
)(j [ r) = )
Y
(j) \r
Una condicin necesaria, pero no suciente, para la independencia, es que el recorrido
de (A, 1 ) sea el producto cartesiano de los de A e 1 (intuitivamente: si el recorrido de
una de las variables, sea la (A [ 1 = j), depende de cual sea el valor j jado, hay una
clara dependencia).
Ejemplo 32 Si la Va (A, 1 ) tiene densidad )(r, j) = c
(x+y)
si r, j 0, entonces A
e 1 son independientes, pues basta observar que )(r, j) se factoriza en el producto de 2
funciones cada una dependiendo de slo una de las variables (este resultado es de validez
general).
Ejemplo 33 Las coordenadas cartesianas (A, 1 ) de un punto elegido al azar en el cr-
culo r
2
+ j
2
_ 1 no son independientes, pues basta observar que su recorrido no es un
rectngulo del plano.
Como en el caso de la independencia de sucesos (cf. secciones 1.7 y 1.8) la de
variables aleatorias es muy importante cuando se conoce a priori, ms que su constatacin
a posteriori.
Ejemplo 34 Se elige un punto al azar en el crculo r
2
+ j
2
_ 1. Las coordenadas
polares (1, ) del punto son obviamente independientes: la distancia del punto al centro
es independiente del radio sobre el que se sita el punto. Como las densidades marginales,
50 2. VARIABLES ALEATORIAS
obtenidas en los ejemplos 16 y 17 son
)
R
(r) =
_
2
0
r

d, = 2r r [0, 1]
)

(,) =
_
1
0
r

dr =
1
2
, [0, 2]
la densidad conjunta es
)
R;
(r, ,) = )
R
(r) )

(,) =
r

(r, ,) [0, 1] [0, 2]


Vase tambin el ejemplo 47.
Ejemplo 35 Un modo trivial de construir Vas independientes es a partir de experi-
mentos independientes (Seccin 1.8). Si (
1
, T
1
, 1
1
) y (
2
, T
2
, 1
2
) son independientes,
entonces sendas variables A e 1 denidas respectivamente sobre
1
y
2
denen a su
vez una conjunta (A, 1 ) sobre
1

2
, as
(A, 1 ) (.
1
, .
2
) = (A (.
1
) , 1 (.
2
))
resultando independientes. Esta construccin ser muy importante en Estadstica
Proposicin 2 Si A e 1 son independientes entonces tambin lo son q (A) y /(1 )
para cualesquiera funciones q y /.
Demostracin.
1(q(A) , /(1 ) 1)
= 1(A q
1
(), 1 /
1
(1))
= 1(A q
1
())1(1 /
1
(1))
= 1(q(A) )1(/(1 ) 1)
2.10 Generalizacin
La generalizacin a variables :dimensionales (A
1
, A
2
, ..., A
k
) : R
n
es inmediata.
La distribucin de probabilidades de la variable (A
1
, A
2
, ..., A
n
) se puede especicar
por la funcin de distribucin 1 (r
1
, r
2
, ..., r
n
), o por la de masa o densidad conjunta
2.11. FUNCIONES DE VARIABLES ALEATORIAS 51
) (r
1
, r
2
, ..., r
n
) (segn que las componentes A
i
sean discretas o continuas). Esta de-
termina todas las marginales, en particular las )
1
(r
1
), )
2
(r
2
), )
n
(r
n
), pero no al
contrario en general.
Salvo si las : variables (A
1
, A
2
, ..., A
n
) son independientes, en cuyo caso
) (r
1
, r
2
, ..., r
n
) = )
1
(r
1
) )
2
(r
2
) )
n
(r
n
)
es decir, en este caso las marginales determinan la conjunta.
Se pueba que si las : variables (A
1
, A
2
, ..., A
n
) son independientes entonces tambin
lo son q (A
1
, A
2
, ..., A
k
) y /(A
k+1
, A
k+2
, ..., A
n
). Y en general cualesquiera funciones
de subconjuntos disjuntos de las :.
2.11 Funciones de Variables Aleatorias
Nos interesamos ahora en la deduccin de la ley de probabilidades de una Va denida
como funcin de otras, a partir del conocimiento de la ley de probabilidades de stas y de
la propia relacin funcional. Suponemos en todos los casos que las variables implicadas
son continuas.
2.11.1 Funcin de una variable
Sea la Va A con densidad )
X
(r) y la 1 = q(A). Nos proponemos hallar la densidad de
1 . La funcin de distribucin de 1 se obtiene as:
1
Y
(j) = 1(q(A) _ j) = 1(A q
1
(, j]) =
_
g
1
(1;y]
)
X
(r)dr (2.18)
donde q
1
(, j] = r R : q (r) _ j. Y entonces la densidad )
Y
(j) de 1 es:
)
Y
(j) = 1
0
Y
(j)
Ejemplo 36 Sea A continua con densidad )
X
(r) y sea 1 = A
2
. Hallemos la densidad
de 1
1
Y
(j) = 1
_
A
2
_ j
_
= 1 (
_
j _ A _
_
j) =
_
+
p
y

p
y
)
X
(r) dr
52 2. VARIABLES ALEATORIAS
y la densidad resulta (Regla de Leibnitz: derivacin bajo el signo integral):
)
Y
(j) = 1
0
Y
(j) =
1
2
_
j
)
X
(
_
j)
_
1
2
_
j
_
)
X
(
_
j)
=
1
2
_
j
[)
X
(
_
j) +)
X
(
_
j)]
Ejemplo 37 (cont.) Sea en particular A uniforme, con densidad )
X
(r) = 1 para
r (0, 1). Entonces 1 = A
2
tiene recorrido (0, 1) y
)
Y
(j) =
1
2
_
j
[)
X
(
_
j) +)
X
(
_
j)]
=
1
2
_
j
[1 + 0]
=
1
2
_
j
j (0, 1)
Ejemplo 38 Se elige un punto A al azar (es decir, con densidad uniforme) en una
barra de longitud 1 y se rompe por dicho punto. Sea 1 la longitud del trozo ms grande.
Obtengamos la densidad de 1 .
La posicin del punto de rotura es una variable aleatoria A con densidad )
X
(r) = 1
para r (0, 1). La longitud del trozo ms grande es la variable aleatoria
1 =
_
1 A si 0 < A _ 1,2
A si 1,2 < A < 1
El recorrido de 1 es (1,2, 1). Sea un valor jado j del recorrido. Entonces
1
Y
(j) = 1(1 _ j) = 1 (1 j _ A _ j) = 1
X
(j) 1
X
(1 j)
= j (1 j) = 2j 1 j (1,2, 1)
)
Y
(j) = 1
0
Y
(j) = 2 j (1,2, 1)
2.11. FUNCIONES DE VARIABLES ALEATORIAS 53
0 0,5 1
0
0.5
1
X
Y
0 0,5 1
0
0.5
1
X
y
1-y y
Y=1-X Y=X
Funciones montonas
En particular, si q es montona creciente q
1
(, j] = (, q
1
(j)] y (2.18) queda
1
Y
(j) =
_
g
1
(y)
1
)
X
(r)dr
y resulta
)
Y
(j) =
_
q
1
_
0
(j))
X
(q
1
(j))
Y si decreciente q
1
(, j] = [q
1
(j) , +) y
1
Y
(j) =
_
+1
g
1
(y)
)
X
(r)dr
y resulta
)
Y
(j) =
_
q
1
_
0
(j))
X
(q
1
(j))
observar que en este caso al ser q decreciente tambin lo es q
1
y
_
q
1
_
0
(j) < 0.
54 2. VARIABLES ALEATORIAS
Ambos casos se reunen en la frmula:
)
Y
(j) =

_
q
1
_
0
(j)

)
X
(q
1
(j)) (2.19)
Ejemplo 39 Sea A continua con densidad )
X
(r) y sea 1 = a +/A (/ ,= 0). Hallemos
la densidad de 1 . Como
q
1
(j) =
j a
/
resulta
)
Y
(j) =
1
[/[
)
X
_
j a
/
_
(2.20)
Ejemplo 40 Sea 1 = 1,A. La funcin q es montona y q
1
(j) = 1,j as que
)
Y
(j) =

_
q
1
_
0
(j)

)
X
(q
1
(j))
=
1
j
2
)
X
_
1
j
_
Simulacin de Vas
Sea 1 = 1
X
(A), es decir, como funcin q de cambio elegimos la de distribucin de A,
que es una funcin montona. Obviamente 1 toma valores en (0, 1).
Como q
1
(j) = 1
1
X
(j) entonces (derivada de la funcin inversa)
_
1
1
X
_
0
(j) =
1
1
0
X
(1
1
X
(j))
=
1
)
X
(1
1
X
(j))
y resulta
)
Y
(j) =

_
q
1
_
0
(j)

)
X
(q
1
(j)) =
1
)
X
(1
1
X
(j))
)
X
(1
1
X
(j))
= 1 j (0, 1)
as que 1 tiene densidad uniforme en (0, 1).
Recprocamente, si 1 tiene densidad uniforme en (0, 1) entonces A = 1
1
X
(1 ) tiene
funcin de distribucin 1
X
. Este es el algoritmo bsico para simular valores de
una variable aleatoria continua con distribucin 1
X
usando un generador de nmeros
uniformes en (0, 1).
Ejemplo 41 Para simular valores de una variable aleatoria A exponencial de parmetro
2.11. FUNCIONES DE VARIABLES ALEATORIAS 55
`, como 1 = 1
X
(A) = 1 exp(`A) se usa A = (1,`) ln (1 1 ) con 1 uniforme
en (0, 1).
2.11.2 Funcin de varias Vas
Sean la Va (A
1
, A
2
, ..., A
n
) con densidad ) (r
1
, r
2
, ..., r
n
) y la 1 = q(A
1
, A
2
, ..., A
n
).
En algunos casos particulares un simple argumento probabilista da la solucin:
Ejemplo 42 Obtengamos la FD de 1 = max(A
1
, A
2
, ..., A
n
).
1
Y
(j) = 1(max(A
1
, A
2
, ..., A
n
) _ j)
= 1(todas las coordenadas son _ j)
= 1(A
1
_ j, A
2
_ j, ..., A
n
_ j)
Si en particular las A
i
fuesen independientes con la misma funcin de distribucin
1
X
(r) entonces:
1
Y
(j) = [1
X
(j)]
n
resultado vlido sean las variables discretas o continuas.
Si adems fuesen continuas con densidad )
X
(r) la densidad del mximo es
)
Y
(j) = :[1
X
(j)]
n1
)
X
(j)
Ejemplo 43 (cont.) Obtengamos ahora la de 1 = min(A
1
, A
2
, ..., A
n
).
1
Y
(j) = 1(min(A
1
, A
2
, ..., A
n
) _ j)
= 1(al menos una coordenada es _ j)
= 1 1(todas son j)
= 1 1(A
1
j, A
2
j, ..., A
n
j)
Si en particular las A
i
fuesen independientes con la misma funcin de distribucin
1
X
(r) entonces:
1
Y
(j) = 1 [1 1
X
(j)]
n
resultado vlido sean las variables discretas o continuas.
Si adems fuesen continuas con densidad )
X
(r) la densidad del mnimo es
)
Y
(j) = :[1 1
X
(j)]
n1
)
X
(j)
56 2. VARIABLES ALEATORIAS
En general la FD de 1 se obtiene as:
1
Y
(j) = 1(q(A
1
, A
2
, ..., A
n
) _ j)
= 1((A
1
, A
2
, ..., A
n
) q
1
(, j])
=
_

_
g
1
(1;y]
)(r
1
, r
2
, ..., r
n
)dr
1
dr
2
...dr
n
donde q
1
(, j] = (r
1
, r
2
, .., r
n
) R
n
: q (r
1
, r
2
, .., r
n
) _ j, y donde )(r
1
, r
2
, ..., r
n
)
es la densidad de (A
1
, A
2
, ..., A
n
)
La densidad )
Y
(j) de 1 es
)
Y
(j) = 1
0
Y
(j)
Ejemplo 44 (Suma) Sea (A
1
, A
2
) con densidad )(r
1
, r
2
). Obtengamos la densidad de
1 = A
1
+A
2
.
q
1
(, j] = (r
1
, r
2
) R
2
: r
1
+r
2
_ j
1
Y
(j) =
_
+1
1
__
yx
1
1
)(r
1
, r
2
)dr
2
_
dr
1
)
Y
(j) = 1
0
Y
(j) =
_
+1
1
)(r
1
, j r
1
)dr
1
En particular, si las Vas son independientes
)
Y
(j) =
_
+1
1
)
1
(r
1
))
2
(j r
1
)dr
1
(convolucin de las densidades).
Ejemplo 45 (Cociente). Sea (A
1
, A
2
) con densidad )(r
1
, r
2
). Obtengamos la densi-
dad de 1 = A
1
,A
2
.
q
1
(, j] = (r
1
, r
2
) R
2
: r
2
< 0, r
1
_ r
2
j'(r
1
, r
2
) R
2
: r
2
0, r
1
_ r
2
j
1
Y
(j) =
_
0
1
__
+1
x
2
y
)(r
1
, r
2
)dr
1
_
dr
2
+
_
+1
0
__
x
2
y
1
)(r
1
, r
2
)dr
1
_
dr
2
)
Y
(j) =
_
0
1
r
2
)(jr
2
, r
2
)dr
2
+
_
+1
0
r
2
)(jr
2
, r
2
)dr
2
=
_
+1
1
[r
2
[ )(jr
2
, r
2
)dr
2
2.11. FUNCIONES DE VARIABLES ALEATORIAS 57
2.11.3 Transformacin general de Vas continuas
Recordemos que si (A
1
, A
2
, ..., A
n
) es continua con densidad )
X
(r
1
, r
2
, ..., r
n
) entonces
1 ((A
1
, A
2
, ..., A
n
) ) =
_

_
A
)
X
(r
1
, r
2
, ..., r
n
)dr
1
...dr
n
\ E
n
Sean : nuevas variables:
1
1
= q
1
(A
1
, A
2
, ..., A
n
)
1
2
= q
2
(A
1
, A
2
, ..., A
n
)

1
n
= q
n
(A
1
, A
2
, ..., A
n
)
_

_
siendo la transformacin q : R
n
R
n
continua, biunvoca y diferenciable. Nos pro-
ponemos hallar la densidad )
Y
(j
1
, j
2
, ..., j
n
) de (1
1
, 1
2
, ..., 1
n
).
Sea la tranformacin inversa
A
1
= /
1
(1
1
, 1
2
, ..., 1
n
)
A
2
= /
2
(1
1
, 1
2
, ..., 1
n
)

A
n
= /
n
(1
1
, 1
2
, ..., 1
n
)
_

_
entonces \ E
n
1 ((A
1
, A
2
, ..., A
n
) ) =
_

_
A
)
X
(r
1
, r
2
, ..., r
n
)dr
1
...dr
n
=
_

_
T(A)
)
X
(/
1
, /
2
, ..., /
n
) [J[ dj
1
dj
2
...dj
n
(Teorema del cambio de variable en integrales mltiples: hemos cambiado las r por las
j) donde T () E
n
es el conjunto transformado del y
J = det
_
_
_
@h
1
@y
1

@h
1
@y
n

@h
n
@y
1

@h
n
@yn
_
_
_
58 2. VARIABLES ALEATORIAS
Pero la correspondencia es biunvoca as que
1 ((A
1
, A
2
, ..., A
n
) ) = 1 ((1
1
, 1
2
, ..., 1
n
) T ())
y como
1 ((1
1
, 1
2
, ..., 1
n
) T ()) =
_

_
T(A)
)
Y
(j
1
, j
2
, ..., j
n
)dj
1
dj
2
...dj
n
resulta
)
Y
(j
1
, j
2
, ..., j
n
) = )
X
(/
1
, /
2
, ..., /
n
) [J[
Ejemplo 46 Sea (A, 1 ) con densidad uniforme )
X;Y
(r, j) =
1

en el crculo r
2
+j
2
_ 1,
y sean (1, ) (coordenadas polares)
1 =
_
A
2
+1
2
= arctan
1
A
La transformacin inversa es
A = 1cos
1 = 1sin
con
J = det
_
cos , r sin,
sin, r cos ,
_
= r
y resulta
)
R;
(r, ,) = )
X;Y
(r cos ,, r sin,) r =
r

r [0, 1], , [0, 2]


Las densidades marginales son
)
R
(r) =
_
2
0
r

d, = 2r r [0, 1]
)

(,) =
_
1
0
r

dr =
1
2
, [0, 2]
y las variables 1 y son independientes pues )
R;
(r, ,) = )
R
(r) )

(,).
2.11. FUNCIONES DE VARIABLES ALEATORIAS 59
2.11.4 Transformaciones lineales
Un caso particular importante del anterior es el de las transformaciones lineales:
_
_
_
_
1
1
.
.
.
1
n
_
_
_
_
= A
_
_
_
_
A
1
.
.
.
A
n
_
_
_
_
donde A es una matriz : : de constantes. La transformacin es biunvoca si, y slo
si, A es no singular. En cuyo caso:
J = det A
1
= (det A)
1
Resultando:
)
Y
(j
1
, j
2
, ..., j
n
) =
1
[det A[
)
X
(

j
c
1j
j
j
,

j
c
2j
j
j
, ...,

j
c
nj
j
j
)
donde (c
ij
) = A
1
.
Ejemplo 47 Sea la Va (A
1
, A
2
) con densidad )
X
(r
1
, r
2
). Sea (1
1
, 1
2
) una rotacin de
ngulo c de las primeras denida por:
=
_
cos c senc
senc cos c
_
y como

1
=
_
cos c senc
senc cos c
_
y det = 1, la densidad de (1
1
, 1
2
) es:
)
Y
(j
1
, j
2
) = )
X
(j
1
cos c j
2
senc, j
1
senc +j
2
cos c)
60 2. VARIABLES ALEATORIAS
2.12 Ejercicios propuestos
1. Un recipiente de volumen \ contiene : molculas de un gas ideal. El nmero de
ellas que en un instante cualquiera se hallan en una parte de volumen ucta, es
decir, es una variable aleatoria 7. Halle su funcin de masa de probabilidades si,
dado el equilibrio, para cada una de las : la probabilidad de estar en es j = ,\ .
2. (muestreo con reemplazamiento) Una urna contiene r bolas rojas y / blancas. Se
extraen :, una tras otra, devolviendo la anterior antes de extraer la siguiente.
Deduzca la funcin de masa de la variable aleatoria A =nmero de bolas rojas
entre las :. (sugerencia: ejercicio propuesto 1.9.8))
3. (muestreo sin reemplazamiento) Una urna contiene r bolas rojas y / blancas. Se
extraen : a la vez, o una tras otra sin devolver la anterior antes de extraer la
siguiente. Deduzca la funcin de masa de la variable aleatoria A =nmero de
bolas rojas entre las :. (sugerencia: ejercicio propuesto 1.9.9))
4. Sea A una Va geomtrica de parmetro j (ejemplo 14). Compruebe que 1(A
r + j [ A r) = 1(A j) (propiedad de prdida de memoria, que entre las
Vas discretas slo pose sta).
5. La ley del decaimiento radioactivo puede deducirse de una nica hiptesis fsica
experimentalmente constrastable: El decaimiento radioactivo es un proceso sin
memoria.
Ello quiere decir que si A es el tiempo de vida de un ncleo radioactivo (tiempo
que transcurre, a partir de un instante inicial cualquiera, hasta que decae) entonces
1 (A r +j [ A r) = 1 (A j) \r, j 0
es decir, dado que ha sobrevivido al tiempo r la probabilidad de que an sobreviva
un tiempo adicional j es independiente de r. Compruebe que la frmula anterior
se satisface si A tiene densidad exponencial de parmetro ` (que entre las Vas
continuas es la nica sin memoria).
6. (cont.) Halle el cuantil r
0:5
(la mediana), es decir el tiempo r tal que con probabili-
dad 1,2 un tomo decae antes de que transcurra r (el periodo de semidesintegracin
o half life)
7. El tiempo de vida del radio 1a
226
es una variable aleatoria A exponencial de
parmetro ` = 4.327 10
4
aos
1
Calcule su periodo de semidesintegracin.
2.12. EJERCICIOS PROPUESTOS 61
8. Calcule la probabilidad de que el tiempo de vida de un tomo de cualquier sub-
stancia radioactiva supere 1,` (su vida media terica como se ver en el siguiente
Captulo)
9. Considere un mol de una substancia radioactiva. Los tiempo de vida de cada uno de
los : = 6.022 10
23
tomos son variables aleatorias exponenciales independientes
de parmetro `. Cul es la funcin de masa de la variable aleatoria 7 =nmero
de tomos que decaen en un intervalo de t aos Y la de los que sobreviven?
10. Sea la funcin de densidad )(r) = / sen(r) si r
_
0,

2
_
y cero en otro caso. a)
obtenga el valor de /. b) obtenga la funcin de distribucin c) calcule 1(

4
< A <

2
).
11. Se elige un punto al azar en un segmento de longitud a, y se dene la Va A =distancia
del punto elegido al centro del segmento. a) calcule la funcin de distribucin.
b) calcule la funcin de densidad.
12. Se elige un punto al azar en un cuadrado de lado 2a y se dene A =distancia del
punto al lado ms prximo. a) calcule la funcin de distribucin. b) calcule la
funcin de densidad.
13. Desde un foco 1 del plano se emiten partculas que son detectadas cuando alcanzan
una pantalla situada a distancia 1. Sea O el pie de la perpendicular desde 1 a la
pantalla. Las trayectorias forman un ngulo aleatorio con O1, que se supone
equiprobable (en decir, con densidad constante) en (,2, ,2), y alcanzan la
pantalla en un punto de abscisa aleatoria A respecto de O. a) Halle la funcin de
distribucin de A b) halle la funcin de densidad de A c) Cul es la probabilidad
de que el punto de impacto de una partcula diste de O menos de 1,2? d) Cul
62 2. VARIABLES ALEATORIAS
es la distancia r tal que 1 ([A[ < r) = 1,2?
F
O
1

x
14. Sea A uniforme en (0, 1). Obtenga la densidad de 1 = a + /A con / 0. (sug-
erencia: vea el ejemplo 39)
15. Sea A uniforme en (0, 1). Obtenga la densidad de 1 = 1,A (sugerencia: vea el
ejemplo 40)
16. Si l es una Va normal de parmetros j = 0 y o = 1 (ejemplo 22)
)
U
(n) =
1
_
2
c

u
2
2
< n < +
halle la densidad de la Va 7 = l
2
(sugerencia: use el ejemplo 37).
17. Se eligen : puntos al azar en (0, 1) y se dene A =abscisa del ms cercano al
origen. a) calcule la funcin de distribucin. b) calcule la funcin de densidad.
c) calcule la funcin de cuantiles. d) hallar el mnimo nmero de puntos para que
r
0:5
sea menor que 0.1 (sugerencia: use el ejemplo 43).
18. Se eligen : puntos al azar en (0, 1) y se dene A =abscisa del ms lejano al
origen. a) calcule la funcin de distribucin. b) calcule la funcin de densidad.
c) calcule la funcin de cuantiles. d) hallar el mnimo nmero de puntos para que
r
0:5
sea mayor que 0.9 (sugerencia: use el ejemplo 42)
3
Valores Esperados
3.1 Esperanza de una variable aleatoria
Denicin 1 La esperanza de una Va A, denotada 1 (A), es el nmero
1
:
- Si A es discreta con recorrido o y funcin de masa ) (r)
1 (A) =

x2S
r) (r) (3.1)
- Si A es continua con densidad ) (r)
1 (A) =
_
R
r) (r) dr (3.2)
Tambin se llama el valor esperado de A, aunque como se ve en los ejemplos no
tiene por qu coincidir con ninguno de los valores posibles de A. O la media terica
de A en contraposicin a la media experimental (ver 3.2). 1 (A) tiene, en cualquier
caso, las mismas unidades que la magnitud A.
Ejemplo 1 Si A es de Bernoulli de parmetro j, es decir, con funcin de masa ) (r) =
j
x
(1 j)
1x
si r 0, 1, entonces:
1 (A) =
1

x=0
r) (r) = 0 (1 j) + 1 j = j
1
Adems la serie, o la integral, deben ser absolutamente convergentes: en otras palabras, E (X)
carecera de sentido si su valor dependiera del orden o reagrupamieno de los trminos. La misma
cuestin incide en la interpretacin experimental que se ver en la seccin 3.2.
63
64 3. VALORES ESPERADOS
Ejemplo 2 Si A es binomial de parmetros : y j, es decir, con funcin de masa
) (r) =
_
:
r
_
j
x
(1 j)
nx
r = 0, 1, .., :
entonces
1 (A) =
n

x=0
r
_
:
r
_
j
x
(1 j)
nx
= :j
(ver ejemplo 19).
Ejemplo 3 Si A es geomtrica de parmetro j, es decir, con funcin de masa
) (r) = j (1 j)
x1
r = 1, 2, ...
entonces
1 (A) =
1

x=1
rj (1 j)
x1
=
1
j
(ver ejercicio propuesto 10).
Ejemplo 4 Si A es de Poisson de parmetro `, es decir, con funcin de masa
) (r) = c

`
x
r!
r = 0, 1, 2, ..
entonces
1 (A) =
1

x=0
rc

`
x
r!
= `
(ver ejercicio propuesto 11).
Ejemplo 5 Si A es exponencial, con densidad
) (r) = `c
x
r 0
y cero en otro caso
1 (A) =
_
1
0
`rc
x
dr
Integrando por partes con
n = r dn = dr
= c
x
d = `c
x
dr
3.1. ESPERANZA DE UNA VARIABLE ALEATORIA 65
resulta
1 (A) =
_
rc
x
_
1
0
+
_
1
0
c
x
dr =
1
`
pues
lim
t!1
tc
t
= 0
y (funcin de densidad)
_
1
0
`c
x
dr = 1
Proposicin 1 Si A tiene densidad simtrica respecto de c, es decir )(c r) =
) (c +r), y existe la 1 (A), entonces 1 (A) = c
Demostracin. Pues (c r) ) (r) en (, c) es simtrica a (r c) ) (r) en (c, +) y
entonces
_
c
1
(c r) ) (r) dr =
_
+1
c
(r c) ) (r) dr
y reordenando queda
c
__
c
1
) (r) dr +
_
+1
c
) (r) dr
_
=
_
c
1
r) (r) dr +
_
+1
c
r) (r) dr
es decir
c
_
R
) (r) dr =
_
R
r) (r) dr
pero la primera integral vale 1 y la segunda es 1 (A) as que
1 (A) = c
Ejemplo 6 Si A es normal de parmetros j y o, es decir, con funcin de densidad
) (r) =
1
o
_
2
c

(r j)
2
2o
2
< r < +
el clculo directo es sencillo (integrando por partes; ver tambin ejercicio 13) y resulta
1 (A) = j, que es el centro de simetra de la ) (r).
Ejemplo 7 Si A tiene densidad de Cauchy
)(r) =
2

1
1 +r
2
< r < +
66 3. VALORES ESPERADOS
aunque es simtrica respecto de 0, carece de esperanza, pues:
_
+1
0
r
1 +r
2
dr = lim
t!1
_
t
0
r
1 +r
2
dr = lim
t!1
1
2
ln
_
1 +t
2
_
=
3.2 Interpretacin experimental
Para cada suceso , la tendencia a la estabilidad de la frecuencia experimental,
)() = :
A
,:, a medida que : (siendo :
A
el nmero de veces que sucedi
en : realizaciones del experimento), se modeliza mediante la 1(). A su vez, para
cada variable aleatoria A se observa un comportamiento similar para los promedios
experimentales de : valores observados r
i
.
Si (r
1
, r
2
, ..., r
n
, ...) son observaciones independientes de una variable A, discreta
o continua, con esperanza 1 (A), es un hecho emprico la convergencia del promedio
experimental al terico
2
lim
n!1
1
:
n

i=1
r
i
= 1 (A)
Ejemplo 8 (cont. del 1) En el experimento de lanzar una vez una moneda con proba-
bilidad j de cara, la variable aleatoria A (c) = 1 y A (+) = 0 tiene funcin de masa de
Bernoulli.
A una sucesin de : tiradas corresponde otra (r
1
, r
2
, ..., r
n
) de observaciones de A
(de ceros y unos).

n
i=1
r
i
es el total de caras en las : tiradas. El promedio experimental
1
:
n

i=1
r
i
representa entonces la frecuencia relativa de caras que, como se sabe, converge a la
probabilidad de cara j, es decir, al promedio terico 1 (A).
Ejemplo 9 (cont. del 2) En el experimento de lanzar : veces una moneda con proba-
bilidad j de cara, la variable aleatoria A =nmero de caras tiene funcin de masa
binomial.
A una sucesin de : experimentos corresponde otra (r
1
, r
2
, ..., r
m
) de observaciones
de A (de nmeros de caras, entre 0 y :).

m
i=1
r
i
es el total de caras en los : ex-
2
Con ms precisin, un Teorema importante de la Probabilidad, la Ley Fuerte de los Grandes Nmeros
de Borel y Kolmogorov, arma que las series (1=n)
P
x
i
as obtenidas convergen a E (X) con probabilidad
1.
3.2. INTERPRETACIN EXPERIMENTAL 67
perimentos, que equivalen en conjunto a :: lanzamientos de la moneda. El promedio
experimental
1
::
m

i=1
r
i
representa entonces la frecuencia relativa de caras que (ejemplo anterior) converge, si
: , a la probabilidad de cara j. Por lo tanto
1
:
m

i=1
r
i
converge a :j, es decir, al promedio terico 1 (A).
Ejemplo 10 (cont. del 3) En el experimento de lanzar una moneda, con probabilidad j
de cara, hasta que sale cara, la variable aleatoria A =nmero de tiradas tiene funcin
de masa geomtrica.
A una sucesin de : experimentos corresponde otra (r
1
, r
2
, ..., r
n
) de observaciones
de A (de nmeros de lanzamientos).

n
i=1
r
i
es el total de lanzamientos efectuados en
el conjunto de los : experimentos, para obtener en total : caras. La frecuencia relativa
de caras es
:

n
i=1
r
i
y converge, si : , a la probabilidad de cara j. Por lo tanto
3
1
:
n

i=1
r
i
converge a 1,j, es decir, al promedio terico 1 (A).
Se suele llamar a la 1 (A) de una Va geomtrica el periodo de retorno del suceso
que se observa (cara en el ejemplo) y a la propia variable el tiempo de espera para
observar suceso. Si la probabilidad de cara es j = 1,2 el periodo de retorno de cara es
1,j = 2: en promedio cada 2 lanzamientos de obtiene una cara.
Ejemplo 11 (cont. del 5) El tiempo de vida A de un ncleo radioactivo, desde un
instante t = 0, tiene una funcin de densidad exponencial
) (r) = `c
x
r 0
3
Recordar que si g es continua y u
n
! u, entonces g (u
n
) ! g (u). En particular si u
n
! E (X)
entonces g (u
n
) !g (E (X))
68 3. VALORES ESPERADOS
y 1 (A) = 1,` representa la vida media terica. En una sucesin (r
1
, r
2
, ..., r
n
) de
observaciones de A (tiempos de vida experimentales) la vida total de los : ncleos ha
sido

n
i=1
r
i
y el promedio
1
:
n

i=1
r
i
es la vida media experimental, que converge a la terica 1,` si : . Y :,

n
i=1
r
i
converge a ` (que es el nmero promedio terico de decaimientos por unidad de tiempo).
El nombre de esperanza tiene su origen en los juegos de azar (cuyo anlisis, desde
el siglo XVI, contribuy al desarrollo de la Teora de Probabilidades), con el sentido de
benecio esperado.
Ejemplo 12 En una ruleta con 37 sectores, del 0 al 36, apostamos 1 euro a par. Si sale
par recibimos 2 euros (el apostado ms 1 de benecio). Si sale impar perdemos el euro.
Si sale 0 gana siempre la banca. Qu esperaramos ganar apostando siempre par?
El benecio en cada apuesta es una Va A con 1(A = 1) =
18
37
y 1(A = 1) =
19
37
,
y por lo tanto
1(A) = (+1)
18
37
+ (1)
19
37
=
1
37
= 0.027
A la larga, jugando muchas veces as, habremos perdido 2.7 cntimos por cada euro
apostado.
Ejemplo 13 (Martingalas) Hay estrategias para ganar? Una clsica sugiere doblar
la apuesta cada vez. Si la apuesta inicial es 1 y se pierden : consecutivas la prdida total
es
1 + 2 + 4 + + 2
n1
= 2
n
1
En la apuesta : + 1 la cantidad apostada es 2
n
y si ahora se gana el benecio total es
2
n
(2
n
1) = 1
Un inconveniente, al menos, de esta estrategia, es que para poder seguirla necesitamos
un capital a priori innito. Estudiemos entonces una alternativa ms realista: cul es
el benecio esperado en rondas de : apuestas como mximo (es decir, disponemos de
un capital mximo 2
n
1) ?
Si la probabilidad de ganar en cada apuesta es j, la probabilidad de perder : consecu-
tivas es (1 j)
n
y el benecio es (2
n
1). Y la de no perder : apuestas consecutivas
3.3. ESPERANZA DE UNA FUNCIN DE UNA VARIABLE 69
(es decir, de ganar en alguna de las : 1 anteriores y retirarnos) es 1 (1 j)
n
y el
benecio es 1. El benecio esperado es
1 [1 (1 j)
n
] (2
n
1) (1 j)
n
= 1 2
n
(1 j)
n
_

_
= 0 si j = 1,2
< 0 si j < 1,2
0 si j 1,2
de manera que si j < 0 y el capital es nito el benecio promedio (y el total) de muchas
rondas es negativo.
El lector curioso puede buscar en Internet la paradoja de Parrondo
4
: existen
juegos de esperanza negativa (perdedores a la larga) que, sin embargo, jugados alternati-
vamente resultan en uno de esperanza positiva.
3.3 Esperanza de una funcin de una variable
Notacin: Desde ahora y hasta el nal del Captulo usamos en las Proposiciones y
Teoremas la notacin correspondiente al caso continuo; para el discreto se sustituye la
integral por una suma.
Sea 1 = q (A) una variable aleatoria denida como funcin de otra A. Segn (3.2)
su esperanza se calcula as
1 (1 ) =
_
R
j)
Y
(j) dj
Sin embargo no es preciso conocer )
Y
(j) para calcularla. Se prueba que
Teorema 1 Si 1 = q (A) con densidades )
Y
(j) y )
X
(r), y existe 1 (1 ) entonces
_
R
j)
Y
(j) dj =
_
R
q (r) )
X
(r) dr
es decir
1 (1 ) = 1 (q (A))
en el sentido de que la esperanza en cada lado de la igualdad se toma segn la ley
respectiva.
4
Profesor de Fsicas de la UCM
70 3. VALORES ESPERADOS
Naturalmente 1 (q (A)) es el valor al que convergen los promedios experimentales
lim
n!1
1
:
n

i=1
q (r
i
)
Ejemplo 14 Se elige un punto A al azar en una barra de longitud 1 (es decir, con
densidad )
X
(r) = 1 para r (0, 1)) y se rompe por dicho punto. Sea 1 la longitud del
trozo ms grande. Calculemos 1 (1 ).
La longitud del trozo ms grande es la variable aleatoria
1 =
_
1 A si 0 < A _ 1,2
A si 1,2 < A < 1
y su esperanza se calcula as:
1(1 ) =
_
1
0
q(r))
X
(r)dr =
_
1=2
0
(1 r)dr +
_
1
1=2
rdr =
3
4
En el ejemplo 38 del captulo 2 hallamos que la densidad de 1 es )
Y
(j) = 2 para
j (1,2, 1) y entonces
1(1 ) =
_
1
1=2
j)
Y
(j)dj =
_
1
1=2
2jdj =
3
4
Ejemplo 15 Sea A uniforme en (a, /), y sea 1 = 1,A. Entonces:
1(1 ) =
_
b
a
1
r
1
/ a
dr =
ln/ lna
/ a
denido slo si a 0. De manera que si, por ejemplo, A es uniforme en (0, 1), no existe
la 1
_
1
X
_
.
Corolario 1 (Linealidad de la esperanza) En particular si 1 = a +/A:
1 (a +/A) =
_
R
(a +/r) ) (r) dr = a
_
R
) (r) dr +/
_
R
r) (r) dr = a +/1 (A) (3.3)
Ejemplo 16 Si 1 (A) = c entonces 1 (A c) = 0.
Ejemplo 17 (cont. del 14) la longitud del trozo ms pequeo es 11 as que su longitud
promedio es 1 1 (1 ) = 1,4.
3.4. ESPERANZA DE UNA FUNCIN DE VARIAS VARIABLES 71
3.4 Esperanza de una funcin de varias variables
La esperanza de la variable aleatoria 7 = q (A, 1 ) funcin de la (A, 1 ) segn (3.2)
es
1 (7) =
_
R
.)
Z
(.) d.
Sin embargo no es preciso conocer )
Z
para calcularla. Se prueba que
Teorema 2 Sea 7 = q (A, 1 ) con densidades )
Z
(.) y ) (r, j). Si 1 (7) existe, entonces
_
R
.)
Z
(.) d. =
_ _
R
2
q (r, j) ) (r, j) drdj
es decir
1 (7) = 1 (q (A, 1 ))
en el sentido de que la esperanza de cada trmino se toma segn la ley respectiva.
El resultado se generaliza de modo obvio a una funcin 7 = q (A
1
, A
2
, ..., A
n
).
Ejemplo 18 En el experimento de elegir un punto al azar en el crculo r
2
+ j
2
_ 1
la distancia del punto al centro es 1 =
_
A
2
+1
2
. En el ejemplo 16 del Captulo 2
hallamos que )
R
(r) = 2r para r [0, 1], y en el ejemplo 30 hallamos que ) (r, j) = 1,
para r
2
+j
2
_ 1. La distancia esperada del punto al centro es
1
_
_
A
2
+1
2
_
=
1

__
x
2
+y
2
1
_
r
2
+j
2
drdj =
2
3
o tambin
1 (1) =
_
1
0
2r
2
dr =
2
3
Nos interesa en particular el caso q (A
1
, A
2
, ..., A
n
) = a

A
i
+c.
Proposicin 2 (Esperanza de una combinacin lineal)
1
_

a
i
A
i
+c
_
=

a
i
1 (A
i
) +c
72 3. VALORES ESPERADOS
Demostracin. Basta probarlo para 2 variables:
1 (aA +/1 +c) =
_ _
R
2
(ar +/j +c) ) (r, j) drdj
= a
_
R
r
__
R
) (r, j) dj
_
dr +/
_
R
j
__
R
) (r, j) dr
_
dj +c
_ _
R
2
) (r, j) drdj
= a
_
R
r)
X
(r) dr +/
_
R
j)
Y
(j) dj +c
= a1 (A) +/1 (1 ) +c
Observar que esto es as sean las A
i
dependientes o independientes.
Ejemplo 19 (Esperanza de la binomial) Una Va A binomial de parmetros : y
j cuenta el total de xitos en : ensayos independientes, en cada uno de los cuales la
probabilidad de xito es j. Si A
i
representa el resultado de cada ensayo, con 1 (A
i
= 1) =
j y 1 (A
i
= 0) = 1 j, entonces A =

n
i=1
A
i
y
1 (A) =
n

i=1
1 (A
i
) = :j
pues (variables de Bernoulli) 1 (A
i
) = j
Ejemplo 20 (Coleccin de cromos) Hay cromos distintos para hacer la coleccin.
Supongamos que cada vez que compramos uno la probabilidad de que sea cualquiera de
ellos es 1,. Cul es el nmero promedio de cromos que hay que comprar para conseguir
los ?
Sea A
k
(1 _ / _ ) el nmero de cromos que hay que comprar hasta conseguir un
/-simo distinto. Entonces el nmero de cromos que hay que comprar para completar la
coleccin es
A
1
+A
2
+ +A
N
Obviamente A
1
= 1
Nos faltan 1 cada uno de ellos con probabilidad 1,. Al comprar uno la prob-
abilidad de que sea distinto del que tenemos es j = ( 1) ,. La Va A
2
, nmero de
cromos que hay que comprar hasta conseguir uno distinto del que tenemos, es geomtrica
de parmetro j (ejemplo 3) as que 1 (A
2
) = 1,j = , ( 1).
Ahora nos faltan 2 cada uno de ellos con probabilidad 1,. Al comprar uno la
3.5. VARIANZA DE UNA VARIABLE ALEATORIA 73
probabilidad de que sea distinto de los que tenemos es j = ( 2) ,. La Va A
3
es
geomtrica de parmetro j as que 1 (A
3
) = 1,j = , ( 2).
Y as sucesivamente, de manera que
1 (A
1
+A
2
+ +A
N
) = 1 (A
1
) +1 (A
2
) + +1 (A
N
)
= 1 +

1
+

2
+ +

( 2)
+

( 1)
=
_
1 +
1
2
+
1
3
+ +
1
1
+
1

_
Por ejemplo si = 50 resulta aproximdamente el valor 225, si = 100 el valor 519 y
si = 1000 el valor 7485
Naturalmente podemos tener suerte y acabar la coleccin enseguida, pero si un nmero
: muy grande de personas hace la coleccin, el total de cromos que ha vendido la editorial
dividido por : converge a la esperanza (as que si = 100 y : = 1000 la editorial habr
vendido aproximdamente 519000 cromos).
3.5 Varianza de una variable aleatoria
Denicin 2 Se llama la varianza de A y se denota \ ar (A) a la esperanza de
(A 1 (A))
2
:
\ ar (A) = 1
_
(A 1 (A))
2
_
=
_
R
(r 1 (A))
2
) (r) dr (3.4)
La raiz cuadrada positiva de la varianza
_
\ ar (A) se llama la desviacin tpica de
A.
_
\ ar (A) tiene, en cualquier caso, las mismas unidades que la magnitud A.
Segn la denicin 2 la varianza es tanto ms pequea cuanto ms se concentre ) (r)
alrededor de 1 (A) (en cuyo caso los valores grandes de (r 1 (A))
2
del integrando,
correspondientes a valores de r distantes de 1 (A), tendrn un peso ) (r) despreciable.
Experimentalmente ello se reejar en una mayor homogeneidad (menor dispersin) de
los valores experimentales (r
1
, r
2
, ..., r
n
, ...) (ver Seccin 3.6).
Obsrvese que \ ar (A) _ 0 y que \ ar (A) = 0 si y slo si A es una constante, es
decir 1 (A = a) = 1.
74 3. VALORES ESPERADOS
Proposicin 3 Una expresin alternativa es
\ ar (A) = 1
_
A
2
_
(1 (A))
2
(3.5)
Demostracin. Desarrollando el cuadrado y teniendo en cuenta la Proposicin 2:
1
_
(A 1 (A))
2
_
= 1
_
A
2
+ (1 (A))
2
21 (A) A
_
= 1
_
A
2
_
+ (1 (A))
2
2 (1 (A))
2
= 1
_
A
2
_
(1 (A))
2
Corolario 1 Como \ ar (A) _ 0 siempre es
1
_
A
2
_
_ (1 (A))
2
Proposicin 4 Si a y / son constantes
\ ar (aA +/) = a
2
\ ar (A)
Demostracin. como
(1 (aA +/))
2
= (a1 (A) +/)
2
= a
2
(1 (A))
2
+/
2
+ 2a/1 (A)
y
1
_
(aA +/)
2
_
= 1
_
a
2
A
2
+/
2
+ 2a/A
_
= a
2
1
_
A
2
_
+/
2
+ 2a/1 (A)
restando miembro a miembro y teniendo en cuenta (3.5)
\ ar (aA +/) = a
2
\ ar (A)
Ejemplo 21 (cont. del ejemplo 1) la varianza de una variable aleatoria A de Bernoulli,
3.5. VARIANZA DE UNA VARIABLE ALEATORIA 75
con funcin de masa ) (r) = j
x
(1 j)
1x
si r 0, 1 es:
\ ar (A) = 1
_
(A j)
2
_
=
1

x=0
(r j)
2
) (r) = (0 j)
2
(1 j) + (1 j)
2
j
= j (1 j)
o tambin, como 1 (A) = j y
1
_
A
2
_
=
1

x=0
r
2
) (r) = 0
2
(1 j) + 1
2
j = j
resulta de (3.5)
\ ar (A) = 1
_
A
2
_
(1 (A))
2
= j (1 j)
Ejemplo 22 para hallar la varianza de una variable aleatoria A con funcin de densidad
exponencial
) (r) = `c
x
r 0
y cero en otro caso, calculamos primero
1
_
A
2
_
=
_
1
0
r
2
`c
x
dr
por partes, con
n = r
2
dn = 2rdr
d = `c
x
dr = c
x
y queda
1
_
A
2
_
=
_
r
2
c
x
_
1
0
+ 2
_
1
0
rc
x
dr =
2
`
2
pues lim
t!1
t
2
c
t
= 0 y (ejemplo 5)
_
1
0
`rc
x
dr =
1
`
La varianza resulta
\ ar (A) = 1
_
A
2
_
(1 (A))
2
=
2
`
2

1
`
2
=
1
`
2
76 3. VALORES ESPERADOS
3.6 Interpretacin experimental
Sean (r
1
, r
2
, ..., r
n
, ...) son observaciones experimentales de una variable A, discreta
o continua, con esperanza 1 (A) y varianza \ ar (A). Denotemos
r =
1
:
n

i=1
r
i
La variabilidad, o dispersin, de la muestra se puede medir por el promedio experi-
mental siguiente
1
:
n

i=1
(r
i
r)
2
y en la medida en que los valores individuales r
i
sean similares (y por lo tanto poco
distintos de su promedio r) la medida de variabilidad anterior ser pequea. Pero
1
:
n

i=1
(r
i
r)
2
=
1
:
n

i=1
_
r
2
i
+ (r)
2
2rr
i
_
=
1
:
n

i=1
r
2
i
+ (r)
2
2 (r)
2
=
1
:
n

i=1
r
2
i

_
1
:
n

i=1
r
i
_
2
y como empricamente
lim
n!1
1
:
n

i=1
r
i
= 1 (A)
lim
n!1
1
:
n

i=1
r
2
i
= 1
_
A
2
_
resulta
lim
n!1
1
:
n

i=1
(r
i
r)
2
= 1
_
A
2
_
(1 (A))
2
= \ ar (A)
As que cuanto menor sea la varianza \ ar (A) menor es la dispersin de la muestra.
Ejemplo 23 (cont. del 21) \ ar (A) = j (1 j) es mxima si j = 1,2, y tiende a
cero si j 0 j 1. La homogeneidad de la sucesin de ceros y unos (r
1
, r
2
, ..., r
n
)
correspondiente a los lanzamientos de una moneda es mxima si j 0 j 1 y
mnima si j = 1,2.
3.7. ACOTACIN DE TCHEBYCHEV 77
3.7 Acotacin de Tchebychev
Proposicin 5 (Acotacin de Tchebychev) Sea A una variable aleatoria cualquiera
con esperanza 1 (A) y varianza \ ar (A). Sea - 0
1 ([A 1 (A)[ _ -) _
\ ar (A)
-
2
o tambin
1 ([A 1 (A)[ < -) _ 1
\ ar (A)
-
2
Demostracin. Denotemos 1 = r R; [r 1 (A)[ _ -
\ ar (A) =
_
1
1
(r 1 (A))
2
) (r) dr
=
_
B
c
(r 1 (A))
2
) (r) dr +
_
B
(r 1 (A))
2
) (r) dr
_
_
B
(r 1 (A))
2
) (r) dr _ -
2
_
B
) (r) dr = -
2
1 ([A 1 (A)[ _ -)
y resulta lo propuesto.
Este resultado aclara el anlisis hecho despus de la Denicin 2 a propsito de la
varianza. La probabilidad del suceso [A 1 (A)[ < -, es decir, de que los valores de
A se hallen en un entorno - de su esperanza 1 (A), es tanto mayor cuanto menor es
\ ar (A).
3.8 Varianza de una combinacin lineal de Vas independi-
entes
Proposicin 6 Si (A
1
, A
2
, ..., A
n
) son independientes entonces
1
_

A
i
_
=

1 (A
i
)
Demostracin. Basta probarlo para 2 variables A e 1 . Por ser independientes es
) (r, j) = )
X
(r) )
Y
(j) y entonces
1 (A1 ) =
_ _
R
2
rj) (r, j) drdj =
_
R
r)
X
(r) dr
_
R
j)
Y
(j) dj
= 1 (A) 1 (1 )
78 3. VALORES ESPERADOS
Tngase en cuenta que para variables A e 1 no independientes puede ser
1 (A1 ) = 1 (A) 1 (1 )
tales variables se llaman incorreladas (ver 3.9).
Proposicin 7 (Combiacin lineal de Vas independientes) Si las : variables
(A
1
, A
2
, ..., A
n
) son independientes (o al menos incorreladas)
\ ar
_

a
i
A
i
+c
_
=

a
2
i
\ ar (A
i
)
Demostracin. Basta probarlo para dos variables A e 1 :
\ ar (aA +/1 ) = 1
_
(aA +/1 )
2
_
(1 (aA +/1 ))
2
y como
1
_
(aA +/1 )
2
_
= 1
_
a
2
A
2
+/
2
1
2
+ 2a/A1
_
= a
2
1
_
A
2
_
+/
2
1
_
1
2
_
+ 2a/1 (A1 )
y
(1 (aA +/1 ))
2
= (a1 (A) +/1 (1 ))
2
= a
2
(1 (A))
2
+/
2
(1 (1 ))
2
+ 2a/1 (A) 1 (1 )
resulta
\ ar (aA +/1 ) = a
2
\ ar (A) +/
2
\ ar (1 ) + 2a/ (1 (A1 ) 1 (A) 1 (1 )) (3.6)
y como 1 (A1 ) = 1 (A) 1 (1 ) resulta
\ ar (aA +/1 ) = a
2
\ ar (A) +/
2
\ ar (1 )
por ltimo, de la Proposicin 4
\ ar (aA +/1 +c) = a
2
\ ar (A) +/
2
\ ar (1 )
3.9. LA COVARIANZA 79
Ejemplo 24 (cont. del 19) (Varianza de la binomial) como A =

n
i=1
A
i
y las A
i
son independientes
\ ar (A) =
n

i=1
\ ar (A
i
) = :j (1 j)
pues (variables de Bernoulli) \ ar (A
i
) = j (1 j)
3.9 La covarianza
Denicin 3 (La covarianza) La esperanza de la funcin (A 1 (A)) (1 1 (1 ))
se llama la covarianza entre A e 1 y se denota Co (A, 1 ):
Co (A, 1 ) = 1 ((A 1 (A)) (1 1 (1 )))
Proposicin 8 una expresin alternativa es (desarrollando el corchete y tomando la
esperanza de cada trmino):
Co (A, 1 ) = 1 (A1 ) 1 (A) 1 (1 )
Corolario 1 Si A e 1 son independientes o incorreladas
Co (A, 1 ) = 0
Proposicin 9 Las siguientes propiedades son de comprobacin inmediata
Co (aA, /1 ) = a/Co (1, A)
Co (A, 1 ) = Co (1, A)
Co (A, A) = \ ar (A)
Co (a, A) = 0
Co (a, /) = 0
Ahora la frmula (3.6) se puede escribir
\ ar (aA +/1 ) = a
2
\ ar (A) +/
2
\ ar (1 ) + 2a/Co (A, 1 )
y se generaliza fcilmente a (teniendo en cuenta las propiedades anteriores y la proposi-
cin 4):
80 3. VALORES ESPERADOS
Proposicin 10 (Varianza de una combinacin lineal de Vas)
\ ar
_

a
i
A
i
+c
_
=

a
i
a
j
Co (A
i
, A
j
)
=

a
2
i
\ ar (A
i
) + 2

a
i
a
j
i<j
Co (A
i
, A
j
)
En particular, si la variables son independientes o incorreladas la expresin de la
varianza es la Proposicin 7.
Proposicin 11 (Desigualdad de Cauchy-Schwarz)
(1 (A1 ))
2
_ 1
_
A
2
_
1
_
1
2
_
Demostracin. De
1
_
(aA +1 )
2
_
= 1
_
aA
2
+ 2aA1 +1
2
_
= a
2
1
_
A
2
_
+ 2a1 (A1 ) +1
_
1
2
_
_ 0 \a R
resulta que la ecuacin cuadrtica en a tiene una solucin real (si = 0) o ninguna (si
0) y por ello su discriminante ha de ser
(1 (A1 ))
2
1
_
A
2
_
1
_
1
2
_
_ 0
resultando lo propuesto.
En calidad de variables A e 1 usemos en particular las (A 1 (A)) e (1 1 (1 ))
la desigualdad queda en la forma
(Co (A, 1 ))
2
_ \ ar (A) \ ar (1 )
o tambin
[Co (A, 1 )[ _
_
\ ar (A)
_
\ ar (1 ) (3.7)
Proposicin 12 Si 1 = aA +/ entonces
(Co (A, 1 ))
2
= \ ar (A) \ ar (1 )
Demostracin. Resulta inmediatamente de la Proposicin 9
Co (A, 1 ) = Co (A, aA +/) = aCo (A, A) = a\ ar (A)
3.10. ESPERANZA CONDICIONAL 81
y
\ ar (1 ) = \ ar (aA +/) = a
2
\ ar (A)
Denicin 4 Se llama el coeciente de correlacin, denotado Corr (A, 1 ), de las Vas
A e 1 a
Corr (A, 1 ) =
Co (A, 1 )
_
\ ar (A) \ ar (1 )
Se sigue de (3.7) que
[Corr (A, 1 )[ _ 1
Adems Corr (A, 1 ) = 1 si 1 = aA + / (el signo es el de a) y Corr (A, 1 ) = 0 si
son independientes (o incorreladas).
3.10 Esperanza condicional
Sea la Va condicional (1 [ A = r) con densidad o masa ) (j [ r) (secciones 2.7.1 y
2.8.1). Entonces (Denicin 1)
1 (1 [ r) =
_
R
j) (j [ r) dj
Esta frmula puede verse tambin como una funcin de A, es decir, como una Va.
Denicin 5 Se llama esperanza condicional a la Va 1 (1 [ A) : R tal que
. 1 (1 [ A (.)) =
_
R
j) (j [ A (.)) dj
Proposicin 13
1 (1 (1 [ A)) = 1 (1 )
Demostracin. Usando el Teorema 1
1 (1 (1 [ A)) =
_
R
1 (1 [ r) )
X
(r) dr
=
_
R
_
R
j) (j [ r) )
X
(r) drdj
=
_
R
j
__
R
) (r, j) dr
_
dj
_
R
j)
Y
(j) dj
82 3. VALORES ESPERADOS
Ejemplo 25 (Problema del ladrn de Bagdad) Un ladrn est encerrado en un
calabozo con 3 puertas. Una de las puertas lo devuelve al calabozo despus de un da de
viaje. Otra lo devuelve despus de tres das de viaje. La ltima lo lleva a la libertad.
Calcular el nmero esperado de das de encierro si cada vez elige una puerta de las tres
con igual probabilidad.
Sea el nmero de intentos hasta salir (1, 2, ...) y T
i
la duracin de cada
intento (0, 1 3 das). El total de das preso es
A =
N

i=1
T
i
Observar que esta es una suma de un nmero aleatorio de sumandos. Para calcular
su esperanza hacemos
1 (A [ = :) = 1
_
n

i=1
T
i
_
=
n

i=1
1 (T
i
) =
4:
3
pues la duracin esperada de cada intento es
1 (T
i
) = 0
1
3
+ (3 + 1)
1
3
=
4
3
Aplicando ahora el teorema anterior
1 (A) = 1 (1 (A [ )) =
4
3
1 () = 4
pues el nmero de intentos es una Va geomtrica de parmetro j = 1,3 y 1 () =
1,j = 3.
3.11. EJERCICIOS PROPUESTOS 83
3.11 Ejercicios propuestos
1. Sea un experimento cualquiera (, T, 1), un suceso T de probabilidad 1 ()
y la Va 1
A
: R tal que 1
A
(.) = 1 si . y 1
A
(.) = 0 si . , (llamada
funcin indicatriz del conjunto ). Calcule 1 (1
A
).
2. (cont.) suponga que 1 () = 0.1 Si hacemos el experimento 100 veces independi-
entemente Cul es el nmero esperado de ellas que suceder ?
3. (cont.) Cul es el nmero esperado de veces que hay que hacer el experimento
para que suceda ? (el periodo de retorno de ).
4. Si los caudales mximos anuales de un rio en aos sucesivos son independientes y
si la probabilidad de que el caudal mximo exceda el valor r en un ao cualquiera
es 0.01 cul es el perido de retorno del caudal r? (de otra manera: cada cuntos
aos, en promedio, se excede r?)
5. (cont.) Supongamos que para cierto rio su caudal mximo anual es una VA A (en
m
3
s
1
) con funcin de distribucin
1 (r) = 1 c
0:01x
r 0
Hallar el valor de caudal mximo r con periodo de retorno de 100 aos
6. Jugamos a la ruleta (ejemplo 12) apostando a par 1 euro de entrada y doblando la
apuesta cada vez en rondas de 10 como mximo (ejemplo 13). A la larga, de cada
mil rondas que juguemos cuntas ganamos y qu cantidad en total? cuntas
perdemos y qu cantidad en total?
7. Demostrar que 1
_
(A c)
2
_
es mnimo si c = 1 (A)
8. Sea A una Va cualquiera con esperanza 1 (A) = j y desviacin tpica
_
\ ar(A) =
o. Calcule la esperanza y la varianza de la variable
l =
A j
o
9. Calcular la esperanza y la varianza de una variable aleatoria A con funcion de masa
)(r) = 1,: si r 1, 2, ..., : y cero en otro caso (discreta uniforme, o equiproba-
ble). (sugerencia:

n
x=1
r = :(: + 1),2 y

n
x=1
r
2
=
_
2:
3
+ 3:
2
+:
_
,6).
84 3. VALORES ESPERADOS
10. Calcule la esperanza de una Va geomtrica de parmetro j usando
1

x=1
r(1 j)
x1
j = j
d
dj
_
1

x=1
(1 j)
x
_
11. Calcule la esperanza de una Va de Poisson de parmetro ` derivando respecto a `
en ambos miembros de
1

x=0
`
x
r!
= c

12. Calcule la esperanza y la varianza de una variable aleatoria A con funcin de


densidad )(r) = 1,(/ a) para r (a, /) y cero en otro caso (continua uniforme,
o equiprobable).
13. Calcule la esperanza de una Va normal de parmetros j y o derivando respecto de
j en
1
o
_
2
_
R
c

(r j)
2
2o
2
dr = 1
14. Calcule la varianza de una Va normal de parmetros j y o derivando respecto de
o en
1
_
2
_
R
c

(r j)
2
2o
2
dr = o
15. (Ley del decaimiento) Si inicialmente hay (0) tomos radiactivos, y si para cada
uno de ellos la probabilidad de decaer en el intervalo (0, t] es 1 (t) = 1 exp(`t)
independientemente unos de otros, halle la esperanza del nmero (t) de tomos
que sobreviven al tiempo t (vea el Ejercicio 9 del Captulo 2).
16. Se desea nanciar una campaa de : sondeos. El resultado de cada sondeo es una
Va A
i
con 1 (A
i
= 1) = j (xito) y 1 (A
i
= 0) = 1 j (fracaso). El nmero total
de sondeos con xito es A =

A
i
. Se supone que los resultados de los sondeos
son independientes a) encontrar la esperanza y la varianza del nmero de sondeos
con xito. b) si la campaa tiene un coste jo c
0
, cada perforacin con xito cuesta
2c y cada una fallida c, encontrar la esperanza y la varianza del coste total de la
campaa.
17. Se lanzan 36 dados equiprobables. Calcule el valor esperado y la varianza de la
suma o de los puntos obtenidos. (sugerencia: ejercicio 9)
3.11. EJERCICIOS PROPUESTOS 85
18. (cont.) La Va o es discreta con valores posibles 36, 37, ..., 216. El clculo exacto
de una probabilidad como
1 ([o 126[ < 30) = (96 < o < 156)
exige conocer la funcin de masa, que no es difcil pero si penoso. Acote la proba-
bilidad anterior mediante la acotacin de Tchebychev.
19. Segn la teora cintica de Maxwell y Boltzman las componentes (\
x
, \
y
, \
z
) de
la velocidad de las molculas de un gas ideal en equilibrio son Vas independi-
entes con densidad normal de parmetros 1 (\
x
) = 1 (\
y
) = 1 (\
z
) = j y
\ ar (\
x
) = \ ar (\
y
) = \ ar (\
z
) = /T,:, donde / es la constante de Boltzman,
T la temperatura y : la masa de una molcula
a) Como las molculas no tienen una direccin preferente de movimiento cul
debe ser el valor de j y cules sus unidades en el S.I.?
b) Tomando el valor / = 1.3810
23
J K
1
y el valor 0.028 kg mol
1
para la masa
molecular del nitrgeno cunto vale la desviacin tpica, con sus unidades, para
el nitrgeno a T = 300 K?
c) Calcule la energa cintica esperada de una molcula de un gas ideal a tempe-
ratura T
20. Varillas cilndricas de acero tienen una longitud A con 1 (A) = 10 cm y \ ar (A) =
0.005
2
cm
2
, y una seccin de area con 1 () = 1 cm
2
y \ ar () = 0.01
2
cm
4
.
Adems A y son independientes. Hallar la esperanza y desviacin tpica del
volumen \ = A de una varilla.
21. (cont.) El peso de cada varilla es 7 = 8\ g. Calcular la esperanza y la desviacin
tpica del peso de un lote de 100 varillas.
22. Esperanza del mnimo Se eligen : puntos A
i
al azar en (0, 1) y se dene
1 =abscisa del ms cercano al origen. Calcular 1 (1 ) (ver ejercicio propuesto
17 cap 2).
23. Esperanza del mnimo Se eligen 3 puntos al azar en el crculo r
2
+j
2
_ 1 y se
dene 1 =distancia del ms prximo al origen. Calcular 1 (1 ) (vea el anterior
y tenga en cuenta ejemplo 34 del cap 2)
24. Esperanza del mximo Se eligen : puntos A
i
al azar en (0, 1) y se dene
86 3. VALORES ESPERADOS
1 =abscisa del ms lejano al origen. Calcular 1 (1 ) (ver ejercicio propuesto 18
cap 2)
4
Modelos principales
4.1 Variable aleatoria normal
La funcin
)(r) =
1
o
_
2
exp
_

1
2
_
r j
o
_
2
_
< r < +
es la densidad llamada normal o de Gauss de parmetros < j < + y o 0.
(Se prueba que su integral vale 1 en el Apndice 2).
La funcin es simtrica alrededor de j, es decir )(jr) = )(j+r). Tiene un nico
mximo en j, de valor )(j) = 1,
_
o
_
2
_
que aumenta cuando o disminuye. Y decrece
asintticamente hacia el valor 0 para r , tanto ms rpidamente cuanto menor
sea o. La probabilidad se concentra entonces alrededor de j cuando o disminuye.
Su esperanza y varianza son 1(A) = j y \ ar(A) = o
2
(Captulo 3: ejemplo 6 y
ejercicios 13 y 14).
Una variable aleatoria A con esta densidad se indica
1
A ~ (j, o).
Proposicin 1 Si A ~ (j, o) entonces l = a +/A ~ (a +/j, [/[ o)
1
Y tambin X N(;
2
).
87
88 4. MODELOS PRINCIPALES
Demostracin. la densidad de l = a +/A es (Captulo 2 ejemplo 39) :
)
l
(n) =
1
[/[
)
_
n a
/
_
=
1
[/[ o
_
2
exp
_

1
2
_
&o
b
j
o
_
2
_
=
1
[/[ o
_
2
exp
_

1
2
_
n (a +/j)
/o
_
2
_
< n < +
es decir, a +/A ~ (a +/j, [/[ o).
Corolario 1 En particular la densidad de l = (A j) ,o es (0, 1).
Proposicin 2 (reproductividad) Si A
i
~ (j
i
, o
i
) e independientes entonces
A =

a
i=1
A
i
~
_

j
i
,
_

o
2
i
_
.
Demostracin. (ver Apendice 2)

= 0.5
= 1
= 2
Densidades normales con igual j y distintas o
4.2. CLCULO DE PROBABILIDADES 89
4.2 Clculo de probabilidades
Si A ~ (j, o) para calcular la probabilidad
2
:
1(A < /) =
_
b
1
1
o
_
2
exp
_

1
2
_
r j
o
_
2
_
dr
hay que usar aproximaciones numricas, pues el integrando carece de primitiva simple
(que permitira usar la regla de Barrow).
Pero si A ~ (j, o) entonces (Corolario 1 anterior)
l =
A j
o
es (0, 1). Y como los sucesos A < / y
Aj
o
<
bj
o
son equivalentes (la realizacin de
uno equivale a la del otro)
3
1(A < /) = 1
_
A j
o
<
/ j
o
_
= 1
_
l <
/ j
o
_
y se concluye que para aproximar las probabilidades de una A ~ (j, o) basta aproxi-
mar las de una l ~ (0, 1).
Suele denotarse 1 (l < n) = (n). Con ello
1(a < A < /) =
_
/ j
o
_

_
a j
o
_
En la tabla I se dan los valores de
(n) =
_
&
1
1
_
2
exp
_

1
2
n
2
_
dn
para n (0.00, 3.4) y los dems se deducen de la simetra de la densidad normal:
(n) = 1 (n) ==1 (l < n) = 1 (l n)
2
Recordar que para una variable continua la probabilidad en cada intervalo vale lo mismo se incluyan
o no los puntos extremos.
3
El suceso X < b representa todos los nmeros x tales que x < b, y si x < b entonces
x

<
b

y
recprocamente.
90 4. MODELOS PRINCIPALES
Ejemplo 1 sea A ~ (1000, 50). Para calcular la 1(900 < A < 1050):
1(900 < A < 1050) = 1
_
900 1000
50
< l <
1050 1000
50
_
= (1) (2)
= 0.8413 (1 0.9772) = 0.8185
Ejemplo 2 (cont.) encontremos el nmero r tal que 1([A 1000[ < r) = 0.9
1([A 1000[ < r) = 1 (r < A 1000 < r) = 1
_

r
50
< l <
r
50
_
=
_
r
50
_

r
50
_
= 0.9

_
r
50
_

_
1
_
r
50
__
= 2
_
r
50
_
1 = 0.9
resulta que
_
a
50
_
= 0.95 y con ayuda de la tabla se halla que (1.64) = 0.94950 (valor
ms prximo) as que r = 50 1.64 = 82.
Obsrvese que, para cada nmero real / 0, 1([A j[ < /o) = (/) (/), de
manera que, para cualquier Va normal, la probabilidad en el intervalo (j/o, j+/o)
es la misma; en particular, los valores correspondientes a / = 1, 2, 3 y 4, son respectiva-
mente 0.6827, 0.9545, 0.9973 y 0.9999
- + -2 +2 -3 +3
68.27%
95.45%
99.73%
4.3. TEOREMA CENTRAL DEL LMITE 91
4.3 Teorema Central del Lmite
La distribucin de probabilidades de una variable aleatoria A denida como suma
de otras
A =
a

i=1
A
i
depende en general de cul sea la de las A
i
. Sin embargo el siguiente teorema arma
que, en condiciones muy generales y si : es sucientemente grande, la distribucin de la
A se puede aproximar con una normal.
Teorema 1 (Teorema Central del Lmite) Sean A
i
independientes y con la misma
distribucin (discretas o continuas); en particular 1(A
i
) = j y \ ar(A
i
) = o
2
. Sea
A =

a
i=1
A
i
. Su esperanza y varianza son 1(A) = :j y \ ar(A) = :o
2
. Entonces
lim
a!1
1
_
A :j
o
_
:
_ n
_
= (n) \n R
En la prctica: si : es sucientemente grande pueden aproximarse las probabili-
dades relativas a la variable aleatoria A =

a
i=1
A
i
como si fuese una normal de
esperanza :j y de varianza :o
2
, pues:
1(A _ r) = 1
_
A :j
o
_
:
_
r :j
o
_
:
_
-
_
r :j
o
_
:
_
(4.1)
Lo anterior se dice as:

a
i=1
A
i
es asintticamente (:j, o
_
:).
Cuando A es discreta con valores posibles los nmeros enteros la aproximacin mejora
notablemente usando la llamada correccin de continuidad
1 (A _ r) -
_
r + 0.5 :j
o
_
:
_
(4.2)
El Teorema justica tambin el hecho de que las variables normales resulten ser el
modelo adecuado para las magnitudes cuyos valores son el resultado de la suma de un
nmero muy grande de factores aleatorios independientes, cada uno de los cuales ejerce
una pequea contribucin al valor nal. Como en los 3 ejemplos que siguen.
Ejemplo 3 El nmero de molculas en 1 cm
3
de gas, a 1 atm y 25
0
C, es de 2 10
19
.
Debido a la agitacin trmica, en un microsegundo se producen (para el oxgeno) 310
17
impactos por cm
2
de pared, de manera que la suma de los impactos individuales resulta en
la presin estacionaria aparente. Sin embargo, no todas las molculas se mueven con la
92 4. MODELOS PRINCIPALES
misma velocidad, es decir, no todas tienen la misma energa, producindose intercambios
entre ellas y con la pared (aunque el balance global sea aproximadamente de equilibrio).
Maxwell demostr en 1860, postulando un modelo de choques moleculares istropo y
estacionario que las componentes, \
a
, \
j
y \
:
, de la velocidad de las molculas de un gas
ideal en equilibrio pueden modelizarse como variables aleatorias normales, fsicamente
independientes, y parmetros:
1(\
a
) = 1(\
j
) = 1(\
:
) = 0
\ ar(\
a
) = \ ar(\
j
) = \ ar(\
:
) = /T,:
donde / es la constante de Boltzman, T la temperatura y : la masa de la molcula.
La identidad de las distribuciones, simtricas alrededor de 0, reeja la isotropa del
sistema: no hay direcciones preferentes de movimiento. Por su parte, la disminucin de
la temperatura disminuira la varianza, lo que se traducira en una menor probabilidad
de tener valores grandes de [\
a
[, [\
j
[ [\
:
[ (y por lo tanto de \
2
= \
2
a
+\
2
j
+\
2
:
, y de
la energa cintica).
Ejemplo 4 Observando una gota de agua al microscopio el botnico Robert Brown des-
cubri en 1827 el movimiento catico de pequeas partculas suspendidas (como granos
de polen, motas de polvo; dimetro del orden de 0.5 10
6
m). Einstein postul en
1905 que ello era debido a los impactos (del orden de 10
20
s
1
) de las molculas de agua
(dimetro del orden de 0.310
9
m), y que jada la posicin de la partcula en cualquier
instante, las componentes A(t), 1 (t) y 7(t) del vector posicin transcurrido un tiempo
t, pueden modelizarse como variables aleatorias normales, fsicamente independientes, y
parmetros:
1(A(t)) = 1(1 (t)) = 1(7(t)) = 0
\ ar(A(t)) = \ ar(1 (t)) = \ ar(7(t)) =
_
1T
3

jr
_
t
donde 1 es la constante universal de los gases,

el nmero de Avogadro, T la temper-


atura, j la viscosidad y r el radio de la partcula. La esperanza cero reeja la isotropa
del sistema: no hay una direccin preferente de impactos. La varianza reeja la incer-
tidumbre sobre la posicin de la partcula respecto a su posicin inicial: creciente con el
tiempo t debido a los impactos, y con la temperatura T (la energa de las molculas que
impactan).
4.3. TEOREMA CENTRAL DEL LMITE 93
Como las esperanzas son cero resulta
1
_
A
2
(t)
_
= 1
_
1
2
(t)
_
= 1
_
7
2
(t)
_
=
_
1T
3

jr
_
t
As que, jado el tiempo t y conocidos los valores de j, T, r y 1, se puede aproximar
estadsticamente el desplazamiento cuadrtico esperado por un promedio experimental
de : desplazamientos observados (distancias entre las posiciones inicial y nal); por
ejemplo segn el eje r
1
_
A
2
(t)
_
-
1
:
a

i=1
r
2
i
(t)
y de aqu se obtiene una aproximacin experimental del valor de

, hazaa por la que


Perrin recibi en 1926 el premio Nobel de Fsica.
Ejemplo 5 Sea j el valor de cierta constante que se trata de medir. No es posible
predecir el valor de cada medida individual, pues se ve afectada por gran nmero de
perturbaciones inevitables cuyo resultado neto es un error de medida aleatorio. El modelo
que describe la situacin es:
1 = j +l
donde 1 es la variable aleatoria valor medido y l la variable aleatoria error de
medida. Adems la densidad de probabilidad de l, en virtud del Teorema Central del
Lmite, es normal, con 1(l) = 0 (si el aparato est bien calibrado: las medidas son
exactas, no hay error sistemtico) y \ ar(l) = o
2
(mayor precisin del aparato cuanto
menor sea). En consecuencia la densidad de probabilidad de 1 es tambin normal, con
1(1 ) = j y \ ar(1 ) = o
2
.
94 4. MODELOS PRINCIPALES
4.4 Variable aleatoria binomial
La funcin de distribucin binomial es (Captulo 2 ejemplo 13 y Captulo 3 ejemplos
19 y 24):
1(A _ /) =
a=I

a=0
_
:
r
_
j
a
(1 j)
aa
(4.3)
Hay una dicultad prctica
4
para calcularla para valores grandes de :. Sin embargo
la aproximacin de la anterior probabilidad mediante la funcin de distribucin normal,
basada en el Teorema Central del Lmite, es sencilla.
Segn el modelo bsico una Va A binomial de parmetros : y j, representa el nmero
de xitos en : ensayos independientes con probabilidad j de xito en cada uno. Pero A
tambin se puede representar as:
A =
a

i=1
A
i
donde cada una de las : variables aleatorias independientes A
i
representa el resultado
del correspondiente ensayo, con
1(A
i
= 1) = j
1(A
i
= 0) = 1 j
y como
1(A
i
) = j
\ ar(A
i
) = j(1 j)
entonces (Captulo 3 Proposiciones 2 y 7)
1(A) =
a

i=1
1 (A
i
) = :j
\ ar(A) =
a

i=1
\ ar (A
i
) = :j(1 j)
Ahora, si : es sucientemente grande se aplica a (4.3) la aproximacin (4.2), es decir,
4
El clculo con precisin arbitraria se realiza por medio de la funcin euleriana beta.
4.4. VARIABLE ALEATORIA BINOMIAL 95
se pueden aproximar las probabilidades relativas a A como si fuese una (:j,
_
:j(1 j)):
1(A _ /) =
a=I

a=0
_
:
r
_
j
a
(1 j)
aa
-
_
/ + 0.5 :j
_
:j(1 j)
_
0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
p = 0. 2, n=10
0 10 20 30 40 50
0
0.05
0.1
0.15
0.2
p = 0. 2, n=50
funciones de masa binomial y densidad normal (:j,
_
:j(1 j))
En la prctica suele aceptarse que la aproximacin es suciente en cuanto min:j, :(1
j) 10, de modo que el caso ms favorable se tiene cuanto ms prximo sea j a 1,2
(con j = 1,2 se prueba que el mximo error que se comete es menor que 1,
_
:).
Ejemplo 6 se lanza una moneda equilibrada 900 veces. qu probabilidad hay de obtener
ms de 495 caras?. La VA A, nmero de caras, es 1(900, 1,2), con 1(A) = 450 y
\ ar(A) = 225
1(A 495) = 1 1(A _ 495) = 1
I=495

I=0
_
900
/
__
1
2
_
900
- 1
_
495 + 0.5 450
_
225
_
96 4. MODELOS PRINCIPALES
495+0.5450
p
225
= 3.0333 y en la tabla se lee (3.03) = 0.99878 as que 1(A 495) -
1 0.99878 = 0.00122
4.5 Variable aleatoria de Poisson
La funcin de masa de Poisson es (Captulo 2 ejemplo 15)
)(r) = c
A
`
a
r!
r = 0, 1, 2, ...
Su esperanza y varianza son (Captulo 3 ejercicio 11) 1 (A) = ` y \ ar (A) = `.
Proposicin 3 (reproductividad) Si A
i
son Poisson de parmetros `
i
e independien-
tes, entonces

A
i
es Poisson

`
i
.
Demostracin. Basta probarlo para dos, sean A e 1 de parmetros ` y j
1(A +1 = .) =
:

)=0
1(A = . ,, 1 = ,) =
:

)=0
1(A = . ,)1(1 = ,)
=
:

)=0
c
A
`
:)
(. ,)!
c
j
j
)
,!
=
c
(A+j)
.!
:

)=0
_
.
,
_
`
:)
j
)
= c
(A+j)
(` +j)
:
.!
Proposicin 4 (Convergencia de la Binomial) Si A es Binomial (:, j) entonces
lim
_
:
r
_
j
a
(1 j)
aa
= c
A
`
a
r!
para : , j 0 y :j = `.
Demostracin. Efectivamente (si : y j = `,:)
lim
a!1
_
:
r
_
j
a
(1 j)
aa
= lim
a!1
:(: 1) [: (r 1)]
r!
_
`
:
_
a
_
1
`
:
_
aa
=
`
a
r!
lim
a!1
:(: 1) [: (r 1)]
:
a
_
1
`
:
_
aa
=
`
a
r!
c
A
4.5. VARIABLE ALEATORIA DE POISSON 97
pues
lim
a!1
:(: 1) [: (r 1)]
:
a
= 1
lim
a!1
_
1
`
:
_
a
= c
A
lim
a!1
_
1
`
:
_
a
= 1
La validez emprica del modelo de Poisson en el nmero de accidentes de tal o cual
clase se justica en esta convergencia (ley de los sucesos raros): el tamao : de la
poblacin susceptible de accidente es muy grande y la probabilidad j de accidente muy
pequea.
Esta convergencia tiene gran inters terico, como veremos en la siguiente seccin,
y tambin ocasionalmente prctico: se acepta una aproximacin suciente de la funcin
de masa binomial por la de Poisson si (j < 0.1 , : 50 , :j < 10).
Ejemplo 7 Supngase que en una poblacin numerosa el tanto por uno de individuos
que poseen cierta propiedad es de j = 0.01 . Calculemos la probabilidad de que en una
muestra al azar de 200 individuos, al menos 4 posean la propiedad.
Si suponemos que cada una de las 200 extracciones sucesivas no cambian apreciable-
mente la proporcin en la poblacin (o sea, que si es el tamao de la poblacin,
j :), entonces la VA A, nmero de individuos en la muestra que poseen la
propiedad, es 1(200, 0.01) y:
1(A _ 4) = 1 1(A _ 3) = 1
3

a=0
_
200
r
_
(0.01)
a
(0.99)
200a
- 1
3

a=0
c
2
2
a
r!
= 1 0.85712 = 0.14288
(Con 4 cifras exactas la binomial da el valor 0.1420).
98 4. MODELOS PRINCIPALES
4.6 Procesos de Poisson
Considere sucesos que se producen en instantes de tiempo tales como las llegadas de
los clientes a un servidor, de partculas a un detector, de accidentes, terremotos, averas
... Podemos estudiarlos mediante una funcin de conteo (t) = (0, t] denida para
t 0 y cuyo valor es el nmero de sucesos que se han producido en el intervalo (0, t].
El tiempo 0 signica el elegido para comenzar las observaciones. Para cada tiempo t
tenemos una Va discreta (t) cuyos valores posibles son 0, 1, 2, ... La familia de Vas
(t) , t 0 es un proceso aleatorio.
Procesos semejantes pueden estudiarse en el plano, o el espacio, y la funcin de conteo
es ahora () cuyo valor es el nmero de sucesos (puntos) que se han producido en el
conjunto .
Cuando somos nosotros los que realizamos un mismo ensayo : veces, nos interesamos
en el nmero de ellas en que ha ocurrido cierto suceso. Sin embargo, ahora el suceso de
inters ocurre independientemente de cualquier ensayo deliberado, en instantes de tiempo
o puntos del espacio. Construiremos un modelo para esta nueva clase de situaciones como
un lmite de la primera ms sencilla, imaginando cierta disponibilidad innita de ensayos.
Sea \ un conjunto acotado (de la recta, del plano,...) de medida (longitud, super-
cie,...) med(\ ), en el cual se situarn al azar (con densidad uniforme) : puntos. Cada
uno de ellos tiene la misma probabilidad
med()
med(\ )
de caer dentro de un subconjunto jado
\ . Por lo tanto, el nmero de puntos, de entre los :, que se incluirn en es una
Va () binomial de parmetros : y j =
med()
med(\ )
.
Ahora, si : y med(\ ) de manera que ` =
a
med(\ )
(el nmero de puntos por
unidad de medida o densidad espacial de puntos) permanezca constante, la distribucin
de la Va () converge a la de Poisson de parmetro `med(), con:
1( () = r) = c
Amed()
(`med())
a
r!
r = 0, 1, 2, ..
y es la misma para todos los subconjuntos de la misma medida med(), cualquiera que
sea su forma y posicin dentro de \ .
Adems, se prueba que para cualquier eleccin de / _ 2 subconjuntos no solapados,
las / VAs (
i
) son independientes (intuitivamente: si de un total de : puntos se sabe
que :
i
estn en
i
, las oportunidades para
)
, no solapado, son ::
i
, as que las variables
(
i
) y (
)
) son dependientes. Pero ello deja de ser as si : :
i
: hay practicamente
las mismas oportunidades para
)
antes de jar los :
i
en
i
que despus).
4.6. PROCESOS DE POISSON 99
Basndonos en la construccin precedente hacemos la siguiente
Denicin 1 Un proceso aleatorio de puntos (t) en R es de Poisson de intensidad
` (nmero promedio terico de puntos por unidad de medida) s:
1) (0) = 0 (los sucesos se comienzan a contar a partir del tiempo 0).
2) en cualquier intervalo (a, /] el nmero de puntos (a, /] = (/) (a) es una
Va de Poisson de parmetro `(/ a) (homogeneidad).
3) los nmeros de puntos en intervalos no solapados son Vas independientes.
De este simple par de axiomas se concluye una estructura muy rica.
Proposicin 5 Si (a, /] = 1 la posicin del punto en el intervalo es al azar. Esto es,
\(a
1
, /
1
] _ (a, /]
1 ((a
1
, /
1
] = 1 [ (a, /] = 1) =
/
1
a
1
/ a
Demostracin.
1 ((a
1
, /
1
] = 1 [ (a, /] = 1) =
1 ((a
1
, /
1
] = 1, (a, /] = 1)
1 ((a, /] = 1)
=
1 ((a
1
, /
1
] = 1, (a, a
1
] = 0, (/
1
, /] = 0)
1 ((a, /] = 1)
=
1 ((a
1
, /
1
] = 1) 1 ((a, a
1
] = 0) 1 ((/
1
, /] = 0)
1 ((a, /] = 1)
=
c
A(b
1
o
1
)
`(/
1
a
1
) c
A(o
1
o)
c
A(bb
1
)
c
A(bo)
`(/ a)
=
/
1
a
1
/ a
donde la tercera igualdad es consecuencia de la independencia y la cuarta de la distribu-
cin de Poisson en cada intervalo.
Proposicin 6 jado un origen t arbitrario, la distancia al punto ms proximo, o
tiempo de espera, es una Va exponencial de parmetro `, independiente de dicho
origen.
Demostracin. Sea A la distancia (desde t) al punto ms prximo (a la derecha).
Obtenemos su funcin de distribucin:
1(r) = 1(A _ r) = 1((t, t +r] _ 1)
= 1 1((t, t +r] = 0)
= 1 exp(`r) r 0
as que A tiene densidad exponencial de parmetro `.
100 4. MODELOS PRINCIPALES
Corolario 2 Como t es arbitrario, si se elige en particular en un punto del proceso re-
sulta que las longitudes de los intervalos entre puntos (los tiempos de espera) A
1
, A
2
, ...
siguen la misma ley exponencial de parmetro `. Se prueba adems que son indepen-
dientes.
As que desde que se inicia la observacin del proceso en t = 0 el tiempo de espera
hasta que se produce el primer punto es una Va A
1
exponencial de parmetro `. El
tiempo de espera desde A
1
hasta que se produce el siguiente es de nuevo una Va A
2
exponencial de parmetro ` independiente de la anterior, etc.
La esperanza del tiempo de espera es (esperanza de la exponencial) 1 (A
i
) = 1,` y
el nmero esperado de puntos por unidad de tiempo es (esperanza de la de Poisson) `.
Ejemplo 8 (Paradoja del tiempo de espera) Suponga que los vehculos de una red
de transporte urbano llegan a la parada segn un proceso de Poisson con una frecuencia
terica de 1 cada 15 min. Si llegamos a la parada en un instante arbitrario cul es el
tiempo medio de espera hasta que llegue el prximo vehculo?
Como ` = 1,15 min
1
los tiempos de espera (intervalos entre vehculos) son Vas ex-
ponenciales independientes de parmetro 1,` = 15 min y la respuesta la da la Proposi-
cin 6: el tiempo medio de espera hasta que llegue el prximo vehculo es de 15 min.
Sin embargo la intuicin sugiere que deberan ser 7.5 min (interpretando instante
arbitrario como al azar en el intervalo medio de 15). La paradoja se deshace si com-
prendemos que no todos los intervalos son indnticos al medio y que es ms probable que
nuestro instante se halle en uno largo (que ocupan ms tiempo del proceso) que en uno
corto.
La paradoja no es una caracterstica del proceso de Poisson. Se prueba que si A
i
son tiempos de espera independientes con la misma distribucin y se elige un instante
arbitrario, la longitud esperada 1 (1 ) del intervalo que lo contiene es
1 (1 ) = 1 (A) +
\ ar (A)
1 (A)
Si los A
i
son constantes de valor c es 1 (A) = c, \ ar (A) = 0 y 1 (1 ) = c: el
tiempo de espera medio es c,2.
Si los A
i
son exponenciales es 1 (A) = 1,`, \ ar (A) = 1,`
2
y 1 (1 ) = 2,`: el
tiempo de espera medio es 1,`.
4.6. PROCESOS DE POISSON 101
Proposicin 7 Si los tiempos de espera en un proceso de puntos son Vas A
i
exponen-
ciales independientes de parmetro ` entonces el proceso es de Poisson de intensidad
`.
Proposicin 8 Si
i
(t) son procesos de Poisson independientes de intensidades `
i
en-
tonces (t) =

i
(t) es un proceso de Poisson de intensidad ` =

`
i
.
Ejemplo 9 (Accidentes nucleares)
5
El nmero de accidentes en el reactor nuclear i
a lo largo del tiempo puede modelizarse como un proceso de Poisson
i
(t) con
1 (
i
(t) = r) = c
At
(`t)
a
r!
r = 0, 1, ...
Si tomamos como unidad de medida un ao, el parmetro ` es el nmero esperado de
accidentes en un reactor en un ao cualquiera
1 (
i
(1)) = `
El nmero de accidentes en un parque de : reactores es (t) =

a
i=1

i
y es Poisson
de parmetro :` (nmero esperado de accidentes en un ao cualquiera en el conjunto
de : reactores).
La estimacin de ` debe basarse en la experiencia histrica:
Un clculo del nmero de aos de operacin (del total de reactores que han operado
u operan desde 1954) es 15000 aos.
Considerando los accidentes de nivel de gravedad 5 o superior (dao en el nucleo),
desde 1954 se han producido 4 accidentes (Chernobil, Three Miles Island, Wind Scale
Pille y Fukushima). Resulta una estimacin de ` para gravedad 5 o superior
` =
4
15000
= 2.6667 10
4
accidentes/ao
Actualmente hay : = 442 reactores de distinta antiguedad y suponiendo constante
este nmero (aunque las previsiones indican que puede crecer hasta los 600):
El nmero esperado de accidentes graves en los prximos 20 aos es
1 ( (20)) = :`t = 442 (4,15000) 20 = 2.3573
5
Thomas Rose. Probability of nuclear accidents. University College, London, 2011
102 4. MODELOS PRINCIPALES
La probabilidad de al menos un accidente grave en los prximos 20 aos es
1 ((20) _ 1) = 1 1 ((20) = 0) = 1 c
aAt
= 1 exp(2.3573) = 0.90532
4.7 Variables relacionadas con la Normal
4.7.1 Lognormal
La Va A es lognormal de parmetros j y o, lo que denotaremos A ~ 1(j, o), si
su densidad es:
)(r) =
1
ro
_
2
exp
_

1
2
_
lnr j
o
_
2
_
r 0
y se comprueba fcilmente que entonces 1 = ln(A) es (j, o). Sus esperanza y varianza
son:
1(A) = exp
_
j +
o
2
2
_
\ ar(A) = exp
_
2j +o
2
_ _
exp(o
2
) 1
_
Proposicin 9 (forma multiplicativa del TCL) Sean Vas A
i
cualesquiera, inde-
pendientes e idnticamente distribuidas, con 1(lnA
i
) = j y \ ar(lnA
i
) = o
2
. Entonces
la Va

A
i
es asintticamente 1(:j,
_
:o).
Demostracin. Se sigue de que
ln

A
i
=

lnA
i
es asintticamente (:j,
_
:o).
Ejemplo 10 Consideremos una cantidad inicial j que se divide aleatoriamente en 2
partes eligiendo un nmero A
1
al azar en (0, 1): los tamaos resultantes son jA
1
y
j(1 A
1
) (observe que 1 A
1
tambin es un nmero al azar en (0, 1)). Ahora cada
una de ellas vuelve a dividirse de igual modo: por ejemplo la primera resulta en jA
1
A
2
y jA
1
(1 A
2
). Despus de : divisiones, el tamao de cualquier fragmento es de la
forma j

A
i
, con las A
i
uniformes en (0, 1). Para : grande la distribucin de dichos
tamaos es aproximadamente lognormal. El modelo es de aplicacin en la teora de la
fragmentacin de partculas, donde interesa la distribucin de las dimensiones de stas.
4.7. VARIABLES RELACIONADAS CON LA NORMAL 103
4.7.2 Ji-cuadrado
Si l ~ (0, 1) la densidad de l
2
se llama ji-cuadrado de parmetro 1 (Captulo 2
ejercicio 16).
Proposicin 10 Sean l
i
~ (0, 1), i = 1, 2, ..., /, independientes. La densidad de
A =

I
i=1
l
2
i
es:
)(r) =
1
2
I2
(
I
2
)
r
k
2
1
exp
_

r
2
_
r 0
y se llama ji-cuadrado de parmetro /, denotado A ~
2
(/).
Demostracin. (Apndice 2).
Su esperanza y varianza son 1(A) = / y \ ar(A) = 2/.
Corolario 3 (reproductividad) si A
i
~
2
(/
i
), i = 1, 2, ..., : y son independientes,
entonces A =

A
i
~
2
(

/
i
).
El clculo de probabilidades con la densidad ji-cuadrado se realiza aproximando
numricamente las integrales. Para nuestras aplicaciones nos serviremos de la tabla II.
En ella se dan, para algunos valores de c y del parmetro /, los cuantiles r
c
, es decir
1(A < r
c
) = c.
Ejemplo 11 (cont. del 3) La rapidez de las molculas es la Va \ =
_
\
2
a
+\
2
j
+\
2
:
cuya densidad de probabilidades, llamada de Maxwell, puede deducirse con las tcnicas
de la seccin 2.11.2 y es
)
\
() =
_
2


2
o
3
exp
_

2
,
_
2o
2
__
0 (o = /T,:)
El clculo de probabilidades puede hacerse mediante la relacin de su funcin de
distribucin con la
2
(3):
1 (\ < ) = 1
__
\
2
a
+\
2
j
+\
2
:
<
_
= 1
_
\
2
a
+\
2
j
+\
2
:
<
2
_
= 1
_
\
2
a
+\
2
j
+\
2
:
o
2
<

2
o
2
_
= 1
_

2
(3) <

2
o
2
_
pues \
a
,o ~ (0, 1) y \
2
a
,o
2
~
2
(1) y anlogamente para las otras componentes que
adems son independientes.
104 4. MODELOS PRINCIPALES
0 5 10 15 20
0
0.05
0.1
0.15
0.2
0.25
k=3
k=5
k=10
densidades ji-cuadrado
4.8 Ejercicios propuestos
1. El voltaje medido en un circuito es una VA A ~ (120, 2) V. a) Probabilidad
de que 3 medidas independientes estn en el intervalo (119.4, 121.2)? b) Qu
lmites simtricos deben tomarse alrededor de 120 para que incluyan una medida
cualquiera con probabilidad de 0.8?
2. El peso de cierto empaquetado es una VA A ~ (150, 1,4), y el intervalo de
tolerancia admitido es (149.2, 150.4). En lotes de 100, cul es el nmero promedio
de aceptables?
3. Segn el fabricante cierto tipo de cables tiene un lmite de elasticidad A ~ (50, 5)
N/mm
2
. a) Cual es la probabilidad de rotura de una cable si se va a cargar con
40 N/mm
2
? (o de otra manera: qu proporcin de cables tienen un lmite menor
que 40?). b) Cul es la carga mxima para que dicha probabilidad sea 0.05?
4.8. EJERCICIOS PROPUESTOS 105
4. La longitud de ciertas piezas mecanizadas es (0.9, o) y los lmites de especicacin
son 0.9 0.005, cul es la desviacin tpica o con la que se obtendran a la larga
3 defectuosas de 1000?.
En los 3 ejercicios siguientes use la Proposicin 2: suma de normales independien-
tes.
5. En una edicacin la carga total sustentada por los cimientos es la suma de la
carga de la estructura ms la de ocupacin. Suponiendo que stas son, para cierta
clase de construcciones, Vas independientes, respectivamente A ~ (100, 10) e
1 ~ (40, 10) (en Tm), para qu carga han de disearse los cimientos, de manera
que la probabilidad de que sea excedida por la carga total sea de 0.01?.
6. Una pala carga camiones. El peso de cada palada es una Va \ normal de media
j
W
= 3 Tm y desviacin o
W
= 0.1 Tm. a) Hallar la proporcin de paladas de ms
de 3.1 Tm b) Cada camin recibe : = 10 paladas, cuyo peso total es

10
i=1
\
i
.
Calcular el peso n que superan el 1% de los camiones
En los ejercicios siguientes use el Teorema Central del Lmite para aproximar las
probabilidades pedidas.
7. Un examen tipo test tiene 30 preguntas, cada una con 5 respuestas posibles. Cul
debe ser el nmero de respuestas acertadas para que la probabilidad de que un
ignorante, eligiendo al azar, las obtenga o supere sea del 0.05?
8. (cont. del ejercicio 18 del Captulo 3) Se lanza 36 veces un dado equiprobable. Sea
o la suma de los puntos obtenidos. Aproxime la probabilidad 1 ([o 126[ < 30).
9. (cont. de los ejercicios 20 y 21 del Captulo 3) Hallar aproximadamente la proba-
bilidad de que el peso

100
i=1
7
i
de un lote de : = 100 varillas sea mayor que 8016
g.
10. El tiempo de vida de cierta clase de bateras es una Va A con 1 (A) = 40 h y
_
\ ar (A) = 20 h. Cuando una batera falla se reemplaza. Suponiendo que hay un
stock de 25 bateras, y que sus tiempos de vida A
i
son independientes, aproximar
con el TCL la probabilidad de que se consiga superar un tiempo de operacin de
1100 h.
11. El tiempo de vida de cierto componente es una Va A con 1 (A) = 100 h y
_
\ ar(A) = 30 h. El componente es crtico para la operacin de un sistema
y debe ser reemplazado inmediatamente cuando falla. cuntos componentes debe
106 4. MODELOS PRINCIPALES
haber en stock para que la probabilidad de que el sistema est operativo durante
al menos 10000 h sea del 0.95?
En los ejercicios siguientes use los resultados de la Seccion 4.6
12. Los clientes llegan a una tienda de acuerdo con un proceso de Poisson de tasa 4
por hora. a) Si la tienda abre a las 10 cul es la probabilidad de que lleguen
4 o menos antes de las 11 y 12 o menos antes de las 13? b) Cul es el tiempo
esperado entre llegadas de clientes?
13. (cont. del ejemplo 9) Repita los clculos para accidentes de nivel 4 o superior
(Chernobil, Three Miles Island, Wind Scale Pille, Fukushima, Kyshtym, Saint
Laurent des Eaux y Tokaimura).
14. Los cristales de cierto mineral aparecen dispersos aleatoriamente en las secciones
de una roca, con una densidad promedio de 7 por dm
2
. a) probabilidad de que
en una seccin de 1 cm
2
no se encuentren cristales? b) probabilidad de que en
ninguna de 10 secciones no solapadas de 1 cm
2
se encuentren cristales?
15. Sea un proceso de Poisson en el plano de intensidad `. Situados en un punto arbi-
trario (que podra ser uno del proceso) se mide la distancia A al ms prximo del
proceso. Encontrar la densidad de A (obtenga primero la funcin de distribucin:
A _ r si en el crculo de radio r hay al menos un punto y tenga en cuenta que el
nmero de puntos () en un conjunto es de Poisson de parmetros `area()).
En los ejercicios siguientes use la distribucin ji-cuadrado
16. (continuacin de ejercicio 19 de Captulo 3) Tomando el valor / = 1.3810
23
J K
1
y el valor 0.028 kg mol
1
para la masa molecular del nitrgeno la desviacin tpica
de las componentes de la velocidad de las molculas de nitrgeno a T = 300 K
result
o =
_
/T
:
_
12
= 298.39 ms
1
Ahora (ejemplo 11 de este Captulo) si \ es la rapidez de las molculas
1 (\ < ) = 1
__
\
2
a
+\
2
j
+\
2
:
<
_
= 1
_
\
2
a
+\
2
j
+\
2
:
<
2
_
= 1
_
\
2
a
+\
2
j
+\
2
:
o
2
<

2
o
2
_
= 1
_

2
(3) <

2
o
2
_
Calcule el valor tal que 1 (\ < ) = 0.95
4.8. EJERCICIOS PROPUESTOS 107
17. (cont.) Para qu temperatura T es = 10
3
ms
1
?
18. Los errores de posicin horizontal A e 1 de un GPS son Vas (0, o) donde o
mide la precisin del GPS. El error radial es 7 =
_
A
2
+1
2
y se prueba que su
distribucin (llamada de Rayleigh) es
1 (7 < .) = 1 exp
_
.
2
,2o
2
_
. 0
Si se jan . y c, para que sea 1 (7 < .) = c el GPS tiene que tener una precisin
o:
1 exp
_
.
2
,2o
2
_
= c o =
.
_
2 ln (1 c)
En particular el o para que1 (7 < 5 m) = 0.95 es
1 (7 < 5 m) = 0.95 o =
5
_
2 ln 0.05
= 2.0427 m
Obtenga el resultado anterior usando la distribucin ji-cuadrado de 7
2
,o
2








5
Estimacin
5.1 El mtodo estadstico
La teora de probabilidades estudiada en los captulos anteriores se ha desarrollado
para servir de modelo de las regularidades estadsticas que se pueden observar en las
sucesiones de experimentos aleatorios. Nuestro objetivo ahora es aplicar dicha teora a
problemas de inferencia estadstica.
La ciencia progresa por medio de experimentos. El investigador realiza un experi-
mento y obtiene datos. En base a los datos se extraen conclusiones que se intentan llevar
ms all del experimento particular: a la clase de todos los experimentos similares. Esta
extensin de lo particular a lo general se llama inferencia inductiva, y es como progresa
el conocimiento.
En una inferencia inductiva (concluir sobre el todo desde una parte) nunca puede
haber certeza absoluta. Sin embargo si el experimento se realiza de acuerdo con ciertos
principios es posible medir el grado de incertidumbre en trminos de probabilidad. Los
ingredientes que entran en juego son los siguientes:
1. La poblacin es el conjunto de referencia, real o hipottico, que se investiga.
2. Sobre los individuos de la poblacin hay denida una funcin numrica, o variable,
y se trata de averiguar cules son las proporciones de sus valores, cul es su valor
medio, ....
3. Para ello se dispondr de una muestra, es decir, de un subconjunto de individuos
de la poblacin elegidos mediante un procedimiento aleatorio determinado.
109
110 5. ESTIMACIN
4. Por medio de los valores de la variable en la muestra se har una estimacin de
la magnitud que interesa de la poblacin.
5. Por ltimo, usando argumentos de la teora de probabilidades ser posible medir
el error de la aproximacin (lo que se estudiar en el prximo Captulo).
Ejemplo 1 En un control de calidad la poblacin consiste en el conjunto de las piezas
de un lote numeroso de las cuales r = j son defectuosas e interesa averiguar la fraccin
desconocida (0 < j < 1) de defectuosas. El procedimiento aleatorio habitual para elegir
la muestra en este caso son : piezas elegidas al azar y sin reemplazamiento y su
composicin es una Va (A
1
, A
2
, ..., A
a
) donde A
i
es la calidad de la i-sima pieza (1 si
defectuosa y 0 si no). El nmero de defectuosas que se obtiene es la Va A =

a
i=1
A
i
con funcin de masa
1 (A = r) =
_
r
r
__
r
: r
_
_

:
_ 0 _ r _ min(:, r)
y probaremos ms adelante que 1 (A) = :j.
Realizado el experimento resulta la muestra particular (r
1
, r
2
, ..., r
a
) y el total de
defectuosas r =

a
i=1
r
i
. La proporcin experimental r,: puede servir para aproximar
la terica r, y con mayor seguridad cuanto mayor sea :. El problema ser estudiado
con ms detalle en 5.12 y veremos en el prximo captulo cmo es posible medir el error
de la aproximacin.
Ejemplo 2 Como se sabe, cada medida de una magnitud fsica incorpora un error
aleatorio inevitable. La operacin de medida se describe por el modelo
A = j +l
donde j es el valor desconocido que se mide y l es la variable aleatoria error.
Generalmente vale suponer que l ~ (0, o) (el error se debe a la adicin de un gran
nmero de pequeos factores independientes y se aplica el teorema central del lmite), de
donde se sigue que A ~ (j, o). El que 1(l) = 0 indica que las medidas son exactas
(no hay error sistemtico). Adems cuanto menor sea o mayor es la precisin.
En el enfoque estadstico la poblacin en este caso es hipottica e innita. Las :
medidas r
i
(realizadas independientemente en las mismas condiciones experimentales)
5.2. MUESTRA ALEATORIA SIMPLE 111
son otras tantas observaciones de Vas A
i
independientes y con la misma distribucin.
Se conviene en una situacin como sta que la poblacin coincide con (o est descrita
por) la variable aleatoria A. La magnitud poblacional a estimar es j, promedio terico
de A. Y una posible estimacin es el promedio experimental de : medidas particulares
independientes (r
1
, r
2
, ..., r
a
):
r =
1
:
a

i=1
r
i
que converge a 1(A) = j si : . Tambin veremos ms adelante cmo acotar el
error de aproximacin cualquiera que sea el : utilizado.
En el primer ejemplo la aleatoriedad se introduce deliberadamente, por medio del
muestreo
1
. En el segundo es intrnseca a la poblacin.
Sea como sea, el resultado es que en cada problema de Estadstica tratamos con un
conjunto de variables aleatorias (A
1
, A
2
, ..., A
a
) que miden el valor de la propiedad de
inters en cada individuo de la poblacin que forma parte de la muestra. Y que con el
valor observado de alguna funcin adecuada de la muestra realizamos la aproximacin.
Es muy importante darse cuenta enseguida de que:
1. en la prctica dispondremos de un : nito, eventualmente pequeo, lo que hace
imprescindible acotar el error de las aproximaciones.
2. el valor numrico de cada aproximacin depende de los valores particulares (r
1
, r
2
,
...r
a
) y stos cambian de muestra a muestra (son realizaciones de la variable aleato-
ria (A
1
, A
2
, ..., A
a
)). As pues, el valor numrico de cada aproximacin es, a su
vez, una realizacin de una variable aleatoria.
3. estudiando esta variable aleatoria (su esperanza, su varianza, ...) es como se hallar
la solucin al problema planteado en el punto 1.
5.2 Muestra aleatoria simple
El problema estadstico ms general es el descrito en el ejemplo 2: un experimento
aleatorio en el que se mide una Va A realizado : veces independientemente. La Va
puede ser discreta o continua y su distribucin de probabilidades de forma conocida
pero desconocidos sus parmetros, o completamente desconocida.
1
Esto es lo que podemos llamar el mtodo estadstico.
112 5. ESTIMACIN
Denicin 1 (muestra aleatoria simple) Sea una variable aleatoria A con densi-
dad, o masa, )(r). Si el experimento en el que se mide A se realiza : veces indepen-
dientemente (o lo que es igual, se realizan : experimentos idnticos e independientes),
se obtienen : variables aleatorias independientes A
i
con la misma ) (r) que la A. Se
llama muestra aleatoria simple de A a (A
1
, A
2
, ..., A
a
).
En lo que sigue consideraremos siempre, salvo que se indique lo contrario, este tipo
de muestra. Obsrvese que, en particular, 1 (A
i
) = 1 (A) y \ ar (A
i
) = \ ar (A).
Una vez realizadas las : observaciones se tienen : nmeros, sea (r
1
, r
2
, ..., r
a
), que
se llaman la muestra, a secas.
Ejemplo 3 En el ejemplo 2 las medidas (A
1
, A
2
, ..., A
a
) constituyen una muestra aleato-
ria de tamao : de la variable aleatoria A ~ (j, o) cuyos parmetros son desconocidos.
Cada A
i
~ (j, o) y adems son independientes.
La muestra (A
1
, A
2
, ..., A
a
) del ejemplo 1 no es una muestra aleatoria simple, pues
las Vas A
i
no son independientes obviamente. Para que lo fuese habra que haber reali-
zado el muestreo con reemplazamiento.
Denicin 2 (estadstico) Sea una muestra aleatoria (A
1
, A
2
, ..., A
a
) de una Va A.
Se llama estadstico a cualquier Va T = q(A
1
, A
2
, ..., A
a
) denida como funcin de la
muestra y que no incluya ningn parmetro desconocido.
En denitiva con cada muestra (r
1
, r
2
, ..., r
a
) se puede calcular el nmero t =
q(r
1
, r
2
, ..., r
a
). Sin embargo estos nmeros cambian de muestra a muestra: son re-
alizaciones de la Va T, cuya ley de probabilidades depende de la de A, de q y de :.
Ejemplo 4 En el ejemplo 2 cada elemento A
i
de la muestra aleatoria (A
1
, A
2
, ..., A
a
)
tiene densidad (j, o). El estadstico A =
1
a

A
i
tiene una densidad tambin nor-
mal (pues es una combinacin lineal de normales independientes; ver proposicin 2 del
captulo 4), de parmetros j y o,
_
: . Y el nmero r es el valor del estadstico en la
muestra particular.
Dos estadsticos importantes son la media y la varianza de la muestra, que se denen
a continuacin.
5.3. LA MEDIA MUESTRAL 113
5.3 La media muestral
Denicin 3 Sea A cualquiera, con 1 (A) = j y \ ar (A) = o
2
, y sea (A
1
, A
2
, ..., A
a
)
una muestra aleatoria. La media muestral es la variable aleatoria
A =
1
:

A
i
Proposicin 1
1
_
A
_
= j
\ ar
_
A
_
=
o
2
:
Demostracin. Como la esperanza de una suma es la suma de las esperanzas:
1
_
A
_
= 1
_
1
:

A
i
_
=
1
:

1 (A
i
) = j
Y como la varianza de una suma de variables independientes es la suma de las
varianzas:
\ ar
_
A
_
= \ ar
_
1
:

A
i
_
=
1
:
2

\ ar (A
i
) =
o
2
:
5.4 La varianza muestral
Denicin 4 Sea una muestra (A
1
, A
2
, ...A
a
) de una variable aleatoria A cualquiera,
con 1(A) = j y \ ar(A) = o
2
. La varianza muestral es la variable aleatoria
o
2
=
1
: 1
a

i=1
_
A
i
A
_
2
La desviacin tpica muestral es
o =

_
1
: 1
a

i=1
_
A
i
A
_
2
114 5. ESTIMACIN
Proposicin 2
1
_
o
2
_
= o
2
\ ar(o
2
) =
1
_
(A j)
4
_
:

: 3
:(: 1)
o
4
Demostracin. Probaremos slo la primera. Como la esperanza de una suma es la
suma de las esperanzas
1
_
o
2
_
=
1
: 1
a

i=1
1
_
_
A
i
A
_
2
_
=
1
: 1
a

i=1
\ ar
_
A
i
A
_
pues
1
_
A
i
A
_
= 0
Ahora (varianza de una combinacin lineal de variables independientes):
\ ar
_
A
i

1
:

A
)
_
= \ ar
_
_
: 1
:
A
i

1
:

)6=i
A
)
_
_
=
_
: 1
:
_
2
o
2
+
: 1
:
2
o
2
y resulta nalmente:
1(o
2
) =
:
: 1
_
_
: 1
:
_
2
o
2
+
: 1
:
2
o
2
_
= o
2
y este resultado aclara la eleccin del denominador : 1 en la denicin de o
2
.
5.5. CONVERGENCIA EN PROBABILIDAD 115
5.4.1 Clculo de la varianza muestral
Una expresin alternativa que puede ser til para el clculo de la varianza muestral
es
1
: 1
a

i=1
_
A
i
A
_
2
=
1
: 1
_
a

i=1
A
2
i
+:
_
A
_
2
2A
a

i=1
A
i
_
=
1
: 1
_
a

i=1
A
2
i
:
_
A
_
2
_
=
1
: 1
_
a

i=1
A
2
i

1
:
_

A
i
_
2
_
aunque puede dar lugar a resultados erroneos si los dos nmeros de la ltima diferencia
son muy grandes y desbordan la precisin del programa que se utiliza.
5.4.2 Caso particular
Si A slo toma los valores 0 1 con 1 (A = 1) = j y 1 (A = 0) = 1 j, (A
representa la frecuencia relativa de unos en la muestra con 1
_
A
_
= 1 (A) = j), como
en este caso A
i
= A
2
i
a

i=1
A
2
i
=
a

i=1
A
i
= :A
la varianza muestral se puede escribir:
o
2
=
1
: 1
a

i=1
_
A
i
A
_
2
=
1
: 1
_
a

i=1
A
2
i
:
_
A
_
2
_
=
1
: 1
_
:A :
_
A
_
2
_
=
:
: 1
A
_
1 A
_
5.5 Convergencia en Probabilidad
Para cualquier Va 7 con esperanza 1 (7) y varianza \ ar (7) la acotacin de Tcheby-
chev es (ver 3.7):
1 ([7 1 (7)[ < -) _ 1
\ ar (7)
-
2
\- 0
116 5. ESTIMACIN
Apliqumoslo en particular a la Va A, para la que hemos hallado que
1
_
A
_
= j
\ ar
_
A
_
=
o
2
:
donde con j y o
2
hemos denotado la esperanza y varianza de la poblacin A muestreada:
1
_

A j

< -
_
_ 1
o
2
:-
2
\- 0
y entonces
lim
a!1
1
_

A j

< -
_
= 1 \- 0
resultado que se enuncia: la sucesin de medias muestrales converge en probabilidad
2
a j. Aclara el comportamiento emprico de los valores de A y justica su uso en la
aproximacin de j.
Ejemplo 5 Si A sde Bernoulli de parmetro j entonces A representa la frecuencia
relativa de unos en la muestra con 1
_
A
_
= 1 (A) = j, y \ ar
_
A
_
= \ ar (A) ,: =
j (1 j) ,:.
1
_

A j

< -
_
_ 1
j (1 j)
:-
2
\- 0
y por lo tanto
lim
a!1
1
_

A j

< -
_
= 1 \- 0
que aclara el comportamiento emprico de la frecuencia relativa como aproximacin de
una probabilidad.
La clave del resultado anterior es que
lim
a!1
\ ar
_
A
_
= lim
a!1
o
2
:
= 0
y puede generalizarse a cualquier estadstico cuya varianza tienda a cero cuando el
tamao de muestra aumenta: entonces el estadstico converge a una constante.
Otro ejemplo es el de la varianza muestral o
2
, para la cual 1
_
o
2
_
= o
2
y \ ar
_
o
2
_

0 si : . As que
lim
a!1
1
_

o
2
o
2

< -
_
= 1 \- 0
2
Como se coment en 3.2, la Ley fuerte de los grandes nmeros de Borel y Kolmogorov asegura que
P

lim
n!1
X =

= 1, lo que implica ya la convergencia en probabilidad.


5.6. ESTIMADORES 117
y la sucesin de varianzas muestrales converge en probabilidad a \ ar(A) = o
2
, lo
que justica el uso de o
2
para la aproximacin experimental de o
2
.
Teorema 1 (de la aplicacin continua) se prueba que si q es continua y la sucesin
de Vas 7
a
converge a c en probabilidad, entonces la sucesin q(7
a
) converge a q(c) en
probabilidad.
Ejemplo 6 cualquiera que sea A la desviacin tpica de la muestra
o =

_
1
: 1
a

i=1
_
A
i
A
_
2
converge en probabilidad a la desviacin tpica terica de la variable muestreada o =
_
\ ar (A).
Ejemplo 7 El tiempo de vida A de un ncleo radioactivo tiene densidad exponencial
) (r) = `exp(`r) r 0
y como A =
1
a

a
i=1
A
i
converge en probabilidad a 1 (A) = 1,` (vida media terica de
un ncleo), entonces
1
A
=
:

a
i=1
A
i
converge en probabilidad a ` (nmero promedio de ncleos que decaen en la unidad de
tiempo).
5.6 Estimadores
Sea una Va A en estudio, cuya ley de probabilidades (masa o densidad) suponemos
de forma conocida pero desconocido alguno de sus parmetros 0 (j si binomial; j y o si
normal,.. etc.) y denotaremos
3
)(r [ 0). Nos interesa hallar, a partir de una muestra de
observaciones de A, un valor aproximado de 0.
Denicin 5 Sea (A
1
, A
2
, ..., A
a
) una muestra aleatoria de A. Un estimador pun-
tual de 0 es un estadstico T = q(A
1
, A
2
, ..., A
a
) cuyo valor en una muestra se usar
como aproximacin de 0. La Va T 0 es el error de estimacin. Cada valor particu-
lar t = q(r
1
, r
2
, ..., r
a
) se llama una estimacin de 0 y con ella se cometer un error
t 0 de valor desconocido.
3
La notacin no debe entenderse como condicional: slo enfatiza que depende del parmetro.
118 5. ESTIMACIN
El problema de la estimacin puntual de un parmetro consiste en elegir el estimador
que mejor aproxime, en un sentido a precisar, el valor desconocido de 0. En general,
cuanto ms concentrada est la ley de probabilidades del error T 0 en torno a cero (es
decir, la de T en torno a 0) mejor ser el estimador. A este propsito estudiamos ahora
algunas propiedades que nos ayuden en la eleccin. Por ltimo estudiaremos mtodos
de construccin de estimadores.
5.7 Sesgo de un estimador
Denicin 6 El estimador T es insesgado para el parmetro 0 si 1 (T 0) = 0, lo
que equivale a 1(T) = 0.
Cuando 1 (T 0) = /, es decir 1(T) = 0+/, el estimador es sesgado, y la cantidad
/ se llama el sesgo.
Ejemplo 8 Cualquiera que sea la ley ) de A, los estimadores A y o
2
son siempre
insesgados para 1(A) y \ ar(A) respectivamente (interpretando ahora stos como los
parmetros a estimar).
Ejemplo 9 En particular: Si A es de Bernoulli, es decir, con funcin de masa ) (r) =
j
a
(1 j)
1a
para r 0, 1, A es insesgado para 1(A) = j. Si A tiene densidad
exponencial de parmetro ` entonces A es insesgado para 1(A) = 1,`. Si A tiene
densidad normal de parmetros j y o, entonces A es insesgado para 1(A) = j y o
2
para \ ar(A) = o
2
.
Si el estimador tiene sesgo positivo (negativo) las estimaciones sobreestiman (infraes-
timan) en promedio el valor del parmetro.
No siempre existen estimadores insesgados para un parmetro, y cuando existen no
tienen por qu ser nicos.
Ejemplo 10 Si T
1
y T
2
son insesgados para 0, tambin lo son T = cT
1
+ (1 c)T
2
,
\c R, pues
1 (T) = c1 (T
1
) + (1 c) 1 (T
2
)
= c0 + (1 c) 0 = 0
En ocasiones se buscar un estimador para una funcin /(0) de 0, por ejemplo 0
2

_
0. Si T es insesgado para 0, en general /(T) no lo es para /(0).
5.7. SESGO DE UN ESTIMADOR 119
Ejemplo 11 Cualquiera que sea A con 1(A) = j y \ ar(A) = o
2
, aunque A es inses-
gado para j sin embargo
_
A
_
2
es sesgado para j
2
, pues
1
_
_
A
_
2
_
=
_
1
_
A
__
2
+\ ar
_
A
_
= j
2
+
o
2
:
y el sesgo vale o
2
,:. Un estimador insesgado de j
2
es evidentemente
_
A
_
2

o
2
:
Ejemplo 12 Cualquiera que sea A el estimador o
2
es insesgado para \ ar(A) = o
2
.
Pero o (la desviacin tpica de la muestra) es sesgado para o (la desviacin tpica de
A). De:
\ ar (o) = 1
_
o
2
_
(1 (o))
2
0
resulta
(1 (o))
2
< 1
_
o
2
_
y entonces
1 (o) <
_
1 (o
2
) = o
Ejemplo 13 Si A tiene densidad exponencial de parmetro `
) (r) = `exp(`r) r 0
entonces A es insesgado para 1(A) = 1,`, pero 1,A es sesgado para `. Efectivamente,
se prueba que en este caso
1
_
1
A
_
=
:
: 1
`
Un estimador insesgado de ` es entonces
: 1
:
1
A
.
Denicin 7 La sucesin de estimadores T
a
es insesgada en el lmite para 0 si:
lim
a!1
1(T
a
) = 0
Ejemplo 14 Cualquiera que sea A con 1(A) = j y \ ar(A) = o
2
el estimador
_
A
_
2
120 5. ESTIMACIN
es insesgado en el lmite para j
2
, pues
1
_
_
A
_
2
_
= j
2
+
o
2
:
j
2
cuando :
5.8 Varianza de un estimador
La propiedad de ser insesgado no es determinante, por si sla, para la eleccin de
un estimador: expresa la ausencia de errores sistemticos. Sin embargo, la magnitud de
los valores particulares del error T 0 pudiera ser excesiva. Una medida promedio de
dicha magnitud es la siguiente.
Denicin 8 Se llama error cuadrtico medio del estimador T a:
1
_
(T 0)
2
_
= \ ar(T 0) + (1(T 0))
2
= \ ar(T) +/
2
Cuando el estimador es insesgado tal cantidad es \ ar(T).
Ante un estimador insesgado de gran error cuadrtico y otro ligeramente sesgado de
pequeo error cuadrtico pudiera ser preferible el segundo: a la larga las estimaciones
estaran ms concentradas en un entorno de 0.
Ante dos estimadores insesgados se preferir el de menor varianza. Sin embargo, a
tamao de muestra : jado, hay una cota inferior para la varianza de los estimadores
insesgados de un parmetro:
Teorema 2 (Cota de Frchet-Cramr-Rao) Sea A con densidad o masa )(r [ 0)
tal que el conjunto C = r R : )(r [ 0) 0 (es decir, el conjunto de valores posibles,
o recorrido, de A) es independiente de 0. Sea T cualquier estimador insesgado de :(0),
es decir, 1 (T) = :(0). Entonces
\ ar (T) _
(:
0
(0))
2
:1 (0)
donde
1(0) = 1
_
_
0
00
ln)(A [ 0)
_
2
_
Demostracin. Ver Complementos.
5.8. VARIANZA DE UN ESTIMADOR 121
Corolario 1 Si T es insesgado de 0, es decir :(0) = 0, queda
\ ar(T) _
1
:1(0)
Nota: una expresin alternativa es
1(0) = 1
_
0
2
00
2
ln)(A [ 0)
_
Observar que )(A [ 0) es la Va que resulta de transformar la A con la funcin ). Se
llama a :1 (0) la cantidad de informacin (de Fisher) en la muestra (A
1
, A
2
..., A
a
)
para el parmetro 0.
Proposicin 3 Si existe un estimador insesgado cuya varianza alcance la cota se prueba
que es nico, y se llama eciente.
Demostracin. ver Complementos.
Ejemplo 15 Estudiemos la cota para los estimadores insesgados de j cuando A es
(j, o).
)(r [ j) =
1
o
_
2
exp
_

1
2
_
r j
o
_
2
_
ln)(r [ j) = ln
_
o
_
2
_

1
2
_
r j
o
_
2
0
0j
ln)(r [ j) =
r j
o
2
1(j) = 1
_
_
A j
o
2
_
2
_
=
1
o
4
_
1 (A j)
2
_
=
1
o
2
y la varianza de cualquier estimador T insesgado de j, es \ ar(T) _ o
2
,:. Resulta as
que A, insesgado de 1(A) = j y cuya varianza es \ ar(A),: = o
2
,:, alcanza la cota
cuando A es normal.
Ejemplo 16 Estudiemos la cota para los estimadores insesgados de j cuando A es de
122 5. ESTIMACIN
Bernoulli.
)(r [ j) = j
a
(1 j)
1a
r = 0, 1
ln)(r [ j) = rlnj + (1 r) ln(1 j)
0
0j
ln)(r [ j) =
r
j

(1 r)
1 j
=
r j
j (1 j)
1 (j) = 1
_
_
0
0j
ln)(A)
_
2
_
=
1
_
(A j)
2
_
[j (1 j)]
2
=
\ ar (A)
[j (1 j)]
2
=
j (1 j)
[j (1 j)]
2
=
1
j (1 j)
y la varianza de cualquier estimador T insesgado de j es \ ar (T) _ j(1 j),:. Resulta
as que A, insesgado de 1 (A) = j y cuya varianza es \ ar (A) ,: = j (1 j) ,:, alcanza
la cota cuando A es de Bernoulli.
5.9 Estimadores consistentes
Denicin 9 La sucesin de estimadores T
a
es consistente para 0 si converge en pro-
babilidad a 0, es decir:
lim
a!1
1([T
a
0[ < -) = 1 \- 0
Una condicin suciente para ello es que 1(T
a
) 0 y \ ar(T
a
) 0 cuando : .
Ejemplo 17 A es consistente para 1(A) = j cualquiera que sea A. Pues 1
_
A
_
= j
y \ ar
_
A
_
= o
2
,: 0
Ejemplo 18 En particular, si A es dc Bernoulli entonces A (la frecuencia relativa) es
consistente para la probabilidad j.
Ejemplo 19 o
2
es consistente para \ ar(A) = o
2
cualquiera que sea A. Pues 1(o
2
) =
o
2
y \ ar(o
2
) 0 si : .
Ejemplo 20 (cont. del 13) Si A tiene densidad exponencial de parmetro ` entonces
T =
: 1
:
1
A
es insesgado para `. Se prueba que
\ ar
_
1
A
_
=
:
2
(: 1)
2
(: 2)
`
2
5.10. EL MTODO DE MXIMA VEROSIMILITUD 123
y entonces
\ ar
_
: 1
:
1
A
_
=
`
2
: 2
y resulta que el estimador T es consistente para `.
5.10 El mtodo de mxima verosimilitud
Sea una Va A con densidad o masa )(r [ 0) de forma conocida, que depende de un
parmetro desconocido 0 _ R, y sea x = (r
1
, r
2
, ..., r
a
) la muestra observada. La
densidad o masa de probabilidad que le corresponde es (por la independencia)
)(x [ 0) =

)(r
i
[ 0)
aunque no podemos calcular su valor pues desconocemos el de 0. Desde el punto de vista
del problema de estimacin la consideraremos como una funcin de 0 en la que los r
i
de
la muestra son nmeros jados.
Denicin 10 Se llama funcin de verosimilitud a la funcin
1(0 [ x) =

)(r
i
[ 0) 0
Denicin 11 El metodo de mxima verosimilitud
4
(abrev. MV) consiste en elegir
como estimacin de 0, el

0 tal que
1
_

0 [ x
_
= max
02
1(0 [ r
1
, r
2
, ..., r
a
)
Intuitivamente el mtodo elige como estimacin el valor del parmetro que da mayor
probabilidad a la muestra observada. Como es natural el valor de la estimacin depende
de los nmeros de la muestra

0 =

0 (x)
En el muestreo resulta un estimador

0 (X), donde X = (A
1
, A
2
, ..., A
a
), llamado
de MV y cuyas propiedades estudiaremos en una seccin posterior.
Ejemplo 21 Sea una Va de Bernoulli, es decir con funcin de masa ) (r [ j) = j
a
(1 j)
1a
para r = 0, 1 y donde j (0, 1). Si se ha obtenido la muestra x =(1110101110),
su probabilidad es 1(j [ x) = [) (1 [ j)]
7
[) (0 [ j)]
3
= j
7
(1 j)
3
, que es mxima para
j = 0.7
4
En ingls maximum likelihood
124 5. ESTIMACIN
0 0.2 0.4 0.6 0.7 0.8 1
0
0.5
1
1.5
2
2.5
x 10
-3
p
L(p)
probabilidad del resultado observado para diferentes valores de j
Ejemplo 22 Sea A con densidad uniforme )(r [ 0) = 1,0 (0 < r < 0). La verosimilitud
es 1(0 [ x) = (1,0)
a
y alcanza su mximo cuando 0 es mnimo. Pero 0 no puede ser
menor que la mayor observacin de la muestra, as que

0 (x) = max(r
1
, r
2
, ..., r
a
).
En la prctica, al estar denida 1 como un producto, suele ser ms cmodo maximizar
ln1, ya que al ser el logaritmo una funcin montona, alcanza sus valores extremos en
los mismos puntos que 1, es decir
1(0
1
[ x) < 1(0
2
[ x) ==ln1(0
1
[ x) < ln1(0
2
[ x)
por lo tanto
ln1
_

0 [ x
_
= max
02
ln1(0 [ r
1
, r
2
, ..., r
a
)
Si 1 es diferenciable, el mximo, si existe, ser una solucin

0 de
0
00
ln1(0 [ x) = 0
5.10. EL MTODO DE MXIMA VEROSIMILITUD 125
si adems
_
0
2
00
2
ln1(0 [ x)
_
0=
b
0
< 0
Ejemplo 23 Si A es de Bernoulli, con funcin de masa ) (r [ j) = j
a
(1 j)
1a
para
r 0, 1, y j (0, 1)
1(j [ x) =

j
a
i
(1 j)
1a
i
= j
P
a
i
(1 j)
a
P
a
i
ln1(j [ x) =

r
i
lnj +
_
:

r
i
_
ln(1 j)
0
0j
ln1(j [ x) =
1
j

r
i

1
1 j
_
:

r
i
_
=
:r
j

:(1 r)
1 j
= 0
Si r = 0 r = 1 (si todos los r
i
fuesen iguales a 0 a 1, lo que no es imposible) no hay
solucin. En otro caso la solucin es
j = r
(frecuencia relativa de xitos en la muestra) que corresponde a un mximo, pues
0
2
0j
2
ln1 =
:r
j
2

:(1 r)
(1 j)
2
< 0 \j
El estimador es j (X) = A.
Ejemplo 24 Sea A con densidad exponencial ) (r [ `) = `exp(`r) para r 0 (con
` 0). Obtengamos el estimador MV de `.
1(` [ x) =

`exp(`r
i
)
= `
a
exp
_
`

r
i
_
d ln1(` [ x)
d`
=
:
`

r
i
= 0
cuya solucin es

` =
:

r
i
=
1
r
126 5. ESTIMACIN
que corresponde a un mximo pues
d
2
ln1(`)
d`
2
=
:
`
2
< 0 \`
El estimador es

`(X) = 1,A, que es sesgado (ejemplo 13).
Teorema 3 (invariacin) Sea una funcin cualquiera / : R. Si

0 (X) es el
estimador MV de 0, entonces /(

0 (X)) lo es de /(0).
Ejemplo 25 Si A es de Bernoulli el estimador MV de 1 (A) = j es A. Entonces el
de \ ar(A) = j(1 j) es A(1 A).
Mientras que A es insesgado para j, A(1 A) es sesgado para j (1 j):
1
_
A(1 A)
_
=
: 1
:
j (1 j)
y el sesgo vale j (1 j) ,:.
Ejemplo 26 Si A tiene densidad exponencial de parmetro `, el estimador MV de `
es 1,A y el de 1 (A) = 1,` es A.
Mientras que A es insesgado para 1,`, 1,A es sesgado para 1,`.
En los ejemplos se ve que los estimadores MV no tienen por qu ser insesgados ni
eciente, aunque se prueba que el estimador eciente, si existe, coincide con el de mxima
verosimilitud. Sin embargo tienen buenas propiedades asintticas (para tamaos de
muestra grandes) que se resumen en el siguiente:
Teorema 4 Sea

0 (X) el estimador MV del parmetro 0 para un tamao de muestra
:. En condiciones muy generales el estimador es consistente. Adems la funcin de
distribucin de

0 (X) 0
_
1
:1(0)
converge, cuando : , a la (0, 1).
El resultado anterior vale an si se sustituye (estima) 1(0) por 1(

0 (X)).
Ejemplo 27 Si A es de Bernoulli el estimador MV de j es j (X) = A y 1 (j) =
[j(1 j)]
1
. Entonces:
A j
_
j(1 j),:
(0, 1) si :
5.10. EL MTODO DE MXIMA VEROSIMILITUD 127
Y an, como 1( j (X)) =
_
A(1 A)

1
:
A j
_
A(1 A),:
(0, 1) si :
5.10.1 Generalizacin
Si la densidad o masa )(r [ ) de A depende de un nmero nito de parmetros
desconocidos = (0
1
, 0
2
, ..., 0
I
) _ R
I
se ha de hallar el

tal que
1
_

[ x
_
= max
2
1( [ x)
Si 1 es diferenciable, el mximo, si existe, satisfar el sistema de ecuaciones (que
puede no ser lineal y debe resolverse numricamente):
0
00
)
ln1( [ x) = 0 , = 1, 2, ..., /
Una solucin

de dicho sistema corresponder a un mximo si la matriz hessiana
H =
_
0
2
00
i
00
)
ln1( [ x)
_
II
particularizada en =

es denida negativa.
Ejemplo 28 Sea A normal (j, o) siendo ambos parmetros desconocidos.
1(j, o) =
1
_
o
_
2
_
a
exp
_

1
2o
2

(r
i
j)
2
_
ln1(j, o) = :lno :ln
_
2
1
2o
2

(r
i
j)
2
igualando a cero la derivadas primeras resulta el sistema
0
0j
ln1 =
1
o
2

(r
i
j) = 0
0
0o
ln1 =
:
o
+
1
o
3

(r
i
j)
2
= 0
128 5. ESTIMACIN
con solucin
j = r
o =
_
1
:

(r
i
r)
2
Para comprobar que corresponde a un mximo formamos la matriz hessiana
H =
_
_
_
_
0
2
0j
2
ln1
0
2
0j0o
ln1
0
2
0j0o
ln1
0
2
0o
2
ln1
_
_
_
_
=
_
_
_

:
o
2
2

(r
i
j)
o
3
2

(r
i
j)
o
3
1
o
2
_
:
3
o
2

(r
i
j)
2
_
_
_
_
y particularizando (j, o) en ( j, o):
H =
_
_
_
_
:
2

(r
i
r)
2
0
0
2:
2

(r
i
r)
2
_
_
_
_
y como /
11
< 0 y det H 0 (una matriz es denida negativa si los menores principales
alternan en signo, con signo negativo si la dimensin es impar y positivo si par) la
solucin corresponde a un mximo.
Los estimadores son A (insesgado) y
_
1
a

(A
i
A)
2
(sesgado).
Teorema 5 (invariacin) Sea = (0
1
, ..., 0
I
) y una funcin cualquiera / :
R
)
(1 _ , _ /). Si

(X) es el estimador MV de , entonces /(

(X)) lo es de /().
Hay una generalizacin del Teorema 4 que no vamos a estudiar aqu.
5.11 El mtodo de los momentos
Se llama a 1
_
A
i
_
el momento terico de orden i de la Va A. Por brevedad usaremos
la notacin :
i
= 1
_
A
i
_
. En particular :
1
= 1 (A).
Y si (A
1
, A
2
, ..., A
a
) es una muestra aleatoria de A se llama a

i
=
1
:
a

)=1
(A
)
)
i
el momento muestral de orden i. En particular
1
= A.
5.11. EL MTODO DE LOS MOMENTOS 129
Los momentos muestrales
i
son insesgados y consistentes para los tericos :
i
. Es
decir, 1(
i
) = :
i
y se prueba que \ ar(
i
) = (:
2i
:
2
i
),: 0 si : .
El mtodo de los momentos para obtener un estimador

0 (X) de un parmetro 0
es muy simple: el estimador es la solucin obtenida (supuesto que exista) igualando
momentos muestrales a poblacionales.
Si slo hay un parmetro 0 :
1. se calcula 1 (A) = q (0)
2. se resuelve 0 = q
1
(1 (A))
3. se hace

0 (X) = q
1
_
A
_
Ejemplo 29 Si A tiene densidad ) (r) = `exp(`r) entonces 1 (A) = 1,` y re-
solviendo se obtiene ` = 1,1 (A) y nalmente

`(X) = 1,A.
Si hay / parmetros = (0
1
, 0
2
, ..0
I
)
1. se calculan / momentos :
i
= q
i
() (i = 1, 2, ../)
2. se resuelven (supuesta solucin nica) 0
i
= /
i
(:
1
, :
2
, ...:
I
)
3. lo que resulta en

0
i
(X) = /
i
(
1
,
2
, ...,
I
)
Puede probarse entonces que si / : R
I
R es una funcin continua, entonces

0 (X)
es un estimador consistente, con distribucin asintticamente normal.
Ejemplo 30 Sea A cualquiera, con 1(A) = j y \ ar(A) = o
2
. Entonces j(X) = A.
Y como o
2
= \ ar(A) = 1(A
2
) (1(A))
2
, entonces

o
2
(X) = :
1

(A
i
)
2
(A)
2
=
:
1

(A
i
A)
2
.
Ejemplo 31 Si A tiene densidad uniforme en (a, /) es 1(A) = (a +/),2 y \ ar(A) =
(/ a)
2
,12. De aqu resulta que a = 1(A)
_
3\ ar(A) y / = 1(A) +
_
3\ ar(A).
Entonces:
a (X) = A
_
3
:

(A
i
A)
2

/ (X) = A +
_
3
:

(A
i
A)
2
130 5. ESTIMACIN
Estos estimadores pueden servir tambin para tener un valor inicial en la bsqueda del
estimador de mxima verosimilitud cuando el problema de optimizacin ha de resolverse
por mtodos numricos
5.12 Muestreo sin reemplazamiento
Cuando se muestrea una poblacin nita de tamao el muestreo suele hacerse
sin reemplazamiento lo que resulta en que la muestra (A
1
, A
2
, ..., A
a
) no es simple: sus
elementos A
i
no son independientes y, en general, no tienen igual distribucin.
Sea como sea todas las deniciones y principios de estimacin que se han estudiado
antes siguen vigentes y lo nico que cambia es el modo de calcularlos, que era muy
sencillo y general cuando las A
i
eran independientes y con idntica distribucin, y que
ahora hay que resolver cada vez.
Ejemplo 32 (Control de calidad) Cada una de las piezas de un lote numeroso
es defectuosa o no (anotado con 1 y 0 respectivamente). En total hay r = j son
defectuosas e interesa averiguar la fraccin desconocida (0 < j < 1) de defectuosas. Se
eligen : piezas al azar y sin reemplazamiento resultando la muestra (A
1
, A
2
, ..., A
a
)
donde A
i
es la calidad de la i-sima pieza.
Obviamente la A
i
no son independientes. Sin embargo sus distribuciones marginales
son idnticas.
1 (A
1
= 1) = j
1 (A
2
= 1) = 1 (A
2
= 1 [ A
1
= 0) 1 (A
1
= 0) +1 (A
2
= 1 [ A
1
= 1) 1 (A
1
= 1)
=
r
1
r

+
r 1
1
r

=
r r
( 1)
=
r

= j
y por induccin 1 (A
i
= 1) = j.
Consideremos el estadstico A =

a
i=1
A
i
, nmero total de defectuosas obtenidas.
Entonces
1 (A) =

1 (A
i
) = :j
(como en la binomial), aunque las A
i
no son independientes.
5.12. MUESTREO SIN REEMPLAZAMIENTO 131
Por lo tanto un estimador insesgado de j es la proporcin experimental
j =
A
:
y un estimador insesgado de r es
r =
A
:

Por su parte la estimacin MV de r es el entero r que maximiza
1 (A = r) =
_
r
r
__
r
: r
_
_

:
_ 0 _ r _ min(:, r)
es decir que maximiza
_
r
r
__
r
: r
_
y se prueba que resulta como estimador el mayor entero menor o igual que
A
:
( + 1)
que es sesgado.
Las varianzas de dichos estimadores se calculan a partir de que
\ ar (A) = :j (1 j)
_
1
: 1
1
_
que adems si : vale aproximadamente :j (1 j).
Ejemplo 33 (El problema de los tanques alemanes) Consideremos una poblacin
cuyo tamao (nmero de elementos) es desconocido y ha de ser estimado. Suponemos
adems que cada individuo est identicado por un nmero, desde el 1 hasta el . Se
eligen : individuos al azar y sin reemplazamiento (A
1
, A
2
, ..., A
a
). Cada A
i
es el nmero
de identicacin del individuo seleccionado.
Como en el anterior ejemplo, obviamente la A
i
no son independientes y sin embargo
sus distribuciones marginales son idnticas.
1 (A
1
= /) =
1

/ = 1, 2, ...
132 5. ESTIMACIN
1 (A
2
= /) =
.

)=1
1 (A
2
= / [ A
1
= ,) 1 (1
1
= ,)
=
.

)=1
)6=I
1 (A
2
= / [ A
1
= ,) 1 (A
1
= ,)
=
.

)=1
)6=I
1
1
1

=
1

y por induccin 1 (A
i
= /) = 1,.
Consideremos el estadstico A
(a)
= max (A
1
, A
2
, ..., A
a
). Se prueba (ver Comple-
mentos) que
1
_
A
(a)
_
= :
+ 1
: + 1
y entonces un estimador insesgado de es

=
: + 1
:
A
(a)
1
Se prueba adems que su varianza (mnima) es
\ ar
_

_
=
1
:
( :) ( + 1)
: + 2
Puede probarse que el estimador MV de : es A
(a)
y por lo tanto es sesgado.
El problema se conoce en la literatura estadstica como el problema de los tanques
alemanes debido a su aplicacin para estimar cuntos estaban produciendo durante la
segunda guerra mundial:
Segn las informaciones del espionaje aliado los alemanes estaban produciendo unos
1400 tanques al mes entre junio de 1940 y septiembre de 1942. Sin embargo usando el
estimador

con los nmeros de serie de las cajas de cambio de los tanques capturados
o destruidos el nmero estimado era 256 al mes. Despus de la guerra, cuando se
obtuvieron los datos reales de produccin, el nmero result ser 255 (los soviticos haban
llegado por su parte a una estimacin similar).
5.13. EJERCICIOS PROPUESTOS 133
5.13 Ejercicios propuestos
1. A
n
y A
a
son las medias de muestras independientes de tamaos : y : de una Va
A. Construya con ellas la media de la muestra total de tamao :+:.
2. Calcule la esperanza del estadstico
o
2
0
=
1
:
a

i=1
_
A
i
A
_
2
3. En la muestra (r
1
, r
2
, ..., r
a
) de la Va discreta A han aparecido los valores distintos
(a
1
, a
2
, ..., a
I
) cada uno repetido (:
1
, :
2
, ..., :
I
) veces respectivamente (obviamente

I
i=1
:
i
= :). Expresar r y :
2
por medio de la muestra agrupada.
4. El nmero de defectos en probetas de 1 cm
2
de cierta aleacin es una variable
aleatoria A. Se examinan 20 probetas en busca de defectos, con los resultados
defectos 0 1 2 3 4 5 6
probetas 4 3 5 2 4 1 1 = 20
a) calcule la media y la desviacin tpica de la muestra. b) en otra muestra de 10
probetas result r = 1.4 defectos/cm
2
. calcule la media de la muestra total de 30
probetas.
5. Cada medida del radio r de un crculo es de la forma A = r + l, donde l es la
variable aleatoria error de medida, con 1(l) = 0 y \ ar(l) = o
2
desconocida.
Entonces un estimador insesgado de r es A, construido a partir de : medidas
independientes. a) Comprobar que A
2
es sesgado para r
2
. b) Construir a partir
de l un estimador insesgado del rea del crculo.
6. Sean T
1
y T
2
estimadores independientes insesgados de 0. Entonces (ver ejemplo
10) T = cT
1
+ (1 c) T
2
es tambin insesgado \c. Hallar c para que \ ar (T)
sea mnima si \ ar (T
1
) = o
2
1
y \ ar (T
2
) = o
2
2
(los estimadores tienen diferente
precisin).
7. (cont.) Particularice para el caso en que T
1
= A
n
y T
2
= A
a
(medias muestrales
de tamaos : y : de una poblacin A con 1 (A) = j y \ ar (A) = o
2
.
8. La resistencia a la rotura de cierto tipo de cables de acero, expresada en Kg, se
supone que es una VA A ~ (j, o). Una muestra de 5 cables ha dado los valores
(533, 552, 539, 564, 541). Obtener las estimaciones de MV de j y o.
134 5. ESTIMACIN
9. Sean A
i
variables aleatorias uniformes en (0, ,2). Comprobar que

1 (X) =

2:
a

i=1
sinA
i
es un estimador insesgado de
1 =
_
2
0
sinrdr
10. Sea una Va A geomtrica de parmetro j. Su funcin de masa es
)(r) = (1 j)
a1
j r = 1, 2, ...
y se prueba que 1(A) = j
1
. Hallar los estimadores MV de j y de 1(A) a partir
de una muestra de tamao :.
11. Sea una Va A de Poisson de parmetro `. Su funcin de masa es
)(r) = c
A
`
a
r!
r = 0, 1, ...
y se prueba que 1(A) = \ ar(A) = `. Hallar el estimador MV de ` con una
muestra de tamao : y comprobar que su varianza alcanza la cota FCR.
12. En cierto proceso industrial el nmero de paradas mensuales por avera es una Va
de Poisson de parmetro `. Si A representa el nmero de paradas en un mes, el
coste provocado es C = 3A + A
2
. Hallar el estimador MV del coste promedio
1 (C) a partir de : observaciones independientes de A, comprobar que es sesgado
y corregirlo para que sea insesgado.
13. Si A tiene densidad exponencial )(r) = `exp(`r) si r 0, el estimador MV de
1(A) = 1,` con una muestra de tamao : es A. Obtenga el estimador MV de
\ ar(A) = 1,`
2
, compruebe que es sesgado y corrija su sesgo.
14. La variable A tiene una funcin de distribucin 1 (r) = 1 exp
_

a
2
2o
2
_
r
0 (de Rayleigh) y su esperanza es 1 (A) = o
_

2
. a) Halle la estimacin de
mxima verosimilitud de o con una muestra (r
1
, r
2
, ..., r
a
) . b) halle la estimacin
de mxima verosimilitud de 1 (A) c) halle la estimaciones de o y 1 (A) por el
mtodo de los momentos d) Calcule las estimaciones anteriores con la muestra
(2.5, 3.5, 2.1, 5.6, 2.2, 2.6, 3.1, 4.5, 3.5, 1.4).
5.13. EJERCICIOS PROPUESTOS 135
15. Una Va gamma de parmetros 0 y ` tiene densidad
)(r) =
`
0
(0)
r
01
c
Aa
r 0
y su esperanza y varianza son
1(A) =
0
`
\ ar(A) =
0
`
2
No hay un solucin explcita para las estimaciones MV de los parmetros, que
deben obtenerse numricamente. Estime los parmetros por el mtodo de los
momentos a partir de la muestra (22.60, 8.59, 28.91, 10.96, 10.63, 14.33, 23.06,
12.66, 15.05, 11.14, 19.50, 9.95).
16. Invariacin funcional Sea A con densidad ) (r [ 0) y sea 1 = q (A) con q
montona y que no depende de 0. Entonces (ver 2.11.1 frmula (2.19))
)
Y
(j [ 0) =

_
q
1
_
0
(j)

)
A
(q
1
(j) [ 0)
y resulta que la funcin de verosimilitud de 1 slo se diferencia de la de A por el
factor

_
q
1
_
0
(j)

: la estimacin de MV de 0 es la misma con la muestra de A que


con la de 1 .
Si 1 ~ 1(j, o) (lognormal de parmetros j y o), es decir A = ln1 ~ (j, o).
La densidad de 1 es
)(j) =
1
jo
_
2
exp
_

(lnj j)
2
2o
2
_
j 0
y se prueba que
1(1 ) = exp(j +o
2
,2)
\ ar(1 ) = exp(2j +o
2
)(expo
2
1)
Halle los estimadores MV de 1 (1 ) y \ ar (1 ) a partir de una muestra (1
1
, 1
2
, ..., 1
a
)
aplicando las propiedades de invariacin anterior y teorema 5.
17. El control de recepcin de ciertas piezas se realiza clasicandolas en pequeas,
normales y grandes, siendo las proporciones aceptables en cada caso j
1
= j
3
=
136 5. ESTIMACIN
0.025, j
2
= 0.95 . Se sospecha que estas proporciones pueden haber cambiado en
la forma j
1
= j
3
= 0.025 + ., j
2
= 0.95 2.. Se decide analizar 5000 piezas
obteniendose r
1
= 278, r
2
= 4428 y r
3
= 294. Obtener la estimacin MV de ..
(sugerencia: maximice la probabilidad de la muestra observada).
18. La duracin A, en horas, de ciertos componentes sigue una densidad exponencial de
parmetro `. De una muestra aleatoria de 10 componentes se sabe que 6 duraron
menos de 85 h y 4 ms. a) Obtener la estimacin MV de la vida media. b)
idem para la 1(A 100). (sugerencia: maximice la probabilidad de la muestra
observada).
19. Sea una muestra aleatoria (A
1
, A
2
, ..., A
a
) de una Va A con ) desconocida. Se
desea estimar 1(A) y para ello vamos a utilizar deliberadamente un estimador de
la forma T =

`
i
A
i
. Halle los `
i
que hacen el estimador insesgado y de varianza
mnima. (sugerencia: minimice la varianza sujeta a la condicin de insesgamiento
usando los multiplicadores de Lagrange).
6
Intervalos
6.1 Intervalos de conanza
Un estimador T de un parmetro desconocido 0 proporciona al calcularlo con la
muestra particular un valor aproximado t, pero no da informacin sobre el error [t 0[.
Una solucin a este problema son los intervalos de conanza.
Denicin 1 Sea una Va A con densidad )(r [ 0) siendo el parmetro 0 desconocido.
Si T
1
y T
2
son estadsticos tales que:
1(T
1
< 0 < T
2
) = 1 c
se llama a (T
1
, T
2
) un intervalo aleatorio para 0 de probabilidad
1
1 c.
Cada realizacin (t
1
, t
2
) con una muestra particular se llama un intervalo para 0
de conanza 1 c.
Diferentes muestras producirn diferentes realizaciones (t
1
, t
2
) y, a la larga, en el
100 (1 c) % de los intervalos as construidos se realizar el suceso 0 (T
1
, T
2
).
Antes de obtener la muestra y calcular el valor del intervalo hay una probabilidad
1 c de que incluya a 0, pero despus de obtener la muestra, (t
1
, t
2
) incluir o no a
0, lo que nos ser desconocido, y expresaremos nuestra conviccin al respecto diciendo
que hay una conanza 1 c de que lo incluya. Un intervalo ser tanto ms provechoso
cuanto mayor sea 1 c y menor longitud tenga.
1
Denotar la probabilidad con 1 en lugar de con una nica letra, como p tiene una ventaja
que se apreciar ms adelante cuando se presenten las pruebas de hiptesis.
137
138 6. INTERVALOS
Ejemplo 1 Si A ~ (j, o) entonces A ~ (j, o,
_
:) pues es una combinacin lineal
de Vas normales independientes (proposicin 1 de 4.1) y cuya esperanza y varianza se
dedujeron en 5.3. Por lo tanto
Aj
o
p
a
~ (0, 1) y vale entonces
1
_
1.96 <
A j
o,
_
:
< 1.96
_
= 0.95
que puede reescribirse (vea el ejemplo 2)
1
_
A 1.96
o
_
:
< j < A + 1.96
o
_
:
_
= 0.95
Aqu
_
A 1.96
o
p
a
, A + 1.96
o
p
a
_
es un intervalo aleatorio para j: a la larga el 95%
de sus valores
_
r 1.96
o
p
a
, r + 1.96
o
p
a
_
calculados con diferentes muestras realizarn
el suceso (incluirn a j).
Si, por ejemplo, A ~ (j, 3) y la muestra es (1.2, 3.4, 0.6, 5.6) entonces
r = 2.7
2.7 1.96
3
_
4
= 0.24
2.7 + 1.96
3
_
4
= 5.64
y ahora decimos que j (0.24, 5.64) con una conanza del 95%.
Si se desea aumentar la conanza al 99%, de
1
_
2.58 <
A j
o,
_
:
< 2.58
_
= 0.99
resulta j (1.17, 6.57) con una conanza del 99%.
Denicin 2 (Mtodo Pivotal) El mtodo para construir intervalos de conanza que
vamos a usar, llamado pivotal, se basa en una variable aleatoria (llamada pivote) ade-
cuada a cada problema, sea q (T, 0), tal que:
1) es una funcin de un estadstico T y de 0.
2) en cuanto funcin de 0 es continua y montona.
3) su distribucin de probabilidades es completamente conocida (no depende de 0).
Entonces jado 1c (generalmente 0.95 0.99) pueden calcularse con dicha distribucin
6.1. INTERVALOS DE CONFIANZA 139
nmeros a y / tales que
1 (a < q (T, 0) < /) = 1 c
y de aqu, despejando 0, lo que es posible ya que q es biunvoca respecto de 0, resultar
un intervalo
1 (T
1
< 0 < T
2
) = 1 c
En general habr innitos (a, /) que contengan probabilidad 1 c, y generalmente se
elige el que da
1 (q (T, 0) < a) = 1 (q (T, 0) /) =
c
2
Ejemplo 2 (cont.) Si A ~ (j, o) y o es conocida entonces
q
_
A, j
_
=
A j
o,
_
:
es una variable pivote, pues es montona en j y con distribucin (0, 1). Fijado 1 c
se conoce el nmero n
1c2
tal que
_
n
1c2
_
= 1 c,2 y
_
n
1c2
_
= c,2 y
1
_
n
1c2
<
A j
o,
_
:
< n
1c2
_
= 1 c (6.1)
y despejando j
1
_
+n
1c2

A +j
o,
_
:
n
1c2
_
= 1
_
A +n
1c2
o
_
:
j A n
1c2
o
_
:
_
pues al multiplicar por 1 la desigualdad cambia de sentido. Reescribiendo la ltima en
el orden natural
1
_
A n
1c2
o
_
:
< j < A +n
1c2
o
_
:
_
= 1 c
Ahora, si en la muestra particular se obtiene el valor r de A, un intervalo de con-
anza 1 c para j es
j
_
r n
1c2
o
_
:
_
Tambin puede interesar calcular un lmite inferior superior para 0 (o intervalos
unilaterales, mientras que los anteriores son bilaterales):
140 6. INTERVALOS
Denicin 3 Si T es un estadstico tal que
1(T < 0) = 1 c
T es un lmite inferior para 0 de probabilidad 1 c. Cada realizacin t es un
lmite inferior para 0 de conanza 1 c.
Y si
1(0 < T) = 1 c
T es un lmite superior para 0 de probabilidad 1 c. Cada realizacin t es un
lmite superior para 0 de conanza 1 c.
El clculo se har como en el caso bilateral mediante la variable pivote.
Ejemplo 3 (cont.) un lmite superior de conanza 1 c para j es evidentemente
j < r +n
1c
o
p
a
. Si se elige 1 c = 0.95, es n
0.95
- 1.64 y con la muestra del ejemplo
1 resulta 2.7 + 1.64
3
p
4
= 5.16 concluyndose que j < 5.16 con una conanza del 95%.
6.2 Intervalos para la normal
6.2.1 Intervalos para
Como ya se sabe (ejemplo 2) una variable pivote para j cuando o es conocida es
A j
o,
_
:
~ (0, 1)
y el intervalo de conanza 1 c resulta
j
_
r n
1c2
o
_
:
_
Sin embargo, cuando o es desconocida, el intervalo anterior es inutil pues no se
puede calcular su valor. La idea natural es modicar la variable pivote sustituyendo el
o desconocido por su estimador o (la desviacin tpica muestral) y la consecuencia es
(ver Complementos) que la nueva variable, que ya no es (0, 1), sin embargo tambin
tiene una densidad de probabilidad completamente conocida, llamada t de Student de
parmetro (: 1)
A j
o,
_
:
~ t (: 1)
6.2. INTERVALOS PARA LA NORMAL 141
Para nuestro propsito basta saber que las densidades de Student dependen de un
parmetro /, sea t (/), y tienen forma simtrica alrededor del origen, con mximo en 0
y decreciendo asintticamente para t = , tanto ms rpidamente cuanto mayor sea
/. Adems
lim
I!1
)(t) =
1
_
2
c

1
2
t
2
es decir, la densidad normal de media 0 y varianza 1. El clculo de probabilidades
con dicha densidad se realiza aproximando numricamente las integrales. Para nuestras
aplicaciones nos serviremos de la tabla III en la que se dan, para algunos valores de c
y del parmetro /, los cuantiles t
c
, es decir 1(T < t
c
) = c; tngase en cuenta adems
que, de la simetra respecto al origen, 1(T < t) = 1 1(T < t).
-5 0 5
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
N(0,1)
Student(5)
Densidades Student(5) y (0, 1)
142 6. INTERVALOS
Fijada una probabilidad 1 c se conoce entonces el cuantil t
1c2
tal que
1
_
t
1c2
<
A j
o,
_
:
< t
1c2
_
= 1 c (6.2)
y despejando j
1
_
t
1c2

A +j
o,
_
:
t
1c2
_
= 1
_
A +t
1c2
o
_
:
j A t
1c2
o
_
:
_
pues al multiplicar por 1 la desigualdad cambia de sentido. Reescribiendo la ltima en
el orden natural
1
_
A t
1c2
o
_
:
< j < A +t
1c2
o
_
:
_
= 1 c
Ahora, si en la muestra particular se obtienen los valores r de A y : de o, un intervalo
de conanza 1 c para j es
2 3
j
_
r t
1c2
:
_
:
_
Anlogamente se obtienen los lmites superior e inferior
j < r +t
1c
:
_
:
j r t
1c
:
_
:
Ejemplo 4 Se dispone de la muestra (18, 22, 21, 23, 21, 22, 21, 21, 18, 19) de medidas de
la concentracin de arsnico en jg/L en un agua para consumo. Aceptando vlido un
modelo A ~ (j, o), construyamos un intervalo de conanza 1 c = 0.95 para j.
La estimacin del valor medio j es
r =
1
:

r
i
=
206
10
= 20.6 jg/L
2
Muchos de estos intervalos estn recogidos en las Normas Industriales. Por ejemplo ste para
corresponde a la UNE 66040:2003 (ISO 2602:1980)
3
En Metrologa (ver p.e. www.cem.es y The NIST Reference on Constants, Units and Uncertainty
www.nist.gov) la notacin habitual es simplemente: (x s=
p
n) U.
6.2. INTERVALOS PARA LA NORMAL 143
la estimacin de o
2
es
:
2
=
1
: 1

(r
i
r)
2
=
1
: 1
_

r
2
i

1
:
_

r
i
_
2
_
=
1
9
_
4270
1
10
206
2
_
= 2.9333
y la de o
: =
_
2.9333 = 1.7127 jg/L
En la distribucin de Student de parmetro : 1 = 9 es t
1c2
= t
0.975
= 2.2622, as
que
t
1c2
:
_
:
= 2.2622
1.7127
_
10
= 1.2252
es decir, con una conanza del 95%
j (20.6 1.23) jg/L
Ejemplo 5 (cont) Obtengamos ahora un lmite superior. Con 1 c = 0.95 en la dis-
tribucin de Student de parmetro : 1 = 9 es t
1c
= t
0.95
= 1.8331, as que
r +t
1c
:
_
:
= 20.6 + 1.8331
1.7127
_
10
= 21.593
es decir, con una conanza del 95% es
j < 21.6 jg/L
6.2.2 Tamaos de muestra
En el caso o conocida la frmula (6.1) puede reescribirse
1
_

A j

< n
1c2
o
_
:
_
= 1 c
mostrando que
- = n
1c2
o
_
:
es una cota del error de aproximacin

A j

. Es decir, con conanza 1 c el error


cometido al aproximar j por r es inferior a -.
Es sencillo ahora responder a: qu tamao : de muestra hay que utilizar para, con
144 6. INTERVALOS
conanza 1 c, aproximar j con un error menor que - dado?
- = n
1c2
o
_
:
: =
_
n
1c2
o
-
_
2
Ejemplo 6 (cont. del 1) Con A ~ (j, 3) y la muestra de tamao 4 se estim j por
r = 2.7 con una cota de error - = 1.96
3
p
4
= 2.94 para la conanza del 95%, es decir
j (2.7 2.94) con dicha conanza. Si se deseamos aproximar con una cota - = 1.5 se
necesita utilizar una muestra de tamao
: =
_
1.96
3
1.5
_
2
= 15.3664
es decir, la media r de una muestra de 16 observaciones aproximar j con un error
menor que 1.5 y conanza del 95%.
Sin embargo en el caso o desconocida de la frmula (6.2)
1
_

A j

< t
1c2
o
_
:
_
= 1 c
y la cota del error de estimacin
- = t
1c2
o
_
:
es aleatoria (depende de los valores de la muestra). Sin embargo en la prctica, si se
trabaja con muestras relativamente grandes
4
, los valores de o sern a su vez
relativamente estables (recurdese que o converge en probabilidad a o) y, basndose
en la experiencia previa o en una muestra piloto, se tendr una idea de su orden de
magnitud, digamos un valor aproximado :
0
. Y como adems entonces t
1c2
n
1c2
se tiene que el tamao : de muestra que hay que utilizar para, con conanza 1 c,
aproximar j con un error menor que - dado es del orden de
: =
_
n
1c2
:
0
-
_
2
4
Este argumento se utiliza en los llamados mtodos de Monte-Carlo.
6.2. INTERVALOS PARA LA NORMAL 145
6.2.3 Intervalos para
Sea o
2
la varianza muestral, estimador de o
2
. Una variable pivote, con densidad
ji-cuadrado de parmetro (: 1) es (ver Complementos):
(: 1)o
2
o
2
~
2
(: 1)
Fijada una probabilidad 1 c se conocen los cuantiles
2
c2
y
2
1c2
(las densidades
ji-cuadrado no son simtricas) tales que
1
_

2
c2
<
(: 1)o
2
o
2
<
2
1c2
_
= 1 c
y despejando o
1
_
1

2
c2

o
2
(: 1)o
2

1

2
1c2
_
= 1
_
o
_
: 1

2
c2
o o
_
: 1

2
1c2
_
pues al tomar el recproco la desigualdad cambia de sentido. Reescribiendo la ltima en
el orden natural
1
_
o
_
: 1

2
1c2
< o < o
_
: 1

2
c2
_
= 1 c
Ahora, si en la muestra particular se obtiene el valor : de o, un intervalo de conanza
1 c para o es
o
_
:
_
: 1

2
1c2
, :
_
: 1

2
c2
_
Ejemplo 7 (cont. del 4) la estimacin de o result
: = 1.7127 jg,1
Con 1 c = 0.95 en la distribucin ji-cuadrado de parmetro : 1 = 9 es
2
c2
=

2
0.025
= 2.7004 y
2
1c2
=
2
0.975
= 19.0228
:
_
: 1

2
1c2
= 1.7127
_
9
19.0228
= 1.1781
:
_
: 1

2
c2
= 1.7127
_
9
2.7004
= 3.1267
146 6. INTERVALOS
es decir, con una conanza del 95%
o (1.18, 3.13) jg,1
Analogamente se obtienen los lmites inferior y superior que resultan ser
o :
_
: 1

2
1c
o < :
_
: 1

2
c
Ejemplo 8 (cont.) Con 1c = 0.95 en la distribucin ji-cuadrado de parmetro :1 =
9 es
2
1c
=
2
0.95
= 16.9190
:
_
: 1

2
1c
= 1.7127
_
9
16.9190
= 1.2492
es decir, con una conanza del 95%
o 1.25 jg,1
6.3 Intervalos asintticos
Una variable pivote para 1 (A) = j si el tamao de muestra es suciente-
mente grande puede obtenerse por cualquiera de los dos argumentos siguientes:
1 Basada en el Teorema Central del Lmite (no paramtrica):
Cualquiera que sea la ley de A, con 1(A) = j y \ ar (A) = o
2
, segn el teorema de
4.3 es

A
i
:j
o
_
:
=
A j
o,
_
:
(0, 1) si :
Puede probarse
5
que si la o, generalmente desconocida, se sustituye por cualquier
estimador T que converja en probabilidad a o, la convergencia a la (0, 1) sigue siendo
cierta. As que
A j
T,
_
:
(0, 1) si :
es una variable pivote para j. El intervalo de probabilidad 1 c para j tiene la forma
5
En virtud del llamado lema de Slutsky.
6.3. INTERVALOS ASINTTICOS 147
general:
A n
1c2
T
_
:
Ejemplo 9 En particular, cualquiera que sea A, la desviacin tpica muestral o con-
verge en probabilidad a o (ejemplo 6 de 5.5) y
A n
1c2
o
_
:
es un intervalo de probabilidad 1 c para 1 (A) = j.
Ejemplo 10 Si A es de Poisson de parmetro ` es 1 (A) = \ ar (A) = ` (ver 4.5),
es decir, con la notacin de arriba j = ` y o =
_
` y por lo tanto
A `
_
`,:
(0, 1) si :
y ahora podemos sustituir el o =
_
` por cualquier estimador que converja en probabilidad
a
_
` y el ms eciente (mejor que o) es
_
A de manera que
A `
_
A,:
(0, 1) si :
y
A n
1c2
_
A
:
es un intervalo de probabilidad 1 c para `.
2 Basada en el estimador MV (paramtrica):
Si A tiene densidad o masa ) (r [ 0) y

0 (X) es el estimador MV de 0 construido con


una muestra aleatoria X = (A
1
, A
2
, ..., A
a
) entonces (Teorema 4 de 5.10):

0 (X) 0
_
1,
_
:1
_

0 (X)
__
(0, 1) si :
es una variable pivote para 0. El intervalo bilateral de probabilidad 1 c tiene la forma
general:

0 (X) n
1c2

_
1
:1
_

0 (X)
_
148 6. INTERVALOS
Ejemplo 11 (cont. del 10) Puede comprobarse (ejercicio 11 del captulo 5) que el in-
tervalo basado en el estimador MV de ` es idntico al obtenido antes.
En la prxima seccin tenemos la oportunidad de aplicar ambos argumentos.
6.4 Intervalos para p
Si A ~ 1(1, j), es decir 1(A = 1) = j y 1(A = 0) = 1 j, con 1 (A) = j
y \ ar (A) = j (1 j), y (A
1
, A
2
, ..., A
a
) una muestra aleatoria simple, el estimador
MV de j es A, que adems es insesgado y eciente. Para construir un intervalo de
conanza para j, cualquiera que sea el valor de :, no existe en este caso una Va pivote
y es preciso recurrir a un mtodo ms general
6
. Nosotros nos conformaremos con una
solucin aproximada vlida para : , que sin embargo tiene gran valor prctico como
veremos en la prxima seccin.
La variable pivote basada en el Teorema Central del Lmite (1 de la seccin anterior)
es
A j
o,
_
:
=
A j
_
A(1 A),:
(0, 1) si :
ya que (ver 5.4.2)
o =
_
:
: 1
A
_
1 A
_
-
_
A
_
1 A
_
si :
y adems coincide con la del estimador MV (2 de la seccin anterior; ver ejemplo 27 de
5.10).
El intervalo bilateral de probabilidad 1 c es
7
:
A n
1c2
_
A(1 A),: (6.3)
Como ya se dijo en 4.4 en la prctica suele aceptarse que la aproximacin es suciente
en cuanto min:j, :(1 j) 10, de modo que el caso ms favorable se tiene cuanto
ms prximo sea j a 1,2.
La longitud del intervalo resultante
- = n
1c2
_
A
_
1 A
_
,: (6.4)
6
Llamado de Clopper y Pearson.
7
Es posible an incluir una correccin de continuidad como se vi en 4.4 restando y sumando 1= (2n)
a los lmites inferior y superior respectivamente.
6.4. INTERVALOS PARA 1 149
es aleatoria. Sin embargo el mayor valor que puede tomar A
_
1 A
_
es 0.25 (cuando
A = 0.5) as que, para tener una longitud no mayor que - dada se necesita
: _
_
n
1c2
-
_
2
0.25
(pero siempre habr de ser sucientemente grande como para que valga la aproximacin
que justica el intervalo).
Ejemplo 12 con 1 c = 0.95 es n
0.975
= 1.96, si queremos - _ 0.02 resulta : =
(1.96,0.02)
2
0.25 = 2401 y si - _ 0.01 resulta : = (1.96,0.01)
2
0.25 = 9604.
6.4.1 Aplicacin al muestreo de poblaciones nitas
Sea una poblacin de individuos de los cuales j son de cierta clase (0 < j < 1
es su fraccin desconocida). Para estimar j tomaremos una muestra (A
1
, A
2
, ..., A
a
)
sin reemplazamiento. Cada A
i
vale 1 si el individuo seleccionado es de la clase de
inters y 0 en otro caso. Una estimacin insesgada de j es (ver ejemplo 32 de 5.12) la
proporcin experimental A =

A
i
,:.
Ahora deseamos construir un intervalo de conanza para j y veremos que para ello
se puede utilizar, bajo ciertas condiciones, el resultado de la seccin precedente
8
.
Dicho resultado se aplica a una muestra aleatoria (A
1
, A
2
, ..., A
a
) en la que 1 (A
i
= 1) =
j y las A
i
son independientes (muestra aleatoria simple; la distribucin de

A
i
es
binomial). Estas condiciones se vericaran si la muestra se hubiese tomado con reem-
plazamiento (cada individuo se devuelve a la poblacin para la siguiente extraccin).
Sin embargo en la muestra sin reemplazamiento, aunque sigue siendo cierto que
1 (A
i
= 1) = j, las A
i
no son independientes (ahora la distribucin de

A
i
es
hipergeomtrica). En particular las probabilidades condicionales no son iguales a la
incondicionales (como exige la independencia):
1
_
A
I+1
= 1 [
I

i=1
r
i
_
=
j

I
i=1
r
i
/
Sin embargo, con : ja
j

I
i=1
r
i
/
=
j

I
i=1
r
i
,
1 /,
j si
8
Un intervalo exacto para p, cualquiera que sean los valores de n y N, puede construirse con el mtodo
de Clopper y Pearson para la hipergeomtrica.
150 6. INTERVALOS
As que en esas condiciones (: << ; en la prctica se usa en cuanto : < 0.1)
las A
i
son practicamente independientes
9
. Si adems : es sucientemente grande este
argumento justica el uso del intervalo (6.3) para j cuando se muestrea sin reemplaza-
miento una poblacin nita, sea para estimar la calidad de un lote de piezas, sea para
realizar un sondeo de opinin.
Ejemplo 13 la mayor parte de los sondeos se realizan con 1 c = 0.95 y entonces
n
1c2
= n
0.975
= 1.96, y si se encuestan : = 1000 personas el error es menor que (caso
peor de (6.4) con A = 0.5)
- = 1.96
_
0.25
1000
= 0.0399
aproximadamente del 4%. Obsrvese que ello es independiente del tamao : de
la poblacin investigada.
9
De otra manera: en estas condiciones la funcin de masa hipergeomtrica converge a la funcin de
masa binomial.
6.5. INTERVALOS DE TOLERANCIA PARA LA NORMAL 151
6.5 Intervalos de tolerancia para la normal
Consideremos el caso A ~ (j, o) donde j y o son desconocidas e intentemos
estimar, a partir de una muestra de A, un intervalo (r
1
, r
l
) tal que 1 (r
1
< A < r
l
) =
j jada. Como
1 (r
1
< A < r
l
) = 1
_
r
1
j
o
< l <
r
l
j
o
_
= 1
_
n
(1+j)2
< l < n
(1+j)2
_
= j
donde l ~ (0, 1), resulta
r
1
= j n
(1+j)2
o
r
l
= j +n
(1+j)2
o
y ahora, como j y o son desconocidos podramos sustituirlos por sus estimaciones r
y :, resultando el
_
r n
(1+j)2
:, r +n
(1+j)2
:
_
, pero ello no asegura en absoluto el
contenido de probabilidad j a este intervalo (dependiendo de r y : puede ser menor,
igual o mayor que j). Una solucin son los llamados intervalos de tolerancia
10
que
denimos a continuacin.
Denicin 4 Sea una variable aleatoria A y sean 1 c y j jados. Un intervalo
(r
1
, r
l
) construido a partir de una muestra de A en el que
1 (r
1
< A < r
l
) _ j
con conanza 1 c, se llama intervalo de tolerancia de contenido j.
Para el caso A ~ (j, o) donde j y o son desconocidas, el intervalo es de la forma
r
1
= r /: y r
l
= r + /:. El valor de / depende del contenido j, de la conanza
1c y del tamao de muestra :. No hay una expresin explcita y debe ser aproximado
numricamente (ver Complementos).
En la tabla IV se dan los valores de / correspondientes a algunos valores de j, 1 c
y :.
Ejemplo 14 Se dispone de una muestra de : = 25 obleas de silicio y se mide su re-
sistividad (en cm) resultando r = 97.07 y : = 0.0268. Calculemos un intervalo de
tolerancia con j = 0.95 y 1 c = 0.99
10
El nombre proviene de las primeras aplicaciones a problemas de control de calidad industrial.
152 6. INTERVALOS
En la tabla IV se lee / = 2.984 as que
r
1
= 97.07 2.984 0.0268 = 96.99
r
l
= 97.07 + 2.984 0.0268 = 97.15
con una seguridad del 99% el 95% de las obleas producidas tienen una resistividad en
(96.99, 97.15) cm.
Denicin 5 Sea una variable aleatoria A y sean 1 c y j jados. Un lmite r
l
construido a partir de una muestra de A tal que
1 (A < r
l
) _ j
con conanza 1 c, se llama lmite de tolerancia superior de contenido j
Un lmite r
1
construido a partir de una muestra de A tal que
1 (r
1
< A) _ j
con conanza 1 c, se llama lmite de tolerancia inferior de contenido j.
Para el caso A ~ (j, o) donde j y o son desconocidas, el lmite superior es de la
forma r
l
= r + /: y el inferior r
1
= r /:. El valor de / depende del contenido j,
de la conanza 1 c y del tamao de muestra :, y es el mismo para ambos lmites. Su
expresin explcita se da en los Complementos.
En la tabla V se dan los valores de / correspondientes a algunos valores de j, 1 c
y :.
Ejemplo 15 (cont. del 4) hallemos un lmite superior de contenido j = 0.95 y conanza
1 c = 0.95
Con : = 10 en la tabla V se lee / = 2.911
r +/: = 20.6 + 2.911 1.7127 = 25.586
as que, con una conanza del 95% el 95% de los valores de A son menores que 25.6 jg,1
En estudios de contaminacin se determina un lmite superior en una poblacin no
contaminada (por ejemplo, el 95% de las medidas en una poblacin no contaminada est
por debajo del valor r
S
). Despus, si una medida de control del contaminante resulta
por encima de r
S
, ello es una indicacin de posible contaminacin.
6.5. INTERVALOS DE TOLERANCIA PARA LA NORMAL 153
Ejemplo 16 (cont. del 14) Hallemos lmites superior e inferior de contenido j = 0.95
y conanza 1 c = 0.99
Con : = 25 en la tabla V se lee / = 2.633, as que con una conanza del 99% el 95%
de las obleas tienen una resistividad por debajo de
r +/: = 97.07 + 2.633 0.0268 = 97.141 cm
Y con una seguridad del 99% el 95% de las obleas tienen una resistividad superior a
r
1
= 97.07 2.633 0.0268 = 96.999 cm
154 6. INTERVALOS
6.6 Ejercicios propuestos
1. La longitud nominal de ciertas piezas mecanizadas es de 10 cm y la de las fabricadas
es A ~ (j, o). La varianza del proceso es aproximadamente estable y de los datos
histricos se puede suponer que o = 0.3 cm. Por otra parte el valor de j cambia
con ajustes en el proceso. Una muestra de 100 piezas tiene una media de 10.2 cm
a) construya un intervalo del 95% para el valor actual de j. b) qu tamao de
muestra hay que usar para tener una cota - = 0.01?
2. En un clebre experimento Cavendish realiz en 1798 (utilizando una balanza de
torsin) 29 medidas de la densidad media de la Tierra j
T
. La muestra (aqu se da
ordenada en valores crecientes) es (en q,c:
3
):
4.88 5.07 5.1 5.26 5.27 5.29 5.29 5.3 5.34 5.34
5.36 5.39 5.42 5.44 5.46 5.47 5.5 5.53 5.55 5.57
5.58 5.61 5.62 5.63 5.65 5.68 5.75 5.79 5.85
Suponiendo que corresponden a un modelo A = j
T
+ l con l ~ (0, o) estime
el valor de j
T
y obtenga la cota del error con una conanza del 95%.
3. Un fabricante de componentes manufacturados, en un proceso estable bien mode-
lado por una distribucin normal, tiene unos lmites de especicacin de 0.420.02
cm. Se inspeccionan : = 20 componentes resultando
r = 0.42328 cm
: = 0.01776 cm
a) construya un intervalo de conanza 95% para j. b) construya un intervalo de
tolerancia cubriendo el 99% de la poblacin con conanza del 95%. c) el proceso
es satisfactorio?.
4. La resistencia a la rotura de cierto tipo de cables de acero, expresada en Kg,
se supone que es una VA A ~ (j, o). Una muestra de 5 cables ha dado los
valores (533, 552, 539, 564, 541). a) estimar la resistencia media y la variabilidad.
b) construir intervalos del 95% para la resistencia media y la variabilidad. c)
estimar con una conanza del 99% la tensin que soportan el 95% de los cables,
es decir, el lmite inferior de tolerancia para la resistencia.
5. Para comprobar la variabilidad en el tiempo de explosin de cierto tipo de detona-
dor se obtuvo la muestra (en milisegundos por debajo de 2.7 s) (11, 23, 25, 9, 2, 6,
6.6. EJERCICIOS PROPUESTOS 155
2, 2, 6, 8, 9, 19, 0, 2). Suponiendo que el tiempo de explosin es una variable
aleatoria (j, o) hallar un lmite superior de conanza del 90% para o.
6. La proporcin j de componentes de calidad aceptable es desconocida. En una
muestra inicial de 30 componentes han resultado 26 aceptables. a) a la vista de este
resultado qu tamao de muestra hay que tomar para construir un intervalo del
99% para j de longitud aproximada 0.02? b) construya el intervalo si nalmente
se examinan 2000 resultando 1640 aceptables.
7. Para realizar un sondeo de opinin en Espaa (poblacin 45 millones) se entrevista
a 1000 personas obteniendo con una conanza del 95% un error menor del 3%. a)
Cuntas personas habra que entrevistar en USA (poblacin 350 millones) para
tener igual error?. b) Cuntas personas habra que entrevistar para tener un
error menor del 2%?.
8. En uno de los primeros experimentos sobre la radioactividad (1910) Rutherford,
Geiger y Bateman observaron una fuente de polonio (recin descubierto por Mara
Curie) durante 2608 intervalos de 7.5 segundos cada uno, registrndose con un
detector el nmero r de particulas alfa emitidas cada intervalo, con los resultados
r 0 1 2 3 4 5 6 7 8 9 10 11 12
:(r) 57 203 383 525 532 408 273 139 45 27 10 4 2 2608
Los autores propusieron como modelo plausible para la funcin de masa descono-
cida del nmero A de particulas emitidas en el intervalo el de Poisson
) (r) = exp (`)
`
a
r!
r = 0, 1, 2, ...
en el que, como se sabe 1 (A) = `. Estime el valor de ` y obtenga la cota del
error con una conanza del 95% (sugerencia: ejemplo 10).
9. Sea A con densidad exponencial )(r) = `exp(`r) para r 0. Una variable
pivote para `, a partir de una muestra de tamao :, es 2:`A con densidad
2
(2:).
Construir un intervalo bilateral de conanza 1 c para `.
10. El intervalo de tiempo A entre llegadas sucesivas de los vehculos a una parada
tiene densidad exponencial de parmetro `. En una muestra de : = 10 valores de
A ha resultado un tiempo total de

r
i
= 30.4 minutos. Construir un intervalo
bilateral de conanza 1 c = 0.95 para 1 (A).








7
Modelo lineal
7.1 Modelo lineal simple
Para explicar la variabilidad experimental de las medidas del valor de una magnitud
constante j hemos considerado el modelo
1 = j +l
donde 1 es la Va valor medido y l es la Va error.
Ahora vamos a estudiar una situacin ms general en la que lo que se mide es una
funcin j(r) de una variable independiente r, no aleatoria, cuyo valor se ja
para realizar el experimento. Y en particular cuando la funcin j(r) tiene una forma
especialmente sencilla.
Denicin 1 Se denomina modelo lineal simple a
1 (r) = ,
0
+,
1
r +l
donde la variable aleatoria 1 (r) depende de la variable independiente no aleatoria r,
y la variable aleatoria l representa el error de medida o en general el efecto de otros
factores, aparte de r, sobre la 1 .
El modelo es lineal en los parmetros ,
0
y ,
1
desconocidos (r puede ser cualquier
otra ) (r) que no incluya ningn parmetro desconocido).
Ejemplo 1 1 (r) = ,
0
+,
1
sin(r) +l es un modelo lineal.
157
158 7. MODELO LINEAL
Ejemplo 2 Una partcula se mueve en linea recta a velocidad constante que deseamos
conocer. La ecuacin del movimiento es : (t) = : (0) +t, de manera que conociendo las
posiciones : (t
1
) y : (t
2
) en dos tiempos distintos, deduciramos el valor de as:
: (t
2
) : (t
1
)
t
2
t
1
=
en otras palabras: dos puntos (t
1
, : (t
1
)) y (t
2
, : (t
2
)) determinan la recta : (t) = : (0)+t.
Sin embargo si las medidas de : (t) son con error (y las de t sin error), sean j (t
1
) =
: (t
1
) +n
1
e j (t
2
) = : (t
2
) +n
2
, esto ya no es as, pues entonces
j (t
2
) j (t
1
)
t
2
t
1
= +
n
2
n
1
t
2
t
1
y ahora la recta :(t) = :(0) + t est enmascarada por los errores que se han aadido
en cada medida.
La situacin corresponde a un modelo lineal simple
1 (t) = ,
0
+,
1
t +l
con ,
0
= : (0) y ,
1
= . Para poder ltrar lo errores (estimar los parmetros) se precisan
ms de 2 medidas (cuantas ms mejor). Por ejempo, si se dispone de la muestra
t ( s) 1.0 2.0 3.0 4.0 5.0 6.0
j ( mm) 11 19 33 40 49 61
la imagen es
0 1 2 3 4 5 6 7
0
10
20
30
40
50
60
70
t (s)
y
(
t
)

(
m
m
)
7.1. MODELO LINEAL SIMPLE 159
Ejemplo 3 Para estudiar la variacin del rendimiento 1 de un proceso con la tempera-
tura r, se dispone de la siguiente muestra:
r

C 45 50 55 60 65 70 75 80 85 90
j % 43 45 48 51 55 57 59 63 66 68
cuya imgen es
40 50 60 70 80 90
40
45
50
55
60
65
70
x(temperatura C)
y

(
r
e
n
d
i
m
i
e
n
t
o

%
)
que sugiere como plausible un modelo
1 = ,
0
+,
1
r +l
7.1.1 Estimacin de mnimos cuadrados
Segn las hiptesis adicionales sobre la Va l la estimacin puede hacerse de una u otra
forma. La hiptesis ms simple es
1 (l) = 0
\ ar (l) = o
2
que equivale a
1 (1 (r)) = j(r) = ,
0
+,
1
r (7.1)
\ ar (1 (r)) = o
2
160 7. MODELO LINEAL
Para la estimacin de los parmetros ,
0
, ,
1
y o dispondremos de : observaciones
independientes de 1 (r) en otros tantos valores jados de r, muestra que denotaremos
en lo sucesivo ((r
1
, j
1
), (r
2
, j
2
), ...(r
n
, j
n
)).
Denotaremos
1
/
0
y /
1
las estimaciones con la muestra de ,
0
y ,
1
.
La funcin desconocida j(r) = ,
0
+,
1
r se estimar por la j(r) = /
0
+/
1
r que hace
mnimo el valor de
(/
0
, /
1
) =
n

i=1
[j
i
(/
0
+/
1
r
i
)]
2
j
i
(/
0
+/
1
r
i
) es la diferencia entre la ordenada observada j
i
en la abscisa r
i
y la calcu-
lada con la recta en la misma abscisa: la funcin buscada (recta de mnimos cuadrados)
es la que ajusta mejor las ordenadas observadas.
Para hallar los nmeros /
0
y /
1
que hacen mnimo el valor de se resuelve el sistema:
0 (/
0
, /
1
)
0/
0
= 2
n

i=1
[j
i
(/
0
+/
1
r
i
)] = 0
0 (/
0
, /
1
)
0/
1
= 2
n

i=1
r
i
[j
i
(/
0
+/
1
r
i
)] = 0
_

_
(7.2)
es decir
/
0
: +/
1
n

i=1
r
i
=
n

i=1
j
i
/
0
n

i=1
r
i
+/
1
n

i=1
r
2
i
=
n

i=1
r
i
j
i
_

_
o en forma matricial
_
:

r
i

r
i

r
2
i
__
/
0
/
1
_
=
_

j
i

r
i
j
i
_
(7.3)
El determinante de la matriz del sistema es:
:

r
2
i

_

r
i
_
2
= :

(r
i
r)
2
_ 0
Si : _ 2 y al menos 2 abscisas r
i
son distintas, entonces

(r
i
r)
2
0: la matriz
tiene inversa y la solucin es nica, lo que suponemos en todo lo que sigue.
1
Tambin se suele denotar con
b

0
y
b

1
aunque as se hace ms pesado despus distinguir entre las
estimaciones y los estimadores.
7.1. MODELO LINEAL SIMPLE 161
La solucin corresponde a un mnimo
2
pues la matriz hessiana:
H =
_
_
_
_
0
2

0/
2
0
0
2

0/
0
0/
1
0
2

0/
0
0/
1
0
2

0/
2
1
_
_
_
_
=
_
2: 2:r
2:r 2

r
2
i
_
es denida positiva:
0
2

0/
2
0
= 2: 0
det H = 4:

r
2
i
4:
2
r
2
= 4:

(r
i
r)
2
0
Comprubese que la solucin puede escribirse:
/
1
=

(r
i
r) (j
i
j)

(r
i
r)
2
=

r
i
j
i
(

r
i
) (

j
i
) ,:

r
2
i
(

r
i
)
2
,:
(7.4)
/
0
= j /
1
r
El mtodo de mnimos cuadrados no proporciona una estimacin de o
2
. Veremos
que una adecuada (el estimador correspondiente es insesgado) es
:
2
=
1
: 2
n

i=1
[j
i
(/
0
+/
1
r
i
)]
2
(7.5)
que tambin puede escribirse (comprubese, sustituyendo /
0
por su valor en (7.4) y
operando)
:
2
=
1
: 2
_
n

i=1
(j
i
j)
2
/
2
1
n

i=1
(r
i
r)
2
_
(7.6)
aunque es una frmula ms suceptible a los errores de redondeo.
Ejemplo 4 (cont. del 2)

t
i
= 21,

t
2
i
= 91,

j
i
= 213,

j
2
i
= 9293,

t
i
j
i
= 919
_
t
i
t
_
(j
i
j) = 919 21 213,6

(j
i
j)
2
= 9293 213
2
,6 = 1731.5
2
La funcin cuadrtica z = q (b
0
; b
1
) es no negativa. Su grca (es decir, el conjunto de los puntos
(b
0
; b
1
; z) 2 R
3
tales que z = q (b
0
; b
1
)) es un paraboloide elptico. La funcin tiene por tanto un mnimo
global, el vrtice del paraboloide, cuyas coordenadas (b
0
; b
1
) son la solucin del problema de mnimos
cuadrados.
162 7. MODELO LINEAL
_
t
i
t
_
2
= 91 21
2
,6 = 17.5
/
1
=
919 21 213,6
17.5
= 9.9143
/
0
= j /
1
t = 213,6 9.9143 21,6 = 0.79995
:
2
=
1731.5 9.9143
2
17.5
4
= 2.8416
: = 1.6857
0 1 2 3 4 5 6 7
0
10
20
30
40
50
60
70
t (s)
y
(
t
)

(
m
m
)
En conclusin, la estimacin de la velocidad es /
1
= 9.91 mms
1
, la posicin inicial
/
0
= 0.8 mm y la desviacin tpica del error l en las medidas de posicin : = 1.69 mm
Ejemplo 5 (cont. del 3)

r
i
= 675,

r
2
i
= 47625,

j
i
= 555,

j
2
i
= 31483,

r
i
j
i
= 38645

(r
i
r) (j
i
j) = 38645 675 555,10

(r
i
r)
2
= 2062.5,

(j
i
j)
2
= 680.5
/
1
=
38645 675 555,10
2062.5
=
1182.5
2062.5
= 0.573

3
/
0
= j /
1
r = 55.5 0.573

3 67.5 = 16.8023
7.1. MODELO LINEAL SIMPLE 163
: =
_
680.5 0.573

3
2
2062.5
8
= 0.5627
40 50 60 70 80 90
35
40
45
50
55
60
65
70
75
x (temperatura C)
y

(
r
e
n
d
i
m
i
e
n
t
o

%
)
En conclusin, la estimacin de la variacin del rendimiento esperado con la tem-
peratura (en el rango de temperaturas entre 40

C y 100

C aproximadamente) es
j(r) = 16.80 + 0.5733r %
(por cada incremento de la temperatura en 1

C el rendimiento esperado aumenta un


0.57 %).
Para una temperatura de 50

C el rendimiento esperado se estima de


j(50) = 16.80 + 0.5733 50 - 45.5 %
La estimacin de la variabilidad del rendimiento a cualquier temperatura es : =
0.5627 %.
164 7. MODELO LINEAL
7.1.2 Propiedades de los estimadores
La muestra ((r
1
, j
1
), (r
2
, j
2
), ...(r
n
, j
n
)) es una realizacin particular de la muestra
aleatoria ((r
1
, 1
1
), (r
2
, 1
2
), ...(r
n
, 1
n
)), en la que las 1
i
son independientes, con
1 (1
i
) = ,
0
+,
1
r
i
\ ar (1
i
) = o
2
y las estimaciones /
0
y /
1
(7.4) son realizaciones particulares de los estimadores
1
1
=

(r
i
r)
_
1
i
1
_

(r
i
r)
2
(7.7)
1
0
= 1 1
1
r
Se prueba (en las hiptesis 7.1) que dichos estimadores son insesgados:
1 (1
1
) = ,
1
1 (1
0
) = ,
0
y por lo tanto, en un r arbitrario
1 ( j(r)) = 1 (1
0
+1
1
r) = ,
0
+,
1
r
Se prueba que sus varianzas son
\ ar (1
1
) =
o
2

(r
i
r)
2
(7.8)
\ ar (1
0
) =
_
r
2
i
:

(r
i
r)
2
_
o
2
y (tngase en cuenta que 1
0
y 1
1
no son independientes):
\ ar (1
0
+1
1
r) = o
2
_
1
:
+
(r r)
2

(r
i
r)
2
_
(7.9)
Por ltimo, la estimacin (7.5) es el valor particular en la muestra del estimador
o
2
=
1
: 2
n

i=1
[1
i
(1
0
+1
1
r
i
)]
2
(7.10)
7.1. MODELO LINEAL SIMPLE 165
que tambin puede escribirse (ver (7.6))
o
2
=
1
: 2
_
n

i=1
_
1
i
1
_
2
1
2
1
n

i=1
(r
i
r)
2
_
(7.11)
y se prueba que
1
_
o
2
_
= o
2
166 7. MODELO LINEAL
7.2 Estimacin de mxima verosimilitud
Suponemos ahora que 1 (r) ~ (,
0
+ ,
1
r, o) (es decir, adems de las hiptesis (7.1)
la distribucin de 1 (r) en cada r jado es normal). Podemos entonces estimar los
parmetros mediante Mxima Verosimilitud.
La densidad de probabilidad en cada j
i
es
) (j
i
) =
1
o
_
2
exp
_

1
2o
2
[j
i
(,
0
+,
1
r
i
)]
2
_
y la funcin de verosimilitud resulta
1(,
0
, ,
1
, o) =
_
1
o
_
2
_
n
exp
_

1
2o
2
n

i=1
[j
i
(,
0
+,
1
r
i
)]
2
_
Es evidente que, cualquiera que sea o, los valores /
0
y /
1
de ,
0
y ,
1
que hacen
mximo 1 son los que hacen mnimo a
n

i=1
[j
i
(,
0
+,
1
r
i
)]
2
es decir, coinciden con las estimaciones de mnimos cuadrados obtenidas antes.
En cuanto a la estimacin de o
2
resulta:
o
2
=
1
:
n

i=1
[j
i
(/
0
+/
1
r
i
)]
2
que no coincide con la (7.5) insesgada que vamos a usar (sta es obviamente sesgada).
7.3 Intervalos de conanza
En la hiptesis 1 (r) ~ (,
0
+ ,
1
r, o) el modelo lineal generaliza el caso estudiado en
el captulo anterior de una variable 1 ~ (j, o) a una variable 1 (r) ~ (j(r) , o).
Como all, se pueden acotar los errores de estimacin (intervalos de conanza) y realizar
predicciones sobre las observaciones futuras de 1 (r) en cada r jado (intervalos de
tolerancia).
7.3. INTERVALOS DE CONFIANZA 167
7.3.1 Para los parmetros
0
y
1
Los estimadores 1
0
y 1
1
(7.7), funciones lineales de las 1
i
~ (,
0
+ ,
1
r
i
, o) indepen-
dientes, son tambin normales, con esperanzas ,
0
y ,
1
y las varianzas dadas en (7.8).
Por lo tanto
1
1
,
1
o
_
1

(r
i
r)
2
~ (0, 1)
y si se sutituye o por su estimador o se prueba que
1
1
,
1
o
_
1

(r
i
r)
2
~ t (: 2)
de donde, con conanza 1 c
,
1

_
/
1
t
1=2
:
_
1

(r
i
r)
2
_
y analogamente para ,
0
.
Ejemplo 6 (cont. del 4) La estimacin de la velocidad = ,
1
de la partcula result
9.91 mms
1
. Hallemos una cota del error de estimacin con conanza 1 c = 0.95 En
la tabla III se lee t
0:975
(4) = 2.7764 y con los valores de : = 1.6857 y
_
t
i
t
_
2
= 17.5
all obtenidos
t
1=2
:
_
1
_
t
i
t
_
2
= 2.7764 1.6857
_
1
17.5
= 1.1188
resulta, con una conanza del 95%
= (9.91 1.12) mms
1
7.3.2 Para el parmetro
Se prueba que
(: 2) o
2
o
2
~
2
(: 2)
168 7. MODELO LINEAL
y entonces, con conanza 1 c
o
_
:
_
: 2

2
1=2
, :
_
: 2

2
=2
_
7.3.3 Para la recta (x) =
0
+
1
x
El estimador 1
0
+ 1
1
r, insesgado de ,
0
+ ,
1
r, como es una funcin lineal de las 1
i
independientes con distribucin normal, tiene tambin una distribucin normal, con la
varianza dada en (7.9)
1 (1
0
+1
1
r) = ,
0
+,
1
r
\ ar (1
0
+1
1
r) = o
2
_
1
:
+
(r r)
2

(r
i
r)
2
_
Por tanto la variable aleatoria
(1
0
+1
1
r) (,
0
+,
1
r)
o
_
1
:
+
(r r)
2

(r
i
r)
2
~ (0, 1)
y si se sustituye o por su estimador o se prueba que
(1
0
+1
1
r) (,
0
+,
1
r)
o
_
1
:
+
(r r)
2

(r
i
r)
2
~ t (: 2)
Finalmente, con conanza (1 c) es:
,
0
+,
1
r
_
(/
0
+/
1
r) t
1=2
:
_
1
:
+
(r r)
2

(r
i
r)
2
_
Ejemplo 7 (cont. del 5). Hallemos un intervalo para el rendimiento esperado a la
temperatura de 50

C con 1 c = 0.99
Para una temperatura de 50

C el rendimiento esperado se estim de


j(50) = 16.80 + 0.5733 50 - 45.5 %
7.4. DE TOLERANCIA PARA 1 (A) 169
En la tabla III se lee t
0:995
(8) = 3.3554 y
t
1=2
:
_
1
:
+
(r r)
2

(r
i
r)
2
= 3.3554 0.5627
_
1
10
+
(50 67.5)
2
2062.5
= 0.9412
resulta, con una conanza del 95%
j(50) = 45.5 0.94 %
En la gura se han dibujado los intervalos de conanza de j(r) = ,
0
+,
1
r para r desde
40 hasta 95

C
40 50 60 70 80 90
35
40
45
50
55
60
65
70
75
x (temperatura C)
y

(
r
e
n
d
i
m
i
e
n
t
o

%
)
7.4 De tolerancia para Y (x)
Un intervalo de tolerancia para 1 (r) en un r jado, de contenido j y conanza 1 c,
ambos valores especicados, est dado por dos nmeros j
L
y j
S
tales que
1 (j
L
< 1 (r) < j
S
) _ j
con conanza 1 c. Es decir, al menos el 100j% de los valores de 1 medidos en el r
jado se hallarn dentro del intervalo (j
L
, j
S
) con dicha conanza. El intervalo es de la
170 7. MODELO LINEAL
forma
j
L
= (/
0
+/
1
r) /:
j
S
= (/
0
+/
1
r) +/:
y la solucin / debe hallarse numricamente (ver Complementos). Ademas depende
de j, 1 c, :, el punto r y las abscisas de la muestra (r
1
, ..., r
n
), por lo que no es
posible una tabulacin como para la variable normal (ver Captulo 6).
Una solucin aproximada es
/ = n
(1+p)=2
_
: 2

_
_
1 +
d
2
2

d
4
_
2n
2
(1+p)=2
3
_
24
_
_
d
2
=
1
:
+
(r r)
2

(r
i
r)
2
donde n
(1+p)=2
es el cuantil de la (0, 1) y
2

el de la ji-cuadrado de parmetro (: 2)
Ejemplo 8 (cont.) calculemos un intervalo de tolerancia aproximado en r = 50 con
j = 0.95 y 1 c = 0.99
n
(1+p)=2
= n
0:975
= 1.96,
2

(: 2) =
2
0:01
(8) = 1.6465
d
2
=
1
10
+
(50 67.5)
2
2062.5
= 0.2485
1 +
d
2
2

d
4
_
2n
2
(1+p)=2
3
_
24
= 1 +
0.2485
2

0.2485
2

_
2 1.96
2
3
_
24
= 1.1122
/ = 1.96
_
8
1.6465
1.1122 = 4.8051
Con una conanza del 99% al menos el 95% de los valores del rendimiento 1 a la
temperatura de r = 50

C estarn dentro del intervalo


j(50) / : =
45.5 4.8051 0.5627 = (42.80, 48.20) %
7.5. INTERPRETACIN GEOMTRICA 171
es decir, con dicha conanza
1 (42.80 < 1 (50) < 48.20) _ 0.95
En la gura se han dibujado desde r = 40 hasta r = 95
40 50 60 70 80 90
35
40
45
50
55
60
65
70
75
x (temperatura C)
y

(
r
e
n
d
i
m
i
e
n
t
o

%
)
7.5 Interpretacin geomtrica
Consideremos las matrices
X =
_
_
_
_
_
_
1 r
1
1 r
2
... ...
1 r
n
_
_
_
_
_
_
=
_
1 x
_
y =
_
_
_
_
_
_
j
1
j
2
...
j
n
_
_
_
_
_
_
b =
_
/
0
/
1
_
(7.12)
donde /
0
y /
1
son nmeros a determinar.
Si los : _ 2 puntos (r
i
, j
i
) estn sobre una recta entonces el sistema y =/
0
1 +
/
1
x = Xb es compatible y determinado (dos ecuaciones distintas determinan la recta,
172 7. MODELO LINEAL
las dems son combinaciones lineales de aquellas): geomtricamente el vector y pertenece
al subespacio de R
n
engendrado por las columnas de X.
Si no estn sobre una recta el sistema es incompatible. Hallemos en este caso el
vector y = Xb de dicho subespacio (combinacin lineal de las columnas de X) ms
prximo al y en el sentido de la norma euclidea, es decir, tal que:
min|y Xb|
2
= min
n

i=1
[j
i
(/
0
+/
1
r
i
)]
2
Ello equivale a que y Xb sea ortogonal al subespacio engendrado por las columnas de
X:
X
T
(y Xb) = 0
(donde 0 es un vector columna con dos ceros). Resulta el sistema (compruebe que es
idntico al (7.3)):
X
T
Xb = X
T
y (7.13)
El rango de X
T
X es el de X y el sistema tiene solucin nica si, y slo si, el rango
de X es 2, es decir si al menos hay 2 abscisas r
i
distintas. En ese caso
b =
_
X
T
X
_
1
X
T
y (7.14)
Se prueba que el sistema (7.13) es formalmente la solucin de mnimos cuadrados del
problema ms general modelo lineal mltiple
1 (x) = ,
0
+,
1
r
1
+,
2
r
2
+ +,
k
r
k
+l
donde la variable aleatoria 1 es la variable dependiente, las variables no aleatorias r
i
son las variables independientes, jadas para el experimento, y la variable aleatoria l
representa el error de medida o en general el efecto de otros factores, aparte de las r,
sobre la 1 . La matrices correspondientes a una muestra (r
i1
, r
i2
, ..., r
ik
, j
i
) (i = 1, 2, ..:)
son
X =
_
_
_
_
_
_
1 r
11
r
12
... r
1k
1 r
21
r
22
... r
2k
... ... ... ... ...
1 r
n1
r
n2
... r
nk
_
_
_
_
_
_
y =
_
_
_
_
_
_
j
1
j
2
...
j
n
_
_
_
_
_
_
b =
_
_
_
_
_
_
_
_
/
0
/
1
/
2
...
/
k
_
_
_
_
_
_
_
_
7.6. VALORACIN DEL AJUSTE 173
7.6 Valoracin del ajuste
Usaremos ahora una notacin ms breve frecuente en los textos: j
i
= /
0
+/
1
r
i
.
En la identidad
(j
i
j) = (j
i
j
i
) + ( j
i
j)
elevando al cuadrado y sumando

(j
i
j)
2
=

(j
i
j
i
)
2
+

( j
i
j)
2
+ 2

(j
i
j
i
) ( j
i
j)
Pero

(j
i
j
i
) ( j
i
j) = 0
pues
j
i
j = (/
0
+/
1
r
i
) j
= (j /
1
r +/
1
r
i
) j
= /
1
(r
i
r)
y

(j
i
j
i
) ( j
i
j) = /
1

(j
i
j
i
) (r
i
r)
= /
1

(j
i
j
i
) r
i
/
1
r

(j
i
j
i
)
= 0
pues (7.2)

(j
i
j
i
) = 0

(j
i
j
i
) r
i
= 0
As que

(j
i
j)
2
=

(j
i
j
i
)
2
+

( j
i
j)
2
y de aqu

(j
i
j
i
)
2
=

(j
i
j)
2

( j
i
j)
2
Se llama suma de cuadrados residual a
SS
res
=

(j
i
j
i
)
2
174 7. MODELO LINEAL
suma de cuadrados total a
SS
tot
=

(j
i
j)
2
y suma de cuadrados explicada a
SS
ex
=

( j
i
j)
2
que adems puede escribirse (ver frmula 7.6)
SS
ex
=

( j
i
j)
2
= /
2
1

(r
i
r)
2
En resumen
SS
res
= SS
tot
SS
ex
Como SS
res
_ 0 es SS
ex
_ SS
tot
.
Denicin 2 El coeciente de determinacin 1
2
es la proporcin de la suma de
cuadrados total explicada por la recta de mnimos cuadrados
1
2
=
SS
ex
SS
tot
= 1
SS
res
SS
tot
De la decin resulta que 0 _ 1
2
_ 1.
Adems cuanto menor sea SS
res
, es decir, cuanto mejor se ajusten los puntos a la
recta, mayor es el valor de 1
2
. En el caso extremo, si los puntos estn sobre una recta
(ni horizontal ni vertical) SS
res
= 0 y entonces 1
2
= 1.
Denicin 3 El coeciente de correlacin lineal de la muestra es
r =

(r
i
r) (j
i
j)
_

(r
i
r)
2

(j
i
j)
2
(7.15)
Observar que su signo es el de la pendiente /
1
de la recta. Y que no est denido
si

(j
i
j)
2
= 0 (en cuyo caso los puntos estn sobre una recta horizontal) o si

(r
i
r)
2
= 0 (en cuyo caso los puntos estn sobre una recta vertical).
Con l puede ponerse
SS
ex
= /
2
1

(r
i
r)
2
=
(

(r
i
r) (j
i
j))
2

(r
i
r)
2
= r
2
SS
tot
7.7. REGRESIN LINEAL SIMPLE 175
as que
SS
res
= SS
tot
SS
ex
= SS
tot
_
1 r
2
_
Como SS
res
_ 0 es claro que [r[ _ 1 (desigualdad de Schwarz).
Los puntos (r
i
, j
i
) estn sobre una recta (ni horizontal ni vertical) si, y slo si,
SS
res
= 0, es decir, si [r[ = 1.
Adems de la denicin de 1
2
resulta que
1
2
= r
2
Ejemplo 9 (cont. del 5)

r
i
= 675,

r
2
i
= 47625,

j
i
= 555,

j
2
i
= 31483,

r
i
j
i
= 38645

(r
i
r) (j
i
j) = 38645 675 555,10 = 1182.5

(r
i
r)
2
= 2062.5,

(j
i
j)
2
= 680.5
/
1
=
38645 675 555,10
2062.5
=
1182.5
2062.5
= 0.573

3
/
0
= j /
1
r = 55.5 0.573

3 67.5 = 16.8023
SS
res
= 680.5 0.573

3
2
2062.5 = 2.533
SS
tot

(j
i
j)
2
680.5
SS
res

(j
i
j
i
)
2
2.533
SS
ex
677.967
1
2
=
SS
ex
SS
tot
=
677.967
680.5
= 0.996
es decir la recta ajustada explica el 99.6% de la variabilidad en los valores del rendimiento.
Adems
r =
1182.5
_
2062.5 680.5
= 0.9981
7.7 Regresin lineal simple
Supongamos ahora una Va bidimensional (A, 1 ). Para estudiar la relacin entre ambas
variables se dispone de una muestra de : observaciones (r
i
, j
i
) en la que, a diferencia
de lo supuesto en el modelo lineal, ninguna de las dos es controlada o jada.
Ahora nos interesamos en alguna de las dos Vas condicionales (1 [ A = r) (A [ 1 = j)
y en particular en sus esperanzas 1 (1 [ A = r) 1 (A [ 1 = j) (ver 3.10).
Consideremos el caso en que la densidad conjunta ) (r, j) es normal. Se prueba que
176 7. MODELO LINEAL
queda determinada por A ~ (j
X
, o
X
) e 1 ~ (j
Y
, o
Y
) y adems por el coeciente
de correlacin j entre ambas (en el sentido de la denicin 4 de 3.9)
j =
o
XY
o
X
o
Y
donde o
XY
= Co (A, 1 )
Se prueba que la Va condicional (1 [ A = r) es normal con
1 (1 [ A = r) = j
Y
+
o
Y
o
X
j (r j
X
)
\ ar (1 [ A = r) = o
2
Y
_
1 j
2
_
y la (A [ 1 = j) es normal con
1 (A [ 1 = j) = j
X
+
o
X
o
Y
j (j j
Y
)
\ ar (A [ 1 = j) = o
2
X
_
1 j
2
_
Las dos funciones 1 (1 [ A = r) y 1 (A [ 1 = j) se llaman histricamente fun-
ciones de regresin lineal.
Puede verse entonces que la Va (1 [ A = r) satisface las hiptesis del modelo lineal
simple con distribucin normal (seccin 7.2) pues su esperanza es de la forma
1 (1 [ A = r) = ,
0
+,
1
r
con
,
0
= j
Y
,
1
j
X
,
1
= j
o
Y
o
X
y su varianza es constante (no depende de r)
\ ar (1 [ A = r) = o
2
Y
_
1 j
2
_
Y lo mismo puede decirse de la (A [ 1 = j), cuya esperanza es
1 (A [ 1 = j) = c
0
+c
1
j
7.7. REGRESIN LINEAL SIMPLE 177
con
c
0
= j
X
c
1
j
Y
c
1
=
o
X
o
Y
j
y varianza constante
\ ar (A [ 1 = j) = o
2
X
_
1 j
2
_
En conclusin, el mtodo de mxima verosimilitud para la estimacin con la muestra
de : observaciones (r
i
, j
i
) de la funcin 1 (1 [ A = r) = ,
0
+,
1
r conduce a una solucin
formalmente idntica a la del modelo lineal simple (7.4). Y otra anloga para la
1 (A [ 1 = j) = c
0
+ c
1
r. Todo lo dicho en las secciones 7.3 hasta la 7.6 inclusive es
de aplicacin al caso.
Adems ahora las frmulas del modelo lineal admiten una reescritura en trminos de
estimaciones de los parmetros de la Va (A, 1 ):
Las estimaciones de j
X
y j
Y
son r e j.
Las estimaciones de o
2
X
y o
2
Y
son :
2
X
y :
2
Y
(varianzas muestrales).
Una estimacin insesgada de o
XY
= 1 ((A j
X
) (1 j
Y
)) es
:
XY
=
1
: 1

(r
i
r) (j
i
j)
y una estimacin (sesgada) de j es el coeciente de correlacin lineal de la muestra (7.15)
r =
:
XY
:
X
:
Y
=

(r
i
r) (j
i
j)
_

(r
i
r)
2

(j
i
j)
2
En la regresin de 1 sobre A, 1 (1 [ A = r) = ,
0
+,
1
r:
La estimacin /
1
del coeciente ,
1
= j

X
es
/
1
=

(r
i
r) (j
i
j)

(r
i
r)
2
= r
:
Y
:
X
La estimacin /
0
del coeciente ,
0
= j
Y
,
1
j
X
es
/
0
= j /
1
r
La recta estimada es
/
0
+/
1
r = j +r
XY
:
Y
:
X
(r r)
178 7. MODELO LINEAL
y anlogamente en la de A sobre 1 .
7.8 Ejercicios propuestos
1. Para estudiar la corrosin de cierta aleacin se ha realizado un experimento con-
trolado en el que se mide la ganancia en peso de la muestra 1 (en %) (que indca
la cantidad de oxgeno que ha reaccionado) a distintos tiempos de exposicin r (en
h)
r 1 2 2.5 3 3.5 4
j 0.02 0.03 0.035 0.042 0.05 0.054
a) graque los puntos, ajuste un modelo lineal y calcule 1
2
. b) Calcule un intervalo
de conanza del 95% para la ganancia esperada a r = 3.2 h c) Calcule un intervalo
de tolerancia de contenido 0.9 con conanza 95% en r = 3.2 h.
2. Para estudiar la relacin entre la longitud (en cm) nominal (r) y real (j) de ciertas
piezas mecanizadas en serie se ha obtenido la siguiente muestra:
r j
1
4
0.262 0.262 0.245
1
2
0.496 0.512 0.490
3
4
0.743 0.744 0.751
1 0.976 1.010 1.004
1
1
4
1.265 1.254 1.252
1
1
2
1.498 1.518 1.504
1
3
4
1.738 1.759 1.750
2 2.005 1.992 1.992
a) graque los puntos, ajuste un modelo lineal y calcule 1
2
. b) Calcule un intervalo
de conanza 95% para la longitud media fabricada correspondiente a la nominal
de 1 cm. c) calcule un intervalo de tolerancia de contenido 0.99 y conanza 0.95
para las longitudes fabricadas correspondientes a la nominal de 1 cm.
3. Un mtodo para medir q (aceleracin de la gravedad) consiste en un electroiman
que sujeta una bola de acero a distancia jada d del suelo. Cuando se interrumpe
la corriente se libera la bola, que cae, y automticamente se pone en marcha
un cronmetro. Cuando la bola llega al suelo golpea un sensor que detiene el
cronmetro, obtenindose el tiempo de caida t.
7.8. EJERCICIOS PROPUESTOS 179
La ecuacin del movimiento es d =
1
2
qt
2
, de donde t =
_
1,q
_
2d. Sin embargo,
en la medida de los tiempos t para cada valor de d jado hay 2 fuentes posibles de
error de valor desconocido: uno sistemtico debido a que el campo del electroimn
no se extingue inmediatamente, y otro experimental o aleatorio l. El modelo que
describe el experimento es
1 = ,
0
+,
1
_
2d +l
donde 1 es el tiempo medido, ,
0
es el error sistemtico, ,
1
= 1,
_
q y l es el error
experimental, con 1 (l) = 0 y \ ar (l) = o
2
.
Se dispone de la muestra
d ( m) 0.20 1.00 2.00 3.00 5.00
j ( s) 0.26 0.50 0.68 0.82 1.07
a) Estimar los parmetros ,
0
y ,
1
. Estimar q a partir de ,
1
. Interpretar el valor
estimado de ,
0
. b) dibujar los puntos experimentales y la funcin ajustada, en
ejes (d, j) y (
_
2d, j). c) estimar la desviacin tpica o del error experimental, y
la desviacin tpica del estimador de ,
1
.
4. (cont.) Escribir la matriz X (segn (7.12)) correspondiente a una muestra ((d
1
, j
1
),
(d
2
, j
2
), ...(d
n
, j
n
)) para el problema
1 = ,
0
+,
1
_
2d +l
5. Recta por el origen: sea el modelo
1 = ,r +l
con 1 (l) = 0 y \ ar (l) = o
2
que equivale a 1 (1 ) = ,r y \ ar (1 ) = o
2
. Dada
la muestra ((r
1
, j
1
), (r
2
, j
2
), ...(r
n
, j
n
)) hallar la estimacin / de , de modo que
sea mnimo el valor de
(/) =
n

i=1
[j
i
/r
i
]
2
6. (cont.) Escribir la matriz X segn (7.13) correspondiente a una muestra ((r
1
, j
1
),
(r
2
, j
2
), ...(r
n
, j
n
)) para el problema
1 = ,
1
r +l
180 7. MODELO LINEAL
7. De una muestra se conocen los siguientes datos: r = 0.9; :
X
= 1.2; :
Y
= 2.1;
r = 5; j = 10 A partir de los mismos, obtnganse las rectas de regresin mnimo
cuadrticas de A sobre 1 y de 1 sobre A.
8. A partir de una muestra de valores de las variables A e 1 , se ha determinado la
regresin de 1 sobre A, obtenindose
/
0
= 10, /
1
= 0.45, 1
2
= 0.9 y r = 20. Calcular la recta de A sobre 1 .
9. Demostrar que r es invariante a cambios de origen y escala. Usando este resultado
demostrar que el coeciente de correlacin de los puntos (r
i
, j
i
) es el mismo que
el de los puntos ( j
i
, j
i
).
10. Se dispone de 4 muestras distintas de tamao : = 11 (las 1,2 y 3 con idnticos
valores de r). Calcule en cada caso la recta de mnimos cuadrados, realizando el
dibujo de los puntos con su recta, y halle el valor de r.
1 3 1 2 3 4 4
obs r j j j r j
1 10.0 8.04 9.14 7.46 8.0 6.58
2 8.0 6.95 8.14 6.77 8.0 5.76
3 13.0 7.58 8.74 12.74 8.0 7.71
4 9.0 8.81 8.77 7.11 8.0 8.84
5 11.0 8.33 9.26 7.81 8.0 8.47
6 14.0 9.96 8.10 8.84 8.0 7.04
7 6.0 7.24 6.13 6.08 8.0 5.25
8 4.0 4.26 3.10 5.39 19.0 12.50
9 12.0 10.84 9.13 8.15 8.0 5.56
10 7.0 4.82 7.26 6.42 8.0 7.91
11 5.0 5.68 4.74 5.73 8.0 6.89
11. Tomemos la funcin j = r
2
. Elijamos : abscisas r
i
simtricas respecto al origen,
de modo que

r
i
= 0, y sus correspondientes ordenadas j
i
= r
2
i
. As que los :
puntos (r
i
, j
i
) estn sobre la parbola. Calcule el coeciente de correlacin lineal.
12. Halle el polinomio 1
m
(r) =

m
j=0
/
j
r
j
de grado : que aproxima en el sentido de
mnimos cuadrado la muestra (r
i
, j
i
) de : observaciones, es decir que hace mnimo
el valor de:
=
n

i=1
[j
i
1
m
(r
i
)]
2
=
n

i=1
_
_
j
i

j=0
/
j
r
j
i
_
_
2
7.8. EJERCICIOS PROPUESTOS 181
(sugerencia: ver (7.13) y forme las matrices X y X
T
X correspondientes).
13. Ajuste un polinomio a los siguientes datos:
r 1 2 3 4 5 6 7 8 9 10
j 20.6 30.8 55 71.4 97.3 131.8 156.3 197.3 238.7 291.7
14. En 1973 el ingeniero holands J.R. de Jong propuso el siguiente modelo para el
tiempo T que se tarda en realizar una tarea manual simple en funcin del nmero
de veces que se ha practicado: T - t:
n
donde T es el tiempo, : el nmero de
veces y t y : parmetros que dependen de la tarea y el individuo. Estime t y : con
los siguientes datos
T 22.4 21.3 19.7 15.6 15.2 13.9 13.7
: 0 1 2 3 4 5 6
(sugerencia: linearize el modelo).








8
Modelizacin
8.1 Introduccin
La ley de probabilidades de la Va con la que se trabaja puede ser de forma conocida
pero desconocidos sus parmetros o completamente desconocida.
Cuando es de forma conocida el problema se reduce a estimar los parmetros a
partir de una muestra como hemos estudiado en los captulo anteriores. Por ejemplo la
ley binomial corresponde a un experimento muy concreto, o la normal a la que suelen
ajustarse los errores de medida; muchas veces la ley se deduce de un modelo fsico que
despus ha de ser comprobado experimentalmente, como la exponencial para el tiempo
de vida de los tomos radiactivos, la normal para la velocidad de las molculas de un
gas ideal, o la de Maxwell para su rapidez.
En muchas ocasiones, sin embargo, la ley es completamente desconocida y se plantea
el problema de la aproximacin de alguna de las funciones equivalentes 1 (r) (distribu-
cin), ) (r) (masa o densidad) 1
1
(j) (cuantiles) que determinan su distribucin de
probabilidades, sin recurrir a ninguna forma particular: lo que se llama una estimacin
no paramtrica.
Por ltimo una estimacin no paramtrica puede servir para elegir un modelo param-
trico, comparando el ajuste de aqulla con el candidato paramtrico.
183
184 8. MODELIZACIN
8.2 La funcin de distribucin emprica
Como se sabe, la especicacin de la distribucin de probabilidades de A, sea sta
discreta o continua, puede hacerse con la funcin de distribucin:
1(r) = 1(A _ r) \r R
Una estimacin obvia de 1(r) a partir de una muestra (r
1
, r
2
, ..., r
n
) de A se obtiene
estimando la probabilidad por la correspondiente frecuencia relativa experimental:
Denicin 1 La funcin de distribucin emprica es

1(r) =
:(_ r)
:
\r R
donde :(_ r) denota el nmero de elementos de la muestra que son menores o iguales
que r.
Para construir con facilidad

1(r) conviene basarse en la muestra ordenada en
valores crecientes, que denotamos (r
(1)
, r
(2)
, ...r
(n)
). Por medio de ella la funcin de
distribucin emprica es:

1(r) =
_

_
0 r < r
(1)
/,: r
(k)
_ r < r
(k+1)
1 r _ r
(n)
y se ve que equivale a una asignacin de masa de probabilidad 1,: a cada elemento de
la muestra.
Ejemplo 1 supongamos la muestra cticia (3, 5, 1, 5, 8, 7, 6). La muestra ordenada es
(1, 3, 5, 5, 6, 7, 8). La funcin de distribucin emprica es

1(r) =
_

_
0 r < 1
1,7 1 _ r < 3
2,7 3 _ r < 5
4,7 5 _ r < 6
5,7 6 _ r < 7
6,7 7 _ r < 8
1 r _ 8
8.2. LA FUNCIN DE DISTRIBUCIN EMPRICA 185
0 1 2 3 4 5 6 7 8 9
0
1/7
2/7
3/7
4/7
5/7
6/7
1
x
^
F(x)
Ejemplo 2 Se dispone de una muestra de 106 observaciones de la variable aleatoria T,
tiempo en minutos entre cada 2 llegadas consecutivas de camiones a un punto de carga
desde un instante de observacin inicial:
(8, 30, 17, 65, 8, 38, 35, 4, 19, 7, 14, 12, 4, 5, 4, 2, 7, 5, 12, 50,
33, 10, 15, 3, 10, 1, 5, 30, 41, 21, 31, 1, 18, 12, 5, 24, 7, 6, 31, 0,
4, 2, 20, 1, 30, 2, 1, 3, 12, 12, 9, 28, 6, 50, 63, 5, 17, 11, 24, 0,
47, 90, 13, 21, 55, 43, 5, 19, 47, 24, 4, 6, 27, 4, 6, 37, 16, 41, 68, 11,
5, 28, 42, 3, 42, 8, 52, 2, 11, 41, 4, 35, 21, 3, 17, 10, 16, 0, 69, 105,
45, 23, 5, 10, 12, 17).
El primer camin lleg 8 min despus del comienzo de las observaciones; el segundo
30 min despus del primero, el tercero 17 despus del segundo...
La muestra ordenada es:
(0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 4,
4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8,
9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 12, 12, 12, 13, 14, 15, 16, 16, 17,
17, 17, 17, 18, 19, 19, 20, 21, 21, 21, 23, 24, 24, 24, 27, 28, 28, 30, 30, 30,
31, 31, 33, 35, 35, 37, 38, 41, 41, 41, 42, 42, 43, 45, 47, 47, 50, 50, 52, 55,
63, 65, 68, 69, 90, 105)
Es decir, t
(1)
= t
(2)
= t
(3)
= 0, t
(4)
= = t
(7)
= 1, ...,, t
(106)
= 105.
186 8. MODELIZACIN
La funcin de distribucin emprica es:

1(t) =
_

_
0 t < 0
3,106 0 _ t < 1
7,106 1 _ t < 2
11,106 2 _ t < 3
...
105,106 90 _ t < 105
1 t _ 105
0 20 40 60 80 100 120
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t (minutos)
^
F(t)
Las propiedades del estimador

1 (r) se dan en los Complementos.
8.3. LA FUNCIN DE MASA EMPRICA 187
8.3 La funcin de masa emprica
Sea una Va discreta A cuya funcin de masa desconocida ) (r) = 1 (A = r) deseamos
aproximar a partir de una muestra (r
1
, r
2
, ..., r
n
). Una estimacin no paramtrica de
)(r) a partir de una muestra (r
1
, r
2
, ..., r
n
) de A se obtiene estimando la probabilidad
por la correspondiente frecuencia relativa experimental.
Denicin 2 Si en la muestra hay / valores distintos o = a
1
, a
2
, ..., a
k
se agrupan
segn sus repeticiones. La muestra agrupada es (:(r) , r o) , donde :(r) es el nmero
de elementos de la muestra que son iguales a r, y

x2S
:(r) = :.
La funcin de masa emprica es

) (r) =
:(r)
:
r o
Las propiedades del estimador

) (r) se dan en los Complementos.
Ejemplo 3 Rutherford, Geiger y Bateman (Phil. Mag., 1910) observaron una subs-
tancia radioactiva durante 2608 intervalos de 7.5 segundos cada uno, registrndose con
un detector el nmero r de particulas alfa emitidas cada intervalo, con los resultados
r 0 1 2 3 4 5 6 7 8 9 10 11 12
:(r) 57 203 383 525 532 408 273 139 45 27 10 4 2
En la tabla I se calculan las frecuencias relativas (funcin de masa emprica) de
cada valor r observado, y en la gura se muestra la grca correspondiente. Los autores
propusieron como modelo plausible para la funcin de masa desconocida el de Poisson
) (r) = exp (`)
`
x
r!
r = 0, 1, 2, ...
en el cual la estimacin MV de ` es r (ejercicio 8 del captulo 6)
r =
1
2608
12

x=0
r :(r) = 3.87 cuentas/7.5 s
y en la tabla y en la gura se incluye para comparacin dicho modelo
) (r) = exp(3.87)
(3.87)
x
r!
r = 0, 1, 2, ...
188 8. MODELIZACIN
Tabla I
r :(r) freq. rel. Poisson
0 57 0.0219 0.0209
1 203 0.0778 0.0807
2 383 0.1469 0.1562
3 525 0.2013 0.2015
4 532 0.2040 0.1949
5 408 0.1564 0.1509
6 273 0.1047 0.0973
7 139 0.0533 0.0538
8 45 0.0173 0.0260
9 27 0.0104 0.0112
10 10 0.0038 0.0043
11 4 0.0015 0.0015
12 2 0.0008 0.0005
2608 1 0.9998
0 1 2 3 4 5 6 7 8 9 10 11 12
0
0.05
0.1
0.15
0.2
0.25
nmero de cuentas
p
r
o
b
a
b
i
l
i
d
a
d
Freq. relativa
Poisson
8.4. LA FUNCIN DE DENSIDAD EMPRICA 189
8.4 La funcin de densidad emprica
Sea una Va continua A cuya funcin de densidad desconocida ) (r) deseamos aproximar
a partir de una muestra (r
1
, r
2
, ..., r
n
).
Como
)(r) = 1
0
(r) = lim
h!0
1(r +/) 1(r)
/
para aproximar ) (r) debemos estimar 1(r+/)1(r) con un valor de / sucientemente
pequeo. Una estimacin sera entonces

1(r +/)

1(r) =
:(r, r +/]
:
donde :(r, r+/] denota el nmero de elementos de la muestra que estn en el intervalo
(r, r +/]. Finalmente

)(r) =

1(r +/)

1(r)
/
=
:(r, r +/]
:

1
/
La dicultad para llevar a la prctica la idea anterior est en que : es nito con lo
que, si / es demasiado pequeo, en el intervalo (r, r + /] no habr ningn elemento de
la muestra o habr tan slo uno.
Debemos conformarnos entonces con utilizar un valor de / no demasiado pequeo
que permita estimar la probabilidad 1(r + /) 1(r). Ello signica que en lugar de
aproximar ) (r) estaremos aproximando su valor medio en el intervalo, pues
1(r +/) 1(r)
/
=
1(r < A _ r +/)
/
=
1
/
_
x+h
x
) (n) dn
El mtodo de trabajo habitual es el siguiente:
1. se elige el valor adecuado de / en funcin de la muestra disponible. Para ello hay
diversos criterios orientativos. Por ejemplo
/ -
3.5:
:
1=3
donde : es la desviacin tpica de la muestra.
2. se elige un origen a
0
_ min(r
1
, r
2
, ..., r
n
).
3. se consideran a partir del origen intervalos
1
de longitud / hasta cubrir la muestra
1
se usan intervalos (a; b] para que cada observacin x
i
se incluya en uno solo, pero tambin podramos
190 8. MODELIZACIN
(llamados tambien clases; bins en ingls):
1
1
= [a
0
, a
0
+/], 1
2
= (a
0
+/, a
0
+ 2/], ...1
m
= (a
0
+ (:1) /, a
0
+:/]
de manera que a
0
+:/ _ max (r
1
, r
2
, ..., r
n
).
4. en cada uno de dichos : intervalos 1
j
se estima la densidad media de probabilidad
con
:
j
:/
(, = 1, ..., :)
donde :
j
es el nmero de elementos de la muestra incluidos en el intervalo 1
j
(as
que

m
j=1
:
j
= :).
Se llama histograma (o funcin de densidad emprica) a la funcin

) (r) =
_

_
0 r < a
0
:
j
:/
r 1
j
0 r a
0
+:/
que es efectivamente una funcin de densidad:
_
R

) (r) dr =
m

j=1
_
a
0
+jh
a
0
+(j1)h

) (r) dr =
m

j=1
:
j
:/
/ =
1
:
m

j=1
:
j
= 1
Ejemplo 4 (cont. del 2) Construyamos un histograma de la muestra de 106 intervalos
de tiempo entre llegadas sucesivas de camiones a un punto de carga. Tomaremos r
0
= 0.
La desviacin tpica muestral es : = 20.33 min y resulta como valor orientativo
/ =
3.5 20.33
3
_
106
= 15.035
y tomaremos / = 15. Resultan los intervalos: [0, 15], (15, 30], (30, 45], ...(90, 105]. Ahora
los valores :
j
de observaciones en cada intervalo se hallan con comodidad sobre la mues-
utilizar intervalos [a; b). Tericamente son equivalentes pues para una variable continua
P (a < X < b) = P (a X < b) = P (a < X b) = P (a X b)
8.4. LA FUNCIN DE DENSIDAD EMPRICA 191
tra ordenada. Los clculos se resumen en la tabla adjunta
Tabla II
1
j
:
j
n
j
n
n
j
nh
[0, 15] 57 0.5377 0.0358
(15, 30] 23 0.2170 0.0145
(30, 45] 14 0.1321 0.0088
(45, 60] 6 0.0566 0.0038
(60, 75] 4 0.0377 0.0025
(75, 90] 1 0.0094 0.0006
(90, 105] 1 0.0094 0.0006
106 1
0 20 40 60 80 100 120
0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
0.045
0.05
tiempo entre llegadas en min
d
e
n
s
i
d
a
d

d
e

p
r
o
b
a
b
i
l
i
d
a
d
La forma del histograma sugiere que un modelo plausible para la densidad ) (t) puede
ser el exponencial
) (t) = `exp(`t) t 0
192 8. MODELIZACIN
y como el valor de la media muestral es t = 20.38 min, la estimacin MV de ` es
1,t = 0.05 camiones/min. En la gura se ha superpuesto al histograma dicho modelo
) (t) = 0.05 exp(0.05t) t 0
Ejemplo 5 (cont.) La funcin de distribucin correspondiente es
1(t) = 1 exp(0.05t) t 0
y en la gura se superpone a la funcin de distribucin emprica calculada en el ejemplo
2.
0 20 40 60 80 100 120
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t (minutos)
F(t)
8.5. LA FUNCIN DE CUANTILES EMPRICA 193
8.5 La funcin de cuantiles emprica
Sea ahora A continua. Entonces su funcin de distribucin 1(r) es continua y existe
la funcin inversa r = 1
1
(j), j (0, 1), llamada funcin de cuantiles y que suele
denotarse r = Q(j).
Como una estimacin de 1(r) es la funcin de distribucin emprica

1(r), entonces
una estimacin de Q(j) debera ser la inversa de

1(r). Pero esta carece de inversa: si
r
(k)
,= r
(k+1)
y se elige j = /,:, entonces el valor inverso de

1(r) = /,: podra ser
cualquier r de [r
(k)
, r
(k+1)
).
Ejemplo 6 para la muestra (1, 3, 5, 5, 6, 7, 8) es

1(r) = 4,7 si r [5, 6).
La solucin ms utilizada consiste en suavizar

1(r) sustituyendo los tramos hori-
zontales por otros inclinados que s permitan la inversin, del siguiente modo:
Se asocia a cada r
(k)
la probabilidad
r
(k)
j
k
=
/ 0.5
:
/ = 1, 2, ..., :
y, para / = 1, 2, ..., : 1, se conecta el par de puntos
_
r
(k)
,
k0:5
n
_
y
_
r
(k+1)
,
(k+1)0:5
n
_
mediante un segmento de recta.
Ejemplo 7 En la gura se muestra la funcin de distribucin emprica y la suavizacin
lineal propuesta para la muestra (1, 3, 5, 5, 6, 7, 8):
0 1 2 3 4 5 6 7 8 9
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
p
funcin de distribucin emprica
suavizacin lineal
194 8. MODELIZACIN
Ahora si j [
k0:5
n
,
(k+1)0:5
n
) determinamos la abscisa r =

Q(j) que le corresponde
interpolando: la ecuacin de la recta es
r r
(k)
r
(k+1)
r
(k)
=
j
k0:5
n
(k+1)0:5
n

k0:5
n
=
j
k0:5
n
1
n
= :j / + 0.5
y resulta
r =

Q(j) = r
(k)
+ (:j / + 0.5)
_
r
(k+1)
r
(k)
_
Adems si j <
10:5
n
es

Q(j) = r
(1)
, y si j
n0:5
n
es

Q(j) = r
(n)
.
En la prctica, dado j (0, 1) primero hay que averiguar el segmento para interpo-
lacin, es decir el / tal que
/ 0.5
:
_ j <
(/ + 1) 0.5
:
o lo que es igual
/ _ :j + 0.5 < / + 1
y resulta que / es la parte entera de :j + 0.5. Reunimos todo ello en una denicin:
Denicin 3 (cuantil emprico) Sea (r
(1)
, r
(2)
, ..., r
(n)
) una muestra ordenada de tamao
: de un variable aleatoria continua A. Para j (0, 1), sea
:j + 0.5 = / +r
donde / es la parte entera y r [0, 1) la fraccionaria. El cuantil emprico de orden j es

Q(j) = r
(k)
+r
_
r
(k+1)
r
(k)
_
Adems, si / = 0 entonces

Q(j) = r
(1)
y si / = : entonces

Q(j) = r
(n)
.
Ejemplo 8 con la muestra (1, 3, 5, 5, 6, 7, 8) para j = 1,4 es
7
1
4
+
1
2
= 2 +
1
4
as que

Q(1,4) = r
(2)
+ 0.25(r
(3)
r
(2)
) = 3 + 0.25(5 3) = 3.5
Y para j = 3,4 es
7
3
4
+
1
2
= 5 +
3
4
8.5. LA FUNCIN DE CUANTILES EMPRICA 195
as que

Q(3,4) = r
(5)
+ 0.75(r
(6)
r
(5)
) = 6 + 0.75(6 5) = 6.75
0 1 2 3 4 5 6 7 8 9
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
p
^
Q(p)
Ejemplo 9 (cont. del 5):
para j = 1,4 es
106
1
4
+
1
2
= 27 + 0
as que

Q(1,4) = r
(27)
= 5 min
para j = 3,4 es
106
3
4
+
1
2
= 80 + 0
as que

Q(3,4) = r
(80)
= 30 min
para j = 0.8 es
106 0.8 +
1
2
= 85 + 0.3
as que

Q(0.8) = r
(85)
+ 0.3(r
(86)
r
(85)
) = 35 + 0.9(37 35) = 36.8 min
Se llaman primero, segundo y tercer cuartil a

Q(1,4),

Q(1,2) y

Q(3,4), y se
denotan tambin
1
,
2
y
3
.
Se llaman percentiles a los

Q(j) correspondientes a j = 0.01, 0.02, ..., 0.99.
Nota: La asociacin r
(k)
j
k
= (/ 0.5) ,: signica que por denicin r
(k)
es
el cuantil de orden j
k
. Otros criterios para interpolar el cuantil

Q(j) de una muestra
de tamao : de una magnitud continua se obtienen con otras elecciones de las proba-
bilidades j
k
. Adems de la anterior otra comn en ingeniera es j
k
= /, (: + 1). Con
196 8. MODELIZACIN
cualquiera de ellas si : el cuantil

Q(j) tiende a partir la muestra ordenada en
proporciones j y 1 j (es decir, converge en probabilidad a Q(j)).
8.6 Modelizacin con los cuantiles
Sea la muestra ordenada (r
(1)
, r
(2)
, ..., r
(n)
), es decir los cuantiles estimados r
(k)
=

Q(j
k
)
correspondientes a las probabilidades j
k
(/ = 1, 2, ..., :). Si la funcin de cuantiles terica
de la variable aleatoria A de la que proviene la muestra es r = Q(j), los cuantiles tericos
correspondientes son Q(j
k
) y tendern a ser aproximadamente iguales a sus estimaciones
(tanto ms cuanto mayor sea :), es decir
r
(k)
- Q(j
k
) / = 1, 2, ...:
y resulta que los puntos (Q(j
k
), r
(k)
) (tericos,empricos) se ajustarn aproximadamente
a una recta de pendiente 45
0
que pasa por el origen.
Se llama grco cuantil-cuantil (qq-plot) al de los puntos (Q(j
k
), r
(k)
) para compro-
bar si cierto modelo terico Q(j) es adecuado a la muestra.
En principio, para calcular los Q(j
k
) habra que conocer, o estimar, los parmetros
del modelo. Sin embargo muchas veces Q(j) depende linealmente de slo uno o dos
parmetros desconocidos, sea Q(j) = a+/Q
0
(j), donde Q
0
(j) no depende ya de ningn
parmetro, de manera que el grco de los puntos (Q
0
(j
k
), r
(k)
) se ajustar a una recta.
Si ello es as su pendiente / y su ordenada a pueden estimarse entonces por mnimos
cuadrados, y de sus valores deducir los parmetros del modelo Q(j).
Ejemplo 10 Si A es exponencial de parmetro `
1(r) = 1 exp(`r) = j
r =
1
`
ln(1 j)
as que Q
0
(j) = ln(1 j) y los puntos (ln(1 j
k
) , r
(k)
) deberan ajustarse a una
recta de pendiente / = `
1
y ordenada 0.
Ejemplo 11 Si A es normal de parmetros j y o
1(r) =
_
r j
o
_
= j
r = o
1
(j) +j
8.6. MODELIZACIN CON LOS CUANTILES 197
as que Q
0
(j) =
1
(j) y los puntos (
1
(j
k
), r
(k)
) deberan ajustarse a una recta de
pendiente / = o y ordenada a = j.
Nota: hemos construido el grco poniendo en abscisas los valores Q(j
k
) (tericos) y
en ordenadas los r
(k)
(experimentales) y la recta de mnimos cuadrados es la convencional
(minimizando las desviaciones de las r
(k)
sobre la recta). En muchos paquetes de software
estadstico los ejes pueden estar al revs, pero la recta de ajuste debe ser siempre en
el mismo sentido (experimentales sobre tericos). Tambin es frecuente gracar las
posiciones de los Q(j
k
) con los valores de j
k
(grcos probabilsticos).
8.6.1 Estimacin de los parmetros
Las estimaciones de mnimos cuadrados de los parmetros a y / de Q(j) = a +/Q
0
(j),
a partir de los : puntos (Q
0
(j
i
) , r
(i)
) son:
/ =

r
(i)
Q
0
(j
i
)
_
r
(i)
_
(

Q
0
(j
i
)) ,:

Q
2
0
(j
i
) (

Q
0
(j
i
))
2
,:
a =
_

r
(i)
/

Q
0
(j
i
)
_
,:
Ejemplo 12 Construyamos como ejercicio el grco cuantil-cuantil para la muestra c-
ticia (1, 3, 5, 5, 6, 7, 8) con un modelo gaussiano. Como : = 7 las probabilidades asociadas
a cada elemento de la muestra (cuantiles empricos) con j
k
= (/ 0.5),7 son
j
k
= (0.0714, 0.2143, 0.3571, 0.5000, 0.6429, 0.7857, 0.9286)
y los cuantiles tericos con la (0, 1) correspondientes a estas probabilidades son

1
(j
k
) = (1.4652, 0.7916, 0.3661, 0, 0.3661, 0.7916, 1.4652)
A continuacin se muestra el grco (
1
(j
k
), r
(k)
) en el que se incluye la recta de ajuste
198 8. MODELIZACIN
de mnimos cuadrados.
-1.5 -1 -0.5 0 0.5 1 1.5
1
2
3
4
5
6
7
8
9

-1
(p
k
)
x
(k)
La recta de ajuste de mnimos cuadrados es (en este caso es Q
0
= 0)
/ =

r
(i)

1
(j
i
)

(
1
(j
i
))
2
= 2.3712
a = r =
1
:

r
(i)
= 5
Si se considerase que el ajuste es satisfactorio, se modelizara la variable aleatoria A de
la que proviene la muestra como gaussiana con j estimada 5 y o estimada 2.37
Ejemplo 13 (cont. del 5) En la gura se muestra el qq-plot de la muestra de 106
intervalos de tiempo entre llegadas sucesivas de camiones a un punto de carga suponiendo
un modelo exponencial.
Como : = 106 las probabilidades asociadas a cada elemento de la muestra (cuantiles
empricos) con j
k
= (/ 0.5),106 son
j
k
= (0.0047, 0.0142, 0.0236, ..., 0.9858, 0.9953)
y los cuantiles tericos con la Q
0
(j) = ln(1 j) correspondientes a estas probabili-
8.6. MODELIZACIN CON LOS CUANTILES 199
dades son
Q
0
(j
k
) = (0.0047, 0.0143, 0.0239, ..., 4.2580, 5.3566)
0 1 2 3 4 5 6
-20
0
20
40
60
80
100
120
140
-log(1-p
k
))
x
(k)
Los parmetros de la recta de mnimos cuadrados son / = 20.5564 y a = 0.1119,
que pasa prcticamente por el origen. La pendiente terica es `
1
as que el parmetro
` estimado por mnimos cuadrados es

` = 1,/ = 0.0486 (recordar que la estimacin de
mxima verosimilitud de `
1
= 1 (A) para la exponencial es r, que en la muestra vale
20.3774 as que la estimacin de mxima verosimilitud de ` es 0.0491)
200 8. MODELIZACIN
8.7 Resumen y comparacin de muestras
El objetivo es resumir en unos pocos nmeros aspectos relevantes de la muestra. Debe
quedar claro que ningn resumen de este tipo puede sustituir (equivaler) a la muestra.
Sea una muestra ordenada (r
(1)
, r
(2)
, ..., r
(n)
) de una variable aleatoria A continua.
8.7.1 Centro
El punto central de la muestra ordenada se llama la mediana. Segn que : sea par o
impar se calcula as:
r
m
=
r
(k)
+r
(k+1)
2
: = 2/
r
m
= r
(k+1)
: = 2/ + 1
y se comprueba que, tal como se han denido los cuantiles empricos, coincide con
2
.
La mediana de una muestra de una variable aleatoria A es tambin una estimacin
de la mediana de la poblacin A, que se dene como el nmero : tal que
1(A < :) = 1(A :) =
1
2
Ejemplo 14 en la muestra del ejemplo 9 es r
m
= (r
(53)
+r
(54)
),2 = 12 min
8.7.2 Dispersin
La dispersin total de la muestra es su rango, igual a r
(n)
r
(1)
.
Una medida ms robusta, es decir menos inuenciada por los valores alejados del
centro es el rango intercuartlico, igual a
3

1
(es decir, es la amplitud del intervalo
que contiene el 50% central).
Ejemplo 15 (cont.) el rango intercuartlico es 30 5 = 25.min
8.7.3 Simetra
Para medir el grado de simetra de la muestra (ms precisamente del 50% central) puede
usarse la posicin de la mediana entre los cuartiles. Si
3
r
m
= r
m

1
la muestra
es simtrica. Si
3
r
m
r
m

1
es asimtrica a la derecha, y en otro caso hacia la
izquierda. En resumen un coeciente de simetra es
(
3
r
m
) (r
m

1
) =
3
+
1
2r
m
8.7. RESUMEN Y COMPARACIN DE MUESTRAS 201
que ser menor, igual o mayor que cero segn que la muestra sea asimtrica a la izquierda,
simtrica o asimtrica a la derecha. Para que la medida no dependa de la escala se puede
dividir por el rango intercuartlico, obtenindose as el coeciente de simetra (de Galton):
c
g
=

3
+
1
2r
m

1
Ejemplo 16 (cont)
c
g
=
30 + 5 2 12
30 5
= 0.44
y es asimtrica a la derecha (los datos a la derecha de la mediana se extienden ms lejos
que a la izquierda).
8.7.4 Valores atpicos
Es frecuente que en la muestra aparezcan datos distantes del centro, en las colas de
la distribucin. Pueden ser valores extremos legtimos, pero tambin pueden deberse a
errores de transcripcin o medida, o porque se han tomado en circustancias distintas de
los dems.
Un criterio simple es considerar atpicas en principio las observaciones menores que
/
i
=
1
1.5 (
3

1
)
o mayores que
/
s
=
3
+ 1.5 (
3

1
)
Ejemplo 17 (cont)
/
i
= 5 1.5(30 5) = 32.5
/
s
= 30 + 1.5(30 5) = 67.5
y los valores 68, 69, 90 y 105 son atpicos.
Nota: el siguiente prrafo extrado de http://exploringdata.cqu.edu.au/ozone.htm
es aleccionador:
En 1985 tres investigadores (Farman, Gardinar y Shanklin) estaban perplejos porque
datos recogidos por el British Antarctic Survey mostraban que los niveles de ozono en
la Antrtida haban caido un 10% por debajo de los normales. La pregunta era por qu
el satlite Nimbus 7, que llevaba instrumentos a bordo para medirlos no lo haba detec-
tado. Cuando examinaron los datos del satlite no tardaron en darse cuenta que haba
202 8. MODELIZACIN
ya registrado concentraciones tan bajas durante aos, pero el ordenador haba sido pro-
gramado para desecharlas!. El satlite Nimbus 7 haba recogido evidencias de los bajos
niveles de ozono desde 1976. El dao causado a la atmsfera por los clorouorcarbonos
no haba sido detectado y tratado durante 9 aos porque los valores atpicos haban sido
desechados sin ser examinados.
Moraleja: las observaciones atpicas pueden ser las ms valiosas de una muestra.
8.7.5 Diagramas de caja (Box-Plot)
Es una representacin grca de la muestra en la que se reejan simultaneamente su
centro, dispersin, simetra, recorrido y posibles valores atpicos.
Supongamos que la escala de valores de la variable se traza verticalmente:
1. Se dibuja un rectngulo, de anchura horizontal arbitraria, altura vertical
3

1
,
y cuyos lados horizontales se situan segn la escala vertical en
1
y
3
. Se seala
la posicin de r
m
.
2. Se trazan lineas verticales desde
1
hasta el dato ms pequeo no atpico (es decir
en el intervalo [/
i
,
1
] ), y desde
3
hasta el dato ms grande no atpico (es decir
en el intervalo [
3
, /
s
] ).
3. Se seala la posicin de los datos atpicos.
Ejemplo 18 La muestra ordenada (2.30956, 2.30986, 2.31001, 2.3101, 2.3101, 2.31017,
2.31024, 2.31028, 2.31163) corresponde a las medidas hechas por Raleigh en 1895 de la
masa (en gramos) del nitrgeno obtenido de la atmsfera (eliminando el oxgeno, dixido
de carbono y vapor de agua) contenido en cierto volumen en condiciones especcas de
presin y temperatura.
Para j = 1,4
9
1
4
+
1
2
= 2 + 0.75
as que
1
= 2.30986 + 0.75 (2.31001 2.30986) = 2.3099725 g
Para j = 3,4
9
3
4
+
1
2
= 7 + 0.25
as que
3
= 2.31024 + 0.25 (2.31028 2.31024) = 2.31025 g
Y para j = 1,2 la mediana es
2
= r
(5)
= 2.3101 g
El lmite inferior de valores atpicos es
|
i
= 2.3099725 1.5 (2.31025 2.3099725) = 2.309556
8.7. RESUMEN Y COMPARACIN DE MUESTRAS 203
y el lmite superior
|
s
= 2.31025 + 1.5 (2.31025 2.3099725) = 2.310666
resultando que r
(9)
es atpico.
2.3096
2.3098
2.31
2.3102
2.3104
2.3106
2.3108
2.311
2.3112
2.3114
2.3116
N
i
t
r

g
e
n
o

(
g
)
x
(9)
x
(1)
x
(8)
q
1
q
2
q
3
204 8. MODELIZACIN
Los diagramas de caja son de gran utilidad para comparar muestras.
Ejemplo 19 (continuacin) La muestra ordenada (2.29816, 2.29849, 2.29869, 2.29889,
2.2989, 2.2994, 2.30054, 2.30074, 2.30143, 2.30182) corresponde a las medidas hechas
por Raleigh de la masa (en gramos) del nitrgeno obtenido por medio de una reaccin
qumica (a partir de urea), contenido en el mismo volumen que la muestra anterior
en iguales condiciones de presin y temperatura. Cualquiera que fuese la procedencia
del nitrgeno, a igualdad de volumen, presin y temperatura debera haber, aparte la
variabilidad experimental, la misma masa.
En la gura se comparan los box-plot de ambas muestras en los que se aprecia clara-
mente la mayor masa de las medidas de procedencia atmosfrica, as como su menor
variabilidad experimental. Raleigh (y Ramsay) concluyeron que en la atmsfera haba
otro gas, hasta entonces desconocido, lo que les llev al descubrimiento del argn (0.94
% de Ar en el aire).
Qumi co Atmosfri co
2.298
2.3
2.302
2.304
2.306
2.308
2.31
2.312
N
i
t
r

g
e
n
o

(
g
)
8.7. RESUMEN Y COMPARACIN DE MUESTRAS 205
Ejemplo 20 En 1879 Michelson realiz 100 medidas de la velocidad de la luz en el
aire usando una modicacin de un mtodo propuesto por Foucault. El objetivo del
experimento era medir la variacin de la velocidad de la luz con el movimiento del sistema
inercial (la Tierra). El experimento (para el que Michelson invent el interfermetro
ptico) fue negativo, y puso las bases de la Teora de la Relatividad.
La medidas se realizaron, en fechas sucesivas y con ajustes del sistema experimental,
en cinco grupos de 20 medidas cada uno. Los valores obtenidos se dan a continuacin
ordenados. La unidad son 1000 1:,: y se les ha restado 299 (es decir, el nmero 0.65
corresponde a una medida de 299.65 10
3
1:,:).
uno=(0.65, 0.74, 0.76, 0.81, 0.85, 0.85, 0.88, 0.90, 0.93, 0.93,
0.95, 0.96, 0.96, 0.98, 0.98, 0.98, 1.00, 1.00, 1.00, 1.07)
dos=(0.76, 0.79, 0.79, 0.80, 0.80, 0.80, 0.81, 0.83, 0.83, 0.84,
0.85, 0.88, 0.88, 0.88, 0.88, 0.90, 0.94, 0.94, 0.96, 0.96)
tres=(0.62, 0.72, 0.72, 0.84, 0.84, 0.84, 0.84, 0.84, 0.85, 0.85,
0.86, 0.86, 0.87, 0.88, 0.88, 0.88, 0.88, 0.91, 0.95, 0.97)
cuatro=(0.72, 0.74, 0.75, 0.76, 0.76, 0.77, 0.78, 0.80, 0.81, 0.81,
0.82, 0.84, 0.85, 0.85, 0.86, 0.88, 0.89, 0.89, 0.91, 0.92)
cinco=(0.74, 0.76, 0.78, 0.79, 0.80, 0.81, 0.81, 0.81, 0.81, 0.81,
0.81, 0.82, 0.84, 0.85, 0.87, 0.87, 0.87, 0.89, 0.94, 0.95)
1 2 3 4 5
299.6
299.65
299.7
299.75
299.8
299.85
299.9
299.95
300
300.05
V
e
l
o
c
i
d
a
d

d
e

l
a

l
u
z

(

1
0
3

K
m
/
s
)
206 8. MODELIZACIN
8.8 Ejercicios propuestos
1. La European Agency for Safety and Health at Work ja un OEL (occupational
exposure limit: lmite de exposicin profesional) para el plomo en el aire de
150 jg m
3
. Para controlar los valores A de contaminacin en un laboratorio
se han muestreado 15 puntos resultando: 208, 4, 579, 59, 115, 309, 132, 371, 22,
15, 120, 80, 19, 68, 7.
a) Calcule los cuartiles, el coeciente de simetra y los valores atpicos.
b) Dibuje el box-plot de la muestra de A.
c) Sea 1 = log (A). Calcule los cuartiles, el coeciente de simetra y los valores
atpicos.
d) Dibuje el box-plot de la muestra de 1 .
e) Dibuje el qq-plot de la muestra de 1 suponiendo un modelo normal.
f ) Estime los parmetros del modelo normal ajustando una recta al qq-plot anterior
y tambin los de mxima verosimilitud.
2. La muestra ordenada corresponde a las 29 medidas de la densidad media de la
Tierra j
T
( g cm
3
) del experimento de Cavendish (ejercicio propuesto 2 del captulo
6):
4.88 5.07 5.1 5.26 5.27 5.29 5.29 5.3 5.34 5.34
5.36 5.39 5.42 5.44 5.46 5.47 5.5 5.53 5.55 5.57
5.58 5.61 5.62 5.63 5.65 5.68 5.75 5.79 5.85
a) calcule y dibuje 2 histogramas: ambos con el mismo valor de / pero con origen
de clases distintos: uno a
0
= 4.88 y otro a
0
= 4.84.
b) dibuje el qq-plot suponiendo un modelo normal.
Apndice A
Soluciones a los Ejercicios
A.1 Captulo 1
1. ' 1 = (1
c
) ' (1
c
) ' (1) y los tres sucesos entre parntesis son disjuntos.
As que, aplicando el axioma 1
1(' 1) = 1 (1
c
) +1 (1
c
) +1 (1)
Adems = (1
c
) ' (1) y como los 2 sucesos entre parntesis son disjuntos se
deduce que
1 (1
c
) = 1() 1 (1)
y anlogamente
1 (
c
1) = 1(1) 1 (1)
Finalmente, sustituyendo arriba
1 (' 1) = 1() +1(1) 1 (1)
2.
1(1) = 1(2) = = 1(5) = j 1(1, 2, 3, 4, 5) = 5j
1(6) = 21(1, 2, 3, 4, 5) 1(6) = 10j
1 = 1(6) +1(1, 2, 3, 4, 5) 1 = 15j
207
208 APNDICE A. SOLUCIONES A LOS EJERCICIOS
y resulta j = 1,15. Entonces
1(2, 4, 6) = 12j = 4,5
3.
1(jar) +1(i:jar) = 1 3j + 3 = 1
1(jar) 1(i:jar) = 0.1 3j 3 = 0.1
y resulta j = 11,60, = 3,20
4.
1 =
a

i=1
1(.
i
) = c
a

i=1
i = c
:(: + 1)
2
c =
2
:(: + 1)
5. El
c
y el 1 (tenga en cuenta que y 1 son independientes, es decir 1 (1) =
1 () 1 (1)):
como 1 =
c
1 ' 1 y estos son incompatibles
1(
c
1) = 1(1) 1(1)
= 1(1) 1()1(1)
= (1 1()) 1(1)
= 1(
c
)1(1)
El
c
y el 1
c
:
1(
c
1
c
) = 1 ((' 1)
c
) = 1 1(' 1)
= 1 (1 () +1(1) 1(1))
= 1 (1 () +1(1) 1()1 (1))
= (1 1 ()) (1 1(1))
= 1 (
c
) 1 (1
c
)
6. Los casos favorables (entre parntesis) son: suma 9={126(6), 135(6), 144(3),
225(3), 234(6), 333(1)}, total 25; suma 10={136(6), 145(6), 226(3), 235(6),
244(3), 334(3)}, total 27. Los casos posibles son 6
3
= 216. Resultan 1 (suma 9) =
25,216 y 1 (suma 10) = 27,216.
A.1. CAPTULO 1 209
7. a) 1 (menos de / caras) =
I1

i=0
_
a
i
_
j
i
(1 j)
ai
b) 1 (0 caras) = (1 j)
a
=
_
a
0
_
j
0
(1 j)
a0
= (1 j)
a
c) 1 (al menos 1cara) = 11 (0 caras) = 1(1 j)
a
tambin igual a
a

i=1
_
a
i
_
j
i
(1
j)
ai
8. a)
1 (defectuosa) =
j

= j
b)
1(/ defectuosas) =
_
:
/
_
j
I
(1 j)
aI
/ = 0, 1, ..., :
9.
1(/ defectuosas) =
_
.j
I
__
.(1j)
aI
_
_
.
a
_ / = 0, 1, ..., min(:, j)
pues hay
_
.
a
_
muestras distintas de : piezas, equiprobables, y de ellas
_
.j
I
__
..j
aI
_
con exactamente / piezas defectuosas (de entre las j) y :/ no defectuosas (de
entre las j).
10.
1(al menos un 3) = 1 1(ningn 3) = 1
_
5
6
_
6
1(5 6 veces 3) = 1(5 veces) +1(6 veces)
=
_
6
5
__
1
6
_
5
_
5
6
_
1
+
_
6
6
__
1
6
_
6
_
5
6
_
0
11. El sistema funciona mientras funcionen todos, cada uno con probabilidad 1 j e
independientes:
1(funciona) = (1 j)
a
12. El sistema funciona mientras funcione al menos uno, cada uno con probabilidad
1 j e independientes:
1(funciona) = 1(al menos uno)
= 1 1(ninguno)
= 1 j
a
210 APNDICE A. SOLUCIONES A LOS EJERCICIOS
13. 1(c) = j, 1(+c) = 1(+)1(c) = (1 j)j, 1(+ +c) = 1(+)1(+)1(c) = (1 j)
2
j
etc. Y en general, la probabilidad de necesitar / tiradas exactamente para que
salga cara es
1(/) = (1 j)
I1
j / = 1, 2, ...
1

I=1
(1 j)
I1
j = j
1

I=0
(1 j)
I
= j
1
1 (1 j)
= 1
1(par) =
1

I=1
1(2/) =
1

I=1
(1 j)
2I1
j
=
j
1 j
1

I=1
(1 j)
2I
=
j
1 j
(1 j)
2
1 (1 j)
2
=
1 j
2 j
14.
1 (o [ o

) =
1 (o

[ o) 1(o)
1 (o

[ o) 1(o) +1 (o

[ ) 1()
=
j
j +
1
n
(1 j)
15. a) Denotemos '=bloque de mineral, '

=bloque estimado como de mineral,


1=bloque de estril, 1

=bloque estimado como de estril. Calculemos 1('

)
por medio de la frmula de la probabilidad total:
1('

) = 1('

[ ')1(') +1('

[ 1)1(1)
= 0.80 0.30 + 0.25 0.70
= 0.415
Observar que, aunque la previsn es de un 30% de bloques de mineral, con el
mtodo de estimacin se trataran como mineral un 41.5% . Slo si fuese 1('

[
') = 1 y 1(1

[ 1) = 1 sera 1('

) = 1(').
b)
1(' [ '

) =
1('

[ ')1(')
1('

)
=
0.80 0.30
0.415
= 0.578
1(1 [ '

) = 1 1(' [ '

) = 1 0.578
A.1. CAPTULO 1 211
y anlogamente tendramos:
1(1 [ 1

) =
1(1

[ 1)1(1)
1(1

)
=
0.75 0.70
1 0.415
= 0.897
1(' [ 1

) = 1 1(1 [ 1

) = 1 0.897
16. Un vrtice queda dentro si el punto dista de l a lo ms r, es decir si queda dentro
del cuarto de crculo con centro en el vrtice y radio r. El area total de la regin
favorable es r
2
, as pues la probabilidad es r
2
,/
2
.
La probabilidad es la misma en el siguiente experimento: se deja caer al azar un
disco circular de radio r sobre una malla de puntos, cuadrada de paso /. Proba-
bilidad de que el disco caiga sobre un nodo?.
Y la misma si se supone que el disco est jo y lo que se elige aleatoriamente es la
malla. En esta forma se puede suponer que el disco es un cuerpo a localizar y la
malla es una de sondeos.
17. Los terremotos peligrosos se producen en un segmento de la falla de longitud
(teorema de Pitgoras) 2
_
10
2
1
2
y de ellos los que tienen su epicentro a menos
de 5 km se producen en un segmento de longitud 2
_
5
2
1
2
. Como los epicentros
se localizan al azar la probabilidad es
_
2
_
5
2
1
2
_
,
_
2
_
10
2
1
2
_
= 0.49237
18. La distancia, en el plano . = 0, del punto de corte al origen es d tan,
1(corta) = 1(d tan, < r) = 1(, < arctan(r,d))
=
arctan(r,d)
c
212 APNDICE A. SOLUCIONES A LOS EJERCICIOS
A.2 Captulo 2
1. En cada instante cada una de las : molculas puede estar en con probabilidad j
no estar en con probabilidad 1j, independientemente unas de otras. Claramente
la variable aleatoria 7 es de tipo binomial:
1 (7 = .) =
_
:
.
_
_

\
_
:
_
1

\
_
a:
. = 0, 1, ...:
2. Para cada una de las bolas extraidas su probabilidad de ser roja es
1 (roja) =
r
r +/
= j
El nmero A de bolas rojas entre las : es claramente una variable binomial (cf
ejemplo 13) de parmetros : y j, as que la funcin de masa es
1(A = /) =
_
:
/
_
j
I
(1 j)
aI
/ = 0, 1, ..., :
3. El nmero total de bolas en la urna es r +/. En total hay
_
v+b
a
_
muestras distintas
de : bolas (imagine que las bolas estn numeradas: de la 1 a la r las rojas y de la
r +1 a la r +/ las blancas; dos muestras son distintas si se diferencian en al menos
uno de los nmeros obtenidos). El nmero de muestras distintas con exactamente
/ bolas rojas y : / blancas es
_
v
I
__
b
aI
_
. Como todas las muestras tienen igual
probabilidad
1(A = /) =
_
v
I
__
b
aI
_
_
v+b
a
_ / = 0, 1, ..., min(:, r)
4.
1 (A a) =
j
1 j
1

o+1
(1 j)
a
=
j
1 j
(1 j)
o+1
j
= (1 j)
o
A.2. CAPTULO 2 213
1 (A r +j [ A r) =
1 (A r +j)
1 (A r)
=
(1 j)
a+j
(1 j)
a
= (1 j)
j
= 1 (A j)
Tambin vale:
1 (A r +j [ A _ r) =
1 (A r +j)
1 (A _ r)
=
(1 j)
a+j
(1 j)
a1
= (1 j)
j1
= 1 (A _ j)
1. Si A es exponencial su funcin de distribucin es (ejemplo 21)
1 (r) = 1 exp(`r)
y por lo tanto
1 (A r) = exp (`r)
Aplicando la frmula de la probabilidad condicional:
1 (A r +j [ A r) =
1 (A r +j, A r)
1 (A r)
=
1 (A r +j)
1 (A r)
=
exp(`(r +j))
exp(`r)
= exp(`j)
= 1 (A j)
2. La funcin de cuantiles de la exponencial es (ejemplo 21) r
j
=
1
A
ln(1 j) y para
j = 1,2 resulta r
0.5
= ln(2),`. Si inicialmente hay : tomos, al cabo del tiempo
r
0.5
hay en promedio :,2.
3. Si ` = 4.327 10
4
aos
1
entonces r
0.5
= ln (2) ,` = 1601.9 aos.
4.
1
_
A
1
`
_
= exp
_
`
1
`
_
= exp(1) - 0.37
5. Para cada uno de los : tomos la probabilidad de decaer en (0, t] es 1 (t) =
1 (A _ t) = 1 exp(`t) independientemente unos de otros. El nmero de los
214 APNDICE A. SOLUCIONES A LOS EJERCICIOS
que decaen es una Va discreta 7 con valores posibles 0, 1, ...:. Su funcin de
masa es binomial de parmetros : y 1 (t).
Para cada uno de los : tomos la probabilidad de sobrevivir a t es 1 (A t) =
exp (`t) independientemente unos de otros. El nmero de los que sobreviven
es una Va discreta : 7 con valores posibles 0, 1, ...:. Su funcin de masa es
binomial de parmetros : y 1 1 (t).
6. a) / = 1. b)
1 (r) =
_

_
_

_
0 r _ 0
1 cos r 0 < r < ,2
1 r _ ,2
_

_
c) cos(,4) = 0.70711
7. El recorrido de A es [0, a,2]. Para r jado es A _ r si el punto cae en el intervalo
[a,2 r, a,2 +r] del segmento y por ser el punto elegido a azar (equiprobable), la
probabilidad es el cociente de longitudes
1(r) =
_

_
0 r < 0
2r
a
0 _ r _
o
2
1 r
o
2
)(r) =
_
_
_
2
a
r [0,
o
2
]
0 r , [0,
o
2
]
8. El recorrido de A es [0, a]. Para cada r [0, a] la distancia A es menor o igual que r
si el punto cae en cualquier lugar entre el cuadrado de lado 2a y el cuadrado inscrito
de lado 2(a r) y por ser el punto elegido a azar (equiprobable), la probabilidad
es el cociente de supercies
1(r) =
_

_
0 r < 0
(2a r) r
a
2
0 _ r _ a
1 r a
)(r) =
_
_
_
2 (a r)
a
2
r [0, a]
0 r , [0, a]
9. La Va A tiene recorrido (, +). La variable aleatoria toma valores en
(,2, ,2) con densidad constante (equiprobable), es decir )

(,) = 1,
a)
1 (r) = 1 (A _ r) = 1
_

2
< _ arctanr
_
=
1

_
arctanr +

2
_
A.2. CAPTULO 2 215
b)
) (r) = 1
0
(r) =
1
(1 +r
2
)
< r < +
que es una densidad de Cauchy.
c)
1
_
[A[ <
1
2
_
= 1
_

1
2
< A <
1
2
_
= 1
_
1
2
_
1
_

1
2
_
=
1

_
arctan
1
2
+

2
_

_
arctan
_

1
2
_
+

2
_
=
1

_
arctan
1
2
arctan
_

1
2
__
- 0.295
d)
1 ([A[ < r) = 1 (r < A < r) = 1 (r) 1 (r)
=
1

_
arctanr +

2
_

_
arctan(r) +

2
_
=
1

(arctanr arctan(r)) =
1
2
y ha de ser
1

(arctanr arctan(r)) =
1
2
y como (arctanr arctan(r)) = 2 arctanr resulta
2

arctanr =
1
2
arctanr =

4
r = 1
10. La Va A tiene densidad )
A
(r) = 1 para r (0, 1). La Va 1 = a +/A (con / 0)
tiene recorrido (a, a +/) y su densidad es
)
Y
(j) =
1
/
)
A
_
j a
/
_
=
1
/
j (a, a +/)
tambin uniforme.
11. La Va A tiene densidad )
A
(r) = 1 para r (0, 1). La 1 = 1,A tiene valores
posibles (1, ) y su densidad es
)
Y
(j) =
1
j
2
)
A
_
1
j
_
=
1
j
2
j 1
216 APNDICE A. SOLUCIONES A LOS EJERCICIOS
12. La Va l tiene densidad
)
l
(n) =
1
_
2
c

u
2
2
< n < +
y la 7 = l
2
con recorrido (0, +) tiene densidad
)
Z
(.) =
1
2
_
.
_
)
A
__
.
_
+)
A
_

_
.
_
=
1
_
2
.

1
2
exp
_

.
2
_
. 0
13. La posicin de cada punto es una Va A
i
con distribucin 1 (r) = r y densi-
dad ) (r) = 1 para r (0, 1). Adems las A
i
son independientes. La Va
1 = min(A
1
, A
2
, ..., A
a
) tiene recorrido (0, 1) y su distribucin y densidad son
1
Y
(j) = 1 [1 1 (j)]
a
= 1 [1 j]
a
j (0, 1)
)
Y
(j) = 1
0
Y
(j) = :[1 j]
a1
j (0, 1)
La funcin de cuantiles es la inversa de 1
Y
(j) = j
1 [1 j]
a
= j j = 1 (1 j)
1a
Si j = 1,2 el cuantil correspondiente (la mediana) es
j
0.5
= 1 2
1a
Es decir, hay probabilidad 1,2 de que el mnimo 1 sea menor que j
0.5
.
Para que j
0.5
= 0.1 ha de ser 1 2
1a
= 0.1, y resulta : = 6.5788
Es decir, si se lanzan 7 puntos hay probabilidad 1,2 de que el mnimo sea menor
que 0.1
14. La posicin de cada punto es una Va A
i
con distribucin 1 (r) = r y densi-
dad ) (r) = 1 para r (0, 1). Adems las A
i
son independientes. La Va
1 = max (A
1
, A
2
, ..., A
a
) tiene recorrido (0, 1) y su distribucin y densidad son
1
Y
(j) = [1 (j)]
a
= j
a
j (0, 1)
)
Y
(j) = 1
0
Y
(j) = :j
a1
j (0, 1)
A.2. CAPTULO 2 217
La funcin de cuantiles es la inversa de 1
Y
(j) = j
j
a
= j j = j
1a
Si j = 1,2 el cuantil correspondiente (la mediana) es
j
0.5
= 2
1a
Es decir, hay probabilidad 1,2 de que el mximo 1 sea menor que j
0.5
.
Para que j
0.5
= 0.9 ha de ser 2
1a
= 0.9, y resulta : = 6.5788
Es decir, si se lanzan 7 puntos hay probabilidad 1,2 de que el mximo sea mayor
que 0.9
218 APNDICE A. SOLUCIONES A LOS EJERCICIOS
A.3 Captulo 3
1. 1 (1

) = 1 1 () + 0 1 (
c
) = 1 ()
2. El nmero de veces que sucede es una Va binomial de parmetros : = 100 y
j = 0.1 as que el nmero esperado de veces que suceder es :j = 10
3. El nmero de veces que hay que hacer el experimento hasta que suceda es una
Va geomtrica de parmetro j = 0.1 y su esperanza es 1,j = 10 (a la larga y en
promedio 1 de cada diez veces sucede ).
4. El nmero de aos que han de transcurrir es una Va geomtrica de parmetro
j = 0.01 y su esperanza es 1,j = 100, as que, a la larga una vez cada 100 aos el
caudal mximo excede el valor r.
5. El periodo de retorno de 100 aos corresponde a una probabilidad de excedencia
j = 0.01 as que
1 (A r) = 1 1 (r) = c
0.01a
= 0.01
r =
1
0.01
ln(0.01) = 460.5 m
3
s
1
cada 100 aos aproximdamente el caudal mximo excede el valor anterior.
6. La probabilidad de par es j =
18
37
= 0.48649
La probabilidad de perder las 10 es
_
1
18
37
_
10
= 1.275 10
3
y la prdida es
(2
10
1) = 1023.0
Es decir, a la larga aproximadamente 1 de cada mil rondas perdemos 1023 euros.
Y 999 de cada 1000 ganamos 1 euro cada una.
7. Como 1
_
(A c)
2
_
es una funcin continua y diferenciable de c y la esperanza es
una operacin lineal
d
dc
1
_
(A c)
2
_
= 21 (A c) = 0 1 (A) c = 0
as que el mnimo se tiene para c = 1 (A)
Tambin as:
A.3. CAPTULO 3 219
Denotando j = 1 (A)
1
_
(A c)
2
_
= 1
_
(A j +j c)
2
_
= 1
_
(A j)
2
+ (j c)
2
+ 2 (j c) (A j)
_
= 1
_
(A j)
2
_
+ (j c)
2
pues
1 ((j c) (A j)) = (j c) 1 (A j) = 0
y como
1
_
(A j)
2
_
+ (j c)
2
_ 0
resulta que es mnimo si c = j y el valor mnimo es \ ar (A) = 1
_
(A j)
2
_
8.
1 (l) =
1
o
1 (A j) = 0
\ ar (l) =
1
o
2
\ ar (A j) =
1
o
2
\ ar (A) = 1
9.
1 (A) =
1
:
a

a=1
r =
:(: + 1)
2:
=
: + 1
2
1
_
A
2
_
=
1
:
a

a=1
r
2
=
_
2:
3
+ 3:
2
+:
_
6:
=
2:
2
+ 3: + 1
6
\ ar (A) = 1
_
A
2
_
(1 (A))
2
=
2:
2
+ 3: + 1
6

_
: + 1
2
_
2
=
:
2
1
12
10.
1 (A) =
1

a=1
r(1 j)
a1
j = j
d
dj
_
1

a=1
(1 j)
a
_
= j
d
dj
_
1 j
j
_
=
1
j
Derivando otra vez se halla que 1
_
A
2
_
=
2j
j
2
y por lo tanto \ ar (A) =
1j
j
2
220 APNDICE A. SOLUCIONES A LOS EJERCICIOS
11.
1

a=0
r
`
a1
r!
= c
A

a=0
rc
A
`
a
r!
= `
1 (A) = `
Derivando otra vez se halla que 1
_
A
2
_
= `
2
+` y por lo tanto
\ ar (A) =
_
`
2
+`
_
`
2
= `
12.
1(A) =
_
b
o
r
1
/ a
dr =
a +/
2
.
1(A
2
) =
_
b
o
r
2
/ a
dr =
1
3
/
3
a
3
/ a
y entonces:
\ ar(A) =
1
3
/
3
a
3
/ a

(a +/)
2
4
=
(/ a)
2
12
13. derivando:
1
o
_
2
_
R
(r j) c

(r j)
2
2o
2
dr = 0
reordenando:
1
o
_
2
_
R
rc

(r j)
2
2o
2
dr =
j
o
_
2
_
R
c

(r j)
2
2o
2
dr
es decir 1 (A) = j
14. derivando
1
_
2
_
R
(r j)
2
o
3
c

(r j)
2
2o
2
dr = 1
1
o
_
2
_
R
(r j)
2
c

(r j)
2
2o
2
dr = o
2
es decir \ ar (A) = o
2
15. Para cada tomo la probabilidad de sobrevivir al tiempo t es 1 1 (t) = c
At
. El
nmero (t) de los que sobreviven es una Va binomial de parmetros : = (0)
A.3. CAPTULO 3 221
y j = c
At
y su esperanza es :j:
1 ( (t)) = (0) c
At
16. Sea A
i
= 1 si el sondeo i resulta en xito y A
i
= 0 en otro caso. 1(A
i
) = j, y
\ ar(A
i
) = j(1 j).
El nmero total de sondeos con xito es A =

A
i
. (y el de sondeos sin xito es
: A)
a)
1(A) =

1(A
i
) = :j
\ ar(A) =

\ ar(A
i
) = :j(1 j)
b) El coste total es la Va C = c
0
+ 2cA +c(: A) = c
0
+cA +:c
1(C) = c
0
+c:j +:c
\ ar(C) = c
2
:j(1 j)
17. El resultado de cada dado es una Va A
i
con masa ) (r) = 1,6 para r 1, 2, .., 6.
Su esperanza y varianza son (ejercicio 9)
1 (A
i
) =
6 + 1
2
=
7
2
\ ar (A
i
) =
6
2
1
12
=
35
12
La suma de los puntos es
o = A
1
+A
2
+ +A
36
1 (o) = 1 (A
1
+A
2
+ +A
36
) =
36

i=1
1 (A
i
) = 36
7
2
= 126
y como las A
i
son independientes
\ ar (o) = \ ar (A
1
+A
2
+ +A
36
) =
36

i=1
\ ar (A
i
) = 36
35
12
= 105
222 APNDICE A. SOLUCIONES A LOS EJERCICIOS
18.
1 ([o 1 (o)[ < -) _ 1
\ ar (o)
-
2
1 ([o 126[ < 30) _ 1
105
30
2
= 0.883
En general la acotacin de Tchebychev es grosera. Veremos en el prximo Captulo
que la probabilidad que nos interesa se puede aproximar muy bien de otra manera.
19.
j = 0 ms
1
o =
_
/T
:
_
12
=
_
1.38 10
23
300
0.028 (6.022 10
23
)
1
_
12
=
_
1.38 300
0.028 (6.022)
1
_
12
= 298.39 ms
1
1
_
1
2
:
_
\
2
a
+\
2
j
+\
2
:
_
_
=
:
2
_
1
_
\
2
a
_
+1
_
\
2
j
_
+1
_
\
2
:
__
=
3/T
2
20.
1 (\ ) = 1 (A) 1 () = 10 cm
3
1
_
\
2
_
= 1
_
A
2
_
1
_

2
_
=
_
\ ar (A) +1
2
(A)
_ _
\ ar () +1
2
()
_
=
_
0.005
2
+ 10
2
_ _
0.01
2
+ 1
2
_
= 100.01
\ ar (\ ) = 100.01 100 = 0.01
_
\ ar (\ ) = 0.1 cm
3
21.
1
_

7
i
_
= 8000 g
_
\ ar
_

7
i
_
=
_
64 100 0.01 = 8 g
22. La Va 1 = min(A
1
, A
2
, ..., A
a
) tiene recorrido (0, 1) y densidad
)
Y
(j) = 1
0
Y
(j) = :(1 j)
a1
j (0, 1)
A.3. CAPTULO 3 223
y entonces la esperanza
1 (1 ) =
_
1
0
:j(1 j)
a1
dj
n = j
d = :(1 j)
a1
= (1 j)
a
1 (1 ) = [j(1 j)
a
]
1
0
+
_
1
0
(1 j)
a
dj
1 (1 ) =
_
1
0
(1 j)
a
dj =
1
: + 1
_
(1 j)
a+1

1
0
=
1
: + 1
23. La distancia de cada punto al centro del crculo es una Va con distribucin
1
1
(j) = j
2
j [0, 1]
La distribucin del ms prximo al origen (del mnimo) es
1
Y
(j) = 1 [1 1
1
(j)]
3
as que
1
Y
(j) = 1
_
1 j
2

3
La densidad del mnimo es
)
Y
(j) = 6j
_
1 j
2

2
= 6
_
j +j
5
2j
3
_
j [0, 1]
y su esperanza es
1 (1 ) = 6
_
1
0
j
_
j +j
5
2j
3
_
dj = 6
_
1
3
+
1
7

2
5
_
=
16
35
- 0.46
24. La Va 1 = max (A
1
, A
2
, ..., A
a
) tiene recorrido (0, 1) y densidad
)
Y
(j) = 1
0
Y
(j) = :j
a1
j (0, 1)
1 (1 ) =
_
1
0
:j
a
dj =
:
: + 1
_
j
a+1

1
0
=
:
: + 1
224 APNDICE A. SOLUCIONES A LOS EJERCICIOS
A.4 Captulo 4
1. a)
1 (119.4 < A < 121.2) = 1
_
119.4 120
2
< l <
121.2 120
2
_
= 1 (0.3 < l < 0.6) = (0.6) (0.3)
= 0.72575 (1 0.61791) = 0.34366
Y la probabilidad de que 3 medidas independientes estn en el intervalo es 0.34366
3
-
0.04
b)
1 (120 a < A < 120 +a) = 1
_
a
2
< l <
a
2
_
= 0.8
por lo tanto

_
a
2
_

a
2
_
=
_
a
2
_

_
1
_
a
2
__
= 2
_
a
2
_
1 = 0.8

_
o
2
_
= 0.9 y tomando el valor de la tabla (1.28) = 0.89973 resulta a = 2.56. Es
decir
1 (117.44 < A < 122.56) = 0.8
2. La probabilidad de que un empaquetado se aceptable es
1 (149.2 < A < 150.4) = 1
_
149.2 150
1,4
< l <
150.4 150
1,4
_
= 1 (3.2 < l < 1.6) = (1.6) (3.2)
= 0.94520 (1 0.99931) = 0.94451
Si la cualidad de aceptable de cada uno del lote es independiente de los dems,
con la misma probabilidad anterior, el nmero 7 de aceptables en el lote es una
variable binomial, de parmetros : = 100 y j = 0.94451, y su valor promedio es
:j = 100 0.94451 - 94
3. a)
1 (A < 40) = 1
_
l <
40 50
5
= 2
_
= (2) = 1 0.97725 = 0.02275
A.4. CAPTULO 4 225
b)
1 (A < r) = 1
_
l <
r 50
5
_
=
_
r 50
5
_
= 0.05
con ayuda de la tabla (valores de mayores que 0.5) hay que hallar el nmero n
tal que (n) = 0.95, es decir

_
r 50
5
_
= 1
_

r 50
5
_
= 0.05
_

r 50
5
_
= 0.95
y el valor ms aproximado es (1.64) = 0.94950 as que

r 50
5
= 1.64 r = 50 5 1.64 = 41.8 N/mm
2
4.
1 (0.9 0.005 < A < 0.9 + 0.005) = 1
_

0.005
o
< l <
0.005
o
_
=
_
0.005
o
_

0.005
o
_
= 0.997
por lo tanto (fuera del intervalo queda una probabilidad 0.003 y en cada cola
0.0015)

_
0.005
o
_
= 0.9985
y el valor ms aproximado, con ayuda de la tabla, es (2.97) = 0.99851 as que
0.005
o
= 2.97 o =
0.005
2.97
= 1.6835 10
3
5. Como A e 1 son normales independientes, la carga total 7 = A + 1 es nor-
mal, con 1(7) = 1(A) + 1(1 ) y \ ar(7) = \ ar(A) + \ ar(1 ) resultando
7 ~ (140, 10
_
2). Buscamos el nmero . tal que
1(7 .) = 1(l
. 140
10
_
2
) = 1
_
. 140
10
_
2
_
= 0.01
as que
_
:140
10
p
2
_
= 0.99 y el valor ms aproximado es (2.33) = 0.99010 as que
. 140
10
_
2
= 2.33
226 APNDICE A. SOLUCIONES A LOS EJERCICIOS
y resulta . = 172.95 Tm.
6. a)
1 (\ 3.1) = 1
_
l
3.1 3
0.1
= 1
_
= 1 (1) = 1 0.84134 = 0.15866
b)
1
_
a

i=1
\
i
n
_
= 1
_
l
n : j
W
o
W
_
:
_
= 1
_
n : j
W
o
W
_
:
_
= 0.01
as que

_
n : j
W
o
W
_
:
_
= 0.99
y el valor ms aproximado con ayuda de la tabla es (2.33) = 0.99010 as que
n = : j
W
+ 2.33o
W
_
:
= 10 3 + 2.33 0.1
_
10 = 30.737 Tm
7. Si A
i
denota el resultado de cada pregunta, es 1 (A
i
= 1) =
1
5
y 1 (A
i
= 0) =
4
5
.
Adems 1 (A
i
) =
1
5
y \ ar (A
i
) =
1
5

4
5
. El nmero de aciertos en 30 preguntas es

30
i=1
A
i
, con distribucin binomial de parmetros 30 y
1
5
. Su esperanza y varianza
son:
1
_
30

i=1
A
i
_
= 30
1
5
\ ar
_
30

i=1
A
i
_
= 30
1
5

4
5
Se pide hallar r tal que
1
_
30

i=1
A
i
_ r
_
= 0.05
o lo que es igual
1
_
30

i=1
A
i
< r
_
= 1
_
30

i=1
A
i
_ r 1
_
= 0.95
A.4. CAPTULO 4 227
y usando la aproximacin normal
1
_
30

i=1
A
i
_ r 1
_
-
_
_
r 1 + 0.5 30
1
5
_
30
1
5

4
5
_
_
= 0.95
r 1 + 0.5 30
1
5
_
30
1
5

4
5
= 1.64 r = 10.0931
8. o =

a
i=1
A
i
es asintticamente
_
126,
_
105
_
y
1 (o _ :) -
_
: + 0.5 126
_
105
_
1 ([o 126[ < 30) = 1 (96 < o < 156)
= 1 (96 < o _ 155)
= 1 (o _ 155) 1 (o _ 96)
1 (o _ 155) -
_
155 + 0.5 126
_
105
_
= (2.879) - 0.99801
leyendo (2.88) = 0.99801
1 (o _ 96) -
_
96 + 0.5 126
_
105
_
= (2.879) - 1 0.99801
= 0.00199
y resulta
1 ([o 126[ < 30) - 0.99801 0.00199 = 0.99602
(en el Ejercicio 18 del Captulo 3 se obtuvo mediante la acotacin de Tchebychev
1 ([o 126[ < 30) _ 0.883).
228 APNDICE A. SOLUCIONES A LOS EJERCICIOS
9.
1
_

7
i
_
= 8000 g
\ ar
_

7
i
_
= 64 g
2
_
\ ar
_

7
i
_
= 8 g
1
_

7
i
8016
_
= 1 1
_

7
i
_ 8016
_
- 1
_
8016 8000
8
= 2
_
= 1 0.97725 = 0.02275
Como las 7
i
y por lo tanto la

7
i
son variables continuas no hay que usar la
correccin de continuidad para aproximar con el teorema central del lmite.
10.
1
_
25

i=1
A
i
_
=
25

i=1
1 (A
i
) = 25 40
\ ar
_
25

i=1
A
i
_
=
25

i=1
\ ar (A
i
) = 25 20
2
1
_
a

i=1
A
i
1100
_
= 1 1
_
a

i=1
A
i
_ 1100
_
- 1
_
1100 25 40
20
_
25
= 1
_
= 1 0.84134 = 0.15866
Como las A
i
y por lo tanto la

A
i
son variables continuas no hay que usar la
correccin de continuidad para aproximar con el teorema central del lmite.
11. El tiempo que el sistema est operativo es

a
i=1
A
i
. Su esperanza y varianza son
1
_
a

i=1
A
i
_
= 100:
\ ar
_
a

i=1
A
i
_
= 30
2
:
A.4. CAPTULO 4 229
y se pide : para que
1
_
a

i=1
A
i
_ 10000
_
= 0.05
1
_
a

i=1
A
i
_ 10000
_
-
_
10000 100:
30
_
:
_
= 0.05
y ha de ser
10000 100:
30
_
:
= 1.64
Las soluciones de
10000 100: + 1.64 30
_
: = 0
son
_
: = 10.249, 9.757 y slo vale la primera. As : = 10.249
2
- 105.
12. a)
1 ( (1) _ 4, (3) _ 12) =
4

a=0
1 ( (1) = r, (3) (1) _ 12 r)
=
4

a=0
1 ( (1) = r) 1 ( (3) (1) _ 12 r)
=
4

a=0
_
_
c
4
4
a
r!

12a

j=0
c
8
8
j
j!
_
_
= 0.4575
b) El tiempo de espera entre llegadas es 1,` = 1,4 = 0.25 h
13.
` =
7
15000
= 4.6667 10
4
accidentes/ao
El nmero esperado de accidentes de gravedad 4 o superior en los prximos 20
aos es
1 ((20)) = :`t = 442 (7,15000) 20 = 4.1253
La probabilidad de que se produzca al menos un accidente de gravedad 4 o superior
en los prximos 20 aos es
1 ((20) _ 1) = 1 1 ((20) = 0) = 1 c
aAt
= 1 exp(4.1253) = 0.9838
230 APNDICE A. SOLUCIONES A LOS EJERCICIOS
14. a) el nmero () de cristales en secciones de 0.01 dm
2
es una Va de Poisson de
parmetro ` = 7 0.01 = 0.07 y por lo tanto 1( () = 0) = exp (0.07) =
0.93239.
b) como las 10 secciones no se solapan las VAs
i
() son independientes, y
1(
1
() = 0,
2
() = 0, ...,
10
() = 0) = 0.93239
10
= 0.49656
15. La probababilidad de que en un conjunto haya al menos un punto es
1 ( () _ 1) = 1 1 ( () = 0)
= 1 exp
_
`r
2
_
pues es en nuestro caso un crculo de area r
2
y () es Poisson de parmetro
`r
2
. Por lo tanto
1(r) = 1 exp
_
`r
2
_
r 0
y derivando resulta la densidad:
)(r) = 2`rexp
_
`r
2
_
r 0
16. Para una ji-cuadrado de parmetro 3 se lee en la tabla 2 que
1
_

2
(3) < 7.8147
_
= 0.95
asi pues

2
o
2
= 7.8147
= o
_
7.8147 = 298.39
_
7.8147 = 834.14 ms
1
17.
o
_
7.8147 = 10
3
_
1.38 T
0.028 (6.022)
1
_
12
=
10
3
_
7.8147
T = 431.15 K
18.
1 (7 < .) = 1
_
7
2
< .
2
_
= 1
_

2
(2) <
.
2
o
2
_
= c
A.4. CAPTULO 4 231
Para una ji-cuadrado de parmetro 3 se lee en la tabla 2 que
1
_

2
(2) < 5.9915
_
= 0.95
y as, con . = 5 m
.
2
o
2
=
25
o
2
= 5.9915 o =
5
_
5.9915
= 2.0427 m
232 APNDICE A. SOLUCIONES A LOS EJERCICIOS
A.5 Captulo 5
1. Denotando las muestras (A
1
, A
2
, ..., A
n
) y (A
n+1
, A
n+2
, ..., A
n+a
) es

n
i=1
A
i
=
:A
n
y

n+a
i=n+1
A
i
= :A
a
A =
1
:+:
n+a

i=1
A
i
=
:A
n
+:A
a
:+:
2.
o
2
0
=
1
:
a

i=1
_
A
i
A
_
2
=
: 1
:
o
2
1
_
o
2
0
_
=
: 1
:
1
_
o
2
_
=
: 1
:
o
2
tambin
\ ar
_
o
2
0
_
=
_
: 1
:
_
2
\ ar
_
o
2
_
y es claro que 1
_
o
2
0
_
o
2
y \ ar
_
o
2
0
_
0 si : , de manera que o
2
0
tambin
puede utilizarse para aproximar o
2
. Sin embargo si : es nito 1
_
o
2
0
_
= o
2
o
2
,:
y se cometera un error sistemtico en la aproximacin de valor promedio o
2
,:.
3.
r =
1
:
a

i=1
r
i
=
1
:
I

i=1
:
i
a
i
:
2
=
1
: 1
a

i=1
(r
i
r)
2
=
1
: 1
I

i=1
:
i
(a
i
r)
2
=
1
: 1
_
I

i=1
:
i
a
2
i
:r
2
_
4. a)
r =
1
20
20

i=1
r
i
=
1
20
7

i=1
:
i
a
i
=
4 0 + 3 1 + 5 2 + 2 3 + 4 4 + 1 5 + 1 6
20
= 2.3 defectos/cm
2
A.5. CAPTULO 5 233
7

i=1
:
i
a
2
i
= 4 0
2
+ 3 1
2
+ 5 2
2
+ 2 3
2
+ 4 4
2
+ 1 5
2
+ 1 6
2
= 166
:
2
=
1
: 1
_
I

i=1
:
i
a
2
i
:r
2
_
=
1
20 1
_
166 20 2.3
2
_
= 3.1684
y
: = 1.78 defectos/cm
2
b) La media de la muestra total de 30 probetas es la ponderada
20 2.3 + 10 1.4
30
= 2 defectos/cm
2
5. a)
1
_
A
_
= 1 (A) = r
1
_
A
2
_
= \ ar
_
A
_
+
_
1
_
A
__
2
=
\ ar (A)
:
+ (1 (A))
2
=
o
2
:
+r
2
as que el sesgo es o
2
,:
b) un estimador insesgado para o
2
,: es o
2
,:. Resulta que un estimador insesgado
de rea es
_
_
A
_
2
o
2
,:
_
6.
\ ar (T) = c
2
\ ar (T
1
) + (1 c)
2
\ ar (T
2
)
= c
2
o
2
1
+ (1 c)
2
o
2
2
d
dc
\ ar (T) = 2co
2
1
2 (1 c) o
2
2
= 0
c =
o
2
2
o
2
1
+o
2
2
234 APNDICE A. SOLUCIONES A LOS EJERCICIOS
que corresponde a un mnimo pues
d
2
dc
2
\ ar (T) = 2o
2
1
+ 2o
2
2
0
El estimador de varianza mnima es
T =
o
2
2
o
2
1
+o
2
2
T
1
+
o
2
1
o
2
1
+o
2
2
T
2
que se puede escribir tambin
T =
1
o
2
1
1
o
2
1
+
1
o
2
2
T
1
+
1
o
2
2
1
o
2
1
+
1
o
2
2
T
2
y se ve que el peso que se da a cada estimador, T
1
y T
2
, es tanto mayor cuanto
ms preciso es (cuanto menor es su varianza).
7.
\ ar (T
1
) = \ ar
_
A
n
_
=
o
2
:
\ ar (T
2
) = \ ar
_
A
a
_
=
o
2
:
T =
n
o
2
n
o
2
+
a
o
2
A
n
+
a
o
2
n
o
2
+
a
o
2
A
a
=
:
:+:
A
n
+
:
:+:
A
a
= A
es decir, la media muestral de la muestra total de tamao :+:.
8. La estimacin de MV de j es
r =
1
:

r
i
=
533 + 552 + 539 + 564 + 541
5
=
2729
5
= 545.8 Kg
Para estimar o calculamos

(r
i
r)
2
=
a

i=1
r
2
i

1
:
_

r
i
_
2
= 1490091
2729
2
5
= 602.8
A.5. CAPTULO 5 235
La estimacin de mxima verosimilitud de o
2
es
1
:

(r
i
r)
2
=
602.8
5
= 120.56
que como sabemos es sesgado. La estimacin insesgada es
:
2
=
1
: 1

(r
i
r)
2
=
602.8
4
= 150.7
y la estimacin correspondiente de o es
: = 12.276 Kg
9. El valor a estimar es
1 =
_
2
0
sinrdr = [cos r]
2
0
= 1
Para aproximar el valor de la integral se usarn los valores de : Vas A
i
con densidad
) (r) =
2

para r (0, ,2), y se usar el estimador

1 =

2:
a

i=1
sinA
i
Calculemos su esperanza. Primero
1 (sinA
i
) =
2

_
2
0
sinrdr =
2

[cos r]
2
0
=
2

y resulta
1
_

1
_
=

2:
1
_
a

i=1
sinA
i
_
=

2:
a

i=1
1 (sinA
i
) = 1
10.
1(j) = (1 j)
P
a
i
a
j
a
ln1 =
_

r
i
:
_
ln(1 j) +:lnj
d ln1
dj
=

r
i
:
1 j
+
:
j
= 0
j =
:

r
i
=
1
r
236 APNDICE A. SOLUCIONES A LOS EJERCICIOS
que es la frecuencia relativa de caras (:) en el total de tiradas (

r
i
). El estimador
MV de 1(A) = j
1
es A
11.
1(`) =

_
c
A
`
a
i
r
i
!
_
= c
aA
`
P
a
i
_

1
r
i
!
_
ln1 = :` +

r
i
ln` + ln
_

1
r
i
!
_
d ln1
d`
= : +
:r
`
= 0

` = r
que corresponde a un mximo pues
d
2
ln1
d`
2
=
:r
`
2
< 0 \`
El estimador es A.
Hallemos la cota
ln) (r) = ` +rln` lnr!
d ln) (r)
d`
= 1 +
r
`
=
r `
`
1(`) = 1
_
d ln) (A)
d`
_
2
=
1
_
(A `)
2
_
`
2
=
`
`
2
=
1
`
pues 1 (A) = ` y \ ar (A) = 1
_
(A `)
2
_
= `. La cota es
1
:1(`)
=
`
:
y como \ ar
_
A
_
= \ ar (A) ,: = `,: resulta que el estimador alcanza la cota.
12.
1(C) = 1
_
3A +A
2
_
= 31(A) +1(A
2
) = 31(A) +\ ar(A) + (1(A))
2
= 3` +` +`
2
= 4` +`
2
y como el estimador MV de ` es A el de 1(C) es 4A +
_
A
_
2
. Calculamos su
A.5. CAPTULO 5 237
esperanza
1
_
4A +
_
A
_
2
_
= 41
_
A
_
+1
_
_
A
_
2
_
= 41
_
A
_
+\ ar
_
A
_
+
_
1
_
A
__
2
= 41 (A) +
\ ar (A)
:
+ (1 (A))
2
= 4` +
`
:
+`
2
y el sesgo vale `,:. Entonces 4A +
_
A
_
2
A,: es insesgado.
13. Si el estimador de 1,` es A el de 1,`
2
es, por la propiedad de invariacin,
_
A
_
2
.
Calculamos su esperanza
1
_
_
A
_
2
_
= \ ar(A) +
_
1(A)
_
2
=
1
:`
2
+
1
`
2
=
1
`
2
_
: + 1
:
_
as que un estimador insesgado es
:
: + 1
_
A
_
2
14. a)
) (r) = 1
0
(r) =
r
o
2
exp
_

r
2
2o
2
_
r 0
1(o) =

) (r
i
) =

r
i
o
2
exp
_

r
2
i
2o
2
_
=
1
o
2a
exp
_

r
2
i
2o
2
_

r
i
ln1(o) = 2:lno

r
2
i
2o
2
+

lnr
i
igualando a cero la derivada
d
do
ln1(o) =
2:
o
+

r
2
i
o
3
= 0 o =
_
1
2:

r
2
i
la solucin es
o =
_
1
2:

r
2
i
238 APNDICE A. SOLUCIONES A LOS EJERCICIOS
que corresponde a un mximo pues
_
d
2
do
2
ln1(o)
_
b o
=
8:
2

r
2
i
< 0
b) la estimacinde MV de 1 (A) es o
_

2
.
c) la estimacin de 1 (A) por el mtodos de los momentos es r. Y como o =
_
2

1 (A) la estimacin de o por el mtodo de los momentos es


o =
_
2

r
d) estimaciones de mxima verosimilitud
o =
_
1
2:

r
2
i
=
_
109.94
20
= 2.3446

1 (A) = o
_

2
= 2.9385
estimaciones de momentos

1 (A) = r = 3.1
o =
_
2

r = 2.4734
15.
` =
1 (A)
\ ar (A)
=
1 (A)
1 (A
2
) (1 (A))
2
0 = `1 (A)
Las estimaciones son

` =
r
r
2
(r)
2
=

r
i

r
2
i

1
a
(

r
i
)
2

0 =

`r
A.5. CAPTULO 5 239
Con la muestra es

` =

r
i

r
2
i

1
a
(

r
i
)
2
=
187.38
3380.69740
187.38
2
12
= 0.4120

0 =

`r = 6.4340
Las estimaciones de MV calculadas con un programa son

` = 0.4576 y

0 = 7.1449
16. Si 1 ~ 1(j, o) (lognormal de parmetros j y o), entonces A = ln1 ~ (j, o).
Como la funcin logaritmo es montona entonces las estimaciones de j y o son las
mismas. En la normal se obtuvo
j = r
o =
_
1
:

(r
i
r)
2
1 (1 ) y \ ar (1 ) son funciones de j y o. Aplicando la propiedad de invariacin

1(1 ) = exp( j + o
2
,2)
\ ar(1 ) = exp(2 j + o
2
)(exp o
2
1)
17. La probabilidad de obtener en : ensayos independientes los valores r
1
, r
2
y r
3
de
las 3 clases, con probabilidades j
1
, j
2
y j
3
de cada clase es
_
5000
r
1
__
5000 r
1
r
2
_
j
a
1
1
j
a
2
2
j
a
2
3
Como funcin de .
1(.) =
_
5000
r
1
__
5000 r
1
r
2
_
(0.025 +.)
a
1
+a
3
(0.95 2.)
a
2
El . que maximiza se obtiene as
ln1 = lnC + (r
1
+r
3
) ln (0.025 +.) +r
2
ln(0.95 2.)
d ln1
d.
=
(r
1
+r
3
)
(0.025 +.)

2r
2
(0.95 2.)
= 0
. =
(r
1
+r
3
) (0.95) 2r
2
0.025
2:
240 APNDICE A. SOLUCIONES A LOS EJERCICIOS
que corresponde a un mximo pues
d
2
ln1
d.
2
=
(r
1
+r
3
)
(0.025 +.)
2

4r
2
(0.95 2.)
2
< 0 \.
Con la muestra resulta
. =
572 0.95 2 4428 0.025
2 5000
= 0.0322
18. El principio de mxima verosimilitud se basa en maximizar la probabilidad de la
muestra observada. Como la probabilidad de que un componente dure menos de
85 h es [1 exp(85`)], la probabilidad de la muestra es (binomial)
1(`) =
_
10
6
_
[1 exp(85`)]
6
[exp(85`)]
4
ln1 = lnC + 6 ln [1 exp(85`)] 340`
d ln1
d`
=
510 exp(85`)
1 exp(85`)
= 340
exp(85`) =
340
510 + 340
= 0.4

` =
ln0.4
85
- 1.08 10
2
fallos/hora
y an ms fcil poniendo j = 1 exp(85`) y hallando el estimador de j del que
se deducir (por la propiedad de invariacin) el de `:
1(j) =
_
10
6
_
j
6
(1 j)
4
d ln1
dj
=
6
j

4
1 j
= 0
j = 0.6

` =
1
85
ln(1 j) =
ln0.4
85
Las estimaciones de 1 (A) y de 1 (A 100), de nuevo por la invariacin, son:

1(A) =
1

`
= 92.8 h

1(A 100) = exp(100

`) - 0.34
A.5. CAPTULO 5 241
19. como
1
_

`
i
A
i
_
=

`
i
1(A
i
) = 1(A)

`
i
para que el estimador sea insesgado ha de ser

`
i
= 1. Busquemos ahora, en
particular, cul tiene varianza mnima. Como:
\ ar
_

`
i
A
i
_
=

`
2
i
\ ar(A
i
) = \ ar(A)

`
2
i
se trata de hallar los `
i
que minimizan

`
2
i
sujetos a

`
i
= 1. Como se sabe
(mtodo de Lagrange) ello equivale a hallar los `
i
y c que minimizan =

`
2
i

2c (

`
i
1). La solucin se obtiene del sistema:
0
0`
)
= 2`
)
2c = 0 , = 1, ..., :
0
0c
=

`
i
1 = 0
resultando `
)
= 1,:. En conclusin, el estimador lineal insesgado de varianza
mnima es A.
242 APNDICE A. SOLUCIONES A LOS EJERCICIOS
A.6 Captulo 6
1. a)
- = n
0.975

o
_
:
= 1.96
0.3
_
100
= 0.0588
j (10.2 0.0588) = (10.14, 10.26)
b) para tener una cota - = 0.01 con el 95% hay que tomar un :
: =
_
n
0.975

o
-
_
2
=
_
1.96
0.3
0.01
_
2
- 3457
2. La muestra corresponde al modelo A ~ (j
T
, o)
r =
1
:

r
i
=
157.99
29
= 5.4479
:
2
=
1
: 1

(r
i
r)
2
=
1
: 1
_

r
2
i

1
:
_

r
i
_
2
_
=
1
28
_
862.0855
157.99
2
29
_
= 4.88167 10
2
: =
_
4.8817 10
2
= 0.2209
Con 1 c = 0.95 es t
0.975
(28) = 2.0484 y
- = t
1c2
:
_
:
= 2.0484
0.22
_
29
= 8.3683 10
2
As que
j
T
(5.45 0.084) g cm
3
(El valor aceptado en la actualidad es 5.513 g cm
3
)
3. a) El intervalo del 95% para j:
t
1c2
(: 1) = t
0.975
(19) = 2.0930
r t
1c2
:,
_
: = 0.42328 2.0930
0.01776
_
20
= 0.41497
r +t
1c2
:,
_
: = 0.42328 + 2.0930
0.01776
_
20
= 0.43159
A.6. CAPTULO 6 243
Como el intervalo obtenido (0.4150, 0.4316) queda dentro del de especicacin
(0.40, 0.44) pareciera que el proceso es aceptable. Sin embargo es crucial notar
que el intervalo obtenido se reere al valor medio j, no a los valores individuales.
b) Para hallar el intervalo de tolerancia con j = 0.99, 1 c = 0.95 y : = 20 en la
tabla IV se lee / = 3.621
r
1
= 0.42328 3.621 0.01776 = 0.358971
r
S
= 0.42328 + 3.621 0.01776 = 0.487589
es decir, el 99% de los componentes fabricados estn en (0.36, 0.49) cm con una
conanza del 95%.
c) Los resultados indican que el proceso no es satisfactorio: una alta proporcin
de componentes queda fuera de los lmites de especicacin.
4.
r = 545.8 Kg
: = 12.28 Kg
El intervalo del 95% para j es r t
0.975
:,
_
: donde t
0.975
(4) = 2.7764 y resulta
j (530.55, 561.05) Kg.
El intervalo del 95% para o es
_
:
_
a1

2
1=2
, :
_
a1

2
=2
_
donde
2
0.975
(4) = 11.1433 y

2
0.025
(4) = 0.4844 y resulta o (7.36, 35.29) Kg.
Para hallar el lmite inferior de tolerancia con 1 c = 0.99, j = 0.95 y : = 5, en
la tabla V se lee / = 6.578 y el lmite inferior es
r
1
= 545.8 6.578 12.28 = 465.022
es decir, con una conanza del 99%
1 (A 465) _ 0.95
es decir, el 95% de los cables tienen una resistencia mayor que 465 Kg
5. De
1
_
(: 1) o
2
o
2

2
c
_
= 1 c
244 APNDICE A. SOLUCIONES A LOS EJERCICIOS
resulta
1
_
o < o
_
: 1

2
c
_
= 1 c
La media muestral vale
r =
1
:

r
i
=
108
14
= 7.7143 ms
La varianza y desviacin tpica muestrales valen
:
2
=
1
: 1

(r
i
r)
2
=
1
: 1
_

r
2
i

1
:
_

r
i
_
2
_
=
1
13
_
1950
1
14
(108)
2
_
= 85.9121
: = 9.2689 ms
Con 1 c = 0.90 es
2
0.10
(13) = 7.0415 y
:
_
: 1

2
c
= 9.2689
_
13
7.0415
= 12.5941
resultando
o < 12.6 ms
con una conanza del 90%.
6. La estimacin inicial de j es r = 26,30 - 0.87 y la cota del error cometido es, con
1 c = 0.99 y n
1c2
= n
0.995
- 2.58
- = n
1c2
_
r(1 r) ,: = 2.58
_
26
30

4
30

1
30
= 0.160
Queremos reducirla a 0.02 aumentando el tamao : de muestra. La cota nal
depende de : y del nuevo valor que resulte para r
- = n
1c2
_
r(1 r) ,:
y la ms pesimista se obtendra con r = 1,2. Sin embargo, como el nuevo valor de
r no debera estar muy alejado del previo, usaremos ste, y despejaremos : para
A.6. CAPTULO 6 245
que - = 0.02
: =
_
n
1c2
-
_
2
r(1 r) =
_
2.58
0.02
_
2

26
30

4
30
= 1922.96
as que, aproximadamente, habra que usar : = 1923
Si nalmente se us : = 2000 y hubo 1640 aceptables la estimacin nal de j es
r = 1640,2000 = 0.82 y la cota del error
- = 2.58
_
1640
2000

360
2000

1
2000
= 0.022
as que, con una conanza del 99%
j (0.82 0.022)
7. a) las mismas. b)
: =
_
1.96
0.02
_
2
0.25 = 2401
8. La estimacin MV de ` es r
r =
1
2608
12

a=0
r :(r) = 3.87 cuentas/7.5 s
Como : es grande formamos el intervalo aproximado del 95% (ejemplo 10):
- = n
1c2
_
r
:
= 1.96
_
3.87
2608
= 0.0755
y resulta, con una conanza del 95%
` (3.87 0.076) cuentas/7.5 s
Comentario: Tngase en cuenta que 1 (A) = ` equivale al nmero promedio
terico de tomos que decaen en el intervalo, y depende del nmero de tomos
presentes en el experimento: si inicialmente hay (0) tomos, el nmero de los
que decaen en un intervalo t es una Va binomial A (t) de parmetros (0) y
j = 1 c
It
(donde / es la constante de desintegracin del polonio). Su promedio
246 APNDICE A. SOLUCIONES A LOS EJERCICIOS
es (ver ejercicio 15 del captulo 3)
1 (A (t)) = (0)
_
1 c
It
_
y adems, si (0) y j 0 pero (0) j = ` constante, la Va binomial
converge a una de Poisson de parmetro ` (proposicin 4 del captulo 4).
9. De
1(
2
c2
< 2:`A <
2
1c2
) = 1 c
se sigue un intervalo para el parmetro `
1
_

2
c2
2:A
< ` <

2
1c2
2:A
_
= 1 c
y ,tomando el recproco, para 1(A) = 1,`
1
_
2:A

2
1c2
<
1
`
<
2:A

2
c2
_
= 1 c
10. El tiempo medio estimado es r = 3.04 min. Con 1c = 0.95 es
2
0.025
(20) = 9.5908
y
2
0.975
(20) = 34.1696
2:A

2
1c2
=
2 30.4
34.1696
= 1.7794
2:A

2
c2
=
2 30.4
9.5908
= 6.3394
y resulta un intervalo para 1 (A) = 1,`
1,` (1.8, 6.3) min
A.7. CAPTULO 7 247
A.7 Captulo 7
1. a) : = 6,

r
i
= 16,

j
i
= 0.231,

r
2
i
= 48.5,

j
2
i
= 0.0097,

r
i
j
i
= 0.6845
/
1
= 0.0117, /
0
= 0.0072
: = 0.0013
r = 0.9956
1
2
= 0.991
0 1 2 3 4 5
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
tiempo(h)
g
a
n
a
n
c
i
a

e
n

p
e
s
o

(
%
)
b) Para t = 3.2 h la ganancia esperada estimada es
j(3.2) = 0.0072 + 0.0117 3.2 - 0.0445 %
En la tabla III se lee t
0.975
(4) = 2.7764 y
t
1c2
:
_
1
:
+
(r r)
2

(r
i
r)
2
= 2.77640.0013
_
1
6
+
(3.2 16,6)
2
5.8333
= 1.675 10
3
248 APNDICE A. SOLUCIONES A LOS EJERCICIOS
resulta, con una conanza del 95%
j(3.2) = 0.0445 0.0017 %
c) j = 0.9, n
(1+j)2
= n
0.95
= 1.64
d
2
=
1
6
+
(3.2 16,6)
2
5.8333
= 0.2154
1 +
d
2
2

d
4
_
2n
2
(1+j)2
3
_
24
= 1 +
0.2154
2

0.2154
2

_
2 1.64
2
3
_
24
= 1.1031

2
0.05
(4) = 0.7107
/ = n
(1+j)2
_
: 2

2
c
_
_
1 +
d
2
2

d
4
_
2n
2
(1+j)2
3
_
24
_
_
= 1.64
_
4
0.7107
1.1031 = 4.2919
Con una conanza del 95% al menos el 90% de los valores de la ganancia 1 despus
de r = 3.2 h estarn dentro del intervalo
j(3.2) / : =
0.0445 4.2919 0.0013 = (0.0389, 0.0501) %
es decir, con dicha conanza
1 (0.0389 < 1 (3.2) < 0.0501) _ 0.90
2. a) : = 24,

r
i
= 27,

j
i
= 27.0220,

r
2
i
= 38.2500,

j
2
i
= 38.2798,

r
i
j
i
=
38.2638
/
1
= 0.9986, /
0
= 0.0025
: = 0.0102
A.7. CAPTULO 7 249
r = 0.9999
0 0.5 1 1.5 2 2.5
0
0.5
1
1.5
2
2.5
longitud nominal (mm)
l
o
n
g
i
t
u
d

a
c
t
u
a
l

(
m
m
)
b) Para r = 1 cm la longitud esperada estimada es
j(1) = 0.0025 + 0.9986 1 - 1.0011 cm
En la tabla III se lee t
0.975
(22) = 2.0739 y
t
1c2
:
_
1
:
+
(r r)
2

(r
i
r)
2
= 2.07390.0102
_
1
24
+
(1 27,24)
2
7.8750
= 4.420 10
3
resulta, con una conanza del 95%
j(1) = 1.0011 0.0044 cm
c) j = 0.99, n
(1+j)2
= n
0.995
= 2.58
d
2
=
1
24
+
(1 27,24)
2
7.8750
= 0.043651
250 APNDICE A. SOLUCIONES A LOS EJERCICIOS
1+
d
2
2

d
4
_
2n
2
(1+j)2
3
_
24
= 1+
0.043651
2

0.043651
2

_
2 2.58
2
3
_
24
= 1.021

2
0.05
(22) = 12.3380
/ = n
(1+j)2
_
: 2

2
c
_
_
1 +
d
2
2

d
4
_
2n
2
(1+j)2
3
_
24
_
_
= 2.58
_
22
12.3380
1.021 = 3.5175
Con una conanza del 95% al menos el 99% de las longitud 1 correspondientes a
la nominal de r = 1 cm estarn dentro del intervalo
j(1) / : =
1.0011 3.5175 0.0102 = (0.965, 1.037) cm
es decir, con dicha conanza
1 (0.965 < 1 (1) < 1.037) _ 0.99
3. poniendo r =
_
2d
1 = ,
0
+,
1
r +l
la muestra es
r ( m) 0.6325 1.4142 2.0000 2.4495 3.1623
j ( s) 0.26 0.50 0.68 0.82 1.07

r
i
= 9.6584; r = 1.9317;

r
2
i
= 22.4;

(r
i
r)
2
=

r
2
i
(

r
i
)
2
,: =
3.7429

j
i
= 3.3300; j = 0.6660;

j
2
i
= 2.5973;

(j
i
j)
2
=

j
2
i
(

j
i
)
2
,: =
0.3795

r
i
j
i
= 7.6238;

r
i
j
i
(

r
i
) (

j
i
) ,: = 1.1912
y resultan
/
1
=
1.1912
3.7429
= 0.3183 m
12
s q = 1,0.3183
2
- 9.87 ms
2
/
0
= 0.6660 0.3183 1.9317 - 0.05 s
A.7. CAPTULO 7 251
Desde que se interrumpe la corriente hasta que se libera la bola transcurren 0.05 s
(es decir, el tiempo medido es superior en dicha cantidad al de caida ms el error
aleatorio). El error aleatorio est caracterizado por una desviacin tpica estimada
de valor
: =
_
_

(j
i
j)
2
/
2
1

(r
i
r)
2
_
, (: 2) - 0.01 s
La desviacin tpica estimada del estimador de ,
1
_

\ ar (1
1
) =
:
_

(r
i
r)
2
=
0.0114
_
3.7429
- 0.006 m
12
s
0 2 4 6
0
0.2
0.4
0.6
0.8
1
1.2
1.4
d
y
0 1 2 3
0
0.2
0.4
0.6
0.8
1
1.2
1.4
x
4. X =
_
_
_
_
_
_
1
_
2d
1
1
_
2d
2
... ...
1
_
2d
a
_
_
_
_
_
_
252 APNDICE A. SOLUCIONES A LOS EJERCICIOS
5.
(/) =
a

i=1
[j
i
/r
i
]
2
Para hallar / que hace mnimo el valor de :

0
(/) = 2
a

i=1
r
i
[j
i
/r
i
] = 0
y resulta
/ =
a

i=1
r
i
j
i
a

i=1
r
2
i
que corresponde a un mnimo pues

00
(/) =
a

i=1
r
2
i
0
6. X =
_
_
_
_
_
_
r
1
r
2
...
r
a
_
_
_
_
_
_
7.
j
Y
(r) = j +r
:
Y
:
A
(r r) = 10 + 0.9
2.1
1.2
(r 5) = 2.125 + 1.575r
j
A
(j) = r +r
:
A
:
Y
(j j) = 5 + 0.9
1.2
2.1
(j 10) = 0.143 + 0.514j
8. r =
_
0.9 = 0.9487 (mismo signo que /
1
)
j
Y
(r) = 10 + 0.45r = j + 0.45(r r)
como j
Y
(r) = j es j = 10 + 0.45 20 = 19.0
/
1
= r
:
Y
:
A
a
1
= r
:
A
:
Y
=
r
2
/
1
=
0.9
0.45
= 2
A.7. CAPTULO 7 253
j
A
(j) = r +a
1
(j j) = 20 + 2(j 19)
= 18 + 2j
9.
r
aj
=

(r
i
r) (j
i
j)
_

(r
i
r)
2

(j
i
j)
2
a) Sea n = ar +/ y = cj +d. Hallemos el coeciente de correlacin lineal de n
y :
n = ar +/ y = cj +d
n
i
n = ar
i
+/ (ar +/) = a (r
i
r)

i
= cj
i
+d (cj +d) = c (j
i
j)
r
&
=

(n
i
n) (
i
)
_

(n
i
n)
2

(
i
)
2
=
ac

(r
i
r) (j
i
j)
_
a
2

(r
i
r)
2
c
2

(j
i
j)
2
= r
aj
b) Como j
i
= /
0
+/
1
r
i
se sigue que r
aj
= r
b jj
10. En todas las muestras: r = 9.0, j = 7.5,

(r
i
r)
2
= 110,

(j
i
j)
2
= 41,
j = 3 + 0.5r.2 y r = 0.816
La enseanza es que nunca debe usarse slo el valor de r para concluir una relacin:
primero hay que estudiar el grco de la muestra (diagrama de dispersin):
La (1) sugiere efectivamente una dependencia estadstica lineal.
En la (2) hay dependencia funcional no lineal.
La (3) y la (4) ilustran la importancia que puede tener en los valores calculados
un nico un dato anmalo (outlier).
254 APNDICE A. SOLUCIONES A LOS EJERCICIOS
Una discusin muy clara en: http://en.wikipedia.org/wiki/Anscombes_quartet
0 5 10 15 20
0
5
10
15
x
y
(1)
0 5 10 15 20
0
5
10
15
x
y
(2)
0 5 10 15 20
0
5
10
15
x
y
(3)
0 5 10 15 20
0
5
10
15
x
y
(4)
11. Resulta r = 0 pues

(r
i
r) (j
i
j) =

r
i
j
i
(

r
i
) (

j
i
) ,: = 0 ya que

r
i
j
i
=

r
3
i
= 0 (pues para cada r
i
hay otra r
)
= r
i
) y

r
i
= 0. Pero los
puntos son funcionalmente dependientes. En general la incorrelacin (r = 0) slo
signica ausencia de relacin lineal.
12.
X =
_
_
_
_
_
_
1 r
1
r
2
1
... r
n
1
1 r
2
r
2
2
... r
n
2
... ... ... ... ...
1 r
a
r
2
a
... r
n
a
_
_
_
_
_
_
A.7. CAPTULO 7 255
y el sistema (sistema 7.13) X
T
Xb = X
T
y queda
_
_
_
_
_
_
:

r
i

r
2
i
...

r
n
i

r
i

r
2
i

r
3
i
...

r
n+1
i
... ... ... ... ...

r
n
i

r
n+1
i

r
n+2
i
...

r
n+n
i
_
_
_
_
_
_
_
_
_
_
_
_
/
0
/
1
...
/
n
_
_
_
_
_
_
=
_
_
_
_
_
_

j
i

j
i
r
i
...

j
i
r
n
i
_
_
_
_
_
_
con solucin nica si, y slo si, el rango de X es : + 1: entre las : _ : + 1
coordenadas r
i
hay al menos :+ 1 distintas.
13. El diagrama de dispersin siguiere que un polinomio de segundo grado puede ajus-
tar satisfactoriamente los puntos. La matrices necesarias (sistema 7.13) son
X =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 1
1 2 4
1 3 9
1 4 16
1 5 25
1 6 36
1 7 49
1 8 64
1 9 81
1 10 100
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, y =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
20.6
30.8
55
71.4
97.3
131.8
156.3
197.3
238.7
291.7
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, b =
_
_
_
/
0
/
1
/
2
_
_
_
y la solucin del sistema
_
X
T
X
_
b = X
T
y es
b =
_
_
_
12.643
6.297
2.125
_
_
_
256 APNDICE A. SOLUCIONES A LOS EJERCICIOS
es decir, el polinomio j = 12.643 + 6.297r + 2.125r
2
0 2 4 6 8 10 12
0
50
100
150
200
250
300
x
y
En este problema el objetivo es meramente descriptivo (no se ha hecho ninguna
hiptesis estadstica). Con ese objetivo el modelo ms simple es el adecuado.
Sin duda podramos aumentar el ajuste aumentando el grado del polinomio (au-
mentando hasta el grado 9 obtendramos una interpolacin: el polinomio de La-
grange).
14.
T - t:
a
lnT = lnt :ln:
as que poniendo
j = lnT
r = :
/
0
= lnt
/
1
= ln:
A.7. CAPTULO 7 257
es
j = /
0
+/
1
r
Las matrices necesarias son (sistema 7.13)
X =
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
1 1
1 2
1 3
1 4
1 5
1 6
_
_
_
_
_
_
_
_
_
_
_
_
_
, y =
_
_
_
_
_
_
_
_
_
_
_
_
_
ln(22.4)
ln(21.3)
ln(19.7)
ln(15.6)
ln(15.2)
ln(13.9)
ln(13.7)
_
_
_
_
_
_
_
_
_
_
_
_
_
, b =
_
/
0
/
1
_
y la solucin del sistema
_
X
T
X
_
b = X
T
y es
b =
_
3.115
9.243 10
2
_
0 1 2 3 4 5 6 7
2.5
2.6
2.7
2.8
2.9
3
3.1
3.2
n
log(T)
258 APNDICE A. SOLUCIONES A LOS EJERCICIOS
El modelo ajustado es
T = 22.54 1.097
a
0 1 2 3 4 5 6 7
10
12
14
16
18
20
22
24
n
T (h)
A.8. CAPTULO 8 259
A.8 Captulo 8
1. a) La muestra ordenada de valores de A es
(4, 7, 15, 19, 22, 59, 68, 80, 115, 120, 132, 208, 309, 371, 579)
Con j = 0.25 es :j + 0.5 = 15 0.25 + 0.5 = 4.25 as que / = 4 y r = 0.25

1
= r
(4)
+ 0.25
_
r
(5)
r
(4)
_
= 19 + 0.25 (22 19) = 19.75

2
= r
n
= r
(8)
= 80
Con j = 0.75 es :j + 0.5 = 15 0.75 + 0.5 = 11.75 as que / = 11 y r = 0.75

3
= r
(11)
+ 0.75
_
r
(12)
r
(11)
_
= 132 + 0.75 (208 132) = 189
El coeciente de simetra es

3
+
1
2r
n

1
=
189 + 19.75 2 80
189 19.75
= 0.288
la muestra es asimtrica a la derecha (los datos a la derecha de la mediana se
extienden ms lejos que a la izquierda).
El lmite inferior de valores atpicos es /
i
=
1
1.5 (
3

1
) = 19.75 1.5
(189 19.75) = 234.13 < r
(1)
as que no hay atpicos inferiores.
El lmite superior de valores atpicos es /
c
=
3
+ 1.5 (
3

1
) = 189 + 1.5
(189 19.75) = 442.88 < r
(15)
as que 579 es atpico.
260 APNDICE A. SOLUCIONES A LOS EJERCICIOS
b)
0
100
200
300
400
500
600
P
b

(

g

/

m
3
)
c) La muestra ordenada de valores de 1 = log (A) es
(1.3863, 1.9459, 2.7081, 2.9444, 3.0910, 4.0775, 4.2195, 4.3820,
4.7449, 4.7875, 4.8828, 5.3375, 5.7333, 5.9162, 6.3613)
Los valores de / y r para los cuantiles son los mismos de antes (slo dependen de
: y j) as que

1
= j
(4)
+ 0.25
_
j
(5)
j
(4)
_
= 2.9444 + 0.25 (3.0910 2.9444) = 2.9811

2
= j
n
= j
(8)
= 4.3820

3
= j
(11)
+ 0.75
_
j
(12)
j
(11)
_
= 4.8828 + 0.75 (5.3375 4.8828) = 5.2238
El coeciente de simetra es

3
+
1
2j
n

1
=
5.2238 + 2.9811 2 4.3820
5.2238 2.9811
= 0.24930
la muestra es asimtrica a la izquierda (los datos a la izquierda de la mediana se
extienden ms lejos que a la derecha). Sin embargo es menos asimtrica que la de
valores de A.
El lmite inferior de valores atpicos es /
i
=
1
1.5 (
3

1
) = 2.9811 1.5
(5.2238 2.9811) = 0.38 < j
(1)
as que no hay atpicos inferiores.
A.8. CAPTULO 8 261
El lmite superior de valores atpicos es /
c
=
3
+ 1.5 (
3

1
) = 5.2238 + 1.5
(5.2238 2.9811) = 8.58 j
(15)
as que no hay atpicos superiores.
d)
1.5
2
2.5
3
3.5
4
4.5
5
5.5
6
6.5
l
o
g

P
b

(

g

/

m
3
)
e) Como : = 15 las probabilidades asociadas a cada elemento de la muestra
(cuantiles empricos) con j
I
= (/ 0.5),15 son
j
I
= (0.0333, 0.1000, 0.1667, 0.2333, 0.3000, 0.3667, 0.4333, 0.5000,
0.5667, 0.6333, 0.7000, 0.7667, 0.8333, 0.9000, 0.9667)
y los cuantiles tericos con la (0, 1) correspondientes a estas probabilidades son

1
(j
I
) = (1.8339, 1.2816, 0.9674, 0.7279, 0.5244, 0.3407, 0.1679, 0,
0.1679, 0.3407, 0.5244, 0.7279, 0.9674, 1.2816, 1.8339)
262 APNDICE A. SOLUCIONES A LOS EJERCICIOS
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
1
2
3
4
5
6
7
8

-1
(p
k
)
y
(k)
f ) Si 1 = log (A) siguiese una distribucin (j, o) su funcin de cuantiles Q(j)
es j = j + o
1
(j). El grco cuantil-cuantil (valores experimentales j
(I)
sobre
tericos
1
(j
I
)) sugiere que dicho modelo puede ser adecuado. Los parmetros
de la recta de mnimos cuadrados son
/ =

j
(i)

1
(j
i
)
_
j
(i)
_ _

1
(j
i
)
_
,:

(
1
(j
i
))
2
(

1
(j
i
))
2
,:
= 1.4621
a =
_

j
(i)
/

1
(j
i
)
_
,: = 4.1679
y entonces una estimacin de o sera 1.4621 y una de j sera 4.1679
Estas estimaciones coinciden apreciablemente con las de mxima verosimilitud en
la normal
j = j =
1
:

j
i
= 4.1679
o = :
j
=
_
1
: 1

(j
i
j)
2
= 1.4744
A.8. CAPTULO 8 263
2. La desviacin tpica de la muestra es : = 0.2209 y : = 29; Para elegir la anchura
de clases usamos
/ -
3.5:
:
13
=
3.5 0.2209
29
13
= 0.2517
y tomaremos / = 0.25
Con el origen en a
0
= 4.88
1
)
:
)
a
j
a
a
j
aI
[4.88, 5.13] 3 0.1034 0.4138
(5.13, 5.38] 8 0.2759 1.1034
(5.38, 5.63] 13 0.4483 1.7931
(5.63, 5.88] 5 0.1724 0.6897
29 1
5 5.2 5.4 5.6 5.8 6 6.2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
x
d
e
n
s
i
d
a
d

d
e

p
r
o
b
a
b
i
l
i
d
a
d
origen en 4.88
264 APNDICE A. SOLUCIONES A LOS EJERCICIOS
Con el origen en a
0
= 4.83
1
)
:
)
a
j
a
a
j
aI
[4.83, 5.08] 2 0.0690 0.2759
(5.08, 5.33] 6 0.2069 0.8276
(5.33, 5.58] 13 0.4483 1.7931
(5.58, 5.83] 7 0.2414 0.9655
(5.83, 6.08] 1 0.0345 0.1379
29 1
5 5.2 5.4 5.6 5.8 6 6.2 6.4
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
x
d
e
n
s
i
d
a
d

d
e

p
r
o
b
a
b
i
l
i
d
a
d
origen en 4.83
El ejercicio ilustra claramente la debilidad del histograma: su dependencia de los
valores elegidos para a
0
y /. Naturalmente cuanto mayor sea el tamao de muestra
: ms robusta ser la imagen (pues se podr elegir un valor de / pequeo y el
desplazamiento del origen en un intervalo de longitud / tendr menos importancia).
A.8. CAPTULO 8 265
b) Con : = 29 las probabilidades asociadas a cada elemento de la muestra orde-
nada r
(I)
(cuantiles empricos) son j
I
= (/ 0.5),29 (/ = 1, 2, ..29) y los cuantiles
tericos con la (0, 1) correspondientes a estas probabilidades son
1
(j
I
).
/ 1 2 3 4 5
j
I
0.0172 0.0517 0.0862 0.1207 0.1552

1
(j
I
) 2.1144 1.6284 1.3645 1.1715 1.0145
r
(I)
4.88 5.07 5.10 5.26 5.27
/ 6 7 8 9 10
j
I
0.1897 0.2241 0.2586 0.2931 0.3276

1
(j
I
) 0.8792 0.7583 0.6476 0.5443 0.4466
r
(I)
5.29 5.29 5.30 5.34 5.34
/ 11 12 13 14 15
j
I
0.3621 0.3966 0.4310 0.4655 0.5000

1
(j
I
) 0.3529 0.2623 0.1737 0.0865 0
r
(I)
5.36 5.39 5.42 5.44 5.46
/ 16 17 18 19 20
j
I
0.5345 0.5690 0.6034 0.6379 0.6724

1
(j
I
) 0.0865 0.1737 0.2623 0.3529 0.4466
r
(I)
5.47 5.50 5.53 5.55 5.57
/ 21 22 23 24 25
j
I
0.7069 0.7414 0.7759 0.8103 0.8448

1
(j
I
) 0.5443 0.6476 0.7583 0.8792 1.0145
r
(I)
5.58 5.61 5.62 5.63 5.65
266 APNDICE A. SOLUCIONES A LOS EJERCICIOS
/ 26 27 28 29
j
I
0.8793 0.9138 0.9483 0.9828

1
(j
I
) 1.1715 1.3645 1.6284 2.1144
r
(I)
5.68 5.75 5.79 5.85
-3 -2 -1 0 1 2 3
5
5.2
5.4
5.6
5.8
6
6.2
Cuantiles tericos
C
u
a
n
t
i
l
e
s

e
m
p

r
i
c
o
s
QQ-Plot modelo normal
Apndice B
Tablas
267
u 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.50000 0.50399 0.50798 0.51197 0.51595 0.51994 0.52392 0.52790 0.53188 0.53586
0.1 0.53983 0.54380 0.54776 0.55172 0.55567 0.55962 0.56356 0.56749 0.57142 0.57535
0.2 0.57926 0.58317 0.58706 0.59095 0.59483 0.59871 0.60257 0.60642 0.61026 0.61409
0.3 0.61791 0.62172 0.62552 0.62930 0.63307 0.63683 0.64058 0.64431 0.64803 0.65173
0.4 0.65542 0.65910 0.66276 0.66640 0.67003 0.67364 0.67724 0.68082 0.68439 0.68793
0.5 0.69146 0.69497 0.69847 0.70194 0.70540 0.70884 0.71226 0.71566 0.71904 0.72240
0.6 0.72575 0.72907 0.73237 0.73565 0.73891 0.74215 0.74537 0.74857 0.75175 0.75490
0.7 0.75804 0.76115 0.76424 0.76730 0.77035 0.77337 0.77637 0.77935 0.78230 0.78524
0.8 0.78814 0.79103 0.79389 0.79673 0.79955 0.80234 0.80511 0.80785 0.81057 0.81327
0.9 0.81594 0.81859 0.82121 0.82381 0.82639 0.82894 0.83147 0.83398 0.83646 0.83891
1.0 0.84134 0.84375 0.84614 0.84849 0.85083 0.85314 0.85543 0.85769 0.85993 0.86214
1.1 0.86433 0.86650 0.86864 0.87076 0.87286 0.87493 0.87698 0.87900 0.88100 0.88298
1.2 0.88493 0.88686 0.88877 0.89065 0.89251 0.89435 0.89617 0.89796 0.89973 0.90147
1.3 0.90320 0.90490 0.90658 0.90824 0.90988 0.91149 0.91309 0.91466 0.91621 0.91774
1.4 0.91924 0.92073 0.92220 0.92364 0.92507 0.92647 0.92785 0.92922 0.93056 0.93189
1.5 0.93319 0.93448 0.93574 0.93699 0.93822 0.93943 0.94062 0.94179 0.94295 0.94408
1.6 0.94520 0.94630 0.94738 0.94845 0.94950 0.95053 0.95154 0.95254 0.95352 0.95449
1.7 0.95543 0.95637 0.95728 0.95818 0.95907 0.95994 0.96080 0.96164 0.96246 0.96327
1.8 0.96407 0.96485 0.96562 0.96638 0.96712 0.96784 0.96856 0.96926 0.96995 0.97062
1.9 0.97128 0.97193 0.97257 0.97320 0.97381 0.97441 0.97500 0.97558 0.97615 0.97670
2.0 0.97725 0.97778 0.97831 0.97882 0.97932 0.97982 0.98030 0.98077 0.98124 0.98169
2.1 0.98214 0.98257 0.98300 0.98341 0.98382 0.98422 0.98461 0.98500 0.98537 0.98574
2.2 0.98610 0.98645 0.98679 0.98713 0.98745 0.98778 0.98809 0.98840 0.98870 0.98899
2.3 0.98928 0.98956 0.98983 0.99010 0.99036 0.99061 0.99086 0.99111 0.99134 0.99158
2.4 0.99180 0.99202 0.99224 0.99245 0.99266 0.99286 0.99305 0.99324 0.99343 0.99361
2.5 0.99379 0.99396 0.99413 0.99430 0.99446 0.99461 0.99477 0.99492 0.99506 0.99520
2.6 0.99534 0.99547 0.99560 0.99573 0.99585 0.99598 0.99609 0.99621 0.99632 0.99643
2.7 0.99653 0.99664 0.99674 0.99683 0.99693 0.99702 0.99711 0.99720 0.99728 0.99736
2.8 0.99744 0.99752 0.99760 0.99767 0.99774 0.99781 0.99788 0.99795 0.99801 0.99807
2.9 0.99813 0.99819 0.99825 0.99831 0.99836 0.99841 0.99846 0.99851 0.99856 0.99861
3.0 0.99865 0.99869 0.99874 0.99878 0.99882 0.99886 0.99889 0.99893 0.99896 0.99900
3.1 0.99903 0.99906 0.99910 0.99913 0.99916 0.99918 0.99921 0.99924 0.99926 0.99929
3.2 0.99931 0.99934 0.99936 0.99938 0.99940 0.99942 0.99944 0.99946 0.99948 0.99950
3.3 0.99952 0.99953 0.99955 0.99957 0.99958 0.99960 0.99961 0.99962 0.99964 0.99965
3.4 0.99966 0.99968 0.99969 0.99970 0.99971 0.99972 0.99973 0.99974 0.99975 0.99976
Tabla I
Funcin de distribucin normal F(u)
k 0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990 0.999
1 0.0002 0.0010 0.0039 0.0158 2.7055 3.8415 5.0239 6.6349 10.8276
2 0.0201 0.0506 0.1026 0.2107 4.6052 5.9915 7.3778 9.2103 13.8155
3 0.1148 0.2158 0.3518 0.5844 6.2514 7.8147 9.3484 11.3449 16.2662
4 0.2971 0.4844 0.7107 1.0636 7.7794 9.4877 11.1433 13.2767 18.4668
5 0.5543 0.8312 1.1455 1.6103 9.2364 11.0705 12.8325 15.0863 20.5150
6 0.8721 1.2373 1.6354 2.2041 10.6446 12.5916 14.4494 16.8119 22.4577
7 1.2390 1.6899 2.1673 2.8331 12.0170 14.0671 16.0128 18.4753 24.3219
8 1.6465 2.1797 2.7326 3.4895 13.3616 15.5073 17.5345 20.0902 26.1245
9 2.0879 2.7004 3.3251 4.1682 14.6837 16.9190 19.0228 21.6660 27.8772
10 2.5582 3.2470 3.9403 4.8652 15.9872 18.3070 20.4832 23.2093 29.5883
11 3.0535 3.8157 4.5748 5.5778 17.2750 19.6751 21.9200 24.7250 31.2641
12 3.5706 4.4038 5.2260 6.3038 18.5493 21.0261 23.3367 26.2170 32.9095
13 4.1069 5.0088 5.8919 7.0415 19.8119 22.3620 24.7356 27.6882 34.5282
14 4.6604 5.6287 6.5706 7.7895 21.0641 23.6848 26.1189 29.1412 36.1233
15 5.2293 6.2621 7.2609 8.5468 22.3071 24.9958 27.4884 30.5779 37.6973
16 5.8122 6.9077 7.9616 9.3122 23.5418 26.2962 28.8454 31.9999 39.2524
17 6.4078 7.5642 8.6718 10.0852 24.7690 27.5871 30.1910 33.4087 40.7902
18 7.0149 8.2307 9.3905 10.8649 25.9894 28.8693 31.5264 34.8053 42.3124
19 7.6327 8.9065 10.1170 11.6509 27.2036 30.1435 32.8523 36.1909 43.8202
20 8.2604 9.5908 10.8508 12.4426 28.4120 31.4104 34.1696 37.5662 45.3147
21 8.8972 10.2829 11.5913 13.2396 29.6151 32.6706 35.4789 38.9322 46.7970
22 9.5425 10.9823 12.3380 14.0415 30.8133 33.9244 36.7807 40.2894 48.2679
23 10.1957 11.6886 13.0905 14.8480 32.0069 35.1725 38.0756 41.6384 49.7282
24 10.8564 12.4012 13.8484 15.6587 33.1962 36.4150 39.3641 42.9798 51.1786
25 11.5240 13.1197 14.6114 16.4734 34.3816 37.6525 40.6465 44.3141 52.6197
26 12.1981 13.8439 15.3792 17.2919 35.5632 38.8851 41.9232 45.6417 54.0520
27 12.8785 14.5734 16.1514 18.1139 36.7412 40.1133 43.1945 46.9629 55.4760
28 13.5647 15.3079 16.9279 18.9392 37.9159 41.3371 44.4608 48.2782 56.8923
29 14.2565 16.0471 17.7084 19.7677 39.0875 42.5570 45.7223 49.5879 58.3012
30 14.9535 16.7908 18.4927 20.5992 40.2560 43.7730 46.9792 50.8922 59.7031
p
Cuantiles de la distribucin c
2
(k)
Tabla II
k 0.9 0.95 0.975 0.99 0.995
1 3.0777 6.3138 12.7062 31.8205 63.6567
2 1.8856 2.9200 4.3027 6.9646 9.9248
3 1.6377 2.3534 3.1824 4.5407 5.8409
4 1.5332 2.1318 2.7764 3.7469 4.6041
5 1.4759 2.0150 2.5706 3.3649 4.0321
6 1.4398 1.9432 2.4469 3.1427 3.7074
7 1.4149 1.8946 2.3646 2.9980 3.4995
8 1.3968 1.8595 2.3060 2.8965 3.3554
9 1.3830 1.8331 2.2622 2.8214 3.2498
10 1.3722 1.8125 2.2281 2.7638 3.1693
11 1.3634 1.7959 2.2010 2.7181 3.1058
12 1.3562 1.7823 2.1788 2.6810 3.0545
13 1.3502 1.7709 2.1604 2.6503 3.0123
14 1.3450 1.7613 2.1448 2.6245 2.9768
15 1.3406 1.7531 2.1314 2.6025 2.9467
16 1.3368 1.7459 2.1199 2.5835 2.9208
17 1.3334 1.7396 2.1098 2.5669 2.8982
18 1.3304 1.7341 2.1009 2.5524 2.8784
19 1.3277 1.7291 2.0930 2.5395 2.8609
20 1.3253 1.7247 2.0860 2.5280 2.8453
21 1.3232 1.7207 2.0796 2.5176 2.8314
22 1.3212 1.7171 2.0739 2.5083 2.8188
23 1.3195 1.7139 2.0687 2.4999 2.8073
24 1.3178 1.7109 2.0639 2.4922 2.7969
25 1.3163 1.7081 2.0595 2.4851 2.7874
26 1.3150 1.7056 2.0555 2.4786 2.7787
27 1.3137 1.7033 2.0518 2.4727 2.7707
28 1.3125 1.7011 2.0484 2.4671 2.7633
29 1.3114 1.6991 2.0452 2.4620 2.7564
30 1.3104 1.6973 2.0423 2.4573 2.7500
40 1.3031 1.6839 2.0211 2.4233 2.7045
60 1.2958 1.6706 2.0003 2.3901 2.6603
120 1.2886 1.6577 1.9799 2.3578 2.6174
500 1.2832 1.6479 1.9647 2.3338 2.5857
p
Tabla III
Cuantiles de la distribucin t(k)
n n n n p
0.95 0.99 0.95 0.99 0.95 0.99 0.95 0.99
5 5.077 6.598 51 2.376 3.122 5 7.870 10.22 51 2.572 3.379
6 4.422 5.758 52 2.371 3.115 6 6.373 8.292 52 2.564 3.369
7 4.020 5.241 53 2.366 3.108 7 5.520 7.191 53 2.557 3.359
8 3.746 4.889 54 2.361 3.102 8 4.968 6.479 54 2.549 3.349
9 3.546 4.633 55 2.356 3.096 9 4.581 5.98 55 2.542 3.339
10 3.393 4.437 56 2.352 3.090 10 4.294 5.610 56 2.535 3.330
11 3.273 4.282 57 2.347 3.084 11 4.073 5.324 57 2.528 3.322
12 3.175 4.156 58 2.343 3.079 12 3.896 5.096 58 2.522 3.313
13 3.093 4.051 59 2.339 3.073 13 3.751 4.909 59 2.516 3.305
14 3.024 3.962 60 2.335 3.068 14 3.631 4.753 60 2.509 3.297
15 2.965 3.885 61 2.331 3.063 15 3.529 4.621 61 2.503 3.289
16 2.913 3.819 62 2.327 3.058 16 3.441 4.507 62 2.498 3.282
17 2.868 3.761 63 2.324 3.053 17 3.364 4.408 63 2.492 3.274
18 2.828 3.709 64 2.320 3.048 18 3.297 4.321 64 2.487 3.267
19 2.793 3.663 65 2.317 3.044 19 3.237 4.244 65 2.481 3.260
20 2.760 3.621 66 2.313 3.039 20 3.184 4.175 66 2.476 3.254
21 2.731 3.583 67 2.310 3.035 21 3.136 4.113 67 2.471 3.247
22 2.705 3.549 68 2.307 3.031 22 3.092 4.056 68 2.466 3.241
23 2.681 3.518 69 2.304 3.027 23 3.053 4.005 69 2.462 3.234
24 2.658 3.489 70 2.300 3.023 24 3.017 3.958 70 2.457 3.228
25 2.638 3.462 71 2.297 3.019 25 2.984 3.915 71 2.453 3.222
26 2.619 3.437 72 2.295 3.015 26 2.953 3.875 72 2.448 3.217
27 2.601 3.415 73 2.292 3.011 27 2.925 3.838 73 2.444 3.211
28 2.585 3.393 74 2.289 3.008 28 2.898 3.804 74 2.440 3.206
29 2.569 3.373 75 2.286 3.004 29 2.874 3.772 75 2.436 3.200
30 2.555 3.355 76 2.284 3.001 30 2.851 3.742 76 2.432 3.195
31 2.541 3.337 77 2.281 2.997 31 2.829 3.715 77 2.428 3.190
32 2.529 3.320 78 2.278 2.994 32 2.809 3.688 78 2.424 3.185
33 2.517 3.305 79 2.276 2.991 33 2.790 3.664 79 2.420 3.180
34 2.505 3.290 80 2.274 2.988 34 2.773 3.640 80 2.417 3.175
35 2.495 3.276 81 2.271 2.984 35 2.756 3.618 81 2.413 3.171
36 2.484 3.263 82 2.269 2.981 36 2.740 3.598 82 2.409 3.166
37 2.475 3.250 83 2.267 2.978 37 2.725 3.578 83 2.406 3.162
38 2.466 3.238 84 2.264 2.975 38 2.710 3.559 84 2.403 3.157
39 2.457 3.227 85 2.262 2.973 39 2.697 3.541 85 2.399 3.153
40 2.448 3.216 90 2.252 2.959 40 2.684 3.524 90 2.384 3.133
41 2.440 3.205 95 2.242 2.947 41 2.671 3.508 95 2.370 3.114
42 2.433 3.196 100 2.234 2.936 42 2.659 3.493 100 2.357 3.098
43 2.425 3.186 125 2.200 2.891 43 2.648 3.478 125 2.307 3.031
44 2.418 3.177 150 2.176 2.859 44 2.637 3.464 150 2.271 2.985
45 2.412 3.168 175 2.157 2.835 45 2.627 3.450 175 2.244 2.949
46 2.405 3.160 200 2.143 2.816 46 2.617 3.437 200 2.223 2.921
47 2.399 3.151 300 2.106 2.767 47 2.607 3.425 300 2.169 2.850
48 2.393 3.144 500 2.070 2.721 48 2.598 3.412 500 2.117 2.783
49 2.387 3.136 700 2.052 2.697 49 2.589 3.401 700 2.091 2.748
50 2.382 3.129 1000 2.036 2.676 50 2.580 3.390 1000 2.068 2.718
Tabla IV
1=0.95 1=0.95 1=0.95 1=0.95 1=0.99 1=0.99 1=0.99 1=0.99
p p p
factores de tolerancia bilateral para la normal
n n n n
0.95 0.99 0.95 0.99 0.95 0.99 0.95 0.99
5 4.203 5.741 51 2.060 2.856 5 6.578 8.939 51 2.261 3.115
6 3.708 5.062 52 2.055 2.850 6 5.406 7.335 52 2.254 3.105
7 3.399 4.642 53 2.051 2.844 7 4.728 6.412 53 2.247 3.096
8 3.187 4.354 54 2.046 2.838 8 4.285 5.812 54 2.240 3.087
9 3.031 4.143 55 2.042 2.833 9 3.972 5.389 55 2.233 3.078
10 2.911 3.981 56 2.038 2.827 10 3.738 5.074 56 2.226 3.070
11 2.815 3.852 57 2.034 2.822 11 3.556 4.829 57 2.220 3.061
12 2.736 3.747 58 2.030 2.817 12 3.410 4.633 58 2.214 3.053
13 2.671 3.659 59 2.026 2.812 13 3.290 4.472 59 2.208 3.046
14 2.614 3.585 60 2.022 2.807 14 3.189 4.337 60 2.202 3.038
15 2.566 3.520 61 2.019 2.802 15 3.102 4.222 61 2.197 3.031
16 2.524 3.464 62 2.015 2.798 16 3.028 4.123 62 2.191 3.024
17 2.486 3.414 63 2.012 2.793 17 2.963 4.037 63 2.186 3.017
18 2.453 3.370 64 2.008 2.789 18 2.905 3.960 64 2.181 3.010
19 2.423 3.331 65 2.005 2.785 19 2.854 3.892 65 2.176 3.004
20 2.396 3.295 66 2.002 2.781 20 2.808 3.832 66 2.171 2.998
21 2.371 3.263 67 1.999 2.777 21 2.766 3.777 67 2.166 2.991
22 2.349 3.233 68 1.996 2.773 22 2.729 3.727 68 2.162 2.985
23 2.328 3.206 69 1.993 2.769 23 2.694 3.681 69 2.157 2.980
24 2.309 3.181 70 1.990 2.765 24 2.662 3.640 70 2.153 2.974
25 2.292 3.158 71 1.987 2.762 25 2.633 3.601 71 2.148 2.968
26 2.275 3.136 72 1.984 2.758 26 2.606 3.566 72 2.144 2.963
27 2.260 3.116 73 1.982 2.755 27 2.581 3.533 73 2.140 2.958
28 2.246 3.098 74 1.979 2.751 28 2.558 3.502 74 2.136 2.952
29 2.232 3.080 75 1.976 2.748 29 2.536 3.473 75 2.132 2.947
30 2.220 3.064 76 1.974 2.745 30 2.515 3.447 76 2.128 2.942
31 2.208 3.048 77 1.971 2.742 31 2.496 3.421 77 2.125 2.938
32 2.197 3.034 78 1.969 2.739 32 2.478 3.398 78 2.121 2.933
33 2.186 3.020 79 1.967 2.736 33 2.461 3.375 79 2.117 2.928
34 2.176 3.007 80 1.964 2.733 34 2.445 3.354 80 2.114 2.924
35 2.167 2.995 81 1.962 2.730 35 2.430 3.334 81 2.110 2.919
36 2.158 2.983 82 1.960 2.727 36 2.415 3.315 82 2.107 2.915
37 2.149 2.972 83 1.958 2.724 37 2.402 3.297 83 2.104 2.911
38 2.141 2.961 84 1.956 2.721 38 2.389 3.280 84 2.100 2.907
39 2.133 2.951 85 1.954 2.719 39 2.376 3.264 85 2.097 2.902
40 2.125 2.941 90 1.944 2.706 40 2.364 3.249 90 2.082 2.883
41 2.118 2.932 95 1.935 2.695 41 2.353 3.234 95 2.069 2.866
42 2.111 2.923 100 1.927 2.684 42 2.342 3.220 100 2.056 2.850
43 2.105 2.914 125 1.894 2.642 43 2.331 3.206 125 2.007 2.786
44 2.098 2.906 150 1.870 2.611 44 2.321 3.193 150 1.971 2.740
45 2.092 2.898 175 1.852 2.588 45 2.312 3.180 175 1.944 2.706
46 2.086 2.890 200 1.837 2.570 46 2.303 3.168 200 1.923 2.679
47 2.081 2.883 300 1.800 2.522 47 2.294 3.157 300 1.868 2.608
48 2.075 2.876 500 1.763 2.475 48 2.285 3.146 500 1.814 2.540
49 2.070 2.869 700 1.744 2.451 49 2.277 3.135 700 1.787 2.505
50 2.065 2.862 1000 1.727 2.430 50 2.269 3.125 1000 1.762 2.475
factores de tolerancia unilateral para la normal
Tabla V
p p p p
1=0.95 1=0.95 1=0.95 1=0.95 1=0.99 1=0.99 1=0.99 1=0.99