Vous êtes sur la page 1sur 42

TECNICAS DE CONTEO

El principio fundamental en el proceso de contar ofrece un mtodo general para contar el numero de
posibles arreglos de objetos dentro de un solo conjunto o entre carios conjuntos. Las tcnicas de conteo
son aquellas que son usadas para enumerar eventos difciles de cuantificar.

Si un evento A puede ocurrir de n1 maneras y una vez que este ha ocurrido, otro
evento Bpuede n2 maneras diferentes entonces, el nmero total de formas diferentes en que ambos
eventos pueden ocurrir en el orden indicado, es igual a n1 x n2.
De cuntas maneras pueden repartirse 3 premios a un conjunto de 10 personas, suponiendo que cada
persona no puede obtener ms de un premio?
Aplicando el principio fundamental del conteo, tenemos 10 personas que pueden recibir el primer
premio. Una vez que ste ha sido entregado, restan 9 personas para recibir el segundo, y
posteriormente quedarn 8 personas para el tercer premio. De ah que el nmero de maneras
distintas de repartir los tres premios.

n
10 x 9 x 8 = 720


Cuntas placas de automvil se pueden hacer utilizando dos letras seguidas de tres cifras? No se
admiten repeticiones.

26 x 25 x 10 x 9 x 8 = 468000

n un nmero entero positivo, el producto n (n-1) (n-2)...3 x 2 x 1 se llama factorial de n.
El smbolo ! se lee factorial y es el producto resultante de todos los enteros positivos de 1 a n; es decir,
sea
n
5! = 5 x 4 x 3 x 2 x 1 = 120
Por definicin 0! = 1

Si el nmero de posibles resultados de un experimento es pequeo, es relativamente fcil listar y contar
todos los posibles resultados. Al tirar un dado, por ejemplo, hay seis posibles resultados.

Si, sin embargo, hay un gran nmero de posibles resultados tales como el nmero de nios y nias por
familias con cinco hijos, sera tedioso listar y contar todas las posibilidades. Las posibilidades seran, 5
nios, 4 nios y 1 nia, 3 nios y 2 nias, 2 nios y 3 nias, etc.

Para facilitar el conteo examinaremos tres tcnicas:

* La tcnica de la multiplicacin
* La tecnica aditiva
* La tecnica de la suma o Adicion
* La tcnica de la permutacin
* La tcnica de la combinacin.


PRINCIPIO DE LA MULTIPLICACION

Si se desea realizar una actividad que consta de r pasos, en donde el primer paso de la
actividad a realizar puede ser llevado a cabo de N1 maneras o formas, el segundo paso de
N2 maneras o formas y el r-simo paso de Nr maneras o formas, entonces esta actividad
puede ser llevada a efecto de. El principio multiplicativo implica que cada uno de los pasos
de la actividad deben ser llevados a efecto, uno tras otro. Si un evento E1 puede suceder de n1
maneras diferentes, el evento E2 puede ocurrir de n2 maneras diferentes, y as sucesivamente hasta el
evento Ep el cual puede ocurrir de np maneras diferentes, entonces el total de maneras distintas en que
puede suceder el evento ocurren E1 y E2..y Ep es igual a producto.


N1 x N2 x ..........x Nr maneras o formas
Ejemplo:
Se dispone de 3 vas para viajar de C1 a C2 y de 4 vas para viajar de C2 a C1. De cuntas formas se
puede organizar el viaje de ida y vuelta de C1 a C2.Respuesta: (3)(4)=12


PRINCIPIO ADITIVO.

Si se desea llevar a efecto una actividad, la cul tiene formas alternativas para ser realizada,
donde la primera de esas alternativas puede ser realizada de M maneras o formas, la segunda
alternativa puede realizarse de N maneras o formas ..... y la ltima de las alternativas puede
ser realizada de W maneras o formas, entonces esa actividad puede ser llevada a cabo de,

M + N + .........+ W maneras o formas

Ejemplos:
1) Una persona desea comprar una lavadora de ropa, para lo cul ha pensado que puede
seleccionar de entre las marcas Whirpool, Easy y General Electric, cuando acude a hacer la
compra se encuentra que la lavadora de la marca W se presenta en dos tipos de carga ( 8 u
11 kilogramos), en cuatro colores diferentes y puede ser automtica o semiautomtica,
mientras que la lavadora de la marca E, se presenta en tres tipos de carga (8, 11 o 15
kilogramos), en dos colores diferentes y puede ser automtica o semiautomtica y la lavadora
de la marca GE, se presenta en solo un tipo de carga, que es de 11 kilogramos, dos colores
diferentes y solo hay semiautomtica. Cuntas maneras tiene esta persona de comprar una
lavadora?


Solucin:

M = Nmero de maneras de seleccionar una lavadora Whirpool
N = Nmero de maneras de seleccionar una lavadora de la marca Easy
W = Nmero de maneras de seleccionar una lavadora de la marca General Electric

AXIOMAS Y TEOREMAS DE LA PROBABILIDAD

Para el clculo de probabilidades hay que tomar en cuenta los Axiomas y Teoremas que a
continuacin se enumeran.
AXIOMAS

Los axiomas de probabilidad son las condiciones mnimas que deben verificarse para que una
funcin definida sobre un conjunto de sucesos determine consistentemente sus probabilidades.
Fueron formulados por Kolmogrov en 1933.

Axiomas de Kolmogrov:

Primer axioma:

La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.


0 p(A) 1

Ejemplo: La probabilidad de sacar par en un dado equilibrado es 0,5. P(A)=0,5

Segundo Axioma:

La probabilidad de que ocurra el espacio muestral d debe de ser 1.

p(d) = 1

Ejemplo: La probabilidad de sacar un nmero del 1 al 6 en un dado equilibrado es "1".

Tercer Axioma:

Si A y B son eventos mutuamente excluyentes, entonces la,

p(AB) = p(A) + p(B)

Ejemplo: La probabilidad de sacar en un dado "as" o sacar "nmero par" es la suma de las
probabilidades individuales de dichos sucesos.

Segn este axioma se puede calcular la probabilidad de un suceso compuesto de varias
alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.

Generalizando:

Si se tienen n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces;

p(A1A2.........An) = p(A1) + p(A2) + .......+ p(An)


Ejemplo:

Para el experimento aleatorio de tirar un dado, el espacio muestral es W = {1, 2, 3, 4, 5, 6}. En este
espacio el conjunto de sucesos es P(W) = {, {1}, {2}, ...{1,2}, {1,3}, ...{1,2,3,4,5,6}}. Para establecer
una probabilidad hay que asignar un nmero a todos esos sucesos.
Sin embargo si se ha asignado a los sucesos elementales p({1})= p({2})= ...= p({6})= 1/6, por la
propiedad ii), p.e. la probabilidad del suceso {1, 3} es p({1,3})= p({1})+ p({3})=2/6.

Nota: El suceso {1} es: "el resultado de tirar el dado es la cara 1", el suceso {1, 3} es: "el resultado
de tirar el dado es la cara 1, o la 3", el suceso {1, 3, 5} es: "el resultado de tirar el dado es una cara
impar".


TEOREMAS

TEOREMA 1. Si f es un evento nulo o vaco, entonces la probabilidad de que ocurra f debe ser cero.

p(f)=0


Ejemplo : La probabilidad de que un estudiante sea mujer es "1 menos la probabilidad de que no
sea varn".

DEMOSTRACIN:
Si sumamos a fun evento A cualquiera, como f y A son dos eventos mutuamente excluyentes,
entonces p(Af)=p(A) +p(f)=p(A). LQQD

TEOREMA 2. La probabilidad del complemento de A, Ac debe ser,

p(Ac)= 1 p(A).

DEMOSTRACIN:
Si el espacio muestral d, se divide en dos eventos mutuamente exclusivos, A y Ac luego d=AAc,
por tanto p(d)=p(A) + p(Ac) y como en el axioma dos se afirma que p(d)=1, por tanto, p(Ac)= 1 -
p(A) .LQQD

TEOREMA 3. Si un evento A B, entonces la p(A) p(B).

DEMOSTRACIN:
Si separamos el evento B en dos eventos mutuamente excluyentes, A y B \ A (B menos A), por
tanto, B=A(B \ A) y p(B)=p(A) +p(B \ A), luego entonces si p(B \ A)0 entonces se cumple que
p(A)p(B). LQQD

TEOREMA 4. La p( A \ B )= p(A) p(AB)
Concepto clsico y como frecuencia relativa

Definicin Clsico. La probabilidad clsica: el enfoque clsico o a priori de la probabilidad se basa
en la consideracin de que los resultados de un experimento son igualmente posibles. Empleando
el punto de vista clsico, la probabilidad de que suceda un evento se calcula dividiendo el nmero
de resultados favorables, entre el nmero de resultados posibles.
La probabilidad clsica de un evento E, que denotaremos por P(E), se define como el nmero de
eventos elementales que componen al evento E, entre el nmero de eventos elementales que
componen el espacio muestral:
Como frecuencia relativa
Probabilstica: se basa en las frecuencias relativas. La probabilidad de que un evento ocurra a largo
plazo se determina observando en que fraccin de tiempo sucedieron eventos semejantes en el
pasado. La probabilidad de que un evento suceda se calcula por medio de:
P (E)= nmero de veces que el evento ocurri en el pasado
Numero total de observaciones
Definicin Frecuencial. La definicin frecuentista consiste en definir la probabilidad como el lmite
cuando n tiende a infinito de la proporcin o frecuencia relativa del suceso. Sea un experimento
aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces
el experimento en las mismas Condiciones, la frecuencia relativa del suceso A ser: Cuando el
nmero n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que
llamaremos probabilidad del suceso A. Es imposible llegar a este lmite, ya que no podemos repetir
el experimento un nmero infinito de veces, pero si podemos repetirlo muchas veces y observar
como las frecuencias relativas tienden a estabilizarse Esta definicin frecuentista de la
probabilidad se llama tambin probabilidad a posteriori ya que slo podemos dar la probabilidad
de un suceso despus de repetir y observar un gran nmero de veces el experimento aleatorio
correspondiente. Algunos autores las llaman probabilidades tericas.


Conceptos bsicos
Probabilidad. Es el estudio de los fenmenos de los que no estamos seguros de su ocurrencia.
Fenmeno. Es la ocurrencia de un hecho o suceso.
Experimento. Es un fenmeno observable perfectamente definido.
Los fenmenos observables se pueden clasificar en:
Deterministicos. Se puede predecir el resultado.
Aleatorios. No se puede predecir el resultado.
Espacio Muestral (Resultados). Es el conjunto de todos los posibles resultados que hay en un
fenmeno aleatorio. El espacio muestral se clasifica en:
Espacio muestral Discreto. Es aquel donde se puede contar el nmero de posibles resultados.
Espacio muestral Continuo. No se puede enumerar los posibles resultados, debido a que, el
espacio muestral continuo esta definido sobre la recta de los nmeros reales.
Evento. Es un conjunto de resultados que tiene cierta caracterstica comn. Los eventos pueden
ser:
Evento seguro. Es aquel que tiene todos los posibles resultados.
Evento imposible. Es aquel que no tiene un posible resultado.
Evento complementario. Es aquel evento que esta compuesto por los eventos que no estn en
este evento.
Eventos mutuamente excluyentes. Para que un evento sea mutuamente excluyente debe
cumplirse que A"B=.
Evento colectivamente exhaustivo. Un conjuntos de eventos E1, E2,...En son colectivamente
exhaustivos cuando E1U E2.... UEn= S, donde S es el espacio muestral.

Frecuencia relativa
La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el
nmero total de datos.
La frecuencia relativa se puede expresar en tantos por ciento y se representa por ni.

La suma de las frecuencias relativas es igual a 1.
Ejemplo
Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas mximas:
32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 28, 29, 30, 32, 31, 31, 30, 30, 29, 29, 30, 30, 31, 30, 31, 34,
33, 33, 29, 29.
xi fi ni
27 1 0.032
28 2 0.065
29 6 0.194
30 7 0.226
31 8 0.258
32 3 0.097
33 3 0.097
34 1 0.032
31 1

Espacio muestral

se le llama espacio muestral al conjunto de todos los resultados posibles de un experimento
aleatorio. El espacio muestral se denota como S.

Ejemplo: Los resultados posibles del lanzamiento de un dado.

S = {1, 2, 3, 4, 5, 6}
Ejemplo: Los resultados posibles del lanzamiento de una moneda.

S = {Sello, guila}

Los espacios muestrales se clasifican en:
- Espacio muestral discreto, son espacios muestrales cuyos elementos resultan de hacer
conteos, siendo por lo general subconjuntos de los nmeros enteros.
- Espacio muestral continuo, son espacios muestrales cuyos elementos resultan de hacer
mediciones, siendo por lo general intervalos en el conjunto de los nmeros reales.


Evento

Un evento es un subconjunto del espacio muestral de un experimento aleatorio. Los eventos
normalmente se denotan con las letras maysculas A, B, C; y tienen la caracterstica de ser
subconjuntos de S ((A, B, C) c S). Los eventos pueden ser:

- Evento seguro, es aquel que tiene todos los posibles resultados. S = A #S = #A. Por
ejemplo al tirar un dado un dado obtener una puntuacin que sea menor que 7.
- Evento imposible, es aquel que no tiene un posible resultado. Por ejemplo al tirar un dado
obtener una puntuacin igual a 7.
- Eventos compatibles, dos eventos, A y B, son compatibles cuando tienen algn eventos
elemental comn. Ejemplo si A es sacar puntuacin par al tirar un dado y B es obtener mltiplo de
3, A y B son compatibles porque el 6 es un evento elemental comn.
- Evento incompatibles, dos eventos, A y B, son incompatibles cuando no tienen ningn
elemento en comn. Ejemplo si A es sacar puntuacin par al tirar un dado y B es obtener mltiplo
de 5, A y B son incompatibles.
- Eventos independientes, dos eventos, A y B, son independientes cuando la probabilidad
de que suceda A no se ve afectada porque haya sucedido o no B. Ejemplo al lazar dos dados los
resultados son independientes.
- Eventos dependientes, dos eventos, A y B, son dependientes cuando la probabilidad de
que suceda A se ve afectada porque haya sucedido o no B. Ejemplo extraer dos cartas de una
baraja, sin reposicin, son eventos dependientes.
- Evento contrario, el evento contrario a A es otro evento que se realiza cuando no se
realiza A. Ejemplo son eventos contrarios sacar par e impar al lanzar un dado.

Se clasifican en:
- Evento simple, siendo aquel que tiene un solo punto muestral.
- Evento compuesto, siendo aquel que tiene dos o ms puntos muestrales.

Donde el punto muestral es cada uno de los resultados posibles de un experimento aleatorio.
Representndose al nmero de puntos muestrales por #S.

Ejemplo: El lanzamiento de una moneda.

Experimento aleatorio:

Lanzar una moneda tres veces.

Espacio muestral:

S = {(S,S,S),(S,S,A),(S,A,S),(A,S,S),(A,A,S),(A,S,A),(S,A,A),(A,A,A)}

#S = 8

S es el evento seguro.

Evento simple:

A: que salgan tres sellos.

A = {(S,S,S)}

#A = 1
.5. Probabilidad clsica: Espacio finito equiparable

Probabilidad clsica
Sea E un espacio muestral cualquiera y A un evento de ese espacio. Se define la
probabilidad P del evento A, como:


donde
#A - nmero de casos favorables
#E - nmero de casos totales
Se supone que todos los elementos del espacio tienen la misma posibilidad
de ocurrir

(1)
#
#
) (
E
A
A P =
Ejemplo:
Experimento.- Se lanza una moneda
Evento A.- que al lanzar una moneda caiga guila.
Calcular la probabilidad de A:
E = { A, S}
A = { A }




Ejemplo. Sea el experimento lanzar un dado
Sea A: Obtener el nmero 6. A={6}
El espacio muestral (espacio equiprobable)
E = { 1,2,3,4,5,6 }
la probabilidad de obtener el nmero 6 es dada por





ESPACIOS FINITOS EQUIPROBABLES.

Sea o un espacio muestral que contiene n elementos, o = {a
1
, a
2
, a
3
,....,a
n
}, si a cada uno de los
elementos de o le asignamos una probabilidad igual de ocurrencia, p
i
= 1/n por tener n elementos

2
1
#
#
) ( = =
E
A
A P

6
1
#
#
) ( = =
E
A
A P
o, entonces estamos transformando este espacio muestral en un espacio finito equiprobable, el
que debe cumplir con las siguientes condiciones:

1. Las probabilidades asociadas a cada uno de los elementos del espacio muestral deben ser
mayores o iguales a cero, p
i
> 0.

2. La sumatoria de las probabilidades asociadas a cada elemento del espacio muestral debe
de ser igual a 1.
Ep
i
= 1

En caso de que no se cumpla con las condiciones anteriores, entonces no se trata de un espacio
finito equiprobable.
Solo en el caso de espacios finitos equiprobables, si deseamos determinar la probabilidad de que
ocurra un evento A cualquiera, entonces;

p(A) = r*1/n = r/n

p(A) = maneras de ocurrir el evento A/ Nmero de elementos del espacio muestral

r = maneras de que ocurra el evento A
1/n = probabilidad asociada a cada uno de los elementos del espacio muestral
n = nmero de elementos del espacio muestral

Ejemplos:

1. Se lanza al aire una moneda normal (una moneda perfectamente equilibrada) tres veces,
determine la probabilidad de que: a. Aparezcan puros sellos, b. Aparezcan dos guilas, c.
Aparezcan por lo menos dos guilas.

Solucin:

Para calcular las probabilidades de este problema, hay que definir el espacio muestral en
cuestin; si representamos los tres lanzamientos de la moneda mediante un diagrama de
rbol, encontraremos que el espacio muestral o el conjunto de todos los resultados posibles
es:

o = {AAA, ASS, SAS, SSA, AAS, SAA, ASA, SSS}

a. A = evento de que aparezcan puros sellos = {SSS}

p(A) = p(aparezcan puros sellos) = p(SSS) = 1/8 = 0.125
Porqu un octavo?, s el espacio muestral consta de 8 elementos como se ha observado,
entonces la probabilidad asociada a cada uno de los elementos del espacio muestral es de 1/8,
por ser un espacio finito equiprobable ya que cada uno de los elementos mostrados tiene la
misma probabilidad de ocurrencia.

b. B = evento de que aparezcan dos guilas = {AAS, SAA, ASA}

p(B) = p(aparezcan dos guilas) = p(AAS, SAA, ASA) = 1/8 + 1/8 + 1/8 = 3/8 = 0.375

c. C = evento de que aparezcan por lo menos dos guilas = {AAS, SAA, ASA, AAA}

p(C) = p(AAS, SAA, ASA, AAA)=p(aparezcan dos guilas) + p(aparezcan tres guilas)

p(C) = 4/8 = 1/2 = 0.5
robabilidad Condicional e independencia

En los problemas vistos hasta ahora, las probabilidades de los eventos se han
calculado libremente, sin ninguna restriccin y sin relacionarlos con la
ocurrencia de otros eventos. Sin embargo, muchas veces necesitamos encontrar
la probabilidad de un evento A que est sujeto o condicionado a que haya
sucedido otro evento B, al cual pertenece una parte del primero.

Escribiremos P(A | B) y significa la probabilidad del evento A acondicin de que ocurra
el evento B.

Para que tenga validez lo anterior debe de cumplirse que:

1. Los eventos A y B pertenezcan al mismo espacio muestral S.
2. La probabilidad del evento condicin debe ser mayor que cero, esto
es, P(B)>0.
3. Al condicionar la ocurrencia del evento A al evento B, se realiza un cambio
del espacio muestral S, actuando en su lugar el evento B como
espacio muestral reducido; por lo que el evento (A | B) ser la fraccin de A
que corresponde a B, que como ya vimos es la interseccin de A y B.

De acuerdo a lo anterior, podemos decir que:

Si A y B son cualquier evento es el espacio muestral S y P(B)>0, la probabilidad del evento
A a condicin de que ocurra el evento B est dada por.




Esto se puede apreciar fcilmente mediante el diagrama deVenn




Teorema de Bayes


La interpretacin ms aceptada del teorema de Bayes, es que su estructura
permite el calculo de probabilidades despus de haber sido realizado un
experimento (probabilidades aposteriori), basndose en el conocimiento de la
ocurrencia de ciertos eventos que dependan del evento estudiado, o sea, se
parte de probabilidades conocidas antes de efectuar el experimento
(probabilidades apriori), las cuales son afectadas por las probabilidades propias
del experimento (las que aparecen durante la ocurrencia del evento).
Teorema de Bayes







Ejemplo 3. 11. Referente al problema de la fbrica que produce dos tipos de
reguladores A y B visto anteriormente en la aparte corresponde al Teorema de
Probabilidad Total, cabe hacer el siguiente anlisis: si se selecciona un regulador
al azar de la produccin de la fbrica y se ve que funciona bien Cul es la
probabilidad de que sea del tipo B?

Solucin

En este caso el estudio se restringe a los reguladores que funcionan bien, por lo que ese evento
acta como espacio muestral reducido, o sea como evento condicin. Por lo tanto, el
planteamiento de la pregunta es P(B | F).
Los datos que se tienen son :

P(A) = 0.75 P(F | A) = 0.95
P(B) = 0.25 P(F | B) = 0.98

De acuerdo al Teorema de Bayes:



Podemos observar que el denominador corresponde al resultado obtenido al
aplicar el Teorema de Probabilidad Total, lo cual debe ser as, ya que la
probabilidad condicional establece que . De esta forma
podemos ver que la Probabilidad

Total es el denominador de la frmula del Teorema de Bayes. Tambin podemos
observar que aplicando los conceptos de la Regla de Multiplicacin y del
Teorema de Probabilidad Total llegamos al planteamiento del teorema
de Bayes, Veamos:




. Distribucin Marginal Conjunta.

Tengo dos variables aleatorias:
X=(1,2,1)
Y=(2,1,1)

Cmo se calcularan la distribucin de probabilidad conjunta y la distribucin de probabilidad
marginal?
Supongo que los dos conjuntos de valores

X=(1,2,1)
Y=(2,1,1)

Representen los resultados de tres mediciones de las dos variables X, Y, y que los resultados vayan
en pares, o sea:

X = 1 con Y = 2
X = 2 con Y = 1
X = 1 con Y = 1

Como cada par de mediciones aparece 1 vez entre 3, la probabilidad conjunta es 1/3 por cada par
(1, 2), (2, 1) y (1, 1), mientras el cuarto par posible, o sea (2, 2) tiene probabilidad 0.

La distribucion conjunta es entonces
X\Y 1 2
----------------
1 | 1/3 1/3
2 | 1/3 0

Las distribuciones marginales son las distribuciones separadas de X e Y, y se obtienen de la tabla
conjunta sumando las probabilidades por lineas horizontales y verticales:
X P(X)
1 2/3
2 1/3

Y P(Y)
1 2/3
2 1/3
DISTRIBUCIN DE PROBABILIDAD DE VARIABLES
ALEATORIAS DISCRETAS

ESPACIO MUESTRAL. El conjunto de todos los resultados posibles de un experimento estadstico
denotado por S o

VARIABLE. Se denomina variable a la entidad que puede tomar un valor cualesquiera durante la
duracin de un proceso dado. Si la variable toma un solo valor durante el proceso se llama
constante.

VARIABLE ALEATORIA: Es una funcin que asocia un nmero real a cada elemento del espacio
muestral. Es decir son aquellas que pueden diferir de una respuesta a otra.

Una variable aleatoria se puede clasificar en:

Variable aleatoria discreta.

Variable aleatoria continua.

Variable aleatoria discreta. Una variable discreta proporciona datos que son llamados datos
cuantitativos discretos y son respuestas numricas que resultan de un proceso de conteo.

La cantidad de alumnos regulares en un grupo escolar.
El nmero de guilas en cinco lanzamientos de una moneda.
Nmero de circuitos en una computadora.
El nmero de vehculos vendidos en un da, en un lote de autos

Variable aleatoria continua. Es aquella que se encuentra dentro de un intervalo comprendido
entre dos
valores cualesquiera; sta puede asumir infinito nmero de valores y stos se pueden medir.

La estatura de un alumno de un grupo escolar.
El peso en gramos de una moneda.
La edad de un hijo de familia.
Las dimensiones de un vehculo.
5 Valor esperado, varianza y desviacionestandar de una variable
aleatoria discreta.


Valor Esperado
El valor esperado o esperanza de una variable aleatoria tiene su origen en los
juegos de azar, debido a que los jugadores deseaban saber cual era su
esperanza de ganar o perder con un juego determinado. Como a cada resultado
particular del juego le corresponde una probabilidad determinada, esto equivale
a una funcin de probabilidad de una variable aleatoria y el conjunto de todos
los resultados posibles del juego estar representado por la distribucin de
probabilidad de la variable aleatoria. El valor esperado o esperanza es muy
importante, ya que es uno de los parmetros que describen una variable
aleatoria.

Sea X una variable aleatoria discreta con funcin de probabilidades f(x). Entonces, el valor
esperado de la variable aleatoria X, el cual se representa por E(X), est definido por:
E(X) = x
i
f(x
i
)

Lo anterior significa, que para calcular E(X) se multiplica cada valor que puede
tomar la variable aleatoria por la probabilidad que le corresponde y despus se
suman esos productos.

El valor esperado representa el valor promedio que se espera suceda, al repetir
el experimento en forma independiente una gran cantidad de veces. El valor
esperado se interpreta fsicamente como el centro de masa o centro de
gravedad de la distribucin de probabilidad, por lo que es igual a
lamedia o promedio aritmtico, los cuales se representan con la letra .

De acuerdo a lo anterior podemos escribir que:

E(X) = = x
i
f(x
i
)


Ejemplo 4. 7. Si se lanzan dos dados legales, encontrar el valor esperado.

Solucin.

Definamos la variable aleatoria X como la suma de los nmeros que aparecen al
lanzar dos dados legales. Como vimos en el problema anterior, la distribucin de
probabilidad es:

x
i
f(x
i
) =


x
i
2 3 4 5 6 7 8 9 10 11 12
f(x
i
) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

En particular, si la distribucin de probabilidades es simtrica como en el
ejemplo anterior, el valor esperado coincide con el valor de la variable que tiene
la mayor probabilidad en la distribucin.

Una aplicacin del valor esperado puede ser la siguiente.

Ejemplo 4. 8. Un casino le permite a un jugador que lance un dado legal y que
reciba tantos pesos como puntos aparezcan en la cara superior del dado. El
jugador debe pagar una cantidad k de pesos cada vez que juegue. Calcular
cuanto debe valer k para que el jugador ni gane ni pierda.

Solucin.

Sea X la variable aleatoria que representa el resultado al lanzar un dado.
Su distribucin de probabilidad es la siguiente:

1 2 3 4 5 6

1/6 1/6 1/6 1/6 1/6 1/6


En este caso el valor esperado debe ser igual al valor k, con lo que se
espera que el jugador ni gane ni pierda. Aplicando la frmula del valor esperado
tenemos:

x
i
f(x
i
) = 1(1/6) + 2(1/6) + 3(1/6) + 4(1/6) +5(1/6) + 6(1/6) = 3.5

El jugador debe pagar 3.5 pesos cada vez que participa en un juego.
Si la cuota k fuera de 4 pesos por juego, la ganancia neta esperada del
casino es de 0.50 pesos por juego, ya que k - = 4.00 - 3.50 = 0.50 pesos. Como lo
que recibe el jugador en un solo juego no puede ser igual a 3.5 pesos (debe ser
un nmero entero entre 1 y 6), entonces la E(X) no necesariamente coincide con
el resultado de un solo juego.

El significado de E(X) = 3.5 pesos, es que si el juego se realiza un gran
nmero de veces, el cociente debe ser
aproximadamente igual a 3.5 pesos.

Ejemplo 4. 9. Consideremos una lotera con mil nmeros. Cada nmero cuesta
25 centavos y el premio es de 100 pesos. Calcular cunto se espera ganar o
perder cada vez que se participa en esta lotera.

Solucin.

Sea X la variable aleatoria utilidad que obtiene la persona que participa
en la lotera y los valores que puede tomar son:
Cuando gana = 99.75 pesos (100 que gana del premio, menos 0.25 del costo del
nmero).
Cuando pierde: 0.25 pesos (costo del nmero)
Por su parte, la probabilidad de ganar es 1/1000 y de perder 999/1000.
De acuerdo a los datos anteriores, la distribucin de probabilidad es:

X = x
i
99.75 -0.25
f(x
i
) 1/1000 999/1000

Por lo tanto, el valor esperado es:

x
i
f(x
i
) = (99.75) (1/1000) + (-0.25) (999/1000) = -0.15

O sea que la persona que participe en la lotera espera perder 15 centavos en
cada juego.



Variancia.

Existen dos aspectos que caracterizan de forma simple el comportamiento de la
distribucin de probabilidad, porque proporcionan una descripcin completa de
la forma en que se comporta: la medida de tendencia central y la de dispersin.

La primera est representada por la media o valor esperado, ya vista en el punto
anterior, y la segunda por la variancia o por la desviacin estndar, que evalan
la dispersin de la distribucin de probabilidad o grado en que se separan del
promedio los valores de la variable aleatoria X.

Por ejemplo, en un espacio muestral equiprobable vemos que los valores 5, 10 y
15 tienen una media de 10 y que los valores 9.9, 10 y 10.1 la media tambin es
10. Sin embargo, advertimos que los dos conjuntos de valores difieren
notablemente en la dispersin de los valores respecto a su media y que tal
dispersin es de gran importancia. Por lo tanto, para tener un conocimiento
claro y completo del comportamiento de los valores que puede tomar la
variable aleatoria, es indispensable conocer tanto la media como la variancia o
la desviacin estndar de la distribucin de probabilidad.

Las desviaciones (X - ) toman valores: (x
1
- ), (x
2
- ), (x
3
- ), ,(x
i
-), con
probabilidades respectivas: f(x
1
), f(x
2
), f(x
3
), . . . , f(x
i
). Sin embargo, al tomar el
valor esperado de estas desviaciones nos encontramos con que:
E(X - ) = (x
i
- ) f(x
i
) = x
i
f(x
i
) - f(x
i
) = x
i
f(x
i
) - = - = 0
Esto se debe a que las desviaciones positivas se compensan con las
desviaciones negativas. Para determinar una medida de dispersin, necesitamos
considerar nicamente la magnitud de las desviaciones sin sus signos.

Una manera de eliminar el signo de las desviaciones, es considerar el cuadrado
de las mismas, es decir, (x
i
- )2.

Si obtenemos el valor esperado de las desviaciones elevadas al cuadrado,
obtenemos una medida de la dispersin de la distribucin de probabilidad, la
cual es conocida como Variancia y se simboliza por o2 Var (X) V(X).

La variancia de una variable aleatoria X se define como

o2 = V(X) = Var (X) = E (X - )2 = (x
i
- )2 f(x
i
)

A partir de sta ecuacin y mediante un pequeo desarrollo matemtico,
se obtiene la siguiente expresin:

o2 = V(X) = x
i
2 f(xi) - 2

Si representamos a x
i
2 f(xi) por E( X2), podemos escribir:

o2 = V(X) = Var (X) = E( X2) - |E(X)|
2
= E( X2) - 2
Al usar la variancia como medida de dispersin o variabilidad se presenta
una dificultad. Las unidades con que se miden los valores que toma la variable
aleatoria X son lineales, por ejemplo kilogramos, metros, litros, etc., por lo
que = E(X) tambin ser lineal, pero la varianciao2 est en unidades
cuadrticas, como kilogramos elevados al cuadrado, metros elevados al
cuadrado, litros elevados al cuadrado, etc.

En vista de lo anterior, si queremos expresar la medida de dispersin en las
mismas unidades en que se miden los valores de la variable aleatoria X,
debemos tomar la raz cuadrada positiva de la variancia. A esta cantidad se le
conoce con el nombre de desviacin estndar y se representa con o.



La desviacin estndar de una variable aleatoria X se define y simboliza como:

=

Ejemplo 4. 12. Consideremos nuevamente la distribucin de probabilidad de las
ventas semanales de unidades de alta fidelidad de la marca A, en la ya vimos
que:
X = x
i
0 1 2 3 4 5
f(x) 0.1 0.1 0.2 0.3 0.2 0.1

Encontrar la variancia y la desviacin estndar.

Solucin.

Basndonos en la distribucin de probabilidad podemos construir la tabla
siguiente, en la cual obtenemos todos los valores que se necesitan para el
clculo.

X = x
i
0 1 2 3 4 5 Total
f(x) 0.1 0.1 0.2 0.3 0.2 0.1 1
x f(x) 0 01 0.4 0.9 0.8 0.5 2.7
x
2
f(x) 0 0.1 0.8 2.7 3.2 2.5 9.3

Podemos observar que:

E(X) = x
i
f(x
i
) = 2.7 y que E(X2) = x
2
f(x) = 9.3

por lo tanto, la variancia es:



y la desviacin estndar:


Distribucin binomial


Una distribucin binomial o de Bernoulli tiene las siguientes caractersticas:

1. En cada prueba del experimento slo son posibles dos resultados: xito y fracaso.

2.La probabilidad de xito es constante, es decir, que no vara de una prueba a otra. Se representa
por p.

3.La probabilidad de fracaso tambin es constante, Se representa por q,

q = 1 p

3.El resultado obtenido en cada prueba es independiente de los resultados obtenidos
anteriormente.

5.La variable aleatoria binomial, X, expresa el nmero de xitos obtenidos en las n pruebas. Por
tanto, los valores que puede tomar X son: 0, 1, 2, 3, 4, ..., n.

La distribucin bimomial se expresa por B(n, p)


Clculo de probabilidades en una distribucin binomial
binomial

n es el nmero de pruebas.

k es el nmero de xitos.

p es la probabilidad de xito.

q es la probabilidad de fracaso.

El nmero combinatorio nmero combinatorio


Ejemplo
La ltima novela de un autor ha tenido un gran xito, hasta el punto de que el 80% de los lectores
ya la han leido. Un grupo de 4 amigos son aficionados a la lectura:

1. Cul es la probabilidad de que el grupo hayan leido la novela 2 personas?

n = 4

p = 0.8

q = 0.2

B(4, 0.8)

binomial

2.Y al menos 2?

binomial

binomial
La distribucin Hipergeomtrica

Este modelo presenta similitudes con el Binomial, pero sin la suposicin de
independencia de ste ltimo. Vemoslo:
- Partimos de un conjunto formado por N individuos divididos en dos
categoras mutuamente excluyentes: A y A
c
; de manera que N
1
individuos
pertenecen a la categora A yN
2
individuos
,
a la categora A
c
. Por tanto, se
cumple que
N = N
1
+ N
2

- Si del conjunto anterior extraemos n individuos sin
reemplazamiento (n N), la variable X que representa el nmero k de
individuos que pertenecen a la categora A (de losn extrados) tiene por
funcin de densidad:



La dependencia se debe al hecho de que N es finito y las extracciones se efectan
sin reemplazamiento. El caso de extracciones con reemplazamiento sera
equivalente al de Ninfinito y se resolvera mediante el modelo Binomial.
Distribucin Geomtrica

La distribucin Geomtrica tambin est relacionada con una secuencia de
ensayos de Bernoulli, excepto que el nmero de ensayos no es fijo. En
consecuencia, la distribucin geomtrica hereda las caractersticas de la
distribucin binomial, a excepcin del concepto del cual se quiere calcular la
probabilidad. En este caso la variable aleatoria de inters, denotada mediante X,
se define como el nmero de ensayos requeridos para lograr el primer xito. Es
obvio que para obtener el primer xito se debe realizar el experimento cuando
menos una vez, por lo que los valores que puede tomar la variable
aleatoria X son 1, 2, 3, ... , n, esto es, no puede tomar el valor cero. En este caso
se cumple que (X = x)si y slo si los primeros (x 1) ensayos son fracasos (q) y
el x-simoensayo es xito (p), por lo que:

P(X = x) =

De acuerdo a lo anterior, podemos decir que:

Una variable aleatoria X se distribuye de acuerdo con un
modelo probabilstico geomtrico, si su funcin de probabilidades es:



Ejemplo 5. 11. Se lanza un dado hasta que aparece el nmero 6. Cul es la
probabilidad de que el nmero de lanzamientos sean 3?

Solucin.

En este problema el xito es la aparicin del nmero 6 y la probabilidad de que
salga el nmero 6 al lanzar un dado es 1/6, por lo que p = 1/6 yq = 5/6. Como
nos interesa calcular la probabilidad de que el 6 aparezca en el tercer
lanzamiento, entonces:

P(X = 3) = ( )
3-1
( ) = ( )
2
( ) = 0.1157

proximacin de la Hipergeometrica por la Binomial.
En teora de la probabilidad la distribucin hipergeomtrica es una distribucin discreta
relacionada con muestreos aleatorios y sin reemplazo. Supngase que se tiene una poblacin de N
elementos de los cuales, d pertenecen a la categora A y N-d a la B. La distribucin
hipergeomtrica mide la probabilidad de obtener x elementos de la categora A en una muestra de
n elementos de la poblacin original.
La funcin de probabilidad de una variable aleatoria con distribucin hipergeomtrica puede
deducirse a travs de razonamientos combinatorios y es igual a

Donde es el tamao de poblacin, es el tamao de la muestra extrada, es el nmero de
elementos en la poblacin original que pertenecen a la categora deseada y es el nmero de
elementos en la muestra que pertenecen a dicha categora. La notacin hace referencia al
coeficiente Binomial, es decir, el nmero de combinaciones posibles al seleccionar elementos de
un total.

3.6 Distribucin Multinomial.
Este modelo se puede ver como una generalizacin del Binomial en el que, en lugar de
tener dos posibles resultados, tenemos r resultados posibles.
Supongamos que el resultado de una determinada experiencia puede ser r valores distintos:
A1, A2,..., Ar cada uno de ellos con probabilidad p1, p2,..., pr, respectivamente.


Si repetimos la experiencia n veces en condiciones independientes, podemos preguntarnos
la probabilidad de que el suceso A1 aparezca k1 veces, el suceso A2, k2 veces y as
sucesivamente:


Al modelo estadstico que nos da dicha probabilidad se le denomina Multinomial, y su
funcin de densidad viene dada por:


Como se ve, el modelo Multinomial queda definido por los parmetros (n, p1, p2,..., pr).
La frmula anterior puede deducirse de forma anloga al caso Binomial. En realidad, si
tomamos r = 2 tenemos exactamente el modelo Binomial.
Se debe destacar que este modelo es un ejemplo de distribucin multivariante, es decir, de
distribucin conjunta de varias (r) variables aleatorio. En efecto, si definimos la variable
aleatoria X1 como nmero de veces que se produce el suceso A1 de un total de n
experiencias, y as sucesivamente, tenemos un conjunto de r variables aleatorias discretas
cuya funcin de densidad conjunta (valorada a la vez) viene definida por la anterior
frmula. Ntese que si consideramos cada una de estas variables Xi (i = 1, 2,..., r) por
separado, su distribucin es la Binomial de parmetros n y pi.
Propiedades del experimento Multinomial:
1. El experimento consiste en n pruebas idnticas.
2. Hay k posibles resultados de cada prueba
3. Las probabilidades de los k resultados, denotadas por p1, p2, p3,..pk.se mantienen
constantes a lo largo de todas las pruebas, donde p1 + p2 + +pk=1
4. Las pruebas son independientes
Distribucin de Poisson
. La distribucin de Poisson es una distribucin de probabilidad discreta que expresa, a partir de
una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado nmero de
eventos durante cierto periodo de tiempo.
Propiedades
La funcin de masa de la distribucin de Poisson es:


Donde
k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la probabilidad de que
el evento suceda precisamente k veces).
es un parmetro positivo que representa el nmero de veces que se espera que ocurra el
fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio
4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un
intervalo de 10 minutos, usaremos un modelo de distribucin de Poisson con = 104 = 40.
e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribucin de Poisson son
iguales a . Los momentos de orden superior son polinomios de Touchard en cuyos coeficientes
tienen una interpretacin combinatoria. De hecho, cuando el valor esperado de la distribucin de
Poisson es 1, entonces segn la frmula de Dobinski, el ensimo momento iguala al nmero de
particiones de tamao n.

3.8 Aproximacin de la Binomial por la de Poisson.
En este caso se determinarn probabilidades de experimentos Binomiales, pero que dadas sus
caractersticas, es posible aproximarlas con la distribucin de Poisson, estas caractersticas son, n
(n es muy grande) y p0 (p es muy pequea), por lo que:

La expresin anterior solo se cumple cuando n y p0, solo en este caso, si esto no se cumple, la
aproximacin no se puede llevar a efecto, por lo que la frmula a utilizar en este caso sera:

Donde:
l =m= npi = nmero esperado de xitos = tasa promedio de xitos
n = nmero de repeticiones del experimento
p = probabilidad de xito = p (xito)
Una regla general aceptable es emplear esta aproximacin si n20 y p0.05: s n100, la
aproximacin es generalmente excelente siempre y cuando np10.
EJEMPLO 2.
Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores de gran
tamao con garanta. S la probabilidad de que cualquiera de ellos falle durante el ao dado es de
1/1200 determine la probabilidad de que a) 4 generadores fallen durante el ao en cuestin, b)
que ms 1 de un generador falle durante el ao en cuestin.
Solucin:
a) n = 3840 generadores
p = 1/1200 = probabilidad de que un generador falle durante el ao de garanta
l = np = (3840) (1/1200) = 3.2 motores en promedio pueden fallar en el ao de garanta
x = variable que nos define el nmero de motores que pueden fallar en el ao de garanta
= 0, 1, 2, 3,....,3840 motores que pueden fallar en el ao de garanta

b) p(x=2, 3,4,....,3840;l=3.2)=1-p(x=0,1;l=3.2) =

=1- (0.04078 + 0.13048) = 0.82874
Distribucin Binomial Negativa.
La distribucin Binomial es una distribucin de probabilidad discreta que incluye a la distribucin
de Pascal.
El nmero de experimentos de Bernoulli de parmetro independientes realizados hasta la
consecucin del k-simo xito es una variable aleatoria que tiene una distribucin Binomial
negativa con parmetros k y .
La distribucin geomtrica es el caso concreto de la Binomial negativa cuando k=1.
Propiedades:
Su funcin de probabilidad es:

Para enteros x mayores o iguales que k, donde .

Su media es

Si se piensa en el nmero de fracasos nicamente y

Si se cuentan tambin los k-1 xitos.

Su varianza es
En ambos casos.
Ejemplos:
Si la probabilidad de que un nio expuesto a una enfermedad contagiosa la contraiga es 0,40,
Cul es la probabilidad de que el dcimo nio expuesto a la enfermedad sea el tercero en
contraerla? En este caso, X es el nmero de nios expuestos la enfermedad y

La solucin es:

En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es
defectuoso, cual es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en
estar defectuoso?. La solucin es: X= artculos defectuosos P= 1/10 = 0,1 q= 1- 0,1 = 0,9 x= 5
ensayos K= 1 b*(5;1,0.1)=(5-1\1-1)(0.1)^1*(0.9)^5-1= b*(5;1,0.1)= 6.6% de probabilidad que el
quinto elemento extrado sea el primero en estar defectuoso.

3.10 Distribucin Uniforme.
La distribucin Uniforme discreta

Tenemos esta distribucin cuando el resultado de una experiencia aleatoria puede
ser un conjunto finito de n posibles resultados, todos ellos igualmente probables.
Un ejemplo puede ser la variable X, puntuacin en el lanzamiento de un dado
regular. Esta variable toma seis valores posibles, todos con la misma
probabilidad p = 1/6. La funcin de densidad de esta variable ser:
f(k) = P[X = k] = 1/6 k = 1, 2, 3, 4, 5, 6




En general, si la variable X puede tomar n (k = 1, 2, ..., n) valores, todos con
igual probabilidad, su funcin de densidad ser:
f(k) = P[X = k] = 1/n k = 1, 2, ..., n

Propiedades del modelo Uniforme discreto
Sea n el nmero de valores equiprobables posibles:
1) Esperanza:

2) Varianza:

La distribucin Uniforme discreta

Tenemos esta distribucin cuando el resultado de una experiencia aleatoria puede
ser un conjunto finito de n posibles resultados, todos ellos igualmente probables.
Un ejemplo puede ser la variable X, puntuacin en el lanzamiento de un dado
regular. Esta variable toma seis valores posibles, todos con la misma
probabilidad p = 1/6. La funcin de densidad de esta variable ser:
f(k) = P[X = k] = 1/6 k = 1, 2, 3, 4, 5, 6




En general, si la variable X puede tomar n (k = 1, 2, ..., n) valores, todos con
igual probabilidad, su funcin de densidad ser:
f(k) = P[X = k] = 1/n k = 1, 2, ..., n

Propiedades del modelo Uniforme discreto
Sea n el nmero de valores equiprobables posibles:
1) Esperanza:

2) Varianza:


La distribucin Uniforme discreta

Tenemos esta distribucin cuando el resultado de una experiencia aleatoria puede
ser un conjunto finito de n posibles resultados, todos ellos igualmente probables.
Un ejemplo puede ser la variable X, puntuacin en el lanzamiento de un dado
regular. Esta variable toma seis valores posibles, todos con la misma
probabilidad p = 1/6. La funcin de densidad de esta variable ser:
f(k) = P[X = k] = 1/6 k = 1, 2, 3, 4, 5, 6




En general, si la variable X puede tomar n (k = 1, 2, ..., n) valores, todos con
igual probabilidad, su funcin de densidad ser:
f(k) = P[X = k] = 1/n k = 1, 2, ..., n

Propiedades del modelo Uniforme discreto
Sea n el nmero de valores equiprobables posibles:
1) Esperanza:

2) Varianza:

Vous aimerez peut-être aussi