Vous êtes sur la page 1sur 51

UNIVERSIDAD DE ORIENTE

NCLEO ANZOTEGUI
ESCUELA DE INGENIERA Y CIENCIAS APLICADAS
DEPARTAMENTO DE ELECTRICIDAD
Materia: ESTADSTICA





DISTRIBUCIONES DE
FRECUENCIAS Y
PROBABILIDADES


Profesor: Hernn Rojas Bachilleres:

Luis B. Noguera M. C.I: 20.901.175
Rafael A. Prez M. C.I: 20.874.455
Fernando J. Prez H. C.I: 20.546.160





Barcelona, Abril 2013.
DISTRIBUCIN DE FRECUENCIAS.


VARIABLES DISCRETAS Y CONTINUAS.


Una distribucin de los datos en categoras que ha demostrado ser til al
organizar los procedimientos estadsticos, es la distincin entre variables discretas y
variables continuas. Una variable discreta es sencillamente una variable para la que se
dan de modo inherente separaciones entre valores observables sucesivos. Establecen
categoras en trminos no cuantitativos entre distintos individuos o elementos Dicho
con ms rigor, se define una variable discreta como la variable tal que entre 2
cualesquiera valores observables (potencialmente), hay por lo menos un valor no
observable (potencialmente). Por ejemplo, un recuento del nmero de colonias de un
cultivo en agar es una variable discreta. Mientras que cuentas de 3 y 4 son
potencialmente observables, no lo es una de 3,5 o tambin cuando se clasifica a las
personas en clases sociales: alta, media, baja. O cuando se califica un servicio de un
hospital: excelente, bueno, regular, malo.

Una variable continua es aquella que se presenta cuando el fenmeno que se
mide puede tomar valores cuantitativamente distintos, tiene la propiedad de que
entre 2 cualesquiera valores observables (potencialmente), hay otro valor observable
(potencialmente). Una variable continua toma valores a lo largo de un continuo, esto
es, en todo un intervalo de valores. Longitudes y pesos son ejemplos de variables
continuas. La estatura de una persona, pude ser 1,70 mts. 1,75 mts., pero en
potencia al menos podra tomar cualquier valor intermedio como 1,73 mts. por
ejemplo. Tambin la edad ya que esta variable puede asumir valores continuos: 1, 2,
3,20, 21,60,61
Un atributo esencial de una variable continua es que, a diferencia de lo que
ocurre con una variable discreta, nunca se la puede medir exactamente. Con una
variable continua debe haber inevitablemente un error de medida.

Un importante principio sobre variables continuas es que siempre se registran
en forma discreta, quedando la magnitud de la distancia entre valores registrables
adyacentes determinada por la precisin de la medicin.










POBLACIN Y MUESTRA.


Poblacin: No es ms que aquel conjunto de individuos o elementos que le
podemos observar, medir una caracterstica o atributo que puedan ser objeto del
estudio estadstico.

Una poblacin est determinada por sus caractersticas definitorias. Por lo
tanto, el conjunto de elementos que posea esta caracterstica se denomina poblacin
o universo. Poblacin es la totalidad del fenmeno a estudiar, donde las unidades de
poblacin poseen una caracterstica comn, la que se estudia y da origen a los datos
de la investigacin.

Entonces, una poblacin es el conjunto de todas las cosas que concuerdan con
una serie determinada de especificaciones. Un censo, por ejemplo, es el recuento de
todos los elementos de una poblacin.

Otros ejemplos de poblacin:

El conjunto formado por todos los estudiantes universitarios en Venezuela.
El conjunto de todos los estudiantes de una Universidad.
El conjunto de personas fumadoras de una regin.


Son caractersticas medibles u observables de cada elemento por ejemplo, su
estatura, su peso, edad, sexo, etc.

Supongamos que nos interesa conocer el peso promedio de la poblacin
formada por los estudiantes de una universidad. Si la universidad tiene 5376 alumnos,
bastara pesar cada estudiante, sumar los 5376 pesajes y dividirlo por 5376. Pero este
proceso puede presenta dificultades dentro de las que podemos mencionar:

Localizar y pesar con precisin cada estudiante:
Escribir todos los datos sin equivocaciones en una lista:
Efectuar los clculos.

Las poblaciones pueden ser finitas e infinitas. Las dificultades son mayores si en
nmero de elementos de la poblacin es infinito, si los elementos se destruyen, si
sufren daos al ser medidos o estn muy dispersos, si el costo para realizar el trabajo
es muy costoso.

Es de fundamental importancia comenzar el estudio definiendo la poblacin a
estudiar.

Las poblaciones suelen ser muy numerosas, por lo que es difcil estudiar a todos
sus miembros; adems de que esto no es posible, no es necesario. Es como si se
quisiera estudiar la composicin qumica del agua de un ro y para ello se intentar
analizar toda el agua que corre por su cauce, cuando solamente se puede tomar unas
muestras para realizar ese estudio y llegar a conclusiones generalizables con respecto a
la composicin qumica del agua a todo el ro.

Muestra: Es cuando se seleccionan algunos elementos con la intencin de
averiguar algo sobre una poblacin determinada, se basa en medir solo una parte de la
poblacin. Cuando no es posible medir cada uno de los individuos de una poblacin, se
toma una muestra representativa de la misma y se toma el peso medio en la muestra
como una aproximacin del verdadero valor del peso medio de la poblacin.. Por
supuesto, se espera a travs del estudio que lo que se averige en la muestra sea
cierto para la poblacin en su conjunto.

El tamao de la poblacin es la cantidad de elementos de esta y el tamao de la
muestra es la cantidad de elementos de la muestra.

Los datos obtenidos de una poblacin pueden contener toda la informacin
que se desee de ella. De lo que se trata es de extraerle esa informacin a la muestra,
es decir a los datos mustrales sacarle toda la informacin de la poblacin.

La muestra debe obtener toda la informacin deseada para tener la posibilidad
de extraerla, esto slo se puede lograr con una buena seleccin de la muestra y un
trabajo muy cuidadosos y de alta calidad en la recogida de los datos.

Es bueno sealar que en un momento una poblacin puede ser muestra en una
investigacin y una muestra puede ser poblacin, esto esta dado por el objetivo del
investigacin, por ejemplo en el caso de determinar la estatura media de los
estudiantes universitarios en Venezuela una muestra poda ser escoger algunas
universidades del pas y realizar el trabajo, si por el contrario se quiere saber la
estatura promedio de los estudiantes de una universidad en especifico en Venezuela,
entonces el conjunto formado por todos los estudiantes de esta universidad sera la
poblacin y la muestra estara dada por los grupos, carreras o aos seleccionado para
realzar el experimento.

1 Mtodo de seleccin de la muestra: Un procedimiento de extraer una
muestra aleatoria de una poblacin finita es el de enumerar todos los elementos que
conforman la poblacin, escribir esos nmeros en bolas o papelitos echarlos en un
bombo o bolsa mezclarlos bien removindolos y sacar uno a uno tantos como lo
indique el tamao de la muestra. En este caso los elementos de la muestra lo
constituirn los elementos de la poblacin cuyos nmeros coincidan con los extrados
de la bolsa o bombo.

Otro procedimiento para obtener una muestra de una poblacin ya sea el
muestreo con remplazo o sin reemplazo es mediante la utilizacin de la tabla de
nmeros aleatorios pero solamente para poblaciones finitas, la utilizacin de estas
tablas puede realizarse de diferentes modos pero en el presente trabajo solo
expondremos el que consideramos mas eficiente ya que no se necesita de la bsqueda
de una gran cantidad innecesaria de nmeros aleatorios en la tabla, el cual ser
ejemplificado.

Existen diferentes tablas de nmeros aleatorios, utilizando como referencia la
tabla de M. G. Kendall y B. Babington Smith, la misma est constituida por 4 bloques
de 1000 nmeros aleatorios dispuestos en 25 filas y 40 columnas.

Veamos como se procede para la utilizacin de la tabla. Consideremos que se
desea extraer de una poblacin de tamao N una muestra de tamao n se selecciona
el bloque, la fila y la columna de la tabla que se va a comenzar, a partir de esta
seleccin (que la hace el muestrista) se toman tantas columnas como dgitos tiene N.
Comenzando por el primer nmero de las columnas seleccionadas se irn incluyendo
en la muestra aquellos individuos que en la lista de la poblacin ( ya sea de forma
horizontal o vertical) ocupa la posicin de los n nmeros de las columnas seleccionadas
que resultan menores que N, en los caso que al seleccionar un nmero en la tabla de
nmeros aleatorios sea mayor que N se divide este por N y el resto de la divisin que
ser un nmero entre 0 y N-1 ser la posicin del individuo a seleccionar tomando el
convenio de que el resto 0 corresponde a la posicin N. Para la aplicacin de este
procedimiento requiere que se fije previamente el mayor mltiplo de N que se
considerar, para as garantizar que todos los restos desde 0 a N -1 tengan la misma
probabilidad de ser seleccionados, por ejemplo si N = 150 y tomando 3 columnas se
consideraran slo aquellos nmeros menores o iguales que 900, los nmeros mayores
que 900 no sern analizados en la seleccin de la muestra.


VARIANZA


En teora de probabilidad y estadstica, la varianza es una medida de la
dispersin de una variable aleatoria respecto a su esperanza . Se define
como la esperanza de la transformacin : esto es,



Est relacionada con la desviacin estndar o desviacin tpica, que se suele
denotar por la letra griega (sigma) y que es la raz cuadrada de la varianza,

o bien

Es el estadstico de dispersin que mide el grado de variabilidad que sintetiza el
grado de homogeneidad o heterogeneidad de las diferencias individuales entre los
casos de una muestra (o de varias muestras) respecto de una o varias variables
numricas continuas o cuantitativas.

En teora de probabilidad y estadstica la varianza es un estimador de la
divergencia de una variable aleatoria x de su valor esperado E[x]. Tambin se utilizan la
desviacin estndar, la raz de la varianza.

Distinguimos dos smbolos para identificar la varianza: S
2
para datos
muestrales, y
2
para datos poblacionales. Note que la frmula para la varianza
muestral presenta en su denominador al tamao de la muestra menos uno, tendencia
adoptada por los estadsticos para denotar una varianza ms conservadora.
Al igual que ocurre con la desviacin media, podemos definir las frmulas para datos
agrupados en tablas tipo A y tipo B. Para las tablas tipo A tenemos:
Una advertencia en el uso de esta medida, es que al elevar las distancias al cuadrado,
automticamente se elevan las unidades. Por ejemplo, si unidad trabajada en los datos
es centmetros, la varianza da como resultados centmetros al cuadrado.

VARIANZA MUESTRAL.

Dentro de la estadstica descriptiva, la varianza muestral se utiliza como medida
de dispersin, cuya definicin es:



Operando la ecuacin la varianza muestral se puede expresar como:


Tambin se expresa como la diferencia entre el momento de orden 2 y el
cuadrado del valor esperado:



Otra medida de dispersin similar, pero con la propiedad de insesgadez, es la
cuasi-varianza muestral:


Operando la ecuacin la cuasivarianza muestral se puede expresar como:


Mientras que la desviacin estndar se puede interpretar como el promedio de
la distancia de cada punto respecto del promedio y est medida en las mismas
unidades que la variable, la varianza est medida en "unidades al cuadrado".


PROPIEDADES DE LA VARIANZA.

Algunas propiedades de la varianza son:

, propiedad que permite que la definicin de desviacin tpica sea
consistente.

Siendo a y b constantes cualesquiera. De esta
ltima propiedad es fcil ver que la varianza de una constante es cero. i.e.

, que se conoce como frmula
computacional para el clculo de la varianza.


MEDIA

En matemticas y estadstica una media o promedio es una medida de
tendencia central que resulta al efectuar una serie determinada de operaciones con un
conjunto de nmeros y que, en determinadas condiciones, puede representar por s
solo a todo el conjunto. Existen distintos tipos de medias, tales como la media
geomtrica, la media ponderada y la media armnica aunque en el lenguaje comn, el
trmino se refiere generalmente a la media aritmtica.



En realidad hay muchas clases de promedios y sta se la llama media aritmtica
para denotar la suma de un grupo de observaciones dividida por su nmero.

Clculo de la media aritmtica

La media aritmtica de un conjunto de datos se obtiene:
1.
o
Dividiendo la suma de los datos por el nmero total de ellos.
2.
o
Si los datos vienen en una tabla con sus frecuencias absolutas f
i
, se
multiplica cada dato x
i
por su frecuencia y se suman los resultados obtenidos. Este
resultado se divide por el nmero total de datos N.
x = x 1 f 1 + x 2 f 2 + x 3 f 3 + ... + x n f n N = i = 1 n ( x i f i ) N



MEDIANA

En Estadstica, una mediana es el valor de la variable que deja el mismo nmero
de datos antes y despus que l, una vez ordenados estos. De acuerdo con esta
definicin el conjunto de datos menores o iguales que la mediana representarn el
50% de los datos, y los que sean mayores que la mediana representarn el otro 50%
del total de datos de la muestra.

Existen 2 estrategias para calcular la mediana: Considerando los datos tal cual,
sin agruparlos, o bien cuando los tenemos agrupados en intervalos de clase. Veamos
cada una de ellas.

Datos sin agrupar:

Considerando los datos de una muestra ordenada en
orden creciente y designando la mediana como M
e
, distinguimos dos casos:
a) Si n es impar, la mediana es el valor que ocupa la posicin una vez
que los datos han sido ordenados (en orden creciente o decreciente), porque ste es el
valor central. Es decir: .

Por ejemplo, si tenemos 5 datos, que ordenados son: x
1
= 3, x
2
= 6, x
3
= 7, x
4
= 8,
x
5
= 9 => El valor central es el tercero: . Este valor deja dos datos por
debajo (x
1
, x
2
) y otros dos por encima de l (x
4
, x
5
).

b) Si n es par, la mediana es la media aritmtica de las dos observaciones
centrales. Cuando n es par, los dos datos que estn en el centro de la muestra ocupan
las posiciones y . Es decir: .

Por ejemplo, si tenemos 6 datos, que ordenados son: x
1
= 3, x
2
= 6, x
3
= 7, x
4
= 8,
x
5
= 9, x
6
= 10 => Hay dos valores que estn por debajo del y otros dos
que quedan por encima del siguiente dato . Por tanto, cabe
considerar la mediana como la media aritmtica de estos dos datos:
.

Datos agrupados:
Al tratar con datos agrupados, si coincide con el valor de una frecuencia
acumulada, el valor de la mediana coincidir con la abscisa correspondiente. Si no
coincide con el valor de ninguna abscisa, se calcula a travs de semejanza de tringulos
en el histograma o polgono de frecuencias acumuladas, utilizando la siguiente
equivalencia:

Dnde N
i
y N
i 1
son las frecuencias absolutas tales que , a
i
1
y a
i
son los extremos, inferior y superior, del intervalo donde se alcanza la mediana y
M
e
= a
i 1
es la abscisa a calcular, la moda. Se observa que a
i
a
i 1
es la amplitud de los
intervalos seleccionados para el diagrama.

HISTOGRAMA.

En estadstica, un histograma es una representacin grfica de una variable en
forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de
los valores representados. En el eje vertical se representan las frecuencias, y en el eje
horizontal los valores de las variables, normalmente sealando las marcas de clase, es
decir, la mitad del intervalo en el que estn agrupados los datos.

Se utiliza cuando se estudia una variable continua, como franjas de edades o
altura de la muestra, y, por comodidad, sus valores se agrupan en clases, es decir,
valores continuos.

En los casos en los que los datos son cualitativos (no-numricos), como sexto
grado de acuerdo o nivel de estudios, es preferible un diagrama de sectores.

Los histogramas son ms frecuentes en ciencias sociales, humanas y
econmicas que en ciencias naturales y exactas. Y permite la comparacin de los
resultados de un proceso.

TIPOS DE HISTOGRAMA.

Diagramas de barras simples: Representa la frecuencia simple (absoluta o
relativa) mediante la altura de la barra la cual es proporcional a la frecuencia simple de
la categora que representa.

Diagramas de barras compuesta: Se usa para representar la informacin de una
tabla de doble entrada o sea a partir de dos variables, las cuales se representan as; la
altura de la barra representa la frecuencia simple de las modalidades o categoras de la
variable y esta altura es proporcional a la frecuencia simple de cada modalidad.

Diagramas de barras agrupadas: Se usa para representar la informacin de una
tabla de doble entrada o sea a partir de dos variables, el cual es representado
mediante un conjunto de barras como se clasifican respecto a las diferentes
modalidades.

Polgono de frecuencias: Es un grfico de lneas que se usa para presentar las
frecuencias absolutas de los valores de una distribucin en el cual la altura del punto
asociado a un valor de las variables es proporcional a la frecuencia de dicho valor.

Ojiva porcentual: Es un grfico acumulativo, el cual es muy til cuando se
quiere representar el rango porcentual de cada valor en una distribucin de
frecuencias.

En los grficos las barras se encuentran juntas y en la tabla los nmeros poseen
en el primer miembro un corchete y en el segundo un parntesis, por ejemplo: (10-20]
Se agrupan los datos en clases, y se cuenta cuntas observaciones (frecuencia
absoluta) hay en cada una de ellas. En algunas variables (variables cualitativas) las
clases estn definidas de modo natural, p.e sexo con dos clases: mujer, varn o grupo
sanguneo con cuatro: A, B, AB, O. En las variables cuantitativas, las clases hay que
definirlas explcitamente (intervalos de clase).


Se
representan
los intervalos
de clase en el
eje de
abscisas (eje
horizontal) y
las
frecuencias,
absolutas o
relativas, en
el de
ordenadas
(eje vertical).




A veces es
ms til
representar
las
frecuencias
acumuladas
.




O representar
simultneamen
te los
histogramas de
una variable en
dos situaciones
distintas.

Otra forma
muy
frecuente,
de
representar
dos
histograma
s de la
misma
variable en
dos
situaciones
distintas.






Otra ms
En las
variables
cuantitativa
s o en las
cualitativas
ordinales se
pueden
representar
polgonos
de
frecuencia
en lugar de
histogramas
, cuando se
representa
la
frecuencia
acumulativa
, se
denomina
ojiva.



CONSTRUCCIN DE UN HISTOGRAMA

Paso 1: Determinar el rango de los datos. Rango es igual al dato mayor menos
el dato menor.

Paso 2: Obtener el nmeros de clases, existen varios criterios para determinar
el nmero de clases (o barras) -por ejemplo la regla de Sturgess-. Sin embargo ninguno
de ellos es exacto. Algunos autores recomiendan de cinco a quince clases,
dependiendo de cmo estn los datos y cuntos sean. Un criterio usado
frecuentemente es que el nmero de clases debe ser aproximadamente a la raz
cuadrada del nmero de datos. Por ejemplo, la raz cuadrada de 30 (nmero de
artculos) es mayor que cinco, por lo que se seleccionan seis clases.

Paso 3: Establecer la longitud de clase: es igual al rango entre el nmero de
clases.

Paso 4: Construir los intervalos de clases: Los intervalos resultan de dividir el
rango de los datos en relacin al resultado del PASO 2 en intervalos iguales.

Paso 5: Graficar el histograma: En caso de que las clases sean todas de la misma
amplitud, se hace un grfico de barras, las bases de las barras son los intervalos de
clases y altura son la frecuencia de las clases. Si se unen los puntos medios de la base
superior de los rectngulos se obtiene el polgono de frecuencias.

POLGONO DE FRECUENCIA

Un polgono de frecuencia es un grfico que se realiza a travs de la unin de
los puntos ms altos de las columnas en un histograma de frecuencia (que utiliza
columnas verticales para mostrar las frecuencias).

Los polgonos de frecuencias para datos agrupados, por su parte, se construyen
a partir de la marca de clase que coincide con el punto medio de cada columna del
histograma de frecuencias acumuladas, que permite diagramar su correspondiente
polgono.

Por ejemplo: un polgono de frecuencia permite reflejar las temperaturas
mximas promedio de un pas en un perodo de tiempo. En el eje X (horizontal),
pueden sealarse los meses del ao (enero, febrero, marzo, abril, etc). En el eje Y
(vertical), se indican las temperaturas mximas promedio de cada mes (24,25,21).
El polgono de frecuencia se crea al unir con segmento, todas las temperaturas
mximas promedio.

Los polgonos de frecuencia se suelen utilizar cuando se desea mostrar ms de
una distribucin o la clasificacin cruzada de una variable cuantitativa continua con
una cualitativa o cuantitativa discreta en un mismo grfico.

El punto con mayor altura de un polgono de un polgono de frecuencia
representa la mayor frecuencia mientras que el rea bajo la curva incluye la totalidad
de los datos existentes. Cabe recordar que la frecuencia es la repeticin menor o
mayor de un suceso, o la cantidad de veces que un proceso peridico se repite por
unidad de tiempo.

Caractersticas de los polgonos de frecuencias:

No muestran frecuencias acumuladas.
Se prefiere para el tratamiento de datos cuantitativos.
El punto con mayor altura representa la mayor frecuencia.
Suelen utilizarse para representar tablas tipo B.
El rea bajo la curva representa el 100% de los datos. El polgono de frecuencia
esta diseado para mantener la misma rea de las columnas. Analicemos una
porcin de nuestro grfico para probar esta afirmacin:
Observe que cada lnea corta una porcin de la columna, pero a su vez, agrega
una porcin adicional. Ambas porciones son iguales (triangulo rectngulos
iguales), manteniendo el rea global en el grfico.







DISTRIBUCION DE PROBABILIDADA

PROBABILIDAD


Sea c un experimento y S un espacio muestral asociado con c. Con cada evento
A asociamos un nmero real, designado con P(A) y llamado probabilidad de A, el cual
satisface las siguientes propiedades:

1) 0sP(A)s1
2) P(s)=1
3) Si A y B son eventos que se excluyen mutuamente, P( AB)= P(A) + P(B)
4) Si A1, A2,,An, son eventos que se excluyen mutuamente de par en par
entonces:


P( Ai)= P(A1)+P(A2)+.+ P(An)+...
I=1


Observemos que de la propiedad 3 se deduce de inmediato que para cualquier
n finita


n n
P ( Ai)= P(Ai)
i=1 i=1

La propiedad 4 no se sigue; sin embargo, cuando consideramos el espacio
muestral idealizado, esta condicin ser necesaria y por tanto, se incluye aqu.

La eleccin de estas propiedades de la probabilidad est obviamente motivada
por las caractersticas correspondientes de la frecuencia relativa. La propiedad antes
mencionada como regularidad estadstica, ms tarde se ligara con esta definicin de
probabilidad. Por el momento solo demostraremos que los valores de P(A) y fA estn
prximos uno al otro (en cierto sentido), si fA se basa en un gran nmero de
repeticiones. Este hecho es el que justifica el empleo de P(A) para medir la
probabilidad de que A ocurra.

Por el momento no sabemos como calcular P(A). Solo hemos anotado algunas
propiedades generales que posee P(A).

La probabilidad mide la frecuencia con la que se obtiene un resultado (o
conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen
todos los resultados posibles, bajo condiciones suficientemente estables. La teora de
la probabilidad se usa extensamente en reas como la estadstica, la fsica, la
matemtica, la ciencia y la filosofa para sacar conclusiones sobre la probabilidad de
sucesos potenciales y la mecnica subyacente de sistemas complejos.

El estudio cientfico de la probabilidad es un desarrollo moderno. Los juegos de
azar muestran que ha habido un inters en cuantificar las ideas de la probabilidad
durante milenios, pero las descripciones matemticas exactas de utilidad en estos
problemas slo surgieron mucho despus.

Segn Richard Jeffrey, "Antes de la mitad del siglo XVII, el trmino 'probable'
(en latn probable) significaba a probable, y se aplicaba en ese sentido, unvocamente,
a la opinin y a la accin. Una accin u opinin probable era una que las personas
sensatas emprenderan o mantendran, en las circunstancias."

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano
en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre
de Fermat y Blaise Pascal (1654). Christian Huygens (1657) le dio el tratamiento
cientfico conocido ms temprano al concepto. Ars Conjectandi (pstumo, 1713) de
Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema
como una rama de las matemticas. Vase El surgimiento de la probabilidad (The
Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo
del propio concepto de probabilidad matemtica.

La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea
(pstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson
en 1755 (impresa en 1756) aplic por primera vez la teora para la discusin de errores
de observacin. La reimpresin (1757) de esta memoria expone los axiomas de que los
errores positivos y negativos son igualmente probables, y que hay ciertos lmites
asignables dentro de los cuales se supone que caen todos los errores; se discuten los
errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para
la combinacin de observaciones a partir de los principios de la teora de las
probabilidades. Represent la ley de la probabilidad de error con una curva y = (x),
siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:
1. Es simtrica al eje y;
2. El eje x es una asntota, siendo la probabilidad del error igual a 0;
3. La superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una frmula para la media de tres observaciones. Tambin obtuvo
(1781) una frmula para la ley de facilidad de error (un trmino debido a Lagrange,
1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778)
introdujo el principio del mximo producto de las probabilidades de un sistema de
errores concurrentes.

El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que
lo introdujo en su Nouvelles mthodes pour la dtermination des orbites des comtes
(Nuevos mtodos para la determinacin de las rbitas de los cometas). Ignorando la
contribucin de Legendre, un escritor irlands estadounidense, Robert Adrain, editor
de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,



siendo c y h constantes que dependen de la precisin de la observacin. Expuso dos
demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850).
Gauss expuso la primera demostracin que parece que se conoci en Europa (la
tercera despus de la de Adrain) en 1809. Demostraciones adicionales se expusieron
por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837),
Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros
personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y
Giovanni Schiaparelli (1875). La frmula de Peters (1856) para r, el error probable de
una nica observacin, es bien conocida.

En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre
Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860),
Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la exposicin de la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando
teora de la medida.

En la parte geomtrica (vase geometra integral) los colaboradores de The
Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson
y Artemas Martin).

TEORA DE LA PROBABILIDAD

La probabilidad constituye un importante parmetro en la determinacin de las
diversas causalidades obtenidas tras una serie de eventos esperados dentro de un
rango estadstico.

Existen diversas formas como mtodo abstracto, como la teora Dempster-
Shafer y la teora de la relatividad numrica, esta ltima con un alto grado de
aceptacin si se toma en cuenta que disminuye considerablemente las posibilidades
hasta un nivel mnimo ya que somete a todas las antiguas reglas a una simple ley de
relatividad. As mismo es la parte de ley

Aplicaciones
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en
el anlisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican mtodos probabilsticos en regulacin ambiental
donde se les llama "anlisis de vas de dispersin", y a menudo miden el bienestar
usando mtodos que son estocsticos por naturaleza, y escogen qu proyectos
emprender basndose en anlisis estadsticos de su probable efecto en la poblacin
como un conjunto. No es correcto decir que la estadstica est incluida en el propio
modelado, ya que tpicamente los anlisis de riesgo son para una nica vez y por lo
tanto requieren ms modelos de probabilidad fundamentales, por ej. "la probabilidad
de otro 11-S". Una ley de nmeros pequeos tiende a aplicarse a todas aquellas
elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilsticas un tema poltico.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto
generalizado sobre los precios del petrleo en Oriente Medio - que producen un efecto
domin en la economa en conjunto. Un clculo por un mercado de materias primas en
que la guerra es ms probable en contra de menos probable probablemente enva los
precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinin. Por
consiguiente, las probabilidades no se calculan independientemente y tampoco son
necesariamente muy racionales. La teora de las finanzas conductuales surgi para
describir el efecto de este pensamiento de grupo en el precio, en la poltica, y en la paz
y en los conflictos.

Se puede decir razonablemente que el descubrimiento de mtodos rigurosos
para calcular y combinar los clculos de probabilidad ha tenido un profundo efecto en
la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la
mayora de los ciudadanos entender cmo se calculan los pronsticos y las
probabilidades, y cmo contribuyen a la reputacin y a las decisiones, especialmente
en una democracia.

Otra aplicacin significativa de la teora de la probabilidad en el da a da es en
la fiabilidad. Muchos bienes de consumo, como los automviles y la electrnica de
consumo, utilizan la teora de la fiabilidad en el diseo del producto para reducir la
probabilidad de avera. La probabilidad de avera tambin est estrechamente
relacionada con la garanta del producto.

Se puede decir que no existe una cosa llamada probabilidad. Tambin se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situacin. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% o 0%, y la eleccin correcta puede ser hecha con precisin
por el que ve la carta. La fsica moderna proporciona ejemplos importantes de
situaciones determinanticas donde slo la descripcin probabilstica es factible debido
a informacin incompleta y la complejidad de un sistema as como ejemplos de
fenmenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay
probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza
de la mano y el periodo de esta fuerza es conocido, entonces el nmero donde la bola
parar ser seguro. Naturalmente, esto tambin supone el conocimiento de la inercia y
la friccin de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la
velocidad de la mano durante el movimiento y as sucesivamente. Una descripcin
probabilstica puede entonces ser ms prctica que la mecnica newtoniana para
analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los fsicos se
encuentran con la misma situacin en la teora cintica de los gases, donde el sistema
determinantico en principio, es tan complejo (con el nmero de molculas tpicamente
del orden de magnitud de la constante de Avogadro ) que slo la descripcin
estadstica de sus propiedades es viable.

La mecnica cuntica, debido al principio de indeterminacin de Heisenberg,
slo puede ser descrita actualmente a travs de distribuciones de probabilidad, lo que
le da una gran importancia a las descripciones probabilsticas. Algunos cientficos
hablan de la expulsin del paraso.
[cita requerida]
Otros no se conforman con la prdida del
determinismo. Albert Einstein coment estupendamente en una carta a Max Born:
Jedenfalls bin ich berzeugt, da der Alte nicht wrfelt. (Estoy convencido de que Dios
no tira el dado). No obstante hoy en da no existe un medio mejor para describir la
fsica cuntica si no es a travs de la teora de la probabilidad. Mucha gente hoy en da
confunde el hecho de que la mecnica cuntica se describe a travs de distribuciones
de probabilidad con la suposicin de que es por ello un proceso aleatorio, cuando la
mecnica cuntica es probabilstica no por el hecho de que siga procesos aleatorios
sino por el hecho de no poder determinar con precisin sus parmetros
fundamentales, lo que imposibilita la creacin de un sistema de ecuaciones
determinista.

Clculo
Calcular la probabilidad es posible, utilizando un diagrama de rbol, o tablas y
grficas

Ejemplos:

Ejemplo N 1:
La vida media de una lmpara, segn el fabricante, es de 68 meses, con una
desviacin tpica de 5. Se supone que se distribuye segn una distribucin normal En
un lote de 10.000 lmparas. a) Cuntas lmparas superarn previsiblemente los 75
meses?. b) Cuntos lmparas se estropearn antes de 60 meses?
a) t = (75 -68)/5 = 1,4
P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses
b) t = (60 -68)/5 = -1,6
P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548
Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60 meses
Ejemplo N2
Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La
duracin de una bombilla sigue una distribucin normal con media 302 das y
desviacin tpica 40 das. Calcular. a) Cuntas bombillas es de esperar que se fundan
antes de 365 das? Cuntas durarn ms de 400 das? Explica razonadamente las
respuestas.
a) Tipificamos el valor 365 t = (365 -302)/40 = 1,575
P (X 365) = P (t 1,575 ) = 0,9418
Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836 bombillas se
fundirn antes de 365 das
b) Tipificamos el valor 400 t = (400-302)/40 = 2,45
P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071
Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142 bombillas
durarn ms de 400 das.
Ejemplo N3
Hallar la probabilidad de que al lanzar al aire dos monedas, salgan:

1) Dos caras.



2) Dos cruces.

3) Dos caras y una cruz.


Ejemplo N4:
Hallar la probabilidad de que al levantar unas fichas de domin se obtenga un
nmero de puntos mayor que 9 o que sea mltiplo de 4.



Ejemplo N5:

Un dado est trucado, de forma que las probabilidades de obtener las distintas
caras son proporcionales a los nmeros de estas. Hallar:

1) La probabilidad de obtener el 6 en un lanzamiento.





2) La probabilidad de conseguir un nmero impar en un lanzamiento.



Ejemplo N6:

Se lanzan dos dados al aire y se anota la suma de los puntos obtenidos. Se pide:

1) La probabilidad de que salga el 7.




2) La probabilidad de que el nmero obtenido sea par.



3) La probabilidad de que el nmero obtenido sea mltiplo de tres.



Variables aleatorias continuas

Supongamos que el recorrido de X est formado por un gran nmero finito de
valores, por ejemplo, todos los valores x en el intervalo 0sxs1 de la forma 0,0.01,
0.02,,0.98, 0.99, 1.00. Con cada uno de esos valores est asociado un nmero no
negativo p (xi)=P(X=xi), i=1,2,, cuya suma es igual a 1. Esta situacin se representa
geomtricamente en la figura.



P(x)





Matemticamente podra ser ms fcil idealizar la anterior descripcin
probabilstica de X al suponer que X puede tomar todos los valores posibles, 0sxs1. Si
hacemos esto, Qu le sucede a las probabilidades puntuales p(xi)?. Puesto que los
valores posibles de x no son contables, en realidad no podemos hablar del i-simo
valor de X y, por lo tanto, p(xi) pierde significado.

Lo que haremos es sustituir la funcin p, definida solo para x1, x2,,por una
funcin f definida (en el contexto presente) para todos los valores de x, 0sxs1. Las
propiedades de la ecuacin:

x



p(xi) = 1

i=1
1
se sustituirn por f(x)> 0 y f(x) dx =1. Se procede formalmente como sigue.
0

Definicin: Se dice que X es una variable aleatoria continua, si existe una
funcin f, llamada funcin de densidad de probabilidad (fdp) de X, que satisface las
siguientes condiciones:

a) f(x) > 0 para toda x,


+
b) } f(x) dx = 1.
-

b
c) Para calquier a,b, tal que -< a <b <+, tenemos P(as X s b) = } f(x) dx
a
Observaciones:

a) Fundamentalmente queremos decir que X es una variable aleatoria continua si
X puede tomar todos los valores en algn intervalo (c,d), donde c y d pueden
ser - y + respectivamente. La existencia estipulada de una fdp es un
mtodo matemtico que tiene una base intuitiva considerable y hace ms
sencillo nuestros clculos. En relacin con esto, de nuevo se debe sealar que
cuando suponemos que X es una variable aleatoria continua, estamos
considerando la descripcin idealizada de X.

b) P(c < X < d) representa el rea bajo la grfica de la figura de la fdp f entre x = c
y z = d.

F(x)

x
x=c z=d

c) Una consecuencia de la descripcin probabilstica de X para cualquier valor
especfico de X, por ejemplo xo, es ue tenemos P(X=xo)= 0, puesto que
xo
P(X=xo) = } f(x)dx = 0.
xo

Este resultado puede parecer contrario a nuestra intuicin. Debemos
establecer, sin embargo, que si permitimos que X tome todos los valores en un
intervalo, entonces la probabilidad cero no es equivalente con la imposibilidad. Por lo
tanto e el cas continuo, P(A)= no implica A= el conjunto vaco. Para decirlo de un
modo ms informal, consideremos que elegimos un punto al azar en el segmento {x
| 0 s x s 2}

Aunque quisiramos estar de acuerdo (para fines matemticos) con que cada
punto concebible del segmento pudiera ser el resultado de nuestro experimento, nos
sorprenderamos mucho si en realidad escogieramos el punto medio del segmento, o
cualquier otro punto especfico de ese elemento. Cuando indicamos esto en un
lenguaje matemtico preciso, decimos que el evento tiene probabilidad 0. En vista
de estas consideraciones, todas las siguientes probabilidades son iguales si X es una
variable aleatoria continua:

P(c < X < d), P(c < X < d), P(c < X < d), y P(c < X < d)

d) Aunque aqu no verificaremos los detalles, se puede demostrar que la
anterior asignacin de probabilidades a los eventos en Rx satisface los axiomas bsicos
de probabilidades, donde podemos tomar:
x | - < x < + como el espacio muestral.
+
e) Si una funcin f* satisface las condiciones, f*(x) > 0, para toda x, y } f*(x)
dx=K, donde K es un nmero positivo real (no
necesariamente igual a 1), entonces f* no satisface todas las condiciones para ser una
fdp. Sin amargo, podemos definir con facilidad una nueva funcin, digamos f, en donde
trminos de f* como sigue:


f*(x)
f(z)= para toda x
K

Por tanto, f satisface todas las condiciones de una fdp.

f) Si X slo toma valores en un intervalo finito [ a, b], simplemente podemos
establecer f(x)=0 para todo x e [a, b]. Por tanto, la fdp est definida para todos los
valores reales de x, y debemos exigir que:

Cuando quiera que la fdp se especifique slo para ciertos valores de x,
supondremos que es cero para cualquier otro.

g) f(x) no representa la probabilidad de nada. Hemos observado que por
ejemplo, P(X=2)=0 y, por tanto, f(2) ciertamente no representa esta probabilidad. Slo
cuando la funcin se integra entre dos lmites produce una probabilidad. Sin embargo,
podemos dar una interpretacin de f(x) Ax como sigue. Del teorema del valor medio
del clculo se deduce que:

x+ Ax
P (x s X s x + Ax) = } f(s)ds= x f( x s s x + Ax
x


Si Ax es pequea, f(x) A x es aproximadamente igual a P(x s X s x+ Ax). ( Si f
es continua por la derecha, esta aproximacin llega a ser ms segura cuando Ax
0.)

h) Deberamos sealar de nueva cuenta que la distribucin de probabilidades (
en este caso la fdp es inducida en Rx por las probabilidades asociadas con eventos en
S. As cuando escribimos P(c< X< d), queremos decir, como siempre, P[c< X(s)<d], que a
su vez es igual a P[s | < X(s) <d], puesto ue estos eventos son equivalentes, la
definicin anterior, estipula esencialmente la existencia de una fdp f definida en una
Rx tal que
d
P [s | c < X(s) < d] = } f(x) dx
c


Nuevamente eliminaremos la naturaleza funcional de X, y por tanto, estaremos
interesados slo en Rx y la fdp f.

i) En este caso contino, otra vez podemos considerar la siguiente analoga con
la mecnica: supngase que tenemos una masa total de una unidad, distribuida
continuamente en el intervalo a s x s b. Entonces , f(x) la densidad de la masa en el
punto x y
d
} f(x) dx representa la masa total contenida en el intervalo c < x < d.
c


Ejemplos:

Ejemplo N 1:

En el anlisis precedente sobre variable aleatoria continua se supuso la existencia de
una fdp. Consideremos un ejemplo simple en el cual podamos determinar con facilidad
la fdp haciendo una suposicin apropiada acerca de la conducta probabilstica de la
variable aleatoria. Supngase que escogemos un punto en el intervalo (0,1).
Representemos la variable aleatoria X cuyo valor es la coordenada x del punto elegido.

Suposicin: Si I s cualquier intervalo entre (0,1), entonces la Prob [ X e es
directamente proporcional a la longitud de I, por ejemplo, L(I). Esto es,
Prob [X e I]= kL(I), donde k es la constante de proporcionalidad. ( Es fcil ver,
tomando I=(0,1)y observando que L((0,1))=1 y Prob[X e (0,1)]1, que k=1.)

Obviamente X toma todos los valores en (0,1), Cul es su fdp? Esto es, Podemos
encontrar una funcin f tal que:
b
P (a < X < b) = f(x) dx ?
a

Ntese que si a < b < 0 o 1 < a < b, P(a < X < b) =0 y,por tanto, f(x)=0.Si 0 < a < b < 1,
P(a< X < b)=b a y, por tanto, f(x)= 1. As encontramos:
1, 0< x < 1,
F(x) =
0, para cualquier otro valor.


F(x) F(x)
X
X=1500 X=2500


Ejemplo N 2:

Supngase que la variable aleatoria X es continua. Sea la fdp f dada por
(1,2)


F(x)= 2x, 0 < x < 1,

= 0 para cualquier otro valor.
+
Claramente, f(x) > 0 y f(x)dx = 2x dx =1. Para calcular P( Xs), slo debemos
-

evaluar la integral
(2x) dx=1/4
0


El concepto de probabilidad condicional se puede aplicar con propiedad a las variables
aleatorias. As en el ejemplo anterior debimos evaluar P(X<1/2| X<2/3). Aplicando de
manera directa la definicin de probabilidad individual, tenemos:



P(Xs |1/3 s Xs 2/3= P(1/3s X s )

P(1/3s X s 2/3)
1/2
} 2x dx
1/3 5/36 5
= = =
2/3 1/3 12
} 2x dx
1/3

Distribucin Normal

En estadstica y probabilidad se llama distribucin normal, distribucin de
Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable
continua que con ms frecuencia aparece en fenmenos reales.

La grfica de su funcin de densidad tiene una forma acampanada y es
simtrica respecto de un determinado parmetro. Esta curva se conoce como
campana de Gauss.

La importancia de esta distribucin radica en que permite modelizar numerosos
fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenmenos son desconocidos, por la ingente
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observacin se obtiene como la suma
de unas pocas causas independientes.

La distribucin normal tambin es importante por su relacin con la estimacin
por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos.

Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el
modelo de la normal son:
- caracteres morfolgicos de individuos como la estatura;
- caracteres fisiolgicos como el efecto de un frmaco;
- caracteres sociolgicos como el consumo de cierto producto por un mismo
grupo de individuos;
- caracteres psicolgicos como el cociente intelectual;
- nivel de ruido en telecomunicaciones;
- errores cometidos al medir ciertas magnitudes;
- etc.
La distribucin normal tambin aparece en muchas reas de la propia estadstica.
Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente
normal, incluso si la distribucin de la poblacin de la cual se extrae la muestra no es
normal. Adems, la distribucin normal maximiza la entropa entre todas las
distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin
natural de la distribucin subyacente a una lista de datos resumidos en trminos de
media muestral y varianza. La distribucin normal es la ms extendida en estadstica y
muchos tests estadsticos estn basados en una supuesta "normalidad".
En probabilidad la distribucin normal aparece como el lmite de varias distribuciones
de probabilidad continuas y discretas.









Distribucin normal
Funcin de densidad de probabilidad

La lnea verde corresponde a la distribucin
normal estandar
Funcin de distribucin de probabilidad

Parmetros

> 0
Dominio

Funcin de
densidad (pdf)

Funcin de
distribucin (cdf)

Media

Mediana

Moda

Varianza

Coeficiente de
simetra
0
Curtosis 0
Entropa

Funcin generadora
de momentos (mgf)
Funcin
caracterstica


Ejemplos:

Ejemplo N1:
Supngase que X tiene distribucin N(3,4). Deseamos encontrar un nmero c tal que:

P(X > c) = 2P (X < c)

Observemos que (X-3)/2 tiene distribucin normal N(0,1). Por tanto,

P( X > c) = P ( X-3 /2 > c-3 /2) = 1 - (c-3/2)

Tambin,

P( X < c)= P ( X-3/2 < c-3/2)= c-3/2)

Por tanto, la condicin anterior se puede escribir 1- c-3/2)] = 2 c-3/2]. Esto
se convierte en c-3)/2= -0.43, obteniendo c=2.14.




Ejemplo N2:
Supngase que la resistencia a romperse de un gnero de algodn (en libras),
llammosle X, est distribuida normalmente con E(X)=165 y V(X)=9. Suponiendo
adems que una muestra de este gnero se considera defectuosa si X< 162, Cu es
la probabilidad de que un gnero elegido al azar sea defectuoso?

Debemos calcular P(X < 162). Sin embargo,

P(X <162)= P ( X-165/3 < 162-165/3)
=

Observacin:
Una objecin inmediata al uso de la distribucin normal puede encontrarse aqu. Es
obvio que X, la resistencia del genero de algodn , no puede tomar valores negativos ,
mientras que una variable aleatoria distribuida normalmente puede tomar todos los
valores positivos y negativos. Sin embargo el modelo anterior ( en apariencia
invalidado debido a las objeciones encontradas) asigna una probabilidad despreciable
al evento {X<0}. Esto es,

P(X<0)= P( X-165/3< 0-165/3) = (-55) lo cual es aproximadamente 0.

Esta situacin ocurrir con frecuencia: se supone que cierta variable aleatoria X, que
sabemos no puede tomar valores negativos, tiene una distribucin normal tomando
as (tericamente, al menos) valores tanto positivos como negativos. Mientras se
escojan los parmetros y de modo que P(X<0) sea esencialmente cero, tal
representancin es perfectamente valida.

Ejemplo N3:
La vida media de una lmpara, segn el fabricante, es de 68 meses, con una desviacin
tpica de 5. Se supone que se distribuye segn una distribucin normal En un lote de
10.000 lmparas. a) Cuntas lmparas superarn previsiblemente los 75 meses?. b)
Cuntos lmparas se estropearn antes de 60 meses?
a)
t = (75 -68)/5 = 1,4
P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses
b)
t = (60 -68)/5 = -1,6
P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548
Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60 meses

Ejemplo N4:
Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La duracin
de una bombilla sigue una distribucin normal con media 302 das y desviacin tpica
40 das. Calcular. a) Cuntas bombillas es de esperar que se fundan antes de 365 das?
Cuntas durarn ms de 400 das? Explica razonadamente las respuestas.

a)
Tipificamos el valor 365 t = (365 -302)/40 = 1,575
P (X 365) = P (t 1,575 ) = 0,9418
Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836 bombillas se
fundirn antes de 365 das
b)
Tipificamos el valor 400 t = (400-302)/40 = 2,45
P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071
Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142 bombillas durarn
ms de 400 das.
Distribucin Binomial


Definicin:
Consideremos un experimento sea A un evento asociado con Supongamos que
P(A)=p y, por lo tanto, P(A)= 1-p. Consideremos n repeticiones independientes de
Por lo tanto, el espacio muestral consiste en todas las sucesiones posibles
{a1,a2,,an}, donde cada ai es A o A, segn A o A ocurra en la i-sima repeticin de
(Hay 2 de tales sucesiones). An ms, supongamos que P(A)=p es el mismo para
todas las repeticiones. Definamos la variable aleatoria X como sigue:
X=nmero de veces que ocurri el evento A. Llamamos a X una variable binomial con
los parmetros n y p. Sus valores posibles obviamente son 0, 1, 2,,n. ( Dcimos en
forma equivalente que X tiene una distribucin binomial.) Las repeticiones
individuales de se llamarn ensayos de Bernoulli.

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que
mide el nmero de xitos en una secuencia de n ensayos independientes de Bernoulli,
con una probabilidad fija p de ocurrencia del xito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son
posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de
ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin
binomial el anterior experimento se repite n veces, de forma independiente, y se trata
de calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la
binomial se convierte, de hecho, en una distribucin de Bernoulli.
Para representar que una variable aleatoria X sigue una distribucin binomial de
parmetros n y p, se escribe:

La distribucin Binomial es la base del test binomial de significacin estadstica.

Caractersticas analticas
Su funcin de probabilidad est dada por:

donde
, siendo las combinaciones de en ( elementos tomados
de en )

Supongamos que un experimento aleatorio tiene las siguientes caractersticas:
- En cada prueba del experimento slo son posibles dos resultados: el
suceso A (xito) y su contrario (fracaso).
- El resultado obtenido en cada prueba es independiente de los
resultados obtenidos anteriormente.
- La probabilidad del suceso A es constante, la representamos por p, y no
vara de una prueba a otra. La probabilidad de es 1- p y la
representamos por q .
- El experimento consta de un nmero n de pruebas.
Todo experimento que tenga estas caractersticas diremos que sigue el modelo de la
distribucin Binomial. A la variable X que expresa el nmero de xitos obtenidos en
cada prueba del experimento, la llamaremos variable aleatoria binomial.
La variable binomial es una variable aleatoria discreta, slo puede tomar los valores 0,
1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay que considerar
todas las maneras posibles de obtener k-xitos y (n-k) fracasos debemos calcular
stas por combinaciones (nmero combinatorio n sobre k).
La distribucin Binomial se suele representar por B(n,p) siendo n y p los parmetros
de dicha distribucin.
Funcin de Probabilidad de la v.a. Binomial
Funcin de probabilidad de la distribucin Binomial o tambin denominada funcin de
la distribucin de Bernoulli (para n=1). Verificndose: 0 p 1

Como el clculo de estas probabilidades puede resultar algo tedioso se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.
Ver Tabla de la Funcin de Probabilidad de la Binomial
Parmetros de la Distribucin Binomial

Funcin de Distribucin de la v.a. Binomial

siendo k el mayor nmero entero menor o igual a x
i
.
Esta funcin de distribucin proporciona, para cada nmero real x
i
, la probabilidad de
que la variable X tome valores menores o iguales que x
i
.
El clculo de las F(x) = p( X x) puede resultar laborioso, por ello se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.

Ejemplos:

Ejemplo N 1:

Al poner en funcionamiento una mquina, existe cierta probabilidad de que el operario
cometa un error. De manera realista puede suponerse que ste aprende en cuanto
sabe que la probabilidad de cometer errores disminuye cuando use la mquina en
repetidas ocasiones. Supongamos que el operario hace n intentos y que los n ensayos
son estadsticamente independientes. Supongamos de manera especifica que P( en
error cometido en la i-sima repeticin)= 1/(i+1),i=1,2,n. Supongamos que se
consideran 4 intentos ( esto es, n=4) y que se define la variable aleatoria X como el
nmero de operaciones hechas sin error en la maquina. Observemos que X no esta
distribuida binomialmente porque la probabilidad de xito no es constante,

Para calcular la probabilidad de X= 3, por ejemplo, procedemos como sigue: X=3 si y
slo si hay exactamente un intento no exitoso. Esto puede suceder en el primero, en el
segundo, tercero o cuarto ensayo.
Por lo tanto,


P(X=3)= 2/3 4/5 +1/2 1/3 4/5 +1/2 2/3 4/5 + 2/3 1/5
= 5/12

Ejemplo N 2:

Consideremos una situacin semejante a la descrita en el ejemplo anterior. Esta vez
supondremos que hay una probabilidad constante p1 de no cometer error en la
mquina durante cada uno de los primeros n1 intentos y una probabilidad constante
p2<p1 de no cometer error en cada una de las siguientes n2 repeticiones. Sea X el
nmero de operaciones exitosas de la mquina durante los n=n1+n2 intentos
independientes. Encontramos una expresin general para P(X= k). Por la misma razn
dada en el ejemplo precedente, X no esta distribuida binomialmente. Para obtener
P(X=k) procedemos como sigue.

Sea Y1 el nmero de operaciones correctas durante los primeros n1 intentos y sea Y2el
nmero de operaciones correctas durantes los segundos n2 intentos.

Por lo tanto Y1 y Y2 son variables aleatorias independientes y X= Y1+Y2. As, X= si y
slo si Y1=r y Y2=k-r, para cualquier entero que satisfaga 0 < r < n1 y 0< k- r < n2-

Las restricciones anteriores sobre r son equivalentes a 0< r < n1 y k-n2< r < k.
Combinndolas podemos escribir

Max (0,k n2) < r < min (k,n19

Por tanto, tenemos :

min(k,n1) r n1-r k-r n2-(k-r)
P(X=k)= n1 P1 (1- P1) n2 P2 (1-
p2)
r=max (0,k-n2) r k- r
r

a
Con la convencin frecuente de que b = 0 cada vez que b > a o b < 0, podemos

escribir la probabilidad anterior como:

n1 n1 r n1-r n2 k-r n2-k+r
P(X=k) r P1 ( 1-P1) k-r P2 (1-P2)
r=0

Por ejemplo, si P1=0.2, P2=0.1, n1=n2=10 y k=2, la probabilidad anterior se convierte
en:

2 10 r 10-r 10 k-r 2-r 8+r
P(X=2 r 10 ( 0.8) 2-r (0.1) (0.9) = 0.27
r=0


despus de un clculo elemental.

Observacin: supongamos que P1=P2. En este caso, la ecuacin se reducira a
a k n-k
b P1 ( 1-P1)


.puesto que ahora la variable aleatoria X tiene una distribucin
binomial. Para ver que esto es as, obsrvese que podemos escribir (puesto que
n1+n2=n)

k n-k n1 n1 n2
P(X=k)= P1 (1-P1) r k-r
r=0

n
Para mostrar la suma anterior iguala k comprense simplemente los
coeficientes

k
de las potencias de las potencias d X en ambos lados de la identidad :
n1 n2 n1+n2
(1+X) (1+x) = ( 1+x)



Distribucin de Poisson


Definicin:

Sea X una variable aleatoria que toma los valores posibles: 0,1,n, Si

-o k
P(X=k)= e o , k= 0,1,,n,
k!

Decimos que X tiene una distribucin de Poisson con parmetro o > 0.

Para verificar que la anterior representa una legtima distribucin de probabilidades,
simplemente observemos que
-o k -o o
P(X=k)= (e a /k!)= e e = 1.
k=0 k=0

Observacin:

Puesto que estamos definiendo en forma directa la variable aleatoria en trminos de
su recorrido y distribucin de probabilidades, sin referencia a ningn espacio muestral
original S, podemos suponer que el espacio muestral S se ha identificado con Rx y e
X(s)=s. Es decir, los resultados del experimento son simplemente los nmeros 0,1,2, y
las probabilidades asociadas con cada uno de esos resultados estn dadas por las
ecuaciones anteriores.
Ejemplos:




Ejemplo N 1:

En una concurrida interseccin de trfico la probabilidad p de que un automvil tenga
un accidente es muy escasa, digamos p=0.0001. Sin embargo, durante cierta parte del
da, entre las 4pm y las 6pm un gran nmero de automviles pasa por la interseccin,
digamos 1000. En dichas condiciones, Cul es la probabilidad de que dos o ms
accidentes ocurran durante ese periodo?

Formulemos algunas hiptesis. Supongamos, en primer lugar, que el valor de p es el
mismo para cada uno de los automviles. En segundo lugar, supongamos que si un
automvil tiene o no un accidente, no depende de lo que le suceda a cualquier otro
automvil. (Esta suposicin, obviamente, no es realista; no obstante la formularemos.)
As podremos suponer que si X es el nmero de accidentes entre los 1000 automviles
que llegan, entonces X tiene una distribucin binomial con p=0.0001. (Otra hiptesis,
no indicada de manera explicita, es que n, el nmero de automviles que pasa por la
interseccin entre las 4pm y las 6pm est predeterminada en 1000.desde luego, un
planteamiento ms realista seria considerar n misma como una variable aleatoria cuyo
valor depende de un mecanismo aleatorio. Sin embargo no haremos esto aqu, slo
consideraremos n como fija.) Por tanto podemos obtener el valor exacto de la
probabilidad deseada:


P(X 2)= 1- P(X=0)-P(X=1)

10000 999
= 1- (0.9999) -1000 (0.0001) (0,9999)

La evaluacin de los valores anteriores da origen a una dificultad considerable. Puesto
que n es grande y p es pequea, aplicamos el teorema de la Distribucin de Poisson
como una aproximacin a la distribucin binomial y obtenemos la aproximacin
siguiente:

-0.1 k
P(X=k) ~ e (0.1)
k!

Por tanto,

-0,1
P(X2)~1- e (1+0.1)= 0.0045.

Ejemplo N 2:

Supngase que un proceso de fabricacin produce artculos de tal manera que cierta
proporcin (constante) de artculos, digamos p, son defectuosos. Si se obtiene un lote
n de tales artculos, la probabilidad de obtener exactamente k defectuosos pude
calcularse de la distribucin binomial como


n k n-k
P(X=k)= k P (1-P)


, donde X es el nmero de defectuosos en el lote. Si n es grande y p es pequea ( como
sucede a menudo), debemos aproximar la probabilidad anterior por:

-np k
P(X=k)~ e (np)

k!

supngase, por ejemplo, que un fabricante produce artculos de los cuales alrededor
de 1 en 1000 son defectuosos. Esto es, p= 0,001. Por tanto, usando la distribucin
binomial, encontramos que en un lote de 500 artculos la probabilidad de que ninguno
sea defectuoso es:

500
(0.999) = 0.609. si aplicamos la aproximacin de Poisson, esta probabilidad puede
escribirse como:

-0.5
e = 0.61.



La probabilidad de encontrar 2 o ms artculos defectuosos es, de acuerdo con la
aproximacin de Poisson:
-0.5
1 e (1+0.5)= 0.085



Distribucin Chi-Cuadrada

Definicin:

Un caso especial muy importante de la distribucin gama, se obtiene si hacemos o=
y r =n/2, donde n es un entero positivo. Obtenemos una familia de distribuciones de
un parmetro con fdp

n/2-1 -z/2. z >0
f(z) = 1 z e
n/2
2 I (n/2)


Una variable aleatoria Z que tiene fdp dada por la ecuacin anterior se dice que tiene
una distribucin X- cuadrada con n grados de libertad ( se denota con:
2
Xn ). En la figura se muestra la fdp para n= 1,2 y n > 2. Una consecuencia inmediata de
la ecuacin:

2
E(X)= r/ o , V(X9= r / o

Es que si Z tiene una fdp de la ecuacin:


n/2-1 -z/2. z >0
f(z) = 1 z e
n/2
2 I (n/2)

Tenemos:

E(Z)=n , V(Z)= 2n

f(z) f(z) f(z)

z z z
(a) n=1 (b) n=2 (c)n>2


La distribucin X- cuadrada tiene muchas aplicaciones importantes en inferencia
estadstica. Debido a su relevancia, la distribucin X- cuadrada est tabulada para
diversos valores del parmetro n.


F(z)





1-o
2 z
X o
La Distribucin chi-cuadrado no tiene sentido para valores negativos de x, como se
puede ver en la figura.





Tngase en cuenta que para k = 1 y k = 2 la funcin de densidad para x = 0, se hace
infinito:


Para el resto de los valores de k, para x = 0, la funcin vale 0.

La Distribucin de probabilidad de esta funcin para valores menores de un x dado,
que representamos por

donde:

Esta integral no tiene una solucin conocida, y solo se conocen mtodos numricos
para calcular sus valores, hay distintos tipos de tablas y algoritmos para ordenador con
los que se pueden calcular sus soluciones, veamos una tabla distribucin chi-cuadrado
y su modo de utilizacin.


La Tabla
Esta tabla presenta la distribucin de probabilidad de chi-cuadrado para distintos
valores de k(de 1 a 10) y de x(de 0 a 20 de 0,2 de incremento), presentndolo con seis
cifras decimales, separadas de tres en tres por un espacio en blanco para facilitar la
lectura, en la fila superior estn los valores de k, y en la columna de la izquierda los de
x, donde se cruzan la columna de la k buscada y la fila de la x, se encuentra el valor de
la probabilidad acumulada desde 0 a la x buscada.

Ejemplo:

Cual es la Distribucin de probabilidad de chi-cuadrado de 4 grados de libertad de que
x< 1,2
Buscando en la tabla la columna del 4 y la fila de 1,2, tenemos:


Para otros valores de x
En la tabla podemos encontrar directamente la probabilidad: , pero se
pueden presentar otros casos, veamos algunos.
Para la variable mayor que x

Para calcular , partimos de la expresin:

La probabilidad de que la variable estadstica sea menor que x ms la probabilidad de
que sea mayor que x es la certeza, de probabilidad 1.
Operando:

Ejemplo
Calcular la distribucin de probabilidad de una variable estadstica chi-cuadrado, de 6
grados de libertad sea mayor de 3,4.

segn lo anterior:

buscando en la tabla tenemos:

con lo que tenemos:

operando tenemos:

que es la respuesta a la pregunta.
Para la variable mayor que x1 y menor que x2

Para calcular la probabilidad de que:

siendo:

tenemos que:

Ejemplo
Cual es la probabilidad de que una variable chi-cuadrado de 8 grados de libertad este
comprendida entre 3,4 y 5,6.
Esto es:

segn la tabla tenemos:

segn lo anterior, tenemos que:

sustituyendo los valores:

operando:

Con lo que tenemos la respuesta.
Interpolacin lineal.
La funcin chi-cuadrado es continua para x mayor que cero, pero en la tabla solo se
recogen algunos de sus valores, si bien la tabla podra hacerse ms extensa el numero
de valores recogidos siempre seria finito, para calcular los valores no recogidos en la
tabla podemos emplear la nterpolacin lineal.

La interpolacin lineal, parte de unos puntos conocidos de la funcin, y los valores
intermedios los determina por la recta que une estos dos puntos, este mtodo siempre
aade un cierto error, al sustituir la funcin: y= f(x) por la recta que une dos puntos: y=
r(x), que siempre ser menor que tomar el valor conocido ms prximo de la funcin,
ver la figura, es importante que los puntos tomados estn lo ms prximos entre s,
para que este error sea el mnimo posible.
La expresin:

determina el valor y de la funcin para un x dado, partiendo de dos puntos conocidos
(x
1
,y
1
) y (x
2
,y
2
), siendo x
1
< x < x
2
.
Ejemplo
Cual es la probabilidad de una distribucin chi-cuadrado de 5 grados de libertad, de
que x sea menor que 1,75.
Esto es:

el valor 1,75 no esta en la tabla, pero si tenemos que:

sustituyendo en la expresin:

tenemos que:

operando tenemos:

esto es:

que resulta:

que es el resultado buscado:



Tabla inversa de distribucin chi-cuadrado

Otra forma de tabla de distribucin chi-cuadrado, en la cual los valores de bsqueda
son los grados de libertad y la probabilidad acumulada, dada la expresin


En este tipo de tablas se parte de los valoras conocidos k y p, y se obtiene x, de forma
inversa a lo visto anteriormente, lo que resulta interesante pera responder a la
pregunta:
Para una distribucin chi-cuadrado de k grados de libertad, cual es el valor de x que
deja a su izquierda una probabilidad p.
Este tipo de problema en la practica, suele ser ms usual, la tabla es ms compacta y
tambin nos permite calcular la probabilidad con la tabla directa.
En la tabla tenemos en la fila superior las probabilidades P, en la columna de la
izquierda los grados de libertad k, donde se cruzan la fila y la columna
correspondientes el valor de x que en una funcin chi-cuadrado de k grados de
libertad, deja a su izquierda una probabilidad P.



Ejemplo
Cual es el valor de x, de una distribucin chi-cuadrado de 6 grados de libertad, que deja
a su izquierda una probabilidad del 80%

Consultando la tabla tenemos que:

Calculo de la probabilidad con la tabla inversa.
Empleando esta tabla podemos realizar clculos directos como en la anterior,
normalmente ser necesaria recurrir a la interpolacin lineal para obtener los
resultados
Ejemplo
Cul es la distribucin de probabilidad de chi-cuadrado de 4 grados de libertad de que
x < 1,2 ?
este es el mismo ejemplo que en la tabla directa, veamos como se hara en este caso:
la pregunta es:

este valor no figura en la tabla pero si tenemos en la fila de k= 4, que:

por la expresin de interpolacin lineal:

sustituyendo los valores de este caso:

operando:

esto es:

que da como resultado:

esto es:

como se puede ver hay una diferencia del orden de la tercera cifra decimal, respecto a
la bsqueda directa en la tabla, esta diferencia se produce por la interpolacin lineal, al
sustituir la funcin por la recta que une dos puntos conocidos, y a la relativamente
gran diferencia entre x1 y x2, que es el 60% al valor de x1.

Para valores de k grandes

cuando el valor de k es suficientemente grande se tiene en cuenta que:

Con lo que podemos aproximar la distribucin Chi-cuadrado por la distribucin normal,
de media k y desviacin tpica raz de 2k, empleando la tabla distribucin normal
tipificada para su calculo.


Otro Ejemplo:
2
Supngase que la velocidad V de un objeto tiene distribucin N(0,1). Sea K=mV 72 la
energa cintica del objeto. Para encontrar la fdp de K, busquemos primero la fdp de
2
S= V . Al aplicar directamente el teorema:
2
Sean X una variable aleatoria continua con fdp f y Y=X . Entonces, la variable aleatoria
Y tiene fdp dada por:


g(y)= 1 [f( \y) + f(-\y)]
2 \y

Se tiene entonces que:

1
g(s)= [ \s) + (- \s)]
2\s

-1/2 -s/2
= s 1 e
\2t


Si comparamos esto con la ecuacin:


n/2-1 -z/2. z >0
f(z) = 1 z e
n/2
2 I (n/2)

Y recordamos que I(1/2)= \t, observamos que S tiene una distribucin:
2
X1 . As encontramos que el cuadrado de una variable aleatoria con distribucin N(0,1)
tiene una distribucin
2
X1. (Este es el resultado que generalizaremos posteriormente)

Ahora podemos obtener la fdp h de la energa cintica K. Puesto que K es una funcin
montona de 2
V ,
Cuya fdp esta dada por la g anterior, tenemos directamente;

-1/2 -k/m
H(k)=2/m g(2/m k)= 2/m 1/\2t (2/m k) e , k > 0

2 2
A fin de evaluar P(Ks5)=P ((m/2) V s5) = P(V s 10/m)

Esta ltima probabilidad se puede obtener de manera directa de las tablas de la
2
distribucin x- cuadrada ( si m es conocida) puesto que V tiene una distribucin
2 2 2
x1 . Puesto que E( V )= 1 y la varianza ( V )= 2, entonces de la ecuacin:


E(Z)=n , V(Z)= 2n

Encontramos directamente:
2
E(K)=m/2 y V(K)= m /2


Distribucin de Weibull



La distribucin de Weibull, que recibe su nombre del investigador sueco que la
desarroll, se caracteriza por considerar la tasa de fallos variable, siendo utilizada por
su gran flexibilidad, al poder ajustarse a una gran variedad de funciones de fiabilidad
de dispositivos o sistemas.

La distribucin de Weibull complementa a la distribucin exponencial y a la normal, se
usa cuando se sabe de antemano que una de ellas es la que mejor describe la
distribucin de fallos o cuando se han producido muchos fallos (al menos 10) y los
tiempos correspondientes no se ajustan a una distribucin ms simple.

La distribucin de Weibull nos permite estudiar cul es la distribucin de fallos de un
componente clave de seguridad que pretendemos controlar y que a travs de nuestro
registro de fallos observamos que stos varan a lo largo del tiempo y dentro de lo que
se considera tiempo normal de uso.


Definicin:

Modificando la nocin de tasa constante de fallas que condujo la ley exponencial de
falla. Supngase que la tasa de fallas Z, asociada con T, la duracin de un artculo,
tiene la forma siguiente:
|-1
Z(t)= (o|) t ,


Donde o y | son constantes positivas. De la ecuacin:
t
-} 0 Z(s) ds
F(t)= Z(t) e


Obtenemos la expresin siguiente para la fdp de T:
|
|-1 -ot
F(t)= (o|) t e , t > 0, o , | > 0

Se dice que la variable aleatoria con fdp dada por la ecuacin anterior tiene una
distribucin de Weibull. La figura muestra la fdp para o=1 y |=1,2,3. La funcin
De confiabilidad R est dada por:
|
-ot
R(t)= e que es una funcin decreciente.

f(t)


|=1
|=3
|=2


f

0.4 0.8 1.2
Observacin:

La distribucin exponencial es un caso especial de distribucin de Weibull, puesto que
obtenemos la distribucin exponencial si hacemos |=1 en la ecuacin:

|-1
Z(t)= (o|) t


La suposicin de la ecuacin anterior establece que Z(t) no es una constante, sino ue
es proporcional a las potencias de t. Por ejemplo, si |=2 , Z es una funcin lineal de t; si
|=3, Z es una funcin cuadrtica de t, etc. As, Z es una funcin creciente, decreciente
o constante de t, segn el valor de | como se indica en la figura:


z(t) z(t) z(t)







|=1 t |>1 t 0<|< 1 t
Z es constante Z es creciente Z es decreciente


Ejemplos:

Ejemplo N 1:

Los datos siguientes corresponden a los tiempos de falla de cierto componente de un
aeroplano: 23, 261, 87, 7, 120, 14, 62, 47, 225, 71, 246, 21, 42, 20, 5, 12, 120, 11, 3, 14,
71, 11, 14, 11, 16, 90, 1, 16, 52, 95.
Este tipo de datos se modela generalmente con una distribucin Weibull, cuya funcin
de densidad est dada por

(1)

Supongamos que se desea hacer inferencias sobre el parmetro , con base en la
distribucin inicial no informativa


y los datos listados previamente. Supongamos tambin que interesa estudiar la
distribucin predictiva de una observacin futura en vista de la informacin
disponible.
Dadas observaciones de (1) y la distribucin inicial , la
distribucin final de est dada por


En este caso es posible integrar analticamente, por lo que despus de un poco de
lgebra obtenemos las siguientes expresiones para las distribuciones de inters.
Densidad marginal de :

(2)

Densidad predictiva de :

(3)

Vous aimerez peut-être aussi