Vous êtes sur la page 1sur 10

CENTRO DE ESTUDIOS TECNOLOGICOS INDUSTRIAL Y DE SERVICIO N.

30 EMILIANO ZAPATA

ELECTRICIDAD

10506

EQUIPO C

MENDOZA PEREZ GUILLERMO HUERTA GALAN SERGIO GARCIA OSORIO GENARO RAMIREZ SORIA OSKAR MORALES PEREZ LEONARDO PEREZ GARCIA DAVID ALFONSO C2

C1

C3 C4 C5 C6

MORENO CERVANTES MIGUEL ANGEL C7

TEMA N. 2

OBJETIVOS: -Que el alumno conozca ms el concepto de probabilidad. -Que comprenda cuando es un evento dependiente y un evento independiente. -Que conozca acerca del teorema de bayes. -Que conozca lo que es una variable discreta y sus tipos de distribucin. -Y que los alumnos se enfoquen ms con la materia de probabilidad y estadstica y conceptos bsicos de la misma. PROBABILIDAD CONDICIONAL Es el resultado que tenga un suceso, ya se: b, f o d, cuando se sabe el resultado de un suceso: a, e o c. dependiendo del resultado del primer caso se puede calcular el resultado probable de un segundo caso. Esta se puede interpretar como, tomando los mundos en los que B se cumple, la fraccin en los mundos tambin en los que tambin se cumple A. suponiendo que B es tener gripa y el caso A es tener dolor de cabeza, esto es P(A/B)que seria la probabilidad de tener dolor de cabeza cuando se tiene gripe. A seria los mundos en los que se tiene dolor de cabeza, B los espacios en que se tiene gripa y la zona verde los espacios en que se tiene gripa y dolor de cabeza. La interseccin seria los grupos en que se tiene gripa y dolor de cabeza (se denota como P(A B)). Es decir el resultado de A con respecto a B, es la probabilidad de que alguien tenga dolor de cabeza sabiendo qua tiene gripa, esto sera la de la proporcin de los mundos con gripa y los mundos con dolor de cabeza. Esto seria el rea verde dividida por el rea de B y como el rea verde representa P(A B) y el rea de B representa el espacio en que se tiene gripa P (B), formalmente se tiene que:

PROBABILIDAD CONDICIONAL La definicin de probabilidad condicional se encuentra en la mayor parte de los libros analizados. Por ejemplo, PEA (1986) define la frecuencia relativa de A condicionada a la ocurrencia de B y de esta definicin deduce el concepto de probabilidad condicional indicando donde A, B representa el suceso ocurrencia conjunta de A y B y suponemos que P (B) >0 Esta definicin esta implcita la restriccin del espacio muestral pea hace incapie en las siguientes propiedades:

es importante diferenciar entre P(A,B) y P (A/B) una probabilidad conjunta P(A, B) es siempre menor que las probabilidades simples P(A) y P(B). una probabilidad condicional P(A/B) puede ser mayor, menor o igual que P(A) el espacio muestral de la probabilidad condicional P(A/B) queda restringido a B.

Nortes (1993) demuestra que una probabilidad condicional cumple los axiomas de probabilidad. Cuadras y cols (1984) tambin resaltan que la probabilidad condicional implica una reduccin del espacio muestral. Sacerdote y Balima (en preparacin) recuerdan que nunca podra aparecer en una formula una sume o diferencia de probabilidades condicionadas a deferentes sucesos, dado que las probabilidades estaran definidas sobre distintos pasos mustrales.

EJEMPLO Se seleccionan dos semillas aleatoriamente, una por una, de una bolsa que contiene 10 semillas de flores rojas y 5 de flores blancas. Cul es la probabilidad de que: a. La primera semilla sea roja? b. La segunda semilla sea blanca dado que la primera fue roja?

SOLUCIN

a. La probabilidad de que la primera semilla sea roja es , puesto que hay 10 semillas de flores rojas de un total de 15. Escrito con notacin de probabilidad tenemos:

b. La probabilidad de que la segunda semilla sea blanca se ve influida por lo que sali primero, es decir esta probabilidad est sujeta a una condicin, la de que la primera

semilla sea roja. Este tipo de probabilidad se le llama probabilidad condicional y se denota por , y se lee: la probabilidad de B2 dado R1.

Esta probabilidad

, puesto que todava hay 5 semillas blancas en un total de 14 restantes. EJEMPLO:

Muchos fenmenos naturales son aleatorios, pero existen algunos como el lanzamiento de un dado, donde el fenmeno no se repite en las mismas condiciones, debido a que la caractersticas del material hace que no exista una simetra del mismo, as las repeticiones no garantizan una probabilidad definida. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parmetros que intervienen; sta es una de las razones por las cuales la estadstica, que busca determinar estos parmetros, no se reduce inmediatamente a la teora de la probabilidad en s. EVENTO INDEPENDIENTE.

DEFINICION: A y B son independientes entre s y solo si se cumplen en la relacin p ( AnB) = P (A) P(B). Ntese que se est hablando de independencia desde el punto de vista probabilstico, pero no desde el punto de vista casual. EJEMPLO: Un congestionamiento de trfico en una avenida no se puede ser causa de lluvia pero esta no puede ser causa de lluvia pero esta si lo puede ser de un embotellamiento. Si E es el evento (hay un embotellamiento) y L es otro evento (llueve) en efecto no existe una relacin causal de L dado E sin embargo la lluvia no es un suceso de los embotellamientos (desde el punto de vista probabilstico. Esto es, aun cuando un embotellamiento de autos y camiones no puede provocar lluvia ni impedirla, la probabilidad de que llueva es diferente (menor) a la probabilidad de que llueva dado que se da que hay un embotellamiento.

EVENTOS DEPENDIENTES. DEFINICION: Son aquellos eventos de dos o ms, que sern independientes cuando el resultado o no resultado de uno de ellos afecte su probabilidad. Lo que hacemos es consistir en hallar la probabilidad de que al extraer cualquiera de los datos, ambos sea de otro gnero as marcando la diferencia entre ellos. Cuando nosotros tenemos este caso empleamos el concepto de probabilidad condicional para denominar el evento reclamado. EJEMPLO: Si hago la probabilidad de que pase B dado de que ya ha ocurrido A, esto es igual a la probabilidad de que pase B solo entonces son eventos dependientes: Si quiero sacar siete en los dados sabiendo que sali 2 en el primer tiro refirindose del evento A depende que salga 5 en el evento B.
TEOREMA DE BAYES. El teorema de bayes es el resultado del estudio enunciado por thomas bayes en 1763 en la teora de la probabilidad, que expresa la probabilidad condicional de un evento aleatorio o probable A dado B en trminos de la distribucin de probabilidad condicional En trminos ms generalizados, este teorema es la enorme relevancia puesto que relaciona la probabilidad de A dado B con la probilidad de B dado A. es decir un ejemplo sabiendo la probabilidad de un dolor de cabeza dado a que se tiene una gripe se podra saber si existe un algn dato ms, la probabilidad de tener gripe si se tiene un dolor de cabeza Este sencillo ejemplo muestra la alta relevancia del teorema de bayes para la ciencia y todas sus ramas dado que tiene vinculacin intima con la comprensin de la probabilidad de aspectos causales dados los efectos observados Sea {A1,A3,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresin:

Donde:

P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hiptesis Ai. P(Ai | B) son las probabilidades a posteriori.

VARIABLE ALEATORIA DISCRETA. Una Variable aleatoria Discreta X, tiene un conjunto definido de valores posibles x1,x2,x3,..xn , con probabilidades respectivas p1,p2,p3,..pn., Es decir que slo puede tomar ciertos valores dentro de un campo de variacin dado. Como X ha de tomar uno de los valores de este conjunto, entonces p1 + p2 ++ pn=1. En general, una variable aleatoria discreta X, representa los resultados de un espacio muestral en forma tal que por P(X = x) se entender la probabilidad de que X tome el valor de x. De esta forma, al considerar los valores de una variable aleatoria es posible desarrollar una funcin matemtica que asigne una probabilidad a cada realizacin x de la variable aleatoria X. Esta funcin recibe el nombre de funcin de la probabilidad. VARIABLE ALEATORIA Una variable es aleatoria si su valor est determinado por el azar. En gran nmero de experimentos aleatorios es necesario, para su tratamiento matemtico, cuantificar los resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del experimento. De este modo se establece una relacin funcional entre elementos del espacio muestral asociado al experimento y nmeros reales. Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento an no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto. Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. El trmino elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso esttico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).

DISTRIBUCIN BINOMIAL La distribucin binomial es tpica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1) El experimento est compuesto de n pruebas iguales, siendo n un nmero natural fijo.

2)

Cada prueba resulta en un suceso que cumple las propiedades de la variable binmica o de Bernouilli, es decir, slo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como xito y fracaso. La probabilidad del xito (o del fracaso) es constante en todas las pruebas. P(xito) = p ; P(fracaso) = 1 - p = q 4) Las pruebas son estadsticamente independientes,

3)

En estas condiciones, la variable aleatoria X que cuenta el nmero de xitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los nmeros enteros del 0 al n. Se suele decir que una variable binmica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento

DISTRIBUCIN HIPERGEOMTRICA Una variable tiene distribucin hipergeomtrica si procede de un experimento que cumple las siguientes condiciones: 1) Se toma una muestra de tamao n, sin reemplazamiento, de un conjunto finito de N objetos. 2) K de los N objetos se pueden clasificar como xitos y N - K como fracasos.

X cuenta el nmero de xitos obtenidos en la muestra. El espacio muestral es el conjunto de los nmeros enteros de 0 a n, de 0 a K si K < n. En este caso, la probabilidad del xito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre s. DISTRIBUCIN MULTIHIPERGEOMTRICA Esta variable se define igual que la hipergeomtrica con la nica diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A 1, A2,..., AR objetos y la variable describe el nmero de objetos de cada tipo que se han obtenido (x 1, x2,..., xR ) DISTRIBUCIN DE POISSON Una variable de tipo poisson cuenta xitos (es decir, objetos de un tipo determinado) que ocurren en una regin del espacio o del tiempo. El experimento que la genera debe cumplir las siguientes condiciones:

El nmero de xitos que ocurren en cada regin del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior. 2. La probabilidad de un xito en un tiempo o espacio pequeo es proporcional al tamao de este y no depende de lo que ocurra fuera de l. 3. La probabilidad de encontrar uno o ms xitos en una regin del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la regin en estudio. Como consecuencia de estas condiciones, las variables Poisson tpicas son variables en las que se cuentan sucesos raros. Esta caracterstica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definicin. La distribucin de Poisson se puede considerar como el lmite al que tiende la distribucin binomial cuando n tiende a y p tiende a 0, siendo np constante (y menor que 7); en esta situacin sera difcil calcular probabilidades en una variable binomial y, por tanto, se utiliza una aproximacin a travs de una variable Poisson con media l = n p. Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias.

1.

EJEMPLO DE VARIABLE ALEATORIA. Ejemplo.- Sea el experimento aleatorio consistente en lanzar una moneda al aire. Los sucesos elementales del experimento, que salga cara, que salga cruz, no vienen representados por los nmeros, por lo que cada suceso elemental se le hace corresponder un nmero real. As al suceso elemental, que salga cara, se le hace corresponder el nmero 1 y al suceso elemental ,que salga cruz, se le hace corresponder el nmero 2. La variable aleatoria ser: X = (1,2). Se trata de una variable aleatoria o discreta, ya que nicamente puede adoptar los valores 1 y 2.

Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementales posibles asociado al experimento, es ,

Donde (c representa "sale cara" y x, "sale cruz"). Podemos asignar entonces a cada suceso elemental del experimento el nmero de caras obtenidas. De este modo se definira la variable aleatoria X como la funcin

Dada por:

El recorrido o rango de esta funcin, RX, es el conjunto

CONCLUSION GENERAL: LOS ALUMNOS Y EL EQUIPO C VIMOS ALGUNOS DE LOS CONCEPTOS QUE VAN DE ACUERDO A LA MATERIA QUE ES PROBABILIDAD Y ESTADISTICA, Y DE ESTA MANERA IR REFORZANDO UN POCO MAS EL CONOCIMIENTO ADQUIRIDO EN LA MATERIA Y POCO A POCO IR ENFOCANDONOS MAS ACERCA DE ELLA.

CONCLUSION EQUIPO C OTRA CONCLUSION SERIA QUE EL METODO DE EXPONER TEMAS AL GRUPO ES MUY DINAMICO Y QUE SI SE APRENDE POR LO MENOS EL CONCEPTO DE LOS TEMAS POR QUE ENTRE COMPAEROS NOS COMPARTIMOS INFORMACION Y SE DIALOGAN.

CUESTIONARIO: 1.-PARA QUE NOS SIRVE LA PROBABILIDAD CONDICIONAL. R-sirve para saber el resultado probable de un suceso a partir del resultado de un primer suceso. 2.- MENCIONA ALGUNOS AUTORES QUE DEFINIERON LA PROBABILIDAD CONDICIONAL R- pea, nortes, cuadras y cols, 3.- QU SON LOS ELEMENTOS DEPENDIENTES R- Son aquellos eventos que dependen uno del otro 4. QUE SON LOS EVENTOS INDEPENDIENTES R- Son los eventos que dependen de uno mismo y no necesitan de otro para ser catalogados. 5. QU EXPRESA EL TEOREMA DE BAYES. R- Expresa la probabilidad condicional de un evento aleatorio o probable A dado B en trminos de la distribucin de probabilidad condicional 6. PARA QU PUEDE SERVIR ESTE TEOREMA. R- El teorema puede servir entonces para indicar como debemos modificar nuestras probabilidades subjetivas cuando recibimos alguna informacin adicional de algn experimento 7.-QUE REPRESENTA UNA VARIABLE ALEATORIA DISCRETA. R-representa los resultados de un espacio muestral. 8.-QUE OTRO NOMBRE RECIBE FUNCION MATEMATICA. R- funcin de la probabilidad. 9.-UNA VARIABLE ES ALEATORIA SI SU VALOR ES DETERMINADO POR. R- por el azar. 10.-MENCIONA LOS TIPOS DE DISTRIBUCION DE UNA VARIABLE. R-distribucin binominal, hipergeometrica, multihipergeometrica y de poisson.

Vous aimerez peut-être aussi