Vous êtes sur la page 1sur 30

Teorema de Bayes

De Wikipedia, la enciclopedia libre


Saltar a navegacin, bsqueda El teorema de Bayes, enunciado por Thomas Bayes, en la teora de la probabilidad, es el resultado que da la distribucin de probabilidad condicional de una variable aleatoria A dada B en trminos de la distribucin de probabilidad condicional de la variable B dada A y la distribucin de probabilidad marginal de slo A.

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresin:

donde: P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hiptesis Ai. P(Ai | B) son las probabilidades a posteriori. Esto se cumple

El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y permitir revisar esas estimaciones en funcin de la evidencia es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observacin, se tiene

y su demostracin resulta trivial.

Temas relacionados [editar]


La paradoja de Raven La falacia del fiscal

Enlaces externos [editar]


Calculadora en internet Inferencia estadstica segn el modelo bayesiano, en la web de la Sociedad Andaluza de Enfermedades Infecciosas Enciclopedia Stanford de filosofa

Obtenido de "http://es.wikipedia.org/wiki/Teorema_de_Bayes" Categoras: Teoremas de probabilidad | Estadstica bayesiana

Bioestadstica

Teorema de BAYES (estadstica Bayesiana).


El Teorema de BAYES se apoya en el proceso inverso al que hemos visto en el Teorema de la Probabilidad Total: Teorema de la probabilidad total: a partir de las probabilidades del suceso A (probabilidad de que llueva o de que haga buen tiempo) deducimos la probabilidad del suceso B (que ocurra un accidente). Teorema de Bayes: a partir de que ha ocurrido el suceso B (ha ocurrido un accidente) deducimos las probabilidades del suceso A (estaba lloviendo o haca buen tiempo?). La frmula del Teorema de Bayes es:

Tratar de explicar estar frmula con palabras es un galimatas, as que vamos a intentar explicarla con un ejemplo. De todos modos, antes de entrar en el ejercicio, recordar que este teorema tambin exige que el suceso A forme un sistema completo.

Primer ejemplo.

El parte meteorolgico ha anunciado tres posibilidades para el fin de semana: a) Que llueva: probabilidad del 50%. b) Que nieve: probabilidad del 30% c) Que haya niebla: probabilidad del 20%. Segn estos posibles estados meteorolgicos, la posibilidad de que ocurra un accidente es la siguiente: a) Si llueve: probabilidad de accidente del 20%. b) Si nieva: probabilidad de accidente del 10% c) Si hay niebla: probabilidad de accidente del 5%. Resulta que efectivamente ocurre un accidente y como no estabamos en la ciudad no sabemos que tiempo hizo (llovo, nev o hubo niebla). El teorema de Bayes nos permite calcular estas probabilidades: Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se denominan "probabilidades a priori" (lluvia con el 50%, nieve con el 30% y niebla con el 20%). Una vez que incorporamos la informacin de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan "probabilidades a posteriori". Vamos a aplicar la frmula:

a) Probabilidad de que estuviera lloviendo:

La probabilidad de que efectivamente estuviera lloviendo el da del accidente (probabilidad a posteriori) es del 71,4%. b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%. c) Probabilidad de que hubiera niebla:

La

probabilidad

de

que

hubiera

niebla

es

del

7,1%

Otro ejemplo. En una etapa de la produccin de un artculo se aplica soldadura y para eso se usan tres diferentes robots. La probabilidad de que la soldadura sea defectuosa vara para cada uno de los tres, as como la proporcin de artculos que cada uno procesa, de acuerdo a la siguiente tabla. robot A B C defectuosos 0.002 0.005 0.001 art. procesados 18 % 42 % 40 %

Ahora podemos hacernos un par de preguntas: Cul es la proporcin global de defectos producida por las tres mquinas. Si tomo un artculo al azar y resulta con defectos en la soldadura, cul es la probabilidad de que haya sido soldado por el robot C.

a) La primera pregunta nos va a llevar a lo que se conoce con el nombre de frmula de la probabilidad total. Queremos conocer la proporcin global de defectos delos tres robots. Despus de reflexionar un momento se ve que si todas las soldaduras las pusiera el robot C, habra pocos defectos, seran 0.001 o 0.1%. En cambio, si todas las pone el B, sera un desastre!, tendramos cinco veces ms: 0.005 o 0.5%. De modo que en nuestra respuesta debemos tener en cuenta las diferentes proporciones de lo maquinado en cada robot. Nuestra idea es empezar por descomponer el evento ``defectuoso'' en ``viene del robot A y es defectuoso'' o ``viene del robot B y es defectuoso'' o ``viene del robot C y es defectuoso''. En smbolos tendremos P(d) = P(A y d) + P(B y d) + P(C y d) P(d) = P(A) P( d|A) + P(B) P( d|B) + P(C) P( d|C) Antes de ponerle nmeros y resolver nuestro problema fijmonos en la frmula obtenida. Hay tres eventos A, B y C que son ajenos y cubren todo el espacio muestral. Conocemos las probabilidades de cada uno de ellos. Adems, conocemos las probabilidades condicionales de otro evento dado cada uno de ellos. La frmula de arriba se llama frmula de la probabilidad total. Llenando con nuestros nmeros, tenemos que P(d) = (0.18)(0.002) + (0.42)(0.005) + (0.40)(0.001) o sea que P(d) = 0.00286 casi 3 piezas por cada mil.

Es bueno comparar este resultado con los porcentajes de soldaduras defectuosas de cada robot por separado. Podemos ver que el resultado se encuentra entre todas ellas y se encuentra relativamente cerca de los porcentajes de los robots ms utilizados (el B y el C). Esto es muy razonable. b) La segunda pregunta es, a la vez ms simple y ms complicada. Nos va a llevar a lo que se conoce con el nombre de teorema de Bayes. La probabilidad que buscamos es una condicional pero al revs de las que tenemos. Buscamos P( C | d) para calcularla usamos la definicin de probabilidad condicional: P( C | d) = [P(C y d)] / [P( d )] El numerador (lo de arriba) lo calculamos con P( C y d ) = P(C) P(d|C) y el denominador lo calculamos con la frmula de probabilidad total P(d) = P(A) P( d|A) + P(B) P( d|B) + P(C) P( d|C) juntando las dos tenemos la frmula de Bayes: P( C|d) = Aplicndola [P(C) P(d|C)] a / [P(A) P( d|A) nuestro + P(B) P( d|B) caso + P(C) P( d|C)] tenemos

P(C|d) = [(0.40)(0.001)]/[(0.18)(0.002) + (0.42)(0.005) + (0.40)(0.001)] o sea P(C|d) = [0.0004]/[0.00286] = 0.1399 casi 14%. O sea que si tomamos una pieza al azar, la probabilidad de que haya sido soldada por el robot C es alta, 40%. Pero, como ese robot produce slo 1 de cada mil soldaduras defectuosas, al saber que la pieza seleccionada es defectuosa, la probabilidad de que provenga del robot C disminuye a solamente 14%. Esto quiere decir que, en este caso el saber que la soldadura es defectuosa, nos provee con una gran cantidad de informacin. Si analizramos, usando de nuevo la frmula de Bayes las probabilidades de los robots A y B, tendramos P(B|d) = 0.7343 y P(A|d) = 0.1259 Comparadas con las probabilidades de cada mquina sin saber que la pieza es defectuosa vemos un gran incremento en la probabilidad de B. Si, por el contrario la pieza no hubiese tenido defectos de soldadura, el mismo teorema de Bayes nos dara (haga Ud. las cuentas y fjese que no me haya equivocado yo!): P(A|no d) = 0.1802 P(B|no d) = 0.4191 y P(C|no d) = 0.4007

Las probabilidades no son idnticas a las probabilidades no condicionales, pero la diferencia es muy pequea. Para apreciar mejor el cambio, pongamos en una sola tabla las probabilidades iniciales y las condicionales obtenidas bajo el conocimiento de la soldadura de la pieza. Robot A B C P( ) 0.18 0.42 0.40 P( |d) 0.1259 0.7343 0.1399 P( |no d) 0.1802 0.4191 0.4007

Es tan grande el xito de los tres robots en el soldado correcto que el saber que la pieza no tiene defectos, prcticamente no altera las probabilidades de producin en uno u otro. Por el contrario, el robot C es tan bueno, comparado con el B que, al saber que la pieza es defectuosa, las probabilidades cambian dramticamente. En este ejemplo el clculo de probabilidades condicionales nos cuantifica algo que el sentido comn nos dice de otra forma. Note que la frmula de Bayes nos sirvi para pasar de las probabilidades no condicionales a las condicionales. Otro ejemplo ms del uso del teorema de Bayes. Otro ejemplo clsico del uso del teorema de Bayes es un problema de oro y plata. Hay tres bolsas que tienen, cada una dos monedas. Las de la primera son de oro, las de la segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una bolsa al azar y de ella una moneda tambin al azar. Si la moneda es de oro, cul es la probabilidad de que la otra moneda en la bolsa sea de oro tambin? Primero notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene monedas de oro), slo pudo haber sido seleccionada la primera o la tercera. Si la bolsa elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza. De modo que el evento que nos interesa es equivalente a que se haya elegido la primera bolsa. Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular: P(1|Au) = [P(1)P(Au|1)] / [P(1)P(Au|I) + P(2)P(Au|2) + P(3)P(Au|3)] Las probabilidades que entran al lado derecho de la igualdad las sacamos, inmediatamente, de las condiciones del problema y despus de hacer cuentas tenemos: P(1|Au) = 2 / 3 Este problema es clsico porque existe una "solucin" a la que muchas personas llegan y es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente posibles, y el hecho de que la primer moneda extrada sea de oro, nos indica que no se trata de la segunda bolsa. Conclumos que las dos bolsas restantes tienen igual probabilidad y, por tanto, la probabilidad de que la otra moneda sea de oro es 1/2. Si Ud. piensa de acuerdo a este razonamiento (errneo!), es muy difcil que encuentre en qu se equivoca. Lo que est mal es que lo que averiguamos, al saber que la moneda extrada es de oro, es algo ms que el rechazo de la segunda bolsa. Si slo nos dijeran que la bolsa escogida al azar

no fu la segunda, sin informarnos del metal de la moneda sacada, todava tendramos incertidumbre respecto a la primera moneda; todava podramos apostar a si sta es de oro o de plata. Al decirnos que la moneda fu de oro, estamos aprendiendo algo ms, y eso echa por tierra el argumento de "igual probabilidad para las dos bolsas restantes". La informacin con la que contamos nos indica que nos hallamos frente a un caso en el que la bolsa era la primera y sacamos, o la primera de las monedas que contenia, o la segunda, (ya llevamos 2 posibilidades), o bien la bolsa era la tercera y en ese caso tan solo podra ser que sacramos en primer lugar la moneda de oro, luego la que queda dentro es de plata (una nica posibilidad). Tenemos 3 posibles sucesos en los que en 2 de ellos sacaramos a continuacion una moneda de oro (2/3 de probabilidad), y tan solo una de las veces la nueva moneda sera de plata (1/3 de probabilidad). Lo interesante del problema es que, si nos hubieran dicho que la moneda sacada fu de plata, aplicando la frmula de Bayes, llegamos a la conclusin de que la probabilidad de que la otra moneda sea tambin de plata es 2/3 [Haga Ud. las cuentas!]. Es decir, si vamos a apostar al metal de la otra moneda, nos conviene apostar por el metal de la primera. Este ejemplo nos lleva a reflexionar sobre el uso adecuado de la informacin contenida en "lo dado" en el clculo de la probabilidad condicional. Una ltima cuestion: Suponga que asiste a uno de los numerosos programas de televisin en los que despues de haber hecho el payaso/a (o mostrado sus habilidades) para diversin de la audiencia, le ofrecen que escoja una de 3 puertas que esconden un gran regalo (un coche, un apartamento, etc... ) una de ellas y las otras 2 no contienen nada. Tras elegir usted una, el presentador o presentadora del programa abre una de las que rechaz, mostrando que no contena nada (esto siempre lo podr hacer, eliga usted la que eliga) y le da la oportunidad de plantarse con la que escogi inicialmente o cambiar a la otra que queda an sin abrir. que debera hacer?. Tenga en cuenta que despues de conocer el contenido de una de las puertas que no eligi inicialmente "sabe algo mas que al principio". Una pista: no es indiferente plantarse o cambiar, uno de los 2 comportamientos es mas ventajoso que el otro. Si tiene la solucin, y quiere verificarla, enviemela por correo electrnico a diz@farm.ucm.es indicando en l "Bayes televisin".

Temario.
Introduccin a la estadstica descriptiva. Frecuencias. Parmetros de posicin central. Parmetros de dispersin. Coeficientes de asimetra y curtosis. Introduccin a la probabilidad. Probabilidad condicionada, compuesta y total. Teorema de Bayes. Sucesos independientes. Distribuciones discretas: Bernouilli, binomial, Poisson y multinomial. Distribuciones continuas: uniforme y normal. Teorema del limite central. Distribuciones bidimensionales. Correlacin y regresin lineales.

Si A

1,

,... , An son:

Sucesos incompatibles 2 a 2.

Y cuya unin es el espacio muestral (A

...

= E).

Y B es otro suceso.

Resulta que:

Las probabilidades p(A1) se denominan probabilidades a priori.

Las

probabilidades

p(Ai/B)

se

denominan

probabilidades

posteriori.

Las probabilidades p(B/Ai) se denominan verosimilitudes.

Ejemplos

El 20% de los empleados de una empresa son ingenieros y otro 20% son economistas. El 75% de los ingenieros ocupan un puesto

directivo y el 50% de los economistas tambin, mientras que los no ingenieros y los no economistas solamente el 20% ocupa un puesto directivo. Cul es la probabilidad de que un empleado directivo elegido al azar sea ingeniero?

La

probabilidad

de

que

haya

un

accidente

en

una

fbrica

que

dispone de alarma es 0.1. La probabilidad de que suene esta s se ha producido algn incidente es de 0.97 y la probabilidad de que suene si no ha sucedido ningn incidente es 0.02.

En

el

supuesto

de

que

haya

funcionado

la

alarma,

cul

es

la

probabilidad de que no haya habido ningn incidente?

Sean los sucesos:

I = Producirse incidente.

A = Sonar la alarma.

Teorema de Bayes
Si los sucesos Ai son una particin y B un suceso tal que p(B) 0

Demostracin Aplicaciones Diagnstico mdico (en general clasificaciones no biunvocas): El diagnstico consiste en establecer la enfermedad de un paciente, a partir de una serie de sntomas. Pero los sntomas y las enfermedades no estn ligados de un modo biunvoco. Llamemos Ei al conjunto de enfermedades E1: tuberculosis pulmonar; E2 :cncer de pulmn; E3: bronquitis obstructiva; etc. y Si a los sntomas y sndromes asociados con las mismas. S1: tos; S2: estado febril; S3: hemotisis; etc. La informacin accesible en los libros de patologa, o en un archivo de historias clnicas es del tipo. Para E1: algunos (digamos el 20%) tienen hemotisis; muchos (80%) tienen tos; etc. y lo mismo para las dems enfermedades. En trminos de probabilidad condicionada, esta informacin es p(S3|E1) = 0,2; p(S1|E1) = 0,8 etc. para diagnosticar la tuberculosis se ha de evaluar, para los sntomas que presenta el paciente p(E1|Si) para lo que se puede usar el teorema de Bayes si las enfermedades forman una particin (son mutuamente excluyentes y se consideran todas las enfermedades compatibles con el sntoma) y se conocen sus prevalencias. Ntese que un mismo conjunto de sntomas podra dar lugar a un diagnstico diferente en poblaciones en las que las prevalencias fueran diferentes. Pruebas diagnsticas: Supngase una prueba diagnstica, por ejemplo nivel de glucosa en sangre, en ayunas, para diagnosticar la diabetes. Se considera que la prueba es positiva si se encuentra un nivel por encima de un cierto valor, digamos 120 mg/l. Para evaluar la prueba, (habr que hacerlo para distintos valores de corte) se somete a la misma a una serie de individuos diabticos diagnosticados por otro procedimiento (el patrn de oro o "gold standar") y a una serie de individuos no diabticos. Los resultados se pueden representar en una tabla de doble entrada

Patrn de oro NE Prueba a E b r

c t

d u

Si la prueba fuera perfecta b=c=0, desgraciadamente nunca ocurre. Se denomina coeficiente falso-positivo (CFP) al cociente c/t, y es una estimacin de la probabilidad condicionada p(+|NE), se denomina coeficiente falso-negativo (CFN) al cociente b/u, y es una estimacin de la probabilidad condicionada p(-|E). Estos dos coeficientes cuantifican los dos errores que la prueba puede cometer y caracterizan a la misma. Simtricamente, los coeficientes que cuantifican los aciertos son la sensibilidad, p(+|E), y la especificidad p(-|NE). Cuando la prueba se usa con fines diagnsticos (o de "screening") interesa calcular p(E|+) y/o p(NE|-). Como E y NE son una particin, usando el Teorema de Bayes

Ntese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnstica que funciona muy bien en la clnica Mayo, puede ser intil en el Hospital Ramn y Cajal. Ejemplo 9: una prueba diagnstica para la diabetes tiene un CFP de 4% y un CFN del 5%. Si la prevalencia de la diabetes en la poblacin donde se usa es del 7% cul es la probabilidad de que sea diabtico un individuo en el que la prueba d positiva? y de que no lo sea uno en el que d negativo? p(+|NE) = 0,04 p(-|NE) = 0,96 p(-|E) = 0,05 p(+|E) = 0,95 p(E) = 0,07 p(NE) = 0,93

Pruebas en serie: Cuando se aplican pruebas en serie, para cada prueba p(E) y p(NE), sern la p(E|+) y p(NE|+) de la prueba anterior (si dio positiva) o p(E|-) y p(NE|-) si dio negativa.

Variable aleatoria
De Wikipedia, la enciclopedia libre
Saltar a navegacin, bsqueda

Se ha sugerido que variable estadstica sea fusionado en este artculo o seccin. (Discusin).
Una vez que hayas realizado la fusin de artculos, pide la fusin de historiales en WP:TAB/F.

En gran nmero de experimentos aleatorios es necesario, para su tratamiento matemtico, cuantificar los resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del experimento. De este modo se establece una relacin funcional entre elementos del espacio muestral asociado al experimento y nmeros reales. Formalmente se dice que una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral asociado a un experimento aleatorio, .1 2

Se llama rango de una v.a. X y lo denotaremos RX, al conjunto de los valores reales que esta puede tomar, segn la aplicacin X. Dicho de otro modo, el rango de una v.a. es el recorrido de la funcin por la que esta queda definida:

Contenido
[ocultar]

1 Ejemplo 2 Tipos de variables aleatorias 3 Distribucin de probabilidad de una v.a. 4 Funcin de densidad de una v.a. continua 5 Parmetros de una v.a. o 5.1 Esperanza o 5.2 Varianza 6 Definicion formal de variable aleatoria 7 Vase tambin 8 Referencias 9 Bibliografa 10 Enlaces externos

Ejemplo [editar]
Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementales posibles asociado al experimento, es = {cc, cs, sc, ss}, donde (c representa "sale cara" y s, "sale sello").

Podemos asignar entonces a cada suceso elemental del experimento el nmero de caras obtenidas. De este modo se definira la variable aleatoria X como la funcin

dada por

El recorrido o rango de esta funcin, RX, es el conjunto RX = {0, 1, 2}

Tipos de variables aleatorias [editar]


Para comprender de una manera mas amplia y rigurosa los tipos de variables, es necesario conocer la definicin de conjunto discreto. Un conjunto es discreto si est formado por un nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y as sucesivamente.3

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la funcin de cuanta (vanse las distribuciones de variable discreta). Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna la estatura a una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.4 (vanse las distribuciones de variable continua)

Distribucin de probabilidad de una v.a. [editar]


Artculo principal: Distribucin de probabilidad

La distribucin de probabilidad de una v.a. X, tambin llamada funcin de distribucin de X es la funcin FX(x), que asigna a cada evento definido sobre X una probabilidad dada por la siguiente expresin:

y de manera que se cumplan las siguientes tres condiciones:

1. y 2. Es continua por la derecha. 3. Es montona no decreciente. La distribucin de probabilidad de una v.a. describe tericamente la forma en que varan los resultados de un experimento aleatorio. Intuitivamente se tratara de una lista de los resultados posibles de un experimento con las probabilidades que se esperaran ver asociadas con cada resultado.

Funcin de densidad de una v.a. continua [editar]


Artculo principal: Funcin de densidad de probabilidad

La funcin de densidad de probabilidad (FDP) o, simplemente, funcin de densidad, representada comnmente como f(x), se utiliza con el propsito de conocer cmo se distribuyen las probabilidades de un suceso o evento, en relacin al resultado del suceso. La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la funcin de distribucin de probabilidad F(x), o de manera inversa, la funcin de distribucin es la integral de la funcin de densidad:

La funcin de densidad de una v.a. determina la concentracin de probabilidad alrededor de los valores de una variable aleatoria continua.

Parmetros de una v.a. [editar]


Artculo principal: Parmetro estadstico

La funcin de densidad o la distribucin de probabilidad de una v.a. contiene exhaustivamente toda la informacin sobre la variable. Sin embargo resulta conveniente resumir sus caractersticas principales con unos cuantos valores numricos. Estos son, fundamentalmente la esperanza y la varianza.

Esperanza [editar]
Artculo principal: Esperanza matemtica

La esperanza matemtica (o simplemente esperanza) o valor esperado de una v.a. es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Si todos los sucesos son de igual probabilidad la esperanza es la media aritmtica.

Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por la funcin de probabilidad p(xi) la esperanza se calcula como:

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la funcin de densidad :

o La esperanza tambin se suele simbolizar con El concepto de esperanza se asocia comnmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo.

Varianza [editar]
Artculo principal: Varianza

La varianza es una medida de la dispersin de una variable aleatoria esperanza esto es, . Se define como la esperanza de la transformacin

respecto a su :

Est relacionada con la desviacin estndar o desviacin tpica, que se suele denotar por la letra griega (sigma) y que es la raz cuadrada de la varianza,

o bien

Definicion formal de variable aleatoria [editar]


Dado un espacio de probabilidad funcion -medible donde una variable aleatoria real es cualquier es la sigma-algebra boreliana en los reales.

Vase tambin [editar]

Distribucin de probabilidad. Distribucin binomial. Distribucin normal. Esperanza matemtica. Varianza.

http://es.wikipedia.org/wiki/Teorema_de_Bayes

http://nutriserver.com/Cursos/Bioestadistica/Teorema_Bayes.html

http://www.vitutor.com/pro/2/a_17.html

http://www.hrc.es/bioest/Probabilidad_18.html

http://es.wikipedia.org/wiki/Variable_aleatoria

VARIABLE ALEATORIA Dado un experimento aleatorio cualquiera cuyos sucesos elementales posibles pueden identificarse fcilmente mediante un nmero real, se denomina Variable Aleatoria, X, al conjunto de estos nmeros. Tambin se le llama variable de azar o variable estocstica, y significa cantidad que puede tomar varios valores imprevistos. Ejemplo 1.- Sea el experimento aleatorio de lanzar un dado al aire. Los posibles resultados del experimento (sucesos elementales) son los siguientes: <<que salga 1>>, <<que salga 2>>, <<que salga 3>>, <<que salga 4>>, <<que salga 5>> y <<que salga 6>>. Resulta sencillo asociar a cada suceso elemental el nmero correspondiente a la cara del dado que haya salido. Por tanto, la variable aleatoria, X, ser: X= 1,2,3,4,5,6 Por el contrario, si dado un experimento aleatorio cualquiera no resulta inmediata la asociacin de un nmero para cada uno de los posibles sucesos elementales, se establece una correspondencia entre el conjunto de los posibles sucesos elementales y el conjunto de los nmeros reales, de manera que a cada suceso elemental le corresponda un nmero real arbitrario y que a sucesos elementales distintos les correspondan nmeros distintos. Se denomina variable aleatoria al conjunto imagen de esta correspondencia, es decir, al conjunto de los nmeros reales que se hayan hecho corresponder a cada uno de los sucesos elementales.

Ejemplo 2.- Sea el experimento aleatorio de averiguar la marca de tabaco que preferir un individuo entre las posibles marcas: <<X>>, <<Y>>, <<Z>>. En este caso la asociacin de un nmero para cada suceso elemental posible del experimento no es inmediata. En consecuencia, se establece una correspondencia entre el conjunto de los sucesos elementales posibles y el conjunto de los nmeros reales, del modo siguiente: Al suceso elemental <<preferir la marca X>> se le hace corresponder el nmero 1; al suceso elemental <<preferir la marca Y>> se le hace corresponder el nmero 2; al suceso elemental <<preferir la marca Z>> se le hace corresponder el nmero 3. La variable aleatoria X ser: X = (1,2,3). El nmero asociado a cada suceso elemental puede ser cualquiera dentro del conjunto de los nmeros reales, con la condicin nica de que a sucesos elementales distintos le correspondan nmeros tambin distintos. Se comprueba fcilmente que la correspondencia as definida entre el conjunto de los posibles sucesos elementales de un experimento aleatorio y el conjunto de los nmeros reales es una aplicacin inyectiva.

CLASIFICACIN DE LAS VARIABLES ALEATORIAS Las variables aleatorias pueden ser continuas o discontinuas. En este ltimo caso se denomina tambin discretas. a) VARIABLE ALEATORIA CONTINUA.Si X es una Variable aleatoria continua, puede tomar cualquier valor de un intervalo continuo o dentro de un campo de variacin dado. Las probabilidades de que ocurra un valor dado x estn dadas por una funcin de densidad de probabilidad de que X quede entre a y b. El rea total bajo la curva es 1. Ejemplo.- Sea el experimento aleatorio consistente en medir la altura que es capaz de saltar cada miembro de un conjunto de personas. En este experimento, cada miembro del conjunto observado da lugar a un nmero, por lo que se toma como variable aleatoria el conjunto de las medidas de las alturas que son capaces de saltar las distintas personas. En el supuesto que una persona hubiera saltado 105 cm y otra 106 cm, no existira ninguna razn para que otra no hubiera saltado un valor intermedio cualquiera entre las dos anteriores, como 105.5 cm. Se trata de una variable aleatoria continua. b) VARIABLE ALEATORIA DISCONTINUA O DISCRETA. Se dice que una Variable aleatoria Discreta o Discontinua X, tiene un conjunto definido de valores posibles x1,x2,x3,..xn con probabilidades respectivas p1,p2,p3,..pn., Es decir que s lo puede tomar ciertos valores dentro de un campo de variacin dado. Como X ha de tomar uno de los valores de este conjunto, entonces p1 + p2 ++ pn=1. En general, una variable aleatoria discreta X representa los resultados de un espacio muestral en forma tal que por P(X = x)se entender la probabilidad de que X tome el valor de x. De esta forma, al considerar los valores de una variable aleatoria es posible desarrollar una funcin matemtica que asigne una

probabilidad a cada realizacin x de la variable aleatoria X. Esta funcin recibe el nombre de funcin de la probabilidad. Ejemplo.- Sea el experimento aleatorio consistente en lanzar una moneda al aire. Los sucesos elementales del experimento, <<que salga cara>>, <<que salga cruz>>, no vienen representados por los nmeros, por lo que casa suceso elemental se le hace corresponder un nmero real. As al suceso elemental <<que salga cara>> se le hace corresponder el nmero 1 y al suceso elemental <<que salga cruz>> se le hace corresponder el nmero 2. La variable aleatoria ser: X = (1,2).

Se trata de una variable aleatoria discontinua o discreta, ya que nicamente puede adoptar los valores 1 y 2. DISTRIBUCIN HIPERGEOMTRICA DEFINICIN DE LA DISTRIBUCIN HIPERGEOMTRICA Supongamos que una urna contiene A bolas rojas y B azules. Supngase tambin que se seleccionan al azar sin reemplazo n bolas de la urna y sea X el nmero de bolas rojas que se obtienen. Lgicamente, el valor de X no puede exceder de n ni de A. Por tanto, se debe verificar que X< min (n,A). Analgamente, puesto que el nmero de bolas azules n-X que se obtienen no puede exceder de B, el valor de X debe ser al menos n-B. Puesto que el valor de X no puede ser menor que 0, se debe verificar que X " max. (0,n-B). Por tanto, el valor de X debe ser un entero en el intervalo. Max (0,n-B) < x< min (n,A). Sea f(x|A,B,n) la f.p. de X. Entonces, para cualquier entero x en el intervalo (1), la probabilidad de obtener exactamente x bolas rojas. Sea f(x|A, B, n) = ________________ Adems, (fA,B,n) = 0 para los restantes valores de x. I una variable aleatoria x tiene una distribucin discreta con esta f. p., entonces se dice que X tiene una distribucin hipergeomtrica con parmetros A,B y n.

Conjunto de los sucesos elementales de un experimento aleatorio. Conjunto de los nmeros reales

Conjunto de Nmeros Reales) Conjunto de sucesos elementales del experimento aleatorio X= (1,2) (A/x) (B/n-x) A +B/n

http://html.rincondelvago.com/variables-aleatorias.html

Teorema de

Bayes
El teorema de Bayes, enunciado por Thomas Bayes, en la teora de la probabilidad, es el resultado que da la distribucin de probabilidad condicional de una variable aleatoria A dada B en trminos de la distribucin de probabilidad condicional de la variable B dada A y la distribucin de probabilidad marginal de slo A.

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos incompatibles cuya unin es el total y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresin:

donde: P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hiptesis Ai. P(Ai | B) son las probabilidades a posteriori.

Esto se cumple El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y permitir revisar esas estimaciones en funcin de la evidencia es lo que est abriendo nuevas formas de hacer conocimiento.

Como observacin, se tiene y su demostracin resulta trivial.

http://www.taringa.net/posts/info/1009355/Teorema-de-Bayes.html

Se llama variable aleatoria a toda funcin que asocia a cada elemento del espacio muestral E un nmero real.

Se utilizan letras maysculas X, Y, ... para designar variables aleatorias, y las respectivas minsculas (x, y, ...) p ara designar

valores concretos de las mismas.

Variable aleatoria discreta

Una

variable aleatoria discreta es aquella que slo puede

tomar valores enteros.

Ejemplos

El

nmero

de

hijos

de

una

familia,

la

puntuacin

obtenida

al

lanzar un dado.

Variable aleatoria continua

Una variable aleatoria continua es aquella que puede tomar todos los valores posibles dentro de un cierto intervalo de la recta real.

Ejemplos

La altura de los alumnos de una clase, las horas de duracin de una pila.

http://www.vitutor.com/pro/3/a_1.html

Probabilidad condicionada
Probabilidad total. Teorema de Bayes

11.3

Ejemplos

http://www.vadenumeros.es/sociales/probabilidad-condicionada.htm

Variable aleatoria
Realizamos el siguiente experimento: lanzamos dos monedas al aire. Los posibles resultados del experimento quedan reflejados en el siguiente diagrama de rbol:

El espacio muestral del experimento es: {CC, CX, XC, XX} Variable aleatoria es una funcin del espacio muestral de un experimento aleatorio en el conjunto de los nmeros reales. Llamar variable a una funcin resulta algo confuso, por ello hay que insistir en que es una funcin. Las variables aleatorias pueden ser: Continuas: pueden tomar todos los valores posibles en uno o varios intervalos del conjunto de los nmeros reales. Discretas: Todas las que no son continuas. Por ejemplo en el experimento anterior, si consideramos el nmero de caras que resultan, vemos que puede ser : 0, 1 y 2. La funcin que asigna a cada uno de los resultados del experimento el nmero de caras, es una variable aleatoria discreta

Funcin de probabilidad de una variable aleatoria discreta es la aplicacin que asocia a cada valor xi ,de la variable , su probabilidad pi . La representamos por f(x) o P(x). En el caso anterior es:

Funcin de distribucin de una variable aleatoria discreta es una funcin que mide la probabilidad de que la variable aleatoria tome valores menores o iguales que un determinado valor xi. La representamos por F(x) y tenemos:

Parmetros de una variable aleatoria discreta

La esperanza matemtica y los juegos de azar A un juego de azar podemos asignarle una variable aleatoria x, cuyos valores son las ganancias correspondientes a los posibles resultados. La esperanza matemtica de la variable aleatoria x representa el beneficio medio que se obtiene en cada jugada cuando se juega un nmero elevado de veces.

Si la esperanza matemtica es mayor que 0 se dice que el juego es favorable al jugador Si es menor que 0 se dice que perjudica al jugador Si es 0 se dice que el juego es equitativo

Sea el juego que consiste en sacar una bola de una urna que contiene 7 bolas rojas y 3 bolas negras. Ganamos 50 PTA si la bola extraida es roja y tenemos que pagar 200 PTA en el caso de que sea negra. Qu podemos esperar si jugamos muchas veces? Espacio muestral = {R, N} Consideramos las ganancias como positivas y las prdidas negativas.

http://www.terra.es/personal2/jpb00000/tvariablealeatoria.htm

Funcin de cuanta
De Wikipedia, la enciclopedia libre
Saltar a navegacin, bsqueda La funcin de cuanta se emplea con variables aleatorias de tipo discreto y nos informa de la probabilidad de que la variable aleatoria tome cada uno de los posibles valores de su campo de variacin. Se designa como: P(X = xi) = pi Siendo el campo de variacin de la variable aleatoria X el conjunto de puntos para los cuales P(X = xi) > 0. La suma de todas ests probabilidades debe ser igual a la unidad, es decir:

La Funcin de distribucin expresada en trminos de la funcin de cuanta es:

http://es.wikipedia.org/wiki/Funci%C3%B3n_de_cuant%C3%ADa

Vous aimerez peut-être aussi