Vous êtes sur la page 1sur 10

UNIVERSIDAD AUTONOMA DEL ESTADO DE MÉXICO

MATERIA:
SIMULACION DE SISTEMAS EXPERTOS

NOMBRE:
DANIELA AGUIRRE SALGADO
EMILIO IAN CAMACHO MEJIA

TEMA:
SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD

PROFESOR:
FAUSTO CASAS ANAYA

CICLO ESCOLAR 2018-2019


CAPÍTULO 3: Sistemas Expertos Basados en Probabilidad

3.1 INTRODUCCIÓN
Los sistemas expertos basados en reglas no tienen en cuenta ningún tipo de incertidumbre,
aunque en la mayor parte de las aplicaciones la incertidumbre es lo común y no la
excepción.
El conocimiento no es determinista, esto es que el conocimiento no contempla la existencia
de azar, o incertidumbre en el proceso de dicho modelo,un claro ejemplo es el porque las
relaciones entre las enfermedades y los síntomas en un caso clínico no son determinísticas,
puesto que un mismo conjunto de síntomas puede estar asociado a diferentes
enfermedades, por ello no es extraño encontrar dos paciente con los mismos síntomas pero
diferentes enfermedades.
En los primeros sistemas expertos, se eligió la probabilidad como medida para tratar la
incertidumbre, pero poco se encontraron algunos problemas por lo que fué considerada
como una medida de incertidumbre poco práctica, poco después surgieron medidas
alternativas a la probabilidad, como los factores de certeza, las credibilidades, las
plausibilidades, las necesidades o las posibilidades, para tratar la incertidumbre.

3.2 ALGUNOS CONCEPTOS BÁSICOS DE LA TEORÍA DE LA PROBABILIDAD

-MEDIDA DE PROBABILIDAD
Dado “S” en el que se incluyen todos los posibles resultados de un cierto experimento, al
que se le da el nombre de espacio muestral. Una vez definido esto, se asigna a todo
subconjunto de S un número real que mida el grado de incertidumbre sobre su realización,
también se imponen ciertas condiciones o propiedades intuitivas que definen una clase de
medidas que se conocen como medidas de probabilidad.
DEFINICIÓN
Una función p que proyecta los subconjuntos A ⊆ S en el intervalo [0,1] se llama medida de
probabilidad si satisface lo siguiente:
● Axioma 1 (Normalización): p(S) = 1
● Axioma 2 (Aditividad) : Para cualquier sucesión infinita, A 1, A2, de subconjuntos
disjuntos de S, se cumple la igualdad

El Axioma 1 establece que, independientemente de nuestro grado de certeza, ocurrirá un


elemento del conjunto universal S.
En el Axioma 2 se presenta una fórmula de agregación que se usa para calcular la
probabilidad de la unión de subconjuntos disjuntos, nos dice que la incertidumbre de un
cierto subconjunto es la suma de las incertidumbres de sus partes.
De lo anterior se pueden deducir algunas propiedades, por ejemplo:
● Propiedad 1 (Normalización): p(∮) = 0
● Propiedad 2 (Monotonicidad): Si A ⊆ B ⊆ S, entonces p(A) ≤ p(B) .
● Propiedad 3 (Continuidad-Consistencia): Para toda sucesión creciente A 1 ⊆ A2 ⊆ o
decreciente A1 ⊇ A2 ⊇ de subconjuntos de S se tiene:
● Propiedad 4 (Inclusión-Exclusión): Dado cualquier par de subconjuntos A y B de S,
se cumple siempre la siguiente igualdad:

La propiedad 1 establece que la evidencia asociada a una ausencia completa de información


es 0, la propiedad 2 muestra la evidencia de que un elemento pertenezca a un conjunto dado
A no debe decrecer con la adición de elementos a A, la propiedad 3 nos dice que si se eligen
dos sucesiones de conjuntos que convergen al mismo subconjunto de S, se debe obtener la
misma evidencia o incertidumbre, y finalmente la propiedad 4 establece que las
probabilidades de los conjuntos A,B, A ⋂ B, y A ⋃ B no son independientes, sino que están
relacionadas.

DISTRIBUCIONES DE PROBABILIDAD
Sea X1,..........,Xn un conjunto de variables aleatorias discretas y x 1,......xn el conjunto de sus
posibles realizaciones
Variables Aleatorias: se denotan en mayúsculas
Realizaciones: se denotan con minúsculas.
Por ejemplo si Xi es una variable binaria, entonces xi puede ser 1 ó 0.

PROBABILIDAD CONDICIONAL
Sean X e Y dos conjuntos disjuntos de variables tales que p(y) > 0. Entonces, la
probabilidad condicional de X dado Y = y viene dada por
p(x,y) = p(y)p(x|y).
Sean A y B dos sucesos de un mismo espacio muestral E.
Se llama probabilidad del suceso B condicionado a A y se representa por P(B/A) a la
probabilidad del suceso B una vez ha ocurrido el A.

DEPENDENCIA E INDEPENDENCIA
Independencia de dos variables
Sean X e Y dos subconjuntos disjuntos del conjunto de variables aleatorias X 1,........Xn
Entonces se dice que X es independiente de Y si y solamente si
p(x|y) = p(x)
Para todos los valores posibles x e y de X e Y; en otro caso, X se dice dependiente de Y
.
La ecuación anterior significa que si X es independiente de Y, entonces nuestro
conocimiento de Y no afecta nuestro conocimiento sobre X, es decir, Y no tiene información
sobre X. También, si X es independiente de Y, pueden combinarse (3.6) y (3.8) para
obtener p(x, y)/p(y) = p(x), que implica

p(x,y)=p(x)p(y)
Independencia de un conjunto de variables
X1,........Xm se dicen independientes si y sólo si su función de probabilidad conjunta es igual
al producto de sus funciones de probabilidad marginal

Dependencia e independencia condicional


Sean X, Y y Z tres conjuntos disjuntos de variables, entonces X se dice condicional
independiente de Y dado Z si y sólo si
p(x\z,y)=p(x\z),
para todos los valores posibles de x, y y z de X, Y y Z; En otro caso X e Y se dicen
condicionalmente dependientes dado Z.

Cuando X e Y son condicionalmente independientes dado Z, se escribe I(X,Y\Z). La relación


I(X,Y | Z) Se denomina relación de independencia condicional
I(X,Y |Z)p o D(X,Y|Z)p para indicar que la relación se deriva, o es implicada.
Si Z ya es conocida, el conocimiento de Y no añade información alguna sobre X.
I(X,Y | ∅ ) para indicar que X e Y son incondicionalmente independientes, donde ∅ es el
conjunto vacío.

TEOREMA DE BAYES

El teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado


B con la probabilidad de B dado A.
Fórmula:

Ejemplo:
El parte meteorológico ha anunciado tres posibilidades para el fin de semana:
a) Que llueva: probabilidad del 50%.
b) Que nieve: probabilidad del 30%
c) Que haya niebla: probabilidad del 20%.

Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es


la siguiente:
a) Si llueve: probabilidad de accidente del 20%.
b) Si nieva: probabilidad de accidente del 10%
c) Si hay niebla: probabilidad de accidente del 5%.

Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no


sabemos qué tiempo hizo (llovió, nevó o hubo niebla). El teorema de Bayes nos permite
calcular estas probabilidades:
Las probabilidades que manejamos antes de conocer qué ha ocurrido un accidente se
denominan "probabilidades a priori" (lluvia con el 50%, nieve con el 30% y niebla con el
20%).
Una vez que incorporamos la información de que ha ocurrido un accidente, las
probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se
denominan "probabilidades a posteriori".

a) Probabilidad de que estuviera lloviendo:

La probabilidad de que efectivamente estuviera lloviendo el día del accidente (probabilidad a


posteriori) es del 71,4%.

b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%.

c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1%

TIPOS DE ERRORES
En situaciones de incertidumbre pueden cometerse dos tipos de errores: Commented [1]: http://nutriserver.com/Cursos/Bioesta
● Una decisión positiva falsa, también conocida como error de tipo I y distica/Teorema_Bayes.html
● Una decisión negativa falsa, también conocida como error de tipo II
En un caso de diagnóstico médico, los posibles errores son:
● Error de Tipo I: Un paciente no tiene la enfermedad pero el doctor concluye que la
tiene
● Error de tipo II: Un paciente tiene la enfermedad pero el doctor concluye que no la
tiene.

3.3 REGLAS GENERALIZADAS

Una forma de introducir la incertidumbre en los sistemas basados en reglas consiste en


utilizar reglas generalizadas.

● Regla 1: Si A es cierta, entonces B es cierta, se puede introducir incertidumbre


asociando una probabilidad a esta afirmación.
● Regla 2: Si A es cierta, entonces la probabilidad de que B sea cierta es p(b) = θ, donde
0 ≤ θ ≤ 1 es una medida de la incertidumbre de B.

El valor de θ determina el nivel de implicación:

● Implicación fuerte (θ = 1): En la lógica clásica, la que se ha utilizado hasta aquí en


los sistemas expertos basados en reglas (Modus Ponens y Modus Tollens), si la
premisa de una regla es cierta, su conclusión debe ser también cierta. Por ello, dada
la regla:
Si A es cierta, entonces B es cierta. Figura(a)

● Implicación débil (0 <θ< 1): La regla anterior puede ser vista en un sentido
generalizado cuando A implica B sólo en algunas ocasiones. En este caso, se dice
que A implica B con probabilidad p(B =cierto|A = cierto). Figura (b)

● No implicación (θ = 0): El caso en que A no implica B puede considerarse como que


A implica B con probabilidad 0. Figura(c)

A los sistemas expertos que utilizan las funciones de probabilidad conjunta de las variables
como base para hacer la inferencia, se les conoce como sistemas expertos de tipo
probabilístico.

3.4 INTRODUCIENDO LOS SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD

En los sistemas expertos probabilísticos las relaciones entre las variables se describen
mediante su función de probabilidad conjunta.

Ejemplo Diagnóstico Médico: Supóngase que se dispone de una base de datos con
información sobre N pacientes y que un paciente puede tener una y sólo una de m
enfermedades, e1 ,...,em, tal como muestra la Figura 3.3 para m = 5 enfermedades.
Supóngase también que un paciente puede tener ninguno, uno, o más de n síntomas
S1,...,Sn , como indica la Figura 3.4 para n = 3 síntomas. Por simplicidad, supóngase que la
variable aleatoria enfermedad, E, toma como valores las enfermedades e1 ,...,em.
Supóngase también que los síntomas son variables binarias, de forma que cada una toma
el valor 1, si está presente, o el valor 0, si está ausente.
Nótese que cualquier variable aleatoria en el conjunto {E,S1 ,...,Sn } define una partición del
conjunto universal de pacientes en una clase disjunta y exhaustiva de conjuntos. Entonces,
combinando las enfermedades y los síntomas, cada paciente puede clasificarse en una y
sólo una región tal como se muestra en la Figura 3.5, que proviene de superponer las
Figuras 3.3 y 3.4. Por ejemplo, el círculo negro de la Figura 3.5 representa un paciente
que tiene la enfermedad e4 y los tres síntomas: S1 , S2 y S3.

FIgura 3.3
Una representación gráfica de una población de pacientes clasificados por cinco enfermedades mutuamente
exclusivas e1 − e5

Figura 3.4
Una representación gráfica de una población de pacientes clasificados por tres síntomas S1 − S3.

FIgura 3.5
Una representación gráfica de una población de pacientes clasificados por cinco enfermedades mutuamente
exclusivas e1 − e5 y tres síntomas S1 − S3 .

Las probabilidades asociadas a la enfermedad E pueden ser estimadas mediante:


p(E = e) ≈ card(E = e)/N,
donde N es el número total de pacientes de la base de datos y card(E = e) es el número de
pacientes con E = e.

Por ejemplo

• Enfermedad e1 presente: p(E = e1 ) ≈ card(E = e1 ) /N,


• Enfermedad e1 ausente: p(E ≠ e1 ) ≈ card(E ≠ e1 ) /N.

Los sistemas expertos probabilísticos pueden utilizarse para resolver estos y otros
problemas. Por ejemplo:
1. Los sistemas expertos pueden memorizar información. Uno puede almacenar y recuperar
información de la base de datos.

2. Los sistemas expertos pueden contar o calcular las frecuencias absolutas y relativas de
cualquier subconjunto de variables a partir de la base de datos. Estas frecuencias pueden
utilizarse para calcular las probabilidades condicionales p(ei | s1 ,...,sk ) aplicando la bien
conocida fórmula para la probabilidad condicional.
𝑝(𝑒𝑖 , 𝑠1 , . . . , 𝑠𝑘 )
𝑝 (𝑒𝑖 | 𝑠1 , . . . , 𝑠𝑘 ) =
𝑝 (𝑠1 , . . . , 𝑠𝑘

Figura 3.9
Un ejemplo de una base de datos con N pacientes y sus correspondientes enfermedades y síntomas

Figura 3.10
Un ejemplo de una base de datos con 10 pacientes para el problema del diagnóstico médico del Ejemplo 3.5.
Esta probabilidad puede ser estimada mediante

𝑐𝑎𝑟𝑑(𝑒𝑖 , 𝑠1 , . . . , 𝑠𝑘 )
𝑐𝑎𝑟𝑑(𝑠1 , . . . , 𝑠𝑘 )
donde card(ei , s1 ,...,sk ) es la frecuencia de aparición en la base de datos de los pacientes
que tienen los valores indicados de las variables.
Por ejemplo, dada la base de datos con diez pacientes de la Tabla 3.10, se pueden calcular
las frecuencias asociadas a cualquier combinación de valores de síntomas y enfermedades
sin más que contar el número de casos de la base de datos que coinciden con la evidencia.
Por ejemplo, card(E = e1 | S1 = 1, S2 = 1) = 2 puesto que hay dos pacientes (los pacientes
1 y 3) que no presentan la enfermedad e1 pero muestran los síntomas S1 y S2.
Similarmente, card(E = e1 | S1 = 1, S2 = 1) = 3, card(S1 = 1, S2 = 1) = 5, etc. Entonces,
esta puede calcularse usando las probabilidades condicionales asociadas a una
enfermedad dada y un conjunto de síntomas. Por ejemplo:

𝑐𝑎𝑟𝑑(𝐸 ≠ 𝑒1 | 𝑆1 = 1, 𝑆2 = 1) 2
𝑝(𝐸 ≠ 𝑒1 | 𝑆1 = 1, 𝑆2 = 1) ≈ = = 0.4
𝑐𝑎𝑟𝑑(𝑆1 = 1, 𝑆2 = 1) 5

𝑐𝑎𝑟𝑑(𝐸 = 𝑒1 | 𝑆1 = 1, 𝑆2 = 1) 3
𝑝(𝐸 = 𝑒1 | 𝑆1 = 1, 𝑆2 = 1) ≈ = = 0.6
𝑐𝑎𝑟𝑑(𝑆1 = 1, 𝑆2 = 1) 5

3. Los sistemas expertos pueden aprender de la experiencia. Tan pronto como un nuevo
paciente es examinado y diagnosticado, se añade la nueva información a la base de datos y
se cambian las frecuencias como corresponda.
Por ejemplo, si un nuevo paciente que presenta los síntomas S1 = 1, S2 =1 y S3 = 0 se
sabe que tiene la enfermedad e1, se puede actualizar la base de datos con esta nueva
información sin más que incluir un caso más en la base de datos de la Tabla 3.10.

4. Los sistemas expertos pueden tomar (o ayudar a los expertos humanos a tomar)
decisiones tales como:
• ¿Se tiene suficiente información como para diagnosticar la enfermedad?
• ¿Se necesitan nuevas pruebas clínicas? y si la respuesta es positiva, ¿Qué prueba
o pruebas suministran la máxima información sobre la enfermedad que se sospecha
tiene el paciente?
DISPOSITIVAS

Vous aimerez peut-être aussi