Vous êtes sur la page 1sur 50

Roberto Lins de Carvalho

e
Grupo Witty
–2–
–3–

Sumário

Sobre o conhecimento ................................................................................................................................ 1

1. Geometria do Conhecimento ................................................................................................................ 6


1.1 – Introdução............................................................................................................................................ 7
1.2 – Sistemas de Avaliação........................................................................................................................ 11
1.3 – Sistemas Semânticos ........................................................................................................................... 13
1.3.1 – Modelos ................................................................................................................................. 13
1.3.2 – Linguagem ............................................................................................................................ 15
1.3.3 – Evolução dos sistemas semânticos .................................................................................... 15
1.3.4 – Simplificação das linguagens ............................................................................................. 16
1.3.5 – Relações e funções entre os planos Conceitual e Simbólico ........................................... 16
1.4 – Conceitos relativos à aquisição de conhecimento .......................................................................... 19
1.4.1 - Etapas do processo de aquisição de conhecimento .......................................................... 19
1.5 - O conhecimento como objeto de estudo ........................................................................................... 21
1.6 – Princípios fundamentais do processo de aquisição de conhecimento......................................... 22

2. Sistemas Baseados em Conhecimento .............................................................................................. 27


2.1 – Caracterização dos sistemas baseados em conhecimento ............................................................. 28
2.2 – Elementos básicos dos sistemas baseado em conhecimentos ....................................................... 31
2.3 – Comparação com outros Sistemas.................................................................................................... 38
2.4 – O estado da arte ................................................................................................................................. 40
2.4.1 – A área médica...................................................................................................................... 41
2.4.2 – Experiências brasileiras ...................................................................................................... 44

3. Um passeio pela potencialidade do Idealize ..................................................................................... 47


3.1 – O que o Idealize faz por você ............................................................................................................ 47
Exemplo 3.1 – Reunir conhecimento esparso ............................................................................... 49
Exemplo 3.2 – Estruturar raciocício............................................................................................... 51
Exemplo 3.3 – Confiabilidade da informação ............................................................................. 52
Exemplo 3. 4 – Cenários paralelos ................................................................................................. 55
3.2 – Como examinar um cenário .............................................................................................................. 57
Exemplo 3.5 – Cenário complexo com várias páginas ................................................................ 59
Exemplo 3.6 – Um sistema baseado em conhecimento............................................................... 61
3.3 – O navegador e registro de pesquisa na Web ................................................................................... 63
3.4 – Dependências factual e circunstancial ............................................................................................. 66
3.5 – Instalação padrão................................................................................................................................ 67

4. Criando um cenário no Idealize ........................................................................................................... 69


4.1 – Objetos, os tijolinhos da construção ................................................................................................. 69
4.2 – O que fazer quando não se sabe o que fazer ................................................................................... 71
4.3 – A criação de um cenário complexo................................................................................................... 73
4.4 – Coloque fator de confiança no cenário............................................................................................. 75
4.5 – Com Shazam você pode tudo............................................................................................................ 76
4.6 – Aquisição automática do conhecimento ......................................................................................... 78
4.7 – Aprenda a registrar suas pesquisas na Web ................................................................................... 83
4.8 – As propriedades no botão direito do mouse................................................................................... 85

5. Outros recursos do Idealize .................................................................................................................. 87


5.1 – Enfeitando as páginas ........................................................................................................................ 87
5.2 – Adaptando o programa a sua forma de trabalhar.......................................................................... 92
–4–

Sobre o conhecimento

Durante a história da humanidade, ela tem mostrado sucessivos avanços, recuos e mudanças de
paradigma, resultantes do impacto de diversas causas, como guerras e catástrofes naturais. Porém, não
menos importante, o desenvolvimento de tecnologias que, para o bem ou para o mal, moldaram o meio
ambiente para tornar a vida mais confortável. Mesmo antes da invenção da escrita, a experiência dos mais
velhos era transmitida pela tradição oral, com o que se dominou o fogo, se construíram ferramentas, se
inventou a roda e se implantou a agricultura, provocando profundas modificações no modo de vida. Se
antes viviam nômades, perseguindo caça e coletando frutas e raízes, os homens passaram a ter vida mais
sedentária, mantendo maior controle sobre as fontes de alimentação.
Os papiros egípcios e as placas da Mesopotâmia tornaram o saber mais perene, relatando informações
entre pessoas que às vezes nem se conheciam, ainda que soluções de problemas quotidianos viessem
entremeados de evocação aos deuses, feitos reais exagerados ou profunda superstição. No entanto, isto não
impediu que se construíssem magníficos templos e palácios, pontes, túneis, diques, estradas e cidades. No
séc. IV a.C., Aristósteles coligiu e organizou boa parte do conhecimento da época. Ainda então era possível
esta tarefa ser encetada por um único indivíduo – mesmo que excepcional. Outras pessoas de gênio na
Antigüidade produziram manuais que atravessaram os séculos e foram utilizados até o Renascimento. Para
ficar em apenas um gênero, podemos citar os trabalhos médicos de Galeno e Avicena.
A biblioteca de Alexandria conseguiu reunir a imensa quantidade de 700 mil documentos. Em sua
história, sofreu diversos incêndios e perdas, sendo o último no séc. VII fatal, não sem antes que parte dos
manuscritos fossem transferidos e mantidos a salvo dispersos em vários mosteiros.
No século XII, Isidoro de Sevilha possuia a maior biblioteca da época. Conseguiu reunir – novamente
num esforço individual – conhecimentos salvos de uma estrutura política que ruíra sob o peso das invasões
germânicas, preservando-os para a nova era de estados soberanos europeus que se delineava. Por isto, é
considerado o primeiro enciclopedista e, pela mesma razão, o padroeiro da Internet.
O Renascimento nos apresentou artistas multivalentes, que faziam de tudo um pouco. Dominavam
técnicas diversas com maestria, executando arrojadas criações. A síntese da época geralmente é apontada na
figura de Leonardo da Vinci – escritor, pintor, inventor, conselheiro militar – que nos legou anotações de
idéias inovadoras, muito adiante de sua época e que não teve condições de concretizar.
A invenção da imprensa com tipos móveis por Guttemberg no século XV multiplicou a quantidade de
livros existentes, antes penosamente copiados à mão. Com isto, a difusão de novas idéias e conhecimento
passou a ser feita de maneira mais rápida e abrangente. A palavra escrita fugia ao controle do erudito e
encontrava lugar no quotidiano das pessoas comuns.
Durante o Iluminismo no século XVIII, houve outro esforço de reunião de todo saber existente, mas
que então precisou do trabalho agregado de muitas pessoas, chamadas enciclopedistas. Agora a experiência
acumulada não cabia apenas em um único indivíduo. Fracionaram-nas em especializações, processo que só
se aprofundou no futuro.
Se houve época quando o conhecimento era escasso, hoje vivenciamos o processo inverso. A Internet
é um incrível repositório de dados, gigantescamente maior que possam ter sonhado antigos bibliotecários. À
distância de um clique do mouse estão disponíveis milhões de informações trazidas por mecanismos de
busca com eficentes algoritmos para a procura. Todas interessam? Certamente que não. Nem todas são
confiáveis, tampouco. Ficamos assim submersos em uma avalanche de dados muito maior que poderíamos
interpretar em um tempo razoável.
É para este quadro que propomos uma ferramenta que permita tornar esta tarefa exeqüível. O
Idealize possibilita a pesquisa, o registro e a organização de informações; a aquisição automática de
conhecimento, assim como o interrelacionamento de dados existentes ou mesmo a dedução de novas
informações a partir das armazenadas. Com os conceitos de peso e confiabilidade, qualifica as informações
numa escala de credibilidade – que pode partir de simples rumor, passando por diversos níveis de certeza,
até chegar a fato consumado.
Sem dúvida uma ferramenta útil. Assim, este texto é sobre conhecimento, enfocado numa maneira
prática e fácil de organizá-lo de forma que se possa emitir pareceres ou responder questões sobre qualquer
área de saber. Baseia-se em teoria sobre o conhecimento, a epistemologia, embora não a discutamos com
detalhes, apenas os conceitos sobre percepção necessários para perfeito entendimento dos recursos
disponibilizados pelo produto.
Com este objetivo, a obra está dividida em vários capítulos relacionados mas que podem ser
abordadas independentemente, conforme o interesse do leitor. O primeiro, Geometria do conhecimento, fornece
–5–

o embasamento teórico sobre a percepção e o conhecimento; no segundo, Sistemas Baseados em Conhecimento,


discutiremos formas para sua representação e sistemas computacionais que utilizam algum conhecimento
específico de maneira a responder perguntas especializadas.
Nos capítulos seguintes, formaremos as bases para a utilização do Idealize. Não
pretendemos esgotar todos os recursos de forma exaustiva, senão apresentar o essencial de forma
consistente, de maneira que o usuário possa seguir suas etapas e construir ele próprio seus
cenários.
No capítulo 3, Um passeio pela potencialidade do Idealize, mostraremos o expediente do
produto, algumas das coisas mais relevantes que ele pode efetuar. Neste ponto, não nos
preocuparemos com o como mas com o quê. Examinaremos cenários já montados e veremos como
são apresentadas as informações, assim como navegar por estes cenários, que podem se estender
por diversas páginas. Para isso, precisaremos detalhar o conteúdo destes cenários, que envolvem
temas diversos como Atualidades, Filosofia, História e Ciências, entre outros. Na seção 3.5 falamos
sobre a instalação do produto.
No capítulo 4, Montando cenários, examinaremos como estes podem ser construídos.
Iniciaremos pelo objeto, em 4.1, o elemento básico desta construção. Em 4.2 mostraremos a ajuda
online existente que pode socorrer em situações de indefinição. Em 4.3 montaremos um cenário
complexo, próximo dos da vida real. Em 4.4 usaremos fator de confiança para auxílio à conclusão.
Em 4.5 discutiremos o poderoso recurso da Ação. Em 4.6 será a a vez da aquisição automática do
conhecimento, a ferramenta mais poderosa do produto. Em 4.7 exibiremos como registrar uma
pesquisa da Web, recurso extremamente útil que deverá ser bastante utilizado. Fechamos o
capítulo com propriedades do objeto que podem ser acessadas com o botão de contexto (direito)
do mouse.
O capítulo 5, Outros recursos do Idealize, apresenta características existentes porém não
essenciais. Na seção 5.1, mostraremos um conjunto de recursos gráficos que podem melhorar a
apresentação do cenário e na 5.2 descreveremos o menu Ferramentas, que estabelece a forma
padrão do funcionamento do Idealize.
Todos os exemplos citados encontram-se em pastas do CD-Rom com a mesma denominação
do capítulo onde aparecem.
–6–

1. Geometria do Conhecimento

“O mundo é a minha representação. – Esta proposição é uma verdade para todo ser vivo e pensante, embora só no
homem chegue a transformar-se em conhecimento abstrato e refletido.1 (...) O mundo é, portanto, representação.”
Arthur Schopenhauer (1788-1860)

Consideraremos, neste capítulo, dois tipos básicos de conhecimento:


1. Conhecimento científico
2. Conhecimento factual ordinário ou anedótico
O Conhecimento Científico é o produto da pesquisa científica, e esta pesquisa tem metodologias bem
estabelecidas, embora nem sempre explicitadas. O conhecimento factual é o produto, principalmente da
observação da realidade via percepção e processos de aculturação. Este último tipo de conhecimento, em
geral, não é gerado baseado em metodologias estabelecidas, e se existir um método ele é inato ou apreendido
de forma eventual ou por imitação. A aquisição de conhecimento científico começa com a realização de que a
reserva de conhecimento disponível é insuficiente para tratar ou resolver certos problemas.
Não se pode começar com “tabula rasa”, pois nenhuma questão pode ser perguntada, quanto menos
respondida, fora de um corpo mínimo de conhecimento. Como diz Bunge [Bung67]: “Only those who see can
see what is missing” (Somente os que enxergam podem ver o que falta).
“Uma parte do conhecimento, que é utilizado como fundo (background), onde começa a pesquisa é
ordinária, isto é, conhecimento não especializado, outra parte dele é científico, isto é foi obtido pelo método
da ciência e pode ser testado, enriquecido e eventualmente substituído pelo mesmo método.”

Figura 1.1 – Esquema de aquisição de conhecimento

Neste capítulo não prolongaremos a discussão do conhecimento científico, pois acreditamos que existe
uma literatura bastante satisfatória sobre o assunto. O leitor pode consultar, por exemplo, Bunge [Bung67].
No entanto, achamos que o desenvolvimento de metodologias automatizadas para a aquisição de
conhecimento poderá ser utilizada na pesquisa científica.

1 “A partir do momento em que é capaz de o levar a este estado, pode dizer-se que nasceu nele o espírito filosófico. Possui então a
inteira certeza de não conhecer nem um sol nem uma terra, mas apenas olhos que vêem este sol, mãos que tocam esta terra; em uma
palavra, ele sabe que o mundo que o cerca existe apenas como representação, na sua relação com um ser que percebe, que é o próprio
homem.” Se existe uma verdade que se possa afirmar a priori é esta, pois ela exprime o modo de toda experiência possível e imaginável,
conceito muito mais geral que os de tempo, espaço e causalidade que o implicam. Com efeito, cada um destes conceitos, nos quais
reconhecemos formas diversas do princípio da razão, apenas é aplicável a uma ordem determinada de representações; a distinção entre
sujeito e objeto é, pelo contrário, o modo comum a todas, o único sob o qual se pode conceber uma representação qualquer, abstrata ou
intuitiva, racional ou empírica. Nenhuma verdade é, portanto, mais certa, mais absoluta, mais evidente do que esta: tudo o que existe,
existe para o pensamento, isto é, o universo inteiro apenas é objeto em relação a um sujeito, percepção apenas, em relação a um espírito
que percebe. Em uma palavra, é pura representação. Esta lei aplica-se naturalmente a todo o presente, a todo o passado e a todo o
futuro, aquilo que está longe, tal como aquilo que está perto de nós, visto que ela é verdadeira para o próprio tempo e o próprio espaço,
graças aos quais as representações particulares se distinguem umas das outras. Tudo o que o mundo encerra ou pode encerrar está
nesta dependência necessária perante o sujeito, e apenas existe para o sujeito.”
Em “O mundo como vontade e representação - Editora Contraponto - 2004
–7–

1.1 – Introdução

A observação da realidade, através dos órgãos dos sentidos, nos leva a adquirir um entendimento
das coisas que possibilita elaborar dados do mundo exterior. O conhecimento assim constituído, é resultante
de um processo de aculturação. Além de observações sensoriais, outros tipos de percepção e,
principalmente, os processos dedutivos da mente humana, contribuem para a formação de conceitos. O
conhecimento é, portanto, a apropriação mental das percepções sensitivas e extra-sensitivas, que podem ser
aprofundadas pelo exercício do pensamento. Todo este processo é suficientemente complicado e ainda
pouco compreendido. O entendimento das coisas é a capacidade de avaliar fatos percebidos a partir de um
sistema de critérios.
Douglas Hoffstadter introduziu o conceito de Implicosfera, como sendo uma certa nuvem de
impressões que se tem à respeito de um objeto, uma classe de objetos, uma relação entre objetos ou um
fenômeno. Esta nuvem torna-se mais densa e complexa à medida que vivenciamos um maior contato com
tais entidades. Na implicosfera de um conceito estão implícitas todas as suas ligações com outras
implicosferas.
A implicosfera contém o que sabemos a respeito de um objeto ou fenômeno. Podemos dizer que ela
é uma teoria do objeto (fenômeno), relacionando-se, também às implicosferas de outros objetos.

Figura 1.2 – Implicosfera


Assim o conceito correspondente à palavra pera, em Português, é para ser imaginado como uma
nuvem de impressões imprecisas, e não como algo idealizado. A implicosfera de pera está contida na
Implicosfera de fruta que por sua vez está contida na de fruto. À medida que sabemos mais à respeito de um
objeto verificamos novas conexões e podemos mesmo perceber um núcleo de fatos que precisam ou tornam
menos difusa a nossa implicosfera. Se considerarmos a sentença:
Todas as pêras são verdes
vemos que ela não é conseqüência imediata de nossa percepção de tais objetos, já a sentença
Todas as pêras são frutos de alguma árvore
é uma conseqüência das conexões existentes com as teorias ou implicosfera de fruta, fruto e árvore.
Podemos projetar as implicosferas em um plano que denominamos de plano conceitual e as teorias
correspondentes em um outro plano que denominamos plano simbólico. Existe um outro plano, que
denotaremos de plano real, onde projetamos os objetos, classes, relações ou estados.
Estes três planos são ligados pelo triângulo de significado proposto por Ogden e Richards em 1923,
como uma forma de representar as relações dos objetos com as respectivas concepções que deles fazemos e o
sinal ou símbolo que a ele associamos. Odgen e Richards sugerem que não existem ligações inerentes ou
indissolúveis entre símbolos e objetos. As ligações são consequência do que foi estabelecido entre o emissor e
o receptor no processo da comunicação. Tais planos representam apenas um determinado ponto no
desenvolvimento de uma teoria. O que percebemos no plano real diretamente com os nossos orgãos
sensoriais difere do que observaríamos com o uso de instrumentos. Na verdade, existe uma infinidade de
planos reais, aproximando-se do plano conceitual e com ele se confundindo, já que a percepção da realidade
–8–

é, em grande parte, uma conseqüência de todo um processo de aculturação, sendo portanto fortemente
induzida pelo conhecimento ou entendimento que possuímos no momento da observação. Para simplificar
podemos representar, no plano conceitual, os conceitos abstraídos a partir da implicosfera.

Figura 1.3 – Planos real, conceitual e simbólico


O plano conceitual funciona como um filtro para as percepções do real. Observadores diferentes
possuem filtros diferentes, e o acúmulo de observações modifica a atuação do filtro cultural para um mesmo
observador. As percepções subseqüentes são filtradas, não apenas pelo plano que precedia a primeira
observação, mas também pelo próprio conceito formado a respeito do fragmento do real percebido, ou seja,
conceitos parcialmente formados influenciam a visão que se tem do real. Esta influência é tanto maior
quanto maior for o envolvimento anterior com respeito ao pedaço de realidade observado.

Figura 1. 4 – Observador diferente


O filtro cultural é um sistema de avaliação das nossas percepções que possibilita a geração de
conceitos. Os conceitos, por sua vez, vão influenciar o processo de avaliacão, modificando o filtro cultural
através do qual percebemos a realidade. Tal sistema caracteriza-se por sua dinâmica e se ajusta por um
processo de realimentação, modificando o seu funcionamento, em busca de um melhor desempenho. Fatos
surpreendentes ou que geram perplexidade são exatamente aqueles que possibilitam mudanças sensíveis no
sistema de avaliação, podendo mesmo gerar desequilíbrios transitórios ou permanentes. A existência e o
funcionamento equilibrados deste sistema propiciam a continuidade do processo de aquisição de
conhecimento, gerando visões ou modelos do real.
–9–

Figura 1.5 – Mais de um observador


Estamos supondo que registramos apenas uma parte central dos conceitos, desprezando todo o
resto. Então a abstração é um encurtamento do que foi observado, restando a região do centro que é conceito
abstraído. No plano conceitual, nosso filtro cultural será enriquecido pelos novos conceitos abstraídos
através do proceso de observação.

Figura 1.6 – Os conceitos gerados por abstração.


O plano simbólico é aquele em que registramos estas percepções pelo uso de símbolos que passam a
exercer uma função importante tanto para comunicação, como para a organização do nosso entendimento. A
impossibilidade de comunicar as sensações apreendidas de modo direto, por exemplo o cheiro ou a cor de
um objeto, leva à criação de códigos ou sistemas de significado, que é o tema do próximo capítulo. Os
sistemas de significado também são uma resultante do aculturação social, cuja manifestação mais aparente é
o uso de linguagens de várias naturezas (falada, gesticulada, escrita, etc.). Linguagens surgem, parcialmente,
a partir de convenções sociais, que associam aos objetos determinados símbolos.
Os conceitos obtidos por abstração, como dissemos, modificam o filtro cultural e nas observações
subseqüentes do real, percebemos ou imaginamos perceber novos objetos ou fenômenos que não havíamos
observado anteriormente. Este é o processo de reificação das abstrações

Figura 1.7 – Reificação


A reificação modifica o conceito formado anteriormente, esta modificação é o que denominamos de
inferência por intuição.
– 10 –

Figura 1.8 – Conceitos intuídos


Os conceitos intuídos são, em geral mais ricos ou mais amplos que os abstraídos ou mesmo os
formados nos estágios precedentes de observação. As intuições, em geral devido à reificação, são fruto de
desejos ou pensamentos favoráveis sobre uma determinada situação (wishfull thinking).
Uma outra forma de aperfeiçoar os conceitos é pelo processo de formalização das abstrações no
plano simbólico, como vistos na Fig. 1.9 a seguir.

Figura 1.9 – Plano simbólico


Os axiomas obtidos por formalização podem agora ser interpretados modificando os conceitos
utilizados para a formalização, do mesmo modo que o processo de intuição obteremos novos conceitos,
enriquecendo assim nosso entendimento.

Figura 1.10 – Axiomas


De modo semelhante ao processo de intuição podemos representar os conceitos obtidos pela
interpretação obtendo uma representação mais ampla que a obtida por formalização. O conhecimento
– 11 –

simbólico que pode ser obtido é o que conhecemos como conseqüências lógicas.

Figura 1.11 – Conseqüência lógica


Os resultados obtidos em cada plano modificam-se a medida em que todo este processo se verifica.
A formação dos conceitos segue, de certa forma, o ciclo do conhecimento visto na figura a seguir.

Figura 1.12 – Ciclo do conhecimento


No processo de formalização e elaboração de uma teoria algo semelhante acontece. Dos conceitos ou
modelos para as teorias, através de formalização e conseqüente elaboração ou interpretação, surgem novos
modelos que não haviam sido observados no plano real. A experimentação de interpretações novas, em
última análise servirá como justificativa ou refutação das teorias, em algum estágio deste processo.
Esta visão pode parecer bastante Popperiana, mas como observamos anteriormente, os paradigmas
correntes influenciam e muitas vezes determinam os resultados obtidos em qualquer dos planos, mesmo o
real, pois nossa participação como seres sociais modifica o real de várias maneiras.
O conhecimento obtido por formalização, a partir dos conceitos formados sobre fenômenos que
ocorrem no real, é quase sempre incompleto. Isto significa que as teorias formalizadas são sempre
deficientes. Para que entendamos melhor o conceito de incompleto, vamos inicialmente apresentar a noção
de sistemas semânticos.

1.2 – Sistemas de Avaliação

Através do processo contínuo de percepção e avaliação, forma-se o conhecimento sobre um


determinado mundo, que idealmente é o conjunto de todas as configurações admissíveis no mundo em
questão. A cada uma dessas configurações denominamos modelo. Estes modelos podem ser de natureza
nebulosa e fragmentária, ou seja, nem sempre são entendidos em todos os seus detalhes. Em se tratando de
modelos
O nosso conhecimento é apenas a forma como percebemos a realidade, e portanto, nunca deve ser
confundido com a realidade, que é regida por leis próprias obviamente desconhecidas. Já o nosso
conhecimento é apenas uma maneira de explicar os fenômenos que sensibilizam os órgãos sensoriais.
– 12 –

A esta coleção de modelos costumamos chamar sistema de crenças de um indivíduo com respeito a um
determinado mundo. Neste texto, seguindo a terminologia vigente, também nos referiremos a esta coleção
como o mundo possível. A família M de modelos, sendo de natureza conceitual, fica situada no vértice C do
triângulo.
Em relação a um determinado estado de coisas, podemos perceber ou até mesmo conceber diferentes
configurações. Cada uma delas possui uma valoração com respeito ao mundo possível, de acordo com um
conjunto de valores e um processo de avaliação. A avaliação, por sua vez, é o julgamento atribuído a alguma
configuração (percebida, comunicada ou concebida) relativa ao nosso mundo possível M. Podemos imaginar
que uma nova configuração é comparada a cada uma das configurações que já adquiriram o status de
modelo ou configuração do mundo possível.
O conjunto de valores abstratos que usamos para medir varia de acordo com a natureza do
conhecimento relacionado ao estado de coisas em julgamento. Assim, podemos ter um conjunto bem
determinado de valores, tais como:
{ justo, injusto }
{ deficiente, insuficiente, regular, bom, ótimo, excelente }
e o mais usual:
{ verdadeiro, falso }
\

Certos mundos, entretanto, admitem conjuntos nebulosos ou mesmo conjuntos indeterminados de


valores. Pode-se observar ainda que, mesmo para conjuntos bem determinados, como os acima citados,
temos também a questão sobre o significado de cada elemento. Neste sentido, tanto o grau de
indeterminação destes elementos quanto a sua complexidade estão diretamente relacionados ao grau de
compreensão que se tem da realidade. Tais valores, por serem de natureza conceitual, situam-se no vértice C
do triângulo do significado.
Estabelecido um conjunto de valores, pode-se pensar na definição dos critérios de julgamento, ou seja,
de que forma devemos proceder para associar uma dada configuração a um valor. Esta, como pretendemos
evidenciar, é uma tarefa de natureza bem mais complexa.
Julgar, como se sabe, é uma tarefa tão mais imprecisa quanto menor é o grau de entendimento do
problema. Por exemplo, nas competições de atletismo, a escolha do melhor atleta é feita por medições
precisas, ao passo que no futebol ou no basquete a mesma escolha requer alto grau de subjetividade.

Figura 1.13 – Conceito aprendido

O processo de avaliação situa-se no vértice C. Muito embora, mais freqüentemente, tal processo seja
um objeto de natureza abstrata, equivalente a uma função, pode também ter uma representação simbólica
que, em vez de uma conotação descritiva intensional ou extensional, tenha uma conotação operacional ou
algorítmica.
Pessoas experientes em julgar ocorrências de um mesmo tipo de atividade, ou um certo tipo de
fenômeno, possuem um conjunto de modelos melhor delineados, com limites e fronteiras mais precisas. Tais
pessoas, que chamaremos de especialistas, processam suas avaliações de modo quase imediato, pois sentem
que o resultado de suas percepções do real se encaixam ou não com configurações que já lhe são familiares,
percebidas e apreendidas anteriormente.
– 13 –

A questão, que talvez surja na mente do leitor, é como mecanizar os sistemas de avaliação,
principalmente nos casos em que o processo ou função de avaliação é pouco compreendido. Responder a
esta questão, ainda que de forma aproximada, é o objetivo deste capítulo.

1.3 – Sistemas Semânticos

Utilizaremos a palavra linguagem como referência à parte simbólica dos sistemas de significado.
Embora de natureza simbólica, uma linguagem pode ser algo nebuloso, sem fronteiras muito claras, porém
coerente para o grupo social que dela faz uso. As comunicações, muitas vezes de natureza ambígua, quando
interpretadas geram configurações, do mesmo modo que as percepções diretas da realidade. As linguagens
situam-se no vértice S do triângulo e formam um todo estruturado composto de:
 átomos – sinais sonoros ou gráficos identificáveis individualmente (fonemas ou letras);
 palavras – certas seqüências temporais ou espaciais de átomos;
 sentenças – seqüências temporais ou espaciais de palavras.
Se considerarmos a sentença:
Maria passeia na praia
Interpretamos, se conhecemos a língua portuguesa:
 Maria como sendo uma mulher e, caso seja alguém conhecida, formamos uma imagem, que será
tanto mais precisa quanto maior for o nosso conhecimento;
 Passeia como sendo uma atividade de locomoção;
 Praia como sendo uma região à beira-mar.

Figura 1.14 – Significado da sentença


O processo de interpretação funciona do mesmo modo que a percepção direta da realidade; no
entanto, as configurações geradas são apenas reconhecidas como pentencentes aos modelos que adquirimos
anteriormente através do processo de aculturamento.
Convém observar que quando usamos a palavra função para o processo de avaliação estamos fazendo
uma simplificação: estamos supondo que a interpretação de uma sentença gera apenas uma configuração e
que o processo subjacente de avaliação nos fornece, de modo inequívoco, um valor abstrato. Na realidade,
faremos um estudo das exigências relacionadas não apenas aos sistemas de avaliação, mas aos sistemas
semânticos.

1.3.1 – Modelos
Para fixar o nosso entendimento do que discutimos acima, vamos considerar o problema de pintar
objetos com cores, e discutir as componentes linguagem, modelos, valores abstratos e função de avaliação do
sistema semântico correspondente.
Muito embora os modelos sejam de natureza conceitual, para comunicá-los ou mesmo estudá-los é
comum utilizar algum tipo de linguagem (na realidade uma metalinguagem, pois a apresentação da família
de modelos de um sistema semântico se passa fora do sistema). Por exemplo, apresentamos modelos, com o
objetivo de esclarecer o conceito de sistema semântico, e usaremos a língua portuguesa enriquecida com a
linguagem matemática e desenhos. Particularizando o problema de colorir objetos para o caso de três objetos
– 14 –

e duas cores podemos imaginar a representação dos modelos por meio de figuras coloridas.

Figura 1.15 – Figuras coloridas


Tal representação poderia ser mais compacta, utilizando uma linguagem de grafos “bipartites”:

Figura 1.16 – Representação usando grafos


Vejam que, neste tipo de representação, a relação entre cada objeto e uma cor fica individualizada, e
assim a descrição dos modelos é mais refinada do que um desenho ou pintura, existindo uma diferenciação
entre objetos e cores. Na figura os desenhos separados por linhas pontilhadas representam, não coleções de
objetos coloridos, mas sim grafos bipartites ou seja coleções de relacionamentos entre objetos e cores.

Figura 1.17 – Relacionamento colorido-com

Estes relacionamentos são fatos atômicos, e cada modelo é uma coleção de fatos atômicos. Isto, nos sugere
uma representação por letras com índices pij , interpretados como: o objeto i está colorido pela cor j. Assim p12
significa que o objeto 1 está colorido pela cor 2.

Figura 1.18 – Representação com letras indexadas


Os modelos são conjuntos de letras indexadas, que descrevem os mundos possíveis. É interessante,
neste ponto, que o leitor verifique que esta maneira de representação é isomorfa à dos grafos bipartites, com
a vantagem de ser mais compacta. Podemos ainda descrever os mundos possíveis usando a linguagem
matricial de tal modo que o elemento aij , ou seja o elemento da linha i e coluna j será 1 ou 0 dependendo do
fato de que o objeto i é ou não colorido pela cor j, os possíveis modelos são:

Observe que a representaçã o matricial de modelos, diferentemente dos grafos bipartites e das letras
p{ij}, é inadequada para a representação de fatos atômicos, pois descreve indivisivelmente um mundo
possível.
Sempre é possível estabelecer vínculos entre as diferentes formas de representação, por exemplo:
– 15 –

Ou mesmo entre representações de fatos atômicos:

Estas correspondências possibilitam as avaliações dos modelos M com respeito à linguagem L de um


sistema semântico. Em geral, os modelos podem ser infinitos. Neste caso, por exemplo, podemos admitir um
espectro contínuo de cores, para o qual nenhum dos métodos de representação apresentado seria adequado
se pretendêssemos representar a totalidade de situações possíveis.

1.3.2 – Linguagem
No item anterior, fizemos uso de linguagens para descrever modelos, fora do sistema semântico que
pretendemos apresentar, porém dentro de um sistema semântico tacitamente admitido, mas não explicitado.
Assim, as linguagens utilizadas, embora não precisamente definidas, foram suficientemente poderosas para
transmitir ao leitor um entendimento dos modelos.
Podemos construir, ou definir um sistema semântico que tem como linguagem exatamente uma das
usadas para definir os modelos, e tomar uma outra para representação dos modelos pois, mesmo num
sistema semântico, o uso de uma meta-linguagem de representação dos modelos é importante para a
definição, ou explicação da função de avaliação. Assim se tomarmos como linguagem L a linguagem
matricial e como modelos os conjuntos de letras p ij, teríamos que a sentença

estaria descrevendo o modelo (representado pela linguagem p ij)

No entanto a linguagem matricial é mais adequada para modelar do que para sentenciar, por sua
incapacidade de expressar fatos atômicos. Se adotarmos como linguagem as letras pij , podemos expressar o
fato atômico p 21 usando, alternativamente, os grafos “bipartites” como linguagem de modelagem.
Vemos assim que podemos escolher linguagens para:
 Representar modelos;
 Expressar propriedades de modelos;
A representação de modelos, possui exigências diferentes da representação de suas propriedades: a
primeira pode ser menos precisa, mais compacta, porém deve ser adequada para que se possa avaliar,
através de correspondências, se as propriedades dos modelos expressas pela segunda linguagem (a oficial do
sistema semântico) satisfizerem os modelos.
Apenas para exemplificar, vamos adotar uma linguagem construída a partir das letras p ij pelo uso do
conectivo e, e como metalinguagem para descrição dos modelos a própria linguagem das letras pij . Assim a
sentença “p 12 e p21 ” é satisfeita pelos modelos

a função de avaliação é muito simples:


 Uma sentença atômica pij é satisfeita por um modelo M se e somente se pij pertencer a M.
 Uma sentença “e “ é satisfeita por um modelo M se e somente se e são satisfeitas por M.
A idéia é definir a função de avaliação das sentenças atômicas e, posteriormente, definir a função de
avaliação para as sentenças moleculares.

1.3.3 – Evolução dos sistemas semânticos


Como foi dito anteriormente, é através às necessidades de comunicação de um grupo social, que os
sistemas de código e em particular os sistemas semânticos, são gerados e aperfeiçoados. No esquema abaixo
– 16 –

ilustramos o fato de que, inicialmente, de modo espontâneo o grupo social gera um certo sistema semântico,
digamos

que na realidade é a interseção de vários sistemas semânticos individuais, provavelmente já parcialmente


inatos nos indivíduos ou parcialmente adquiridos em grupos sociais menos amplos (familiares?) pelos
indivíduos que compõem o grupo social.

As diferenças entre sistemas semânticos individuais é que, em última análise são responsáveis pelas
dificuldades de comunicação, gerando ambigüidades, etc...

1.3.4 – Simplificação das linguagens


O desenvolvimento das linguagens tem uma tradição de simplificações de sua estrutura sintática ou
na maioria das vezes na própria morfologia. As linguagens podem ser consideradas, para fins de estudo,
fora de um sistema semântico e quando assim consideradas dizemos que temos uma pré-linguagem. Em
geral, as pré-linguagens são obtidas a partir de uma linguagem natural, através de estudos de adequação de
certas locuções com respeito a um fenômeno.

Figura 1.19 – Pré-linguagens


Apenas locuções consideradas como sentenças atômicas são inicialmente consideradas. Tais sentenças
são modificadas ou sintaticamente transformadas em formas mais compactas e uniformes. Note que estas
transformações, embora sintáticas, são feitas com o cuidado de que o significado C 0 no plano conceitual seja
preservado, ou que pelo menos um dos significados o seja, quando existe uma indeterminação ou
ambigüidade.
Vimos no nosso exemplo de objetos e cores que a sentença do Português
(1) “o objeto i tem cor j”
poderia ser representado em várias pré-linguagens uma das quais usava a letra p com índices i, j ou seja por
pij . Esta é a fase inicial em que consideramos (1) como uma sentença atômica. Ainda para o mesmo exemplo
de aplicação usamos duas possíveis extensões moleculares, uma em que as sentenças moleculares são
conjuntos de tais sentenças atômicas; outra em que as sentenças moleculares são obtidas pelo uso do
conectivo “e”.

1.3.5 – Relações e funções entre os planos Conceitual e Simbólico


Na seção 1.1 discutimos de modo informal os relacionamentos que existem entre os três planos Real,
Conceitual e Simbólico. Os processos relacionando, apenas os planos conceitual e simbólico, são mais bem
entendidos. O processo de formalização dos conceitos a partir do plano conceitual é, em geral, bastante
– 17 –

impreciso e pouco metódico. No entanto algumas vezes os conceitos são representados pela utilização de
sistemas semânticos mais simples ou mais primitivos o que pode viabilizar a obtenção de uma formalização
sistemática e mesmo computável. De qualquer maneira consideraremos, inicialmente, que já temos uma
formalização A de algum fenômeno. A fase de interpretação é apresentada pela figura abaixo.

Figura 1.20 – Fase de interpretação


Mod(A) é a classe de modelos do sistema semântico que interpretam A. Na fase seguinte,
formalizando esta parte obteríamos as conseqüências lógicas deste núcleo formalizado. Assim,
conseqüências lógicas que são sintáticas que coincide, se fizer interpretação, com a mesma coisa. A
interpretação deste global, da mesma maneira que a seguir.

Figura 1.21 – Interpretação global


Quando uma teoria é completa, seus axiomas são suficientes para gerar pelo processo de
conseqüência lógica ou inferência lógica tudo que pode ser afirmado a respeito do fenômeno que os axiomas
A descrevem. Se uma sentença da linguagem se situa fora de Teo(Mod(A)) então seus modelos não
interceptam Mod(A). A figura a seguir expressa tal fato.

Figura 1.22 – Sentença fora de Teo(Mod(A))


No caso de uma teoria incompleta, que é mais comum, existem sentenças fora de Teo(Mod(A)) que
possuem modelos comuns com a interpretação dos axiomas, ou seja existem sentenças que são compatíveis
com a teoria pois afirmam coisas (situações ou configurações) que ocorrem na interpretação da teoria mas
não foram explicitados como axiomas, nem são conseqüência lógica dos axiomas. A situação de
incompletude é a mais comum, mesmo nas ciências ditas exatas. As teorias humanas e sociais são
essencialmente incompletas. É esta incompletude que as tornam mais interessantes e ricas.
– 18 –

Figura 1.23 – Incomplitude


A justificativa destas sentenças devem ser buscadas fora da teoria, elas necessitam de suporte
factual. Este suporte é buscado a partir do processo de abdução, que é a base teórica para a aquisição de
conhecimento.

Figura 1.24 – Aquisição de conhecimento


A aquisição do conhecimento é baseada numa crença operacional. Significa que temos que admitir,
para poder atuar no mundo, que exita uma estrutura lógica no mundo, este mundo todo de idéias, fatos
reais, de fenômenos reais ou mesmo de fantasias. Existem conhecimentos mais primitivos, mais abstratos
que outros e conhecimentos dali derivados. A própria noção de racionalismo, que diz que as coisas tem
justificativas, é nossa única ação no sentido de atuar com respeito ao mundo. Não quer dizer que exista, ou
seja verdade, esta racionalidade. Trata-se de uma hipótese operacional, mas é uma crença útil de admitir
para que possa explicar o mundo de uma forma estruturada.

Figura 1.25 – Explicação estruturada


A Fig. 1.25 apresenta os planos, desde o real até os conceituais ou os simbólicos, em níveis cada vez
mais abstratos. Temos aqui níveis de abstração cada vez mais simbólico e menos real. Na figura temos o
triângulo do significado, tendo o real em baixo. Assim os fatos devem ter razões pelas quais acontecem,
mesmo que sejam tênues, probabilísticas, simples esperança, uma avaliação etc. Temos conceitos novos dos
quais depende o original, numa hierarquia entre os conceitos. Então teremos fatos cada vez mais próximos
do real. Chegará num ponto, segundo Carnap, que atingiremos algo passível a ser conhecido diretamente
– 19 –

por observação. Nesta estrutura, há coisas que não podemos conhecer diretamente, necessitando de uma
cadeia lógica para chegar ao observável. A cadeia lógica vai até o nível do real. Podem haver coisas com
dependência pendente, necessitando de mais investigações, de uma hipótese ou teoria até chegar ao ponto
de uma dependência ou algo observável. Esta é a visão que temos do trabalho de um analista de
conhecimento. Estas hipóteses podem ser representadas através de regras introduzidas. O processo de
aquisição do conhecimento parte de um alvo desconhecido e, através de um diálogo, são listados as
dependências essenciais que fazem parte ou explicam aquele outro aspecto. Isto geraria as regras resultando
uma estrutura semelhante àquela. A questão fato1 depende dos fatos fato2, fato3 e fato4, isto pode ser
representado como uma regra:
Se fato2 e fato3 e fato4 então fato1
o fato 2 depende dos fatos fato5 e fato6 , portanto a regra:
Se fato5 e fato6 então fato2
e assim se constrói a hierarquia dada pelas regras, que também terá dependências. Os conceitos aqui
marcados são pendentes, os outros dependem deles. A aquisição de conhecimento é o processo de se obter
estas estruturas até chegar ao nível do observável.

1.4 – Conceitos relativos à aquisição de conhecimento

Inicialmente, a própria noção de aquisição de conhecimento pressupõe a existência de duas


entidades distintas: uma que constitui a fonte de conhecimento (um especialista, um livro texto, resultados
de investigações, experiências, observações, etc.) e outra que constitui o destino do conhecimento, isto é, a
entidade que o utilizará na solução de algum problema. De uma forma bem geral, o processo de aquisição de
conhecimento consiste em transferir conhecimento de alguma fonte disponível, para alguma entidade
destinatária, com algum objetivo em termos de utilização deste conhecimento. Deve ser ressaltado que a
existência de uma fonte de conhecimento não assegura que o mesmo esteja em condições de ser aplicado na
solução de algum problema. Daí surge a necessidade de, durante a transferência do conhecimento,
transformá-lo de modo a permitir a sua utilização. É necessário então que haja um intermediário (supondo
que nem a fonte nem o destino possam realizar esta transformação) neste processo, que geralmente é um
Analista de Conhecimento. A transferência e a transformação de conhecimento formam o processo de
aquisição de conhecimento. A Fig. 1.26 seguinte ilustra este processo.

Figura 1.26 – O processo de aquisição de conhecimento


A construção de sistemas baseados em conhecimento apresenta como maior dificuldade o processo
de aquisição de conhecimento. As primeiras técnicas para tal eram manuais, geralmente variações em torno
de entrevistas, e tinham como principal desvantagem a interação entre especialistas e analista de
conhecimento (o entrevistador), por esta gerar mais dúvidas que soluções. Um promissor caminho para
eliminar esta desvantagem é o uso de técnicas automáticas para aquisição de conhecimento. Este caminho
vem sendo bastante explorado através da construção de diversos ambientes, metodologias, técnicas, etc.
Entretanto, em todos os casos, observa-se um grau não desprezível de empiricismo quanto à escolha do
método ou da técnica na qual se apoia a solução.

1.4.1 - Etapas do processo de aquisição de conhecimento


Pesquisando-se a literatura existente sobre o assunto (Boose et alii, 1989, Kidd, 1987, Musen, 1989,
Wielinga et alii, 1992), verifica-se que, em geral, o processo de aquisição de conhecimento abrange as
seguintes etapas:
Elucidação. Fase que consiste em, através de interação com uma fonte de conhecimento disponível,
obter declarações verbais ou escritas relativas a um domínio de conhecimento, sem qualquer
preocupação com ordem, seqüência, estrutura, etc.
Análise. As declarações obtidas, são analisadas de modo a identificar o mais relevante das
declarações: os objetos, as suas propriedades e relações, definições e conceitos relativos ao domínio
de conhecimento correspondente. O objetivo é obter transcrições das declarações, as mais “precisas”
– 20 –

possíveis, que reflitam o que foi compreendido inicialmente.


Interpretação. Nesta etapa começa uma nova interação com a fonte de conhecimento, para refinar as
transcrições obtidas anteriormente, até que seja considerado adequado pelas partes, quando ambas
dêem a mesma interpretação aos objetos descritos inicialmente. Entretanto, é comum não se atingir
este ponto de um modo totalmente satisfatório, devido às dificuldades intrínsecas em transcrever
para uma linguagem diversos conceitos que não são claramente formuláveis. Mesmo nestes casos
passa-se à etapa seguinte, improvisando-se o que for necessário na esperança de que, através de um
protótipo, as dúvidas sejam adequadamente resolvidas.
Formalização. Destina-se à escolha de um formalismo capaz de representar adequadamente as
transcrições obtidas na fase anterior. Esta escolha constitui-se em um passo importante para obter
bons resultados com o sistema baseados em conhecimento que será construído.
Codificação. Uma vez selecionado um formalismo, escolhe-se um ambiente adequado à
implementação para a efetiva construção do sitema com base em conhecimento. Quando, nas três
primeiras etapas, não for possível obter um refinamento adequado, obtém-se nesta fase um
protótipo e começa-se um novo ciclo, sendo agora a fase de elucidação auxiliada por este protótipo,
através de testes e de casos típicos.

Figura 1.27 – O ciclo de etapas do processo de aquisição de conhecimento


Geralmente, considera-se (Kidd, 1987, Wielinga, 1992) cada uma destas etapas como distintas entre
si. Desta maneira, a elucidação de conhecimento torna-se apenas a obtenção de uma fonte de conhecimento – se
esta fonte for um especialista, esta etapa consiste apenas em registrar entrevistas. Esta é a primeira etapa e,
segundo (Valerio, 1998) é a mais difícil e a que tem recebido menos atenção da comunidade científica.
“O que geralmente se observa é a não existência de um ponto bem delimitado para determinar a
transição entre uma etapa e a próxima, tornando-se esta uma decisão empírica. Identificando-se fatores que
possam determinar estas transições, torna-se possível também adotar uma abordagem cíclica e sistemática
para o desenvolvimento de cada uma destas etapas, ainda que, conceitualmente, estas etapas sofram alguns
ajustes. Entretanto, de um ponto de vista mais geral, para que isto seja possível, é necessário reformular esta
seqüência de etapas agrupando-as em duas partes principais: a primeira parte contendo as três primeiras
etapas e a segunda, as demais etapas.” (Valerio, 1998)
– 21 –

Figura 1.28 – O novo ciclo de etapas do processo de aquisição de conhecimento


Este novo agrupamento reflete mais naturalmente o caráter de realimentação existente entre as três
primeiras etapas e as isola das etapas finais, cuja principal importância está mais relacionada com o uso de
sistemas baseados em conhecimento e menos com a construção destes, particularmente com o processo de
aquisição de conhecimento. Este é o primeiro e um importante passo para dar a este processo um caráter
sistemático.

1.5 - O conhecimento como objeto de estudo

Nesta seção estudaremos o próprio conhecimento, o que há em comum entre os diversos ramos
científicos em termos do saber por eles utilizados. Seguindo-se Mário Bunge (Bunge, 1967-1), é possível
classificá-lo em conhecimento formal (Lógica e Matemática) e conhecimento factual (específico de um domínio).
O primeiro é comum a todos os ramos científicos, apenas ajustando-se às interpretações dadas aos símbolos,
fórmulas e conceitos. O conhecimento factual é de natureza específica, geralmente particular, isto é, apenas
os especialistas em cada domínio de conhecimento podem ter acesso a esse tipo de saber.
Existem diversos ramos do perícia humana especializada que ainda não se revestem de um caráter
plenamente científico (não existem as correspondentes teorias) mas que estão sujeitos a métodos ou critérios
adotados pelos respectivos profissionais. Nestes ramos é possível pressupor a existência de algum tipo de
organização intrínseca do conhecimento nele envolvido, embora não se tenha fácil acesso a esta organização.
Em domínios de conhecimento factual especializado, há alguma forma intrínseca de organização do
conhecimento. Há evidências que apoiam este pressuposto como ponto de partida. Embora, tipicamente,
haja discordância de avaliações entre especialistas, observa-se que estas surgem muitas vezes em níveis de
detalhes específicos, indicando a existência de um conjunto básico de conceitos, uma espécie de núcleo da
área de saber.
Diante disto, surgem duas conseqüências importantes. A primeira é a possibilidade de adotar-se
uma abordagem epistemológica em relação à organização do conhecimento, que independe deste ou
daquele especialista. O mérito do especialista está em desenvolver uma aguçada capacidade de observação
em relação a uma área específica, de modo a estabelecer relações entre observações e conceitos de forma
adequada a obter conclusões corretas (ou quase sempre corretas) sobre esta mesma área. Deve ser ressaltado
que esta abordagem em nada diminui a importância dos especialistas, propondo apenas uma mudança de
enfoque: é possível a existência de especialistas porque o conhecimento é intrinsecamente organizável, o que
corresponde à noção de mundo intersubjetivo (Carnap, 1967), explorada na construção do sistema Episteme
(Braga, 1990), visto a seguir.
A segunda conseqüência é a possibilidade de adotar um tratamento sistemático para a construção de
um corpo de conhecimento, sendo possível construí-lo de forma gradativa e estruturada, podendo vir a
contribuir inclusive para melhorar a compreensão dos próprios conceitos envolvidos.
Em (Braga, 1990) é apresentado o sistema Episteme para aquisição e estruturação automáticas de
conhecimento, onde a estruturação do conhecimento é feita através de uma hierarquia de planos construída
por um processo de análise de classes e relações declaradas por um usuário.
Resumidamente, parte de um domínio de conhecimento formado por objetos em estudo ou
observação, obtendo classes que representem propriedades particulares destes objetos e relações que
estabeleçam propriedades comuns entre eles. Algumas classes e relações são básicas, não podendo ser
– 22 –

decompostas, enquanto outras são derivadas das básicas. A estrutura será então uma hierarquia de planos
de conhecimento correspondentes aos níveis de derivação das classes e relações, isto é, as básicas formam o
plano mais baixo da hierarquia, o plano imediatamente acima deste será formado por classes e relações que
podem ser derivadas diretamente das básicas e, genericamente, o plano de nível n será formado pelas classes
e relações diretamente deriváveis daquelas que formam o plano de nível n-1.
São três as bases teóricas utilizadas no sistema Episteme, sendo a principal a Teoria de estruturação do
conhecimento científico sobre o mundo proposta pelo filósofo positivista lógico Rudolf Carnap em (Carnap,
1969). Utiliza ainda a Teoria dos planos de conhecimento que é uma parte da teoria dos Sistemas semânticos
abstratos e a noção de Nível de conhecimento proposta por Allan Newell em (Newell, 1982).

1.6 – Princípios fundamentais do processo de aquisição de conhecimento

Para que seja possível seguir uma abordagem sistemática é necessário a capacidade de identificar a
existência de conceitos cuja definição esteja incompleta. Por conceito está sendo chamado, de forma genérica,
um predicado ou atributo qualquer que se refira a algum objeto do domínio cujo conhecimento esteja sendo
adquirido. A determinação de que a definição de um conceito está incompleta pode ser feita a partir da
Teoria dos Planos de Conhecimento e de uma classificação dos conceitos, como visto a seguir. Para
completar a definição de um conceito, será utilizado um oráculo associado a um provador automático de
teoremas, visando permitir que se pergunte ao especialista quais são as partes que estão faltando na
estrutura do domínio de conhecimento correspondente.

Figura 1.29 – Teoria dos planos de conhecimento


A Teoria dos Planos de Conhecimento permite criar uma estrutura semântica associada a uma área
de conhecimento. Esta estrutura possuirá uma hierarquia de planos de conhecimento cujo plano inferior
estará associado aos conceitos que, no domínio de conhecimento escolhido, não podem ser decompostos em
outros conceitos. É o plano real desta teoria. Estes conceitos são diretamente observados no objeto em estudo
daquele domínio.
As considerações a seguir que embasam este trabalho, foram definidas por (Valerio, 1998).
O número de planos de conhecimento associado a uma área de conhecimento é finito, utilizando-se
um plano para cada conceito e hierarquizando os planos conforme o grau de dependência entre os conceitos.
Se um conceito depender de outro, então ocupará um plano superior a este. Um número infinito de planos
de conhecimento implicaria em uma cadeia infinita de dependências, o que, por sua vez, implicaria em ser
impossível chegar a uma conclusão (o conceito no nível mais alto da hierarquia).

Figura 1.30 – Iniciando um Plano de Conhecimento


– 23 –

Figura 1.31 – Um Plano de Conhecimento Genérico


Em qualquer área de conhecimento, todo conceito pode ser classificado como primitivo ou derivável. Os
conceitos associados ao plano mais alto são os mais indicados para que se comece a etapa de elucidação. A
partir daí podem ser construídas listas de dependências de cada um destes conceitos em relação aos
diretamente observáveis (primitivos). Há também uma questão relativa ao número total de conceitos
envolvidos em uma dada área de conhecimento. O número de conceitos deriváveis em uma dada área de
conhecimento é finito.
As proposições acima são bastante intuitivas, sendo relativamente fácil aceitá-las. Se não fossem
válidas, não seria possível a existência de especialistas nas mais diversas áreas do conhecimento humano.
Utilizando -se a teoria dos planos de conhecimento e estas proposições, é possível estabelecer de
maneira clara um ponto de término. Pode-se ainda tornar mais fácil estabelecer pontos iniciais também. Isto
é possível através da noção de lacuna, que ocorre quando algum conceito derivável não possui pelo menos
um caminho que estabeleça uma ligação entre este conceito e os conceitos primitivos. Assim sendo, a
presença de uma lacuna em uma estrutura de planos hierárquicos de conhecimento indica um conceito cuja
definição não está completa.
Resumindo o que foi discutido, a etapa de elucidação deve começar por um conceito derivável e será
concluída quando não mais existirem lacunas na estrutura hierárquica de planos de conhecimento em
construção.
Isto nos permite definir o ponto de término da construção da hierarquia de planos de conhecimento e
dar a todo o trabalho o caráter sistêmico pretendido, o que eqüivale a estabelecer a existência de um
algoritmo para o processo de aquisição de conhecimento. Como importante conseqüência a etapa de
elucidação do processo de aquisição de conhecimento é passível de ser automatizada.
Uma questão importante a ser vista é como identificar a existência de lacunas. A solução adotada para
resolver esta questão foi proposta por (Valerio, 1998) e está baseada em dois tipos de recursos – um provador
automático de teoremas, como mecanismo de inferência, e o uso de oráculos. É aqui que surge a importância
do uso de oráculos no processo de aquisição automática de conhecimento: através deles é imediata a
identificação da existência de lacunas em uma estrutura hierárquica de planos de conhecimento.
Para que isto fique claro considere-se a sentença
João é homem

Figura 1.32 – João é homem


Neste caso, consideramos ‘homem’ como conceito inicial, derivado de dois outros, os fatos de ser ‘macho’ e
‘humano’, conforme ilustrado na Fig. 1.33:
– 24 –

Figura 1.33 – Conceito inicial


Neste momento, poderíamos considerar ‘macho’ e ‘humano’ como primitivos. Porém, o segundo
destes conceitos, por sua vez, ainda poderia ser derivado de outros tais como ‘racional’ e ‘animal’ conforme
Fig. 1.34:

Figura 1.34 – Conceitos derivados


Nesta altura, para deduzirmos que ‘João é homem’ deve-se verificar que ‘João é macho’, ‘João é
racional’ e ‘João é animal’, não sendo necessário verificar que ‘João é humano’ uma vez que este é derivável
dos dois últimos conceitos.
Prosseguindo, se considerarmos que que o conceito ‘racional’ é derivável de ‘tem inteligência’ e ‘tem
vontade própria’, chegaremos ao seguinte plano de conhecimento:

Figura 1.35 – Plano de conhecimento


Aplicando as considerações feitas no parágrafo, ‘João é racional’ torna-se também um conceito
derivado. No entanto, ambos conceitos introduzidos neste ponto são também derivados, conforme mostra a
Fig. 1.37 para o conceito ‘tem inteligência’ e a Fig. 1.36 para o ‘tem vontade própria’:
– 25 –

Figura 1.36 – Inclusão de mais conceitos.

Figura 1.37 – Árvore completa


Neste ponto, a derivação de ‘é homem’ depende apenas dos conceitos primitivos ‘é macho’, ‘é
animal’, ‘percebe o real’, ‘resolve novos problemas’, ‘reage aos sentimentos’ e ‘pensa antes de agir’.
– 26 –
– 27 –

2. Sistemas Baseados em Conhecimento

São três horas da manhã. O plantonista de um hospital de médio porte está sozinho. Repentinamente a calma
rotina da madrugada é quebrada com a chegada estridente de uma ambulância trazendo uma emergência que
não foi sanada em um hospital com menos recursos. O plantonista recebe o paciente, cujo estado clínico se
agrava minuto a minuto; pelos testes já realizados, deteta que o caso é de uma especialidade que não domina.
Então dirige-se ao terminal de computador e aciona um programa médico que interage com ele utilizando tão
somente o jargão da medicina. O plantonista alimenta o programa com as informações fornecidas pelos testes e
observações dos médicos do outro hospital; o programa faz um diagnóstico e recomenda um tratamento; o
plantonista interroga-o a respeito das conclusões até estar satisfeito com as análises do programa. Assim, com
esta ferramenta – construida com a técnica de sistemas baseado em conhecimentos – o plantonista teve em
tempo hábil o conselho de uma junta de especialistas armazenado em um programa de computador.

Sistemas baseado em conhecimentos são frutos da aplicação de engenharia do conhecimento, uma das
três subespecialidades do domínio da Inteligência Artificial. As outras duas incluem robótica e consulta em
linguagem natural. Tais sistemas aplicam técnicas de Inteligência Artificial e conhecimento em problemas
específicos de um domínio determinado para simular a atuação de peritos humanos. A eficácia destes
sistemas depende diretamente de sua quantidade de conhecimento. Nenhum método genérico poderoso foi
encontrado para criar ambiente inteligente sem o suficiente conhecimento para raciocinar sobre ele. Todavia,
alguns métodos simples de inferência têm alcançado resultados impressionantes quando aplicados a uma
adequada base de conhecimento.
Sistemas baseado em conhecimentos são empregados como um auxiliar inteligente ou consultor para
usuários humanos. Podem ter usos na resolução de problemas de rotina, liberando os peritos para
problemas mais complexos. Podem também levar conhecimento especializado a localizações onde os peritos
não estejam disponíveis ou torná-las acessíveis quando os serviços especializados sejam muito dispendiosos.
Algumas organizações vêem sistemas baseado em conhecimentos como uma maneira de coletar e preservar
a “memória institucional” garantindo-a contra a rotatividade dos baseado em conhecimentos humanos que
podem se retirar das organizações, adoecer ou mesmo falecer.
Diferente dos programas convencionais, os sistemas baseado em conhecimentos podem resolver
problemas que exigem julgamentos do mesmo tipo que as pessoas se utilizam em seus trabalhos diários.
Alguns destes sistemas – aliás como alguns sistemas tradicionais – fornecem respostas em termos de
porcentagem de certeza, propagando dentro do programa graus de confiança associados a diversas
informações. Alguns sistemas têm capacidade de dar explicações, que dizem como as respostas foram
encontradas, sem o que em muito seria diminuída a credibilidade que os usuários neles depositam.
Em suas capacidades, projetos e forma de operação, sistemas baseado em conhecimentos diferem
profundamente dos sistemas convencionais. Provavelmente, as maiores diferenças residam na habilidade
dos primeiros simularem raciocínio humano, inferirem e fazerem julgamentos, freqüentemente com
informações incompletas; enquanto que os últimos efetuam tarefas puramente mecânicas e processam
dados, ainda que em alta velocidade. Outra diferença é que aqueles sistemas derivam suas conclusões e
soluções de heurísticas, baseadas em um domínio especifico de conhecimento, enquanto que os
convencionais geram seus resultados através de algoritmos. Também estes trabalham exclusivamente com
números e caracteres; enquanto que sistemas baseado em conhecimentos, com símbolos e conceitos.
Assim, os programas convencionais são, basicamente, constituídos de algoritmos, onde o
programador define todos os passos que os programas devem executar, e de uma grande massa de dados,
especialmente numéricos. Por sua vez, os sistemas baseado em conhecimentos introduziram uma importante
mudança no que diz respeito a filosofia de programação, sendo constituídos, basicamente, de uma grande
massa de conhecimento e de processos de inferências (Teive, 1995), assim, temos:
 Dado + Algoritmo = Programa Computacional Convencional
 Conhecimento + Inferência = Sistema Baseado em Conhecimento
Para funcionamento de um sistema baseado em conhecimento, é necessário representar
simbolicamente o conhecimento e transportá-lo para um computador que eletronicamente repetirá análises
peritas e estratégias de solução de problemas. Estes conhecimentos podem incorporar fontes e tópicos de
assuntos que não requerem aptidão ou educação especiais, como aqueles encontrados em livros ou manuais.
O conhecimento do domínio do problema referente a um sistema baseado em conhecimento é
organizado separadamente de outros tipos de conhecimento do sistema, como os procedimentos de
resolução de problemas ou de interação com o usuário. Esta coleção de conhecimento especializado é
– 28 –

chamada base de conhecimento, e os procedimentos gerais de solução de problema, de máquina de


inferência. Um programa com conhecimento organizado desta forma chama-se sistema baseado em
conhecimento.

Figura 2.1 – Estrutura de um sistema baseado em conhecimento

Os fatos representam os conhecimentos que são sabidos a priori e que podem ser considerados como
ponto de partida para a resolução problema. São caracterizados também como os conhecimentos de domínio
público, de fácil acesso e que podem ser extraídos através de textos, manuais, normas, livros, postulados e
definições, constatação de fatos e resultados de experimentos.
As regras representam os conhecimentos inerentes ao assunto sendo estudado, expressando a forma
de pensar desenvolvida pelos especialistas (heurística), tendo por base os fatos já conhecidos e as deduções a
partir deles. Aqui, o termo heurística ou rules of thumb significa a habilidade, ou a simplificação utilizada pelo
perito no sentido de otimizar a busca da solução de um problema. Desta forma, novos conhecimentos
podem ser acrescidos à base de conhecimentos, habilitando o sistema a uma tomada de decisão sobre o
problema.

2.1 – Caracterização dos sistemas baseados em conhecimento

Nos anos 50, os pesquisadores já haviam estabelecido as fundações da Inteligência Artificial, incluindo
lógica matemática e teoria das funções recursivas, guiando a formulação de processamento de listas e da
linguagem Lisp que fornece um interpretador para desenvolver expressões simbólicas recursivas. Tais
capacidades suportaram o surgimento de sistemas práticos de computação simbólica. Ao mesmo tempo,
emergiram computadores interativos tornando possíveis ambientes computacionais para desenvolvimento e
depuração de programas incrementais. Nesta mesma ocasião, psicólogos cognitivos – estudantes da forma
de pensar humana – criaram caminhos, padrão do processo de investigação do raciocínio, modelando o
aparente processo de tomada de decisão em termos de regras de produção condicionais.
Já nos anos 60, os pesquisadores de Inteligência Artificial tentaram simular o complexo processo de
pensamento procurando métodos gerais para resolver uma ampla classe de problemas. No entanto, a
despeito de alguns progressos interessantes, as dificuldades eram enormes e não frutificaram. Então,
durante a década de 70 concentram-se esforços em técnicas como representação – isto é, modo de formular o
problema de maneira a tornar sua solução mais fácil, como controlá-la inteligentemente dentro da
capacidade de memória do computador. Esta estratégia produziu algum sucesso mas ainda não foi decisiva.
Somente no final da década fizeram a descoberta mais importante: o poder de resolver problemas do programa
depende mais do conhecimento que possui do que o formalismo ou esquema de inferência empregado, o que levou ao
desenvolvimento de programas de computador de propósito particular, sistemas que são peritos em alguma
área limitada surgindo os sistemas baseado em conhecimentos, e um novo campo se iniciou.
Os sistemas baseado em conhecimentos começaram a aparecer comercialmente nos primeiros anos da
década de 1980. Após terem se desenvolvido por quinze anos como mera curiosidade de Inteligência
Artificial aplicada em laboratórios de pesquisa, tornaram-se alvo de significativos esforços de
desenvolvimento tanto técnicos como comerciais. Estes sistemas empregam computador de maneira diversa
que o processamento de dados convencional, abrindo novas e importantes veredas.
O funcionamento de um sistema destes e a atuação de um especialista humano que pretende replicar
não são idênticas. Um ou outro podem em alguns casos desempenhar tarefas idênticas, contudo as
características de ambos são criticamente diversas. Mesmo havendo algumas vantagens evidentes destes
sistemas, eles não poderão substituir os peritos em todas as situações devido às suas limitações inerentes. A
experiência de técnicos humanos pode ser diminuída ou perdida quando não for exercitada por longo
– 29 –

tempo, risco inexistente com o conhecimento artificial que uma vez adquirido torna-se permanente – exceto
um acidente envolvendo sua memória armazenada. Também sua transferência resume-se a uma trivial cópia
de arquivos, enquanto a transmissão de conhecimento de um baseado em conhecimento a outro envolve um
demorado e custoso processo de educação.
A documentação da experiência humana é difícil e demorada, mas para o conhecimento especializado
artificial é relativamente simples, se resumindo ao mapeamento entre a maneira de representação do
conhecimento e sua descrição em linguagem natural. Conhecimento artificial produz resultados mais
consistentes e reprodutíveis que peritos reais. Estes podem tomar diferentes decisões em situações idênticas,
devido a fatores emocionais, como por exemplo, esquecendo-se de aplicar uma regra importante devido à
pressão de uma situa ção de crise; falha a que um sistema baseado em conhecimento não está suscetível.
A vantagem final de conhecimento artificial é seu baixo custo de utilização e reprodução, como
compensação ao seu alto custo de implantação, que pode levar vários anos. Os especialistas humanos,
especialmente os melhores, têm altos salários, enquanto que sistemas baseado em conhecimentos têm o custo
nominal do computador rodar o programa.
Os especialistas não podem ser simplesmente trocados por programas, pois o conhecimento artificial
tem algumas limitações. Uma delas é falta de criatividade. Um perito pode reorganizar informações e usá-las
para sintetizar novo conhecimento; pode manusear eventos inesperados usando imaginação ou novas
abordagens, inclusive raciocinando por analogia de um outro domínio completamente diferente. Sistemas
baseado em conhecimentos trabalham de maneira sem inspiração, rotineira.
No aprendizado, também há nítida vantagem do perito, que se adapta a mudanças de condições,
ajustando suas estratégias, tarefa muito difícil para um sistema baseado em conhecimento, embora isto já
esteja ocorrendo em domínios extremamente simples, não funcionando bem, quando confrontado com a
complexidade e detalhes de problemas reais.
Peritos humanos podem usar entradas complexas do sistema sensorial, disponíveis pelos cinco
sentidos. Sistemas baseado em conhecimentos manipulam símbolos que representam idéias e conceitos;
assim, dados sensoriais devem ser transformados em símbolos para serem compreendidos pelo sistema e
parte da informação pode ser perdida nesta transformação. Peritos humanos vêem o problema de maneira
ampla, examinando todos os seus aspectos, selecionando os relevantes; por outro lado, sistemas baseado em
conhecimentos focalizam-se no problema em si, ignorando informações isoladas que poderiam ser
importantes.
Finalmente, os seres humanos – peritos ou não – possuem o conhecimento advindo do senso comum,
que se constitui num largo espectro de conhecimento sobre o mundo, acumulado durante toda sua vida e
que permeia todas as suas decisões. Devido à enorme quantidade de conhecimento de senso comum, fatos
de domínio público que todos sabem, torna-se difícil construir um programa inteligente, particularmente um
sistema baseado em conhecimento.
Como um exemplo deste tipo de conhecimento, suponha que se examine um registro médico de um
paciente que pese 7 quilos e tenha idade de 25 anos. Imediatamente, haverá a suspeita de erro nos dados,
não porque isoladamente sejam impossíveis, mas sua combinação virtualmente o será; de fato, desconfiará
que os dados foram acidentalmente invertidos. Um sistema baseado em conhecimento médico não detectará
este tipo de erro, a menos que disponha de uma tabela idade-peso (e seus limites de tolerância) para conferí-
lo.
Senso comum inclui conhecimento sobre o que não se sabe assim como o que se conhece. Por exemplo,
se você for perguntado como a televisão noticiou um fato ocorrido no ano passado, puxará pela memória
para recuperar a informação. Se a pergunta fosse como a TV soviética noticiou outro fato, imediatamente
responderá que não sabe. Da mesma forma, se lhe perguntarem como a televisão brasileira informou a
Proclamação da República, você dirá que tal não ocorreu pois não havia televisão naquela época. Quando
um sistema baseado em conhecimento é questionado sobre informações que não disponha ou não existam,
ele não detecta esta situação por não possuir senso comum. Então, iniciará exaustiva pesquisa nos seus fatos
e regras para procurar a solução. Daí, quando esta não for encontrada, pode julgar que é porque seu
conhecimento está incompleto e solicitará informação adicional para completar sua base de conhecimento.
Por estas razões, sistemas baseado em conhecimentos são freqüentemente utilizados no
aconselhamento, como consultor ou ajuda para outro perito ou iniciante usar em algum problema que
necessite resolver.
Em contraste com sistemas avançados de processamento de dados, que automatizam
algoritmicamente extensos volumes de dados, sistemas baseado em conhecimentos ordinariamente
trabalham com pequenas tarefas, tipicamente desempenhadas por profissionais: interpretando,
diagnosticando, planejando, escalonando e assim por diante. Para acompanhamento destas tarefas, os
sistemas baseado em conhecimentos utilizam judiciosamente os dados e raciocinam com eles. Ao contrário
– 30 –

do método usual em processamento de dados, os sistemas baseado em conhecimentos geralmente examinam


uma extensa gama de possibilidades ou constróem as soluções dinamicamente.
Para entender quais são as características comuns aos sistemas baseado em conhecimentos, basta
examinar o que estes fazem:
1. Resolvem problemas muito complexos tão bem quanto baseado em
conhecimentos humanos.
2. Raciocinam heuristicamente, usando o que os peritos consideram
efetivamente regras práticas.
3. Interagem com usuários humanos utilizando inclusive linguagem natural.
4. Manipulam e raciocinam sobre descrições simbólicas.
5. Funcionam com dados errados e regras incertas de julgamento.
6. Contemplam hipóteses múltiplas simultaneamente.
7. Explicam porque estão fazendo determinada pergunta.
8. Justificam suas conclusões.
O núcleo de um sistema baseado em conhecimento é a potência do corpo de conhecimento acumulado
durante sua construção. Este conhecimento é explícito e organizado de forma a simplificar o processo de
decisão. A importância deste fato deve ser suficientemente enfatizada: a acumulação e codificação de
conhecimento é um dos mais importantes aspectos de um sistema baseado em conhecimento.
Isto tem implicação que transcende à simples construção de programas para efetuar alguma tarefa,
dado que o conhecimento que alimenta este tipo de sistema é explícito e acessível, ao contrário dos
programas convencionais.
A capacidade mais útil de um sistema baseado em conhecimento é sua especialização de alto nível que
auxilia na solução de problemas. Este conhecimento especializado pode representar a experiência dos
melhores peritos no campo. Sua alta especialização, justamente com a habilidade de aplicação, torna seu
custo competitivo e apto a ganhar espaço no mercado comercial. A flexibilidade do sistema também auxilia,
pois pode crescer incrementalmente segundo as necessidades do negócio ou organização. Isto significa que é
possível iniciar com um investimento relativamente modesto expandindo-o de acordo com as necessidades.
O corpo de conhecimento que define a proficiência de um sistema baseado em conhecimento pode
também oferecer uma capacidade adicional – a memória institucional. Se a base de conhecimento foi
desenvolvida através de interação de pessoas-chave de uma organização, isto representa a política corrente
do grupo. Esta compilação de conhecimento virá a ser o consenso de opiniões de alto nível e um registro
permanente das melhores estratégias utilizadas. Quando pessoas-chave desligam-se da organização, sua
experiência permanecerá. Este fato é especialmente crítico onde houver rápido turnover e freqüente
deslocamento de pessoas.
Outra capacidade de um sistema baseado em conhecimento é a de oferecer treinamento, dado que já
contém conhecimento e habilidade de explicar seu processo de raciocínio. Interfaces amigáveis e
conhecimento sobre métodos de ensino podem ser construídos para o treinando acessá-lo, tornando-se assim
disponível mesmo para novatos a vasta reserva de experiência acumulada e estratégias da empresa.
A área de sistemas baseado em conhecimentos investiga métodos e técnicas para construção de
sistemas homem-máquina com habilidade para a solução de problemas técnicos. É importante notar que a
experiência de peritos humanos significa mais que o simples conhecimento sobre um particular domínio,
uma vez que indica, também, compreensão dos problemas deste domínio como habilidade para resolver
alguns destes problemas. O conhecimento não se encontra somente em livros, como também na cabeça dos
especialistas, que o empregam em “modo prático” (heurística). São elas que permitem ao perito conjecturar
quando necessário, para reconhecer promissoras aproximações do problema em questão, tirando conclusões
preliminares a partir de dados errados ou incompletos. Como elucidar e reproduzir estes conhecimentos
constitui-se na tarefa central da montagem de sistemas baseado em conhecimentos.
Pesquisas neste campo sugerem várias razões para aquela ênfase no conhecimento em si antes que em
métodos de raciocínio formais. A mais importante é que muito da dificuldade e interesse dos problemas não
possui soluções tratáveis por algoritmos, dado que muitas tarefas se originam em contexto social ou físicos
complexos que geralmente resistem a descrições precisas e análises rigorosas. Planejamento, raciocínio legal,
diagnóstico médico, exploração geológica e análise de situações militares exemplificam estes problemas.
Outra razão para enfatizar conhecimentos ao invés de métodos de raciocínios formais é pragmática:
especialistas humanos adquirem desempenho notável porque eles continuam a aprender, ou seja,
incorporam novos conhecimentos. Logo, se programas de computador puderem incorporar e utilizar este
conhecimento, também eles poderão alcançar altos níveis de desempenho. Isto tem provado ser verdade na
curta história dos sistemas baseado em conhecimentos. Programas têm alcançado níveis de desempenho que
rivalizam com peritos humanos em várias tarefas: prospecção mineral, configuração de computador,
– 31 –

elucidação de estruturas químicas, matemática simbólica, jogo de xadrez, terapia e diagnóstico médico e
análise eletrônica.
A terceira razão para focar no conhecimento reconhece seu valor intrínseco: conhecimento é recurso
escasso cujos refinamento e reprodução geram riquezas. Tradicionalmente, a transmissão de conhecimento
requer educação e treinamento por longos anos. A extração deste conhecimento de peritos e a colocação em
forma computável podem reduzir grandemente seu custo de reprodução e utilização. Ao mesmo tempo, este
processo pode ser acelerado pela colocação do conhecimento heurístico disponível para emprego público. Já
na “Intemational Joint Conference on AI”, Feigenbaum atinou com o fator-chave de sistemas baseado em
conhecimentos: “A potência de um sistema baseado em conhecimento deriva do conhecimento que possui e
não de particular formalismo ou esquema de inferência que empregue.”
O primeiro período da pesquisa foi dominado pela crença ingênua em que poucas leis de raciocínio
acopladas com a potência de computadores alcançariam desempenhos em problemas especializados
superior ao dos peritos. Quando a experiência aumentou, o alcance severamente limitado de estratégias de
solução em problemas de propósito geral indicou que não era esta a direção a seguir. Em reação a esta
limitação percebida nas estratégias gerais, muitos pesquisadores começaram a trabalhar em problemas de
aplicação em escopo mais restrito.
No meio da década de 70, vários sistemas baseado em conhecimentos começaram a emergir. Algumas
investigações que tiveram sucesso em reconhecer a regra central do conhecimento nestes sistemas iniciaram
esforços para desenvolver teorias compreensíveis de representação do conhecimento em sistemas de
propósito geral. Em poucos anos, ficou claro que estes esforços alcançaram fracos resultados por razões
semelhantes àquelas que condenaram o resolvedor geral de problemas, tentado no inicio.
O conhecimento como um alvo de estudo é também largo e diverso; assim, esforços para resolver
problemas baseados no conhecimento em geral são prematuros. Por outro lado, várias abordagens diferentes
de representação do conhecimento provaram ser suficientes para os sistemas baseado em conhecimentos que
as empregaram. Assim, a pesquisa para aumentar a potência de representações gerais de conhecimento, a
despeito de intuitivamente ser aparentemente desejável, não apresenta justificativa empírica.

2.2 – Elementos básicos dos sistemas baseado em conhecimentos

As técnicas de solução de problemas de Inteligência Artificial permitem aos sistemas baseado em


conhecimentos tirarem conclusões para as quais não foram especificamente programados. Isto contrasta com
os métodos tradicionais de processamento de dados, cujos dados de entrada são bem controlados, usam
primariamente computação numérica em algoritmos bem compreendidos e, quando feitos corretamente,
produzem respostas corretas. Por outro lado, sistemas baseado em conhecimentos empregam informações
nem sempre consistentes ou completas, manipula-as através de métodos de raciocínio simbólico sem seguir
modelos numéricos, para produzir respostas satisfatórias ou aproximações úteis. Naturalmente, quanto mais
completa e corretamente estiver representado o conhecimento, melhor será a saída do sistema.
Algumas técnicas e elementos que os tornam possíveis são aquisição de conhecimento, heurísticas,
métodos de representação de conhecimento e máquinas de inferência. Nos parágramos seguintes faremos
uma abordagem inicial destes conceitos.
Aquisição de conhecimento é o processo de extração e formalização do conhecimento de especialistas ou
fontes escritas, para uso em um sistema baseado em conhecimento. Exemplos de conhecimento são descrição
de objetos, identificação de relacionamentos e explanação de procedimentos. Trata-se da tarefa crucial para o
desenvolvimento de um sistema baseado em conhecimento, porisso será abordada com mais detalhe em
capítulo específico.
Heurísticas são regras práticas aprendidas ou descobertas por especialistas de um dado domínio. Para
ilustrar a diferença entre processos algoritmos e heurísticos, considere a situação de prevenção de
contrabando no país. Um algoritmo para tal previria a necessidade de patrulhamento a todos os milhares de
quilômetros de fronteiras terrestres e costas, assim como rigorosa inspeção em todos os aeroportos e portos,
oficiais ou particulares, além de todos os pontos de entrada no país através de rodovias e ferrovias. Isso sem
dúvida superaria a oferta de mão-de-obra disponível. Deve-se levar em conta que uma vistoria
demasiadamente rigorosa poderia acarretar situações constrangedoras aos passageiros ou violar direitos de
cidadão garantidos por leis internacionais. Então, resta a solução heurística, que é a melhor aproximação que
se pode obter com os recursos existentes, ou seja, exercer vigilância nas rotas conhecidas de contrabando e
inspeção na alfândega das bagagens mais promissoras, o que pode não evitar de todo o contrabando, mas
sem dúvida o cerceará. Este fato identifica o risco de processos heurísticos – a possibilidade de não encontrar
– 32 –

solução. Por outro lado, trabalha com aproximações factíveis, na inexistência ou impraticabilidade de um
processo algoritmo exato.
Quando codificada em sistemas baseado em conhecimentos, estas regras dirigem o processamento
através da massa de informações. Heurísticas tornam o processo de solução mais eficiente que pesquisas
exaustivas através do campo de possíveis soluções.
A representação do conhecimento é a estrutura formalizada e o conjunto de operações que envolve a
descrição, relacionamento e procedimento de um determinado domínio. O conhecimento representado em
um programa particular chama-se base de conhecimento. Exemplos de representações incluem regras de
produção do tipo “Se... então...”, quadros (frames) e redes semânticas. Diversos tipos de conhecimento
podem seguir representações diferentes. Regras de produção são mais adequadas para representação de
conhecimento dedutivo, como situação-ação, premissa-conclusão, antecedente-conseqüente e causa-efeito.
Quadros são mais indicados para representar conhecimento descritivo e relacional que reúne ou se ajusta a
algum protótipo tal como a descrição de um ambiente selvagem ou processo de contabilização. Redes
semânticas são úteis para modelagens de estruturas físicas ou ligações causais, como o inter-relacionamento
de elementos de um modelo econômico. De todas estas formas, a primeira é a mais largamente utilizada em
aplicações comerciais atualmente.
O formalismo de representação do conhecimento pode incluir formas flexíveis de descrição de
taxiomias conceituais e regras heurísticas condicionais. A primeira envolve relações entre tipos de objetos,
classes e individuais, determinando quais propriedades de um se aplicam a outros. Como exemplo, muitos
resolvedores de problemas podem acomodar e explorar fatos do tipo a seguir, que explicitam as regras de
acentuação em português:

1. São acentuadas as palavras cuja sílaba tônica for a antepenúltima.


2. As palavras cuja sílaba tônica for a penúltima e não terminar em “a”, “e”, “o”
(seguidos ou não de “s”), m ou “ns”, serão acentuadas.
3. Se uma palavra tem a tônica na última sílaba e terminar em “a”, “e”, “o” (segu idos
ou não de “s”), “m” ou “ns”, então será acentuada.
4. Se a sílaba tônica da palavra for em um “i” ou “u”, seguido ou não de “s” e fo rma
hiato com a vogal anterior, então era será acentuada.
5. São acentuados os verbos “ler”, “dar”, “ver”, “crer” e mais “ter” e “vir” assim
como os derivados destes.
6. São acentuadas aquelas palavras que levam acento diferencial (como pára, pólo,
etc).

Regras heurísticas representam juízo sobre conhecimento. Muitos instrumentos fornecem um


estilizado formalismo “Se-Então” para representação do conhecimento, como por exemplo, usando o
conhecimento acima:
1. Se sílaba_tônica(*palavra,antepenúltima) então acentuada(*palavra)
2. Se sílaba_tônica(*palavra, penúltima) e não final(*palavra)
então acentuada(*palavra)
3. Se sílaba_tônica(*palavra, última) e final(*palavra) então
acentuada(*palavra)
4. Se sílaba_tônica(*palavra, vogal-fraca) e hiato(vogal_fraca)
então acentuada(*palavra)
5. Se pertence(*palavra,verbos) ou pertence(*palavra,derivados)
então acentuada(*palavra)
6. Se pertence(*palavra,lista_de_diferenciais) então acentuada(*palavra)
7. final(a | e | o | m | as | es | os | ns)
8. vogal_fraca(i | u | is | us)
9. verbos(ler | dar | ver | crer)
10. derivados(ter | vir)
11. lista_de_diferenciais(pára | pólo | ...)

onde as primeiras fórmulas são regras e as últimas fatos. Utilizamos também o asterisco (*) para identificar
variável, ao modo Witty, discutido no cap. 7.
A tarefa da máquina de inferência é selecionar e então aplicar a regra mais apropriada em cada passo
da execução do sistema baseado em conhecimento, o que contrasta com técnicas de programação
convencional, onde o programador seleciona a ordem na qual o programa deverá executar os passos, ainda
em tempo de programação.
Há sistemas que operam a inferência por caminhamento para a frente, outros se utilizam de
caminhamento retrospectivo e ainda outros empregam ambas as direções.
No caminhamento retrospectivo, o sistema parte da meta (como a identificação de uma espécie de
planta) e pesquisa a cadeia de premissas de todos os fatos envolvidos (como características botânicas) que
permite chegar a uma conclusão com o nome da espécie). No outro tipo de caminhamento, trabalha com
peças elementares de informação (como a lista dos componentes de um sistema de computador) e tenta
– 33 –

seguir para o objetivo combinando estes elementos (como a configuração impressa de componentes que
representem completamente um sistema de computador funcional).
Muitos sistemas que empregam caminhamento retrospectivo são usados para propósitos de
diagnóstico; eles iniciam com algum objetivo (uma lista de sintomas, por exemplo) e tentam descobrir quais
premissas podem ocasionar tais sintomas. Muitos sistemas que utilizam caminhamento para a frente são
usados para propósitos de construção; eles partem de uma série de premissas e as combinam para produzir
algum resultado final. Em muitos casos, a escolha de qual direção o sistema deverá executar é feita
reproduzindo a maneira utilizada por uma pessoa ao resolver o problema.
Conquanto seja possível escrever sistemas de regras de produção em qualquer linguagem de
programação, ambientes especialmente desenhados para o desenvolvimento destes sistemas podem agilizar
sobremaneira a sua construção. Um exemplo de um ambiente deste tipo, que tem viabilizado algumas
aplicações somente pelo fato de existir, é um projeto brasileiro resultado de duas décadas de pesquisa,
enriquecido por dissertações e teses – o Witty (Cap. 7).
Para examinar como seria o funcionamento de uma máquina de inferência, vamos considerar o
conhecimento de zoologia expresso pelas seguintes informações:

1. Toda ave tem penas.


2. Todos animais que cantam são aves.
3. Os animais ovíparos que voam são aves.
4. Canários cantam.
5. Serpentes são ovíparos.
6. Marrecos são ovíparos.
7. Pardais são ovíparos.
8. Morcegos voam.
9. Marrecos voam.
10. Pardais voam.

a partir da qual desejamos saber se o pardal tem penas.


Para tal, vamos transformar estas informações em fatos e regras condicionais. A primeira dela
passará a ter a seguinte forma:
SE um animal for ave ENTÃO ele terá penas.
Representando de maneira simbólica, formalmente a assertiva acima, empregando lógica de
primeira ordem (predicativa), chegaremos a:
SE é_ave(*x) ENTÃO tem_penas(*x)
“ave(*x)” significa “o animal x é uma ave”. Utilizando esta mesma representação para as demais
informações, chegaremos a seguinte base de conhecimento:

[F1] canta(canário)
[F2] é_ovíparo(serpente)
[F3] é_ovíparo(marreco)
[F4] é_ovíparo(pardal)
[F5] voa(morcego)
[F6] voa(marreco)
[F7] voa(pardal)
[R1] SE é_ave(*x) ENTÃO tem_penas(*x)
[R2] SE canta(*x) ENTÃO é_ave(*x)
[R3] SE é_ovíparo(*x) e voa(*x) ENTÃO é_ave(*x)

onde as três últimas representam regras gerais a respeito de qualquer animal (*x) e as primeiras são fatos
específicos de alguns animais.
Introduzindo ao sistema a pergunta O pardal tem penas?, ou, nesta representação
tem_penas(pardal)?, a máquina de inferência partirá da pergunta e examinará os fatos para ver se existe
algum que a responda trivialmente. Como neste caso tal não ocorre, passará a pesquisar os conseqüentes das
regras, à procura do predicado tem-penas, o que ocorre logo na R1.
Como nossa pergunta é sobre pardal e não sobre animais em geral, esta regra será instanciada para
um particular valor de *x (pardal). Este procedimento é permitido porque uma regra geral continuará a valer
em casos particulares e se trata de uma das mais poderosas ferramentas da inferência. Assim, a regra
instanciada resultará em
SE é_ave(pardal) ENTÃO tem_penas(pardal)
Percorrendo de novo a base de conhecimento, veremos que é_ave(pardal) não faz parte dos fatos;
– 34 –

então voltamos a percorrer os conseqüentes das demais regras, encontrando este predicado na R2 que,
particularizada para este valor de *x ficará:
SE canta(pardal) ENTÃO é_ave(pardal)
Agora a nossa submeta é canta(pardal) que, se conseguirmos provar, então será verdade o
antecendente desta regra é_ave(pardal) o que permitirá caminhar para trás até responder a pergunta
original. Infelizmente, este predicado não aparece em nenhum outro fato ou regra da base; quer dizer que
esta caminho falha, precisa ser abandonado e retornar ao passo anterior.
Novamente varrermos a base na procura do predicado ave, encontrando-o no conseqüente da R3, que
instanciada resulta
SE é_ovíparo(pardal) E voa(pardal) ENTÃO é_ave(pardal)
Então nosso objetivo se converteu em duas sub-metas, ambas devendo ser provadas. Felizmente, elas
são fatos (F3 e F7), prosseguindo, é_ave(pardal) é verdadeiro, logo pela R1 tem_penas(pardal) também é
verdade; assim a resposta à pergunta é “SIM”. Este raciocínio está resumido na tabela a seguir e
graficamente, na Fig. 2.2 a seguir.

Inferência
Passo Regra Resultado
1 R1 SE ave(pardal) ENTÃO tem_penas(pardal)
2 R2 SE canta(pardal ENTÃO ave(pardal)
>>> FALHA <<<
3 R3 SE ovíparo(pardal) E voa(pardal)
ENTÃO ave(pardal)
4 F3 ovíparo(pardal)
5 F7 voa(pardal)
6 3 ave(pardal)
7 1 tem_penas(pardal)

tem_penas(pardal)

BASE DE CONHECIMENTO
Se é_ave(pardal)
[F1] canta(canário)
então tem_penas(pardal)
[F2] é_ ovíparo(serpente)
[F3] é_ovíparo(pato)
[F4] é_ovíparo(pardal) 2
[F5] voa(morcego) Se canta(pardal)

[F6] voa(pato) então é_ave(pardal)


[F7] voa pardal
[R1] SE é_ave(*x)
ENTÃO tem_penas(*x)
Se é_ovíparo(pardal)
[R2] SE canta(*x) e voa(pardal) FALHA
ENTÃO é_ave(*x) então é_ave(pardal)

[R3] SE é_ovíparo(*x)
E voa(*x)
ENTÃO é_ave(*x) é_ave(pardal) 3

Figura 2.2 – Funcionamento de uma máquina de inferência, segundo a estratégia de


caminhamento retrospectivo orientado pela meta

O método de representação do conhecimento pode ser definido como a formalização e a estruturação


das informações adquiridas no processo da aquisição de conhecimento. É de suma importância, pois dele
depende a eficiência, a velocidade e a manutenção do próprio sistema. O método escolhido depende,
fundamentalmente, da área de domínio do problema e do problema a resolver, podendo, dependendo do
problema, ser utilizados métodos diferentes de representação ou , até mesmo, mais de um método de
representação na resolução de um mesmo problema.
Segundo (Jackson, 1986), um bom método de representação de conhecimento deve possuir as
seguintes características:
 lógica: o formalismo utilizado deve ser capaz de expressar o domínio do conhecimento;
 heurística: o formalismo construído deve facilitar o desenvolvimento de inferências de novos
conhecimentos, necessários para a resolução de um problema;
 notação: as expressões de representação utilizadas devem ser de fácil leitura e redação, serem
– 35 –

declarativas e possibilitarem a codificação de todos os conhecimentos.

Existem vários métodos ou técnicas para a representação do conhecimento em um sistema baseado em


conhecimento, que a seguir serão sucintamente descritos.

Tripla Objeto-Atributo-Valor (O-A-V). Consiste, basicamente, em caracterizar entidades ou objetos na área


de domínio, associando-lhes um conjunto de atributos e, a estes, um determinado valor. Por exemplo: o
objeto “terreno” pode possuir vários atributos, dentre eles “área”, que possuem um determinado valor, por
exemplo: “500 m2 ”. A representação de uma tripla O-A-V pode ser feita em forma de uma tabela ou em
forma de uma rede onde os nós representam os conceitos de objeto, atributo e valor, e as linhas que os
interligam representam as relações hierárquicas existentes entre os nós, dos tipos: “is_a” (é_um), “has_a”
(tem_um), “a_kind_a” (aka) (um_tipo_de). A representação através de triplas O-A-V é, normalmente,
utilizada para listar os conhecimentos em forma de tabelas, servindo de base para a produção ou indução de
regras heurísticas na base de conhecimento.

Redes Semânticas. Podem ser definidas, basicamente, como a representação de conhecimentos de vários
objetos, como se fosse um conjunto de triplas O-A-V, ou a forma de representar vários objetos e diversos
atributos desses objetos. Esquematicamente, as redes semânticas são representadas como um conjunto de
nós ou nodos que são ligados por meio de arcos, onde cada nodo representa um objeto, uma entidade
conceitual ou um evento e cada arco representa o relacionamento existente entre cada par de nodos, sendo
que cada par de nodos representa um determinado fato. A medida que novos fatos vão sendo associados,
cada nodo pode ser ligado a outros nodos, proporcionando o desenvolvendo da rede. A Fig. 1.3 mostra a
representação de rede semântica, onde o nodo “Lote ARE” especifica um determinado tipo de terreno que
herda todos os atributos concernentes ao nodo/objeto “Terreno” e, também, possui os seus próprios
atributos. A propriedade de “herança” proporciona uma considerável redução na memória de
armazenamento de conhecimentos.

Figura 2.3– Representação de Rede Semântica


Como vantagens podem ser citadas:
1) flexibilidade: nodos e arcos podem ser adicionados a medida que novos fatos são conhecidos;
2) inteligibilidade: devido a sua tendência de orientação à objeto, sua estrutura de representação – suas
características associativa e classificatória, elas tornam-se “parecidas” com a memória humana;
3) simplicidade: devido a representação de conhecimentos através de simples triplas (nodo-arco-nodo) e a
sua capacidade de permitir herança;
4) herança: permite que o seu desenvolvimento tenha uma determinada hierarquia para os objetos,
permitindo, com isto, que qualquer “objeto-filho” (subclasse) herde automaticamente todas as propriedades
do “objeto-pai” (superclasse).

Dentre as desvantagens, destacam-se:


1) diferentemente da representação através da lógica, onde o conhecimento sobre um determinado objeto
pode ser rigorosa e completamente definido, as redes semânticas dificilmente, conseguem atingir este
objetivo. Para isto, elas precisariam ter todos os seus “nodos” e “ligações”, também, rigorosa e
completamente, definidos, o que, dependendo da área de domínio do problema pode ser inviável ou, até
mesmo, impossível, visto que as redes necessitariam uma grande e complexa representação e isto,
certamente, causaria problemas de entendimento e consistência da própria rede.
2) problema da “explosão combinatória” na busca da solução de um determinado problema, isto é,
– 36 –

dependendo do tipo de conexão existente, uma quantidade significativa de nodos, ou até mesmo todos,
podem ser pesquisados.

Lógica Proposicional. A lógica é uma das mais primitivas formas de representação do raciocínio ou
conhecimento humano. No campo da IA, é uma das primeiras formas de representação do conhecimento.
Segundo (Nolt, 1991), a lógica é o estudo de argumentos, onde um argumento é uma seqüência de
enunciados na qual um dos enunciados é a conclusão e os outros são premissas, as quais servem para provar
ou evidenciar a conclusão. As premissas e a conclusão são os enunciados ou proposições.
A lógica proposicional é considerada a forma mais comum da lógica. Baseia-se em que uma
proposição só pode ter um dos seguintes valores: verdadeira ou falsa. As proposições podem ser ligadas
através de conectores ou operadores lógicos formando, assim, as proposições compostas. A Tabela 2.1
mostra os operadores utilizados pela lógica proposicional.

Operador Lógico Significado


 e
 ou
 não
 implica
 equivalência

Tabela 2.1: Operadores Lógicos

A lógica proposicional não é muito adequada para a representação do conhecimento devido,


principalmente, à sua pouca flexibilidade, pois nela, os conhecimentos sobre um determinado objeto ou
conceito limitam-se aos valores verdadeiro ou falso, o que é insuficiente para definirmos adequadamente
este objeto ou conceito e, por conseguinte, insuficiente para a resolução de problemas complexos.

Lógica de Predicados. A lógica de predicados é considerada como uma extensão da lógica proposicional.
Naquela, a validade das proposições (sentenças simples e completas), verdadeiras ou falsas, não leva em
consideração os predicados, ou conceitos, ou atributos, ou relações que um determinado objeto possui, não
conseguindo, assim, caracterizar um objeto ou uma determinada classe de objeto. Em outras palavras, a
lógica proposicional não leva em consideração a estrutura interna das sentenças
Na lógica de predicados os elementos fundamentais são, além do objeto, os seus predicados. Os
predicados são então utilizados para representar os conhecimentos sobre um determinado objeto, levando
em consideração a estrutura interna das sentenças. Os predicados podem estar relacionados com mais de um
objeto e, também, podem ser conectados através dos operadores lógicos. O exemplo a seguir mostra a
insuficiência da lógica proposicional. Assumindo a veracidade dos seguintes fatos:
1. Se for inverno em Paris será verão em Brasília.
2. Se for verão em Brasília, então estará chovendo.
3. Agora é inverno em Paris.
A questão é: Agora está chovendo em Brasília?
Os fatos 1 a 3 acima estão expressos em linguagem corrente e precisaremos utilizar símbolos para
representá-los. Desta forma, seja P, Q e R respectivamente “inverno em Paris”, “verão em Brasília” e “está
chovendo em Brasília”. Introduzindo o símbolo lógico ‘ ‘ (implica), chegaremos a
1. P Q
2. Q R
3. P
que é a tradução daquelas sentenças para fórmulas lógicas. Como conseqüência da validade das fórmulas de
1 a 3, pode-se deduzir que a fórmula
4. R
é igualmente válida, ou seja, é conseqüência lógica das precedentes. Quer dizer, estará chovendo em Brasília.
Vamos agora considerar outro exemplo, expresso pelos seguintes fatos clássicos:
5. Sócrates é um homem.
6. Todo homem é mortal.
Para representar estes fatos precisamos de um novo conceito chamado predicado. Teremos é_homem(*x)
representando “*x é um homem” e é_mortal(*x) para “*x é mortal”. Também necessitaremos do símbolo ‘‘
para significar “para todo”. Assim, os fatos referidos poderão ser escritos como:
– 37 –

1. é_homem(Sócrates)
2. x é_homem(x)  é_mortal(x)
a partir de onde pode-se deduzir logicamente que
3. é_mortal(Sócrates)
significa que Sócrates é mortal.
A lógica de predicados utiliza palavras ou símbolos especiais, chamadas de quantificadores que
tornam as proposições mais exatas ou definidas (Tabela 2.3), além daqueles utilizados na lógica
proposicional.

Símbolo Significado
x “para todo”- Quantificador Universal
x “existe”- Quantificador Existencial

Tabela 2.3: Quantificadores da Lógica de Predicados


A Lógica de Predicados, na sua forma mais simples, é conhecida como Lógica de Primeira Ordem, pois
permite, somente, a quantificação sobre os objetos, e não sobre os predicados ou funções.
Como vantagem do uso da Lógica de Predicados ou Lógica de Primeira Ordem pode-se citar, além da
facilidade da representação de fatos e regras e da consistência da base de conhecimento, a existência de
linguagens de programação baseadas em lógica, entre os quais o Witty utilizado neste trabalho. Por isso, este
assunto será objeto de um capítulo exclusivo para o necessário aprofundamento.

Frames. O uso de frames na representação do conhecimento, significa estruturar através de um quadro (ou
armação, ou moldura), o conhecimento sobre um determinado objeto, ou conceito ou situação. A idéia do
uso de frames, no campo da IA, tem origem a partir de Minsky (Minsky, 1975), para justificar e representar o
reconhecimento de um objeto através da “observação visual”. Segundo esta idéia, o reconhecimento de um
objeto é realizado através da “comparação” de algumas de suas principais propriedades, aquelas que
estamos observando visualmente, com aquelas propriedades já definidas e conhecidas de um objeto
estereotipado e que estão armazenadas na nossa memória. Então, podemos construir uma estrutura, frame,
para um objeto_tipo, contendo suas principais características (slots), cada qual com os seus respectivos
valores e, através desta representação (similar a uma tripla O-A-V), definirmos o objeto à ser reconhecido. A
vantagem do uso de frames com relação as redes semânticas é a facilidade de podermos estruturar uma
maior quantidade de características pertinentes ao objeto.
Segundo (Jackson, 1986), a representação do conhecimento baseada em frame é, devido a sua
organização, mais fácil de ser compreendida do que a representação através da lógica ou através de sistemas
de produção com um significativo número de regras, levando-nos a uma “tendência” em adotá-la.
Entretanto, (Brachmar, 1985), cita que o maior problema no uso dos sistemas baseados em frames reside,
ironicamente, na livre possibilidade de alteração ou cancelamento de slots, o que pode levar-nos à
impossibilidade de expressar certas verdades universais, tal como, definir, de forma absoluta, o frame
elefante, pois, pode ocorrer a existência de um elefante com três pernas. (LUGER, 1989) caracteriza este
problema como o “problema do frame”, isto é, a impossibilidade da formação de uma base de conhecimento
que possa ser considerada absoluta, ou perfeitamente suficiente, ou completa, para a maioria dos domínios
do mundo real.

Regras de Produção. A representação do conhecimento através de regras de produção, consiste em


representar o domínio do conhecimento através de um conjunto de regras. Segundo (Martinez, 1991)
(Rolston, 1988) (Shortlife, 1976) (Sterling, 1988) é a técnica mais popular e utilizada no desenvolvimento de
sistemas baseado em conhecimentos, devido algumas de suas características, dentre elas: modularidade
(forma); facilidade de implantação (escrita e programação) e, também, pelo fato de existir inúmeros pacotes
de desenvolvimento de sistemas baseado em conhecimentos (shells), que as utilizam. As regras de produção
são apropriadas para representar conhecimentos oriundos de recomendações, diretrizes, estratégias e
quando o domínio do conhecimento for resultante de proposições empíricas que foram desenvolvidas ao
longo do tempo através da experiência de especialistas na resolução de problemas.
Consistem de duas partes: a primeira, chamada de antecedente, ou premissa, ou c ondição, ou parte If
(se), a segunda, chamada de conseqüente, ou conclusão, ou ação, ou parte Then (então). Por exemplo:
parte If (antecedente): Lote tem área maior ou igual a 450,00 m 2,
parte Then (conseqüente): É permitida a construção de residência.
As regras de produção são compostas, implicitamente, por triplas O-A-V ou, quando o objeto está
– 38 –

implícito, por pares A-V. As regras de produção podem ser constituídas de várias proposições, tanto na
parte If (premissa) como na parte Then (conclusão), por exemplo:
parte If: O lote é do tipo área_1 ou área_2 and tem área superior a 450,00 m2,
parte Then: Só poderá ter uso residencial and
a taxa de ocupação do lote deverá ser de no máximo 40%.
Na parte If as proposições podem ser ligadas pelos conectores and e or, enquanto que na parte Then
as proposições só podem ser ligadas pelo conector and, pois tratam-se de constatações (conclusões) que
devem ser sempre verdadeiras.
Quando a parte If (condição) é verificada, o sistema baseado em conhecimento através de sua
máquina de inferência, executa o seu “disparo” (inferenciação), isto é, realiza a parte Then (ação). Este
procedimento pode determinar o acréscimo, modificação, ou remoção de fatos dentro da base de
conhecimento. Existem dois tipos de inferenciações ou encadeamentos: o encadeamento para frente ou
forward-chaining e o encadeamento para trás ou backward-chaining, cujo funcionamento é análogo ao
explicadao atrás.
Uma vez adotado um especial instrumento de solução de problemas, deve-se preencher a base de
conhecimento antes de iniciar a aplicação. Estas bases de conhecimento consistem primordialmente de fatos
e regras.

2.3 – Comparação com outros Sistemas

Sistemas baseado em conhecimentos diferem tanto dos sistemas de processamento convencionais


quanto dos de outras áreas da Inteligência Artificial. Contrastando com processamento de dados tradicional,
aplicações da Inteligência Artificial geralmente envolvem várias características distintas, como representação
simbólica, inferência e pesquisa heurística. De fato, cada um destes corresponde a um tópico bem estudado
dentro da Inteligência Artificial. Mas aplicações em sistemas baseado em conhecimentos diferem dos
trabalhos desenvolvidos em Inteligência Artificial em vários aspectos:
1) Executam tarefas difíceis em níveis de desempenho especializados.
2) Enfatiza estratégia de solução de problemas orientados para domínio especifico.
3) Emprega autoconhecimento para raciocinar sobre seus próprios processos de inferência, providenciando
explanações e justificações para as conclusões apresentadas.
4) Resolvem problemas que geralmente caem em uma das seguintes grandes categorias: classificação, projeto
e suporte à decisão.

Como resultado disto, os sistemas baseado em conhecimentos representam um campo de pesquisa em


Inteligência Artificial que envolve paradigmas, ferramentas e estratégias de desenvolvimento usual de
sistemas
Para ressaltar estas características próprias dos sistemas baseado em conhecimentos, onde o
conhecimento não depende de um modelo fixo, podendo ser aplicado de diversas maneiras em novas
situações, é útil a comparação a seguir com processamento tradicional.

Figura 2.4 – Programas Convencionais

Programas convencionais devem seguir um conjunto prefixado de instruções, não possuindo recursos
para se adaptar à mudanças das circunstâncias: sistemas baseado em conhecimentos, por outro lado,
incorporam conhecimento que adquirem de peritos humanos, aplicando-os de novas maneiras em diferentes
circunstâncias.
Em programas convencionais, o conhecimento não é representado explicitamente. Ainda que afete
cada instrução escrita, o conhecimento nunca será separado dos procedimentos que detalham a entrada, o
processamento e a sadia. Nestes programas, o conhecimento sobre a aplicação está espalhado através do
código, e a mudança de um simples fato pode requerer a correção de centenas de linhas em vários
programas. Se uma cadeia de lojas tiver, por exemplo, nove depósitos, cada um representado por um único
dígito em seus programas de inventário e contabilidade, quando for criado o décimo depósito, o custo de
reescrever os programas que permitam o segundo dígito pode-se tornar extremamente elevado.
– 39 –

Desta forma, o problema em sistemas convencionais está em que cada novo fato requer adaptações no
programa: quando um campo de um arquivo necessita ser redimensionado, todos os programas que o
utilizem precisam ser modificados. Cada alteração em impostos, política comercial e formas de relatórios,
requer remendos nos correspondentes programas. Para simplificar modificações, um sistema de
gerenciamento de banco de dados pode remover a descrição de formatos dos procedimentos descritos nos
programas e os colocar em tabelas não procedimentais. Assim, ao invés de ler e gravar independentemente
os arquivos, os programas que o acessem chamam o gerenciador de banco de dados (SGBD) para fazer as
alterações. Desta forma, dados e formatos são controlados pelo SGBD sob a direção de uma tabela de
descritores separada. Sempre que formatos e unidades sejam alterados, somente os descritores mudarão; os
procedimentos permanecerão inalterados.

Figura 2.5 – Programa com SGBD e formatador de E/S


SGBD controla os formatos internos de dados permanentemente armazenados. Para o formato externo
em impressora ou vídeo, gerenciadores de relatórios e telas, fornece o próximo passo da separação entre
formatos de sadia e procedimentos. A Fig. 2.5 mostra um programa de aplicação conectado a um SGBD e
Formatador de EIS, ambos controlados por tabelas de descritores separadas.
Sistemas baseado em conhecimentos consumam mais um nível de separação entre procedimentos
computacionais do fluxo de controle, colocando-os em tabelas de regras não prodedimentais. A Fig. 2.6
mostra a máquina de inferência como um programa fixo que não necessita de modificações quando uma
nova peça de conhecimento for adicionada ao sistema. Todo fato é representado somente uma vez e toda
regra necessária usa a mesma representação. Assim, os sistemas baseado em conhecimentos têm três
elementos separados orientados por regras que servem ao usuário:
 Um manipulador de linguagem que analisa entradas e gera saídas.
 Uma máquina de inferência que deduz, baseada em regras da lógica ao invés de procedimentos.
 Um SGBD que guarda e recupera dados sob solicitação
A tabela de esquemas conceituais da Fig. 2.6 pode ser partilhada tanto pelo manipulador de
linguagem quanto pela máquina de inferência. O mesmo conhecimento que provê a base semântica para
linguagem natural pode também ser usado para dirigir deduções e resolução de problemas.

Figura 2.6 – Sistemas Baseados em Conhecimento (fig. de Sowa, 1984 p. 279)


Desta forma, um sistema baseado em conhecimento deve incorporar suficiente conhecimento para
atingir nível comparável ao dos peritos humanos. Sistemas mais antigos da área de Inteligência Artificial,
como o Resolvedor Geral de Problemas de Newel e Simon (1969), incluem máquinas de inferência, mas não
contêm suficiente conhecimento para resolver problemas significativos. Como a habilidade humana depende
mais fortemente de experiência e conhecimento prático do que de longas provas e deduções, a habilidade do
computador depende primariamente da quantidade total de conhecimento, que pode levar à resolução do
problema. Assim, embora a máquina de inferência seja componente essencial de todos os sistemas baseado
em conhecimentos, uma grande quantidade de conhecimento especifico do domínio em questão será
necessária para tornar curta a dedução.
– 40 –

2.4 – O estado da arte

Houve muitas pesquisas para o desenvolvimento de sistemas baseado em conhecimentos, em


Universidades, Institutos de Pesquisas e Empresas de Engenharia de Softwares, abrangendo as mais diversas
áreas de conhecimento, como programas baseados em raciocínio legal; nas áreas da eletrônica, da ciência dos
materiais, da ciência cognitiva; na área espacial; na indústria de serviços financeiros; aplicações industriais;
geologia; química; controle de processos; entre outros.
Então, a área ganhou grande destaque e prometeu um avanço mirabolante que não ocorreu. Talvez o
melhor exemplo desta pretensão seja o projeto japonês de Quinta Geração. O FGCS (First Generation Computer
System), foi um esforço coordenado pelo ICOT (Institute for New Generation Computer Technology) envolvendo
o MIT (Ministry of International Trade and Industry) e oito das mais destacadas indústrias do país. O projeto
iniciou-se em 1982 com dez anos de duração, contando com a dedicação de cerca de quarenta pesquisadores.
Baseou-se em pressupostos esperando um significativo aumento de processamento não numérico
(manipulação de símbolos) e da Inteligência Artificial aplicada, em três principais linhas de pesquisa: 1)
Sistema de inferência paralelo; 2) Sistema de banco de dados relacional para suportar Banco de
Conhecimento; e 3) PSI (Personal Sequence Inference). O projeto concluiu-se como uma grande falácia, sem
produzir a revolução prometida, ou ao menos, algum resultado significativo.
Nos primórdios da computação, preteriu-se o processamento simbólico em favor do numérico, talvez
na esteira das pesquisas para “máquinas de calcular”, de Pascal a Babbage. Com isso, a resolução de uma
única instrução lógica (dedução) poderia exigir até centenas de instruções de computador. Na época do
projeto de Quinta Geração falava-se em lips (logical instruction per second) e se pretendia construir
equipamentos que as implementasse em hardware, acelerando consequentemente as operações lágicas. Com
o aumento exponencial da velocidade dos processadores, esta questão se tornou irrelevante.
Mesmo sem conseguir atingir metas tão elevadas, a área acumulou casos de sucesso, especialmente
em campos restritos. Continua ativa hoje em dia, muitas vezes em sistemas híbridos. Modernamente se fala
em Inteligência Computacional, conjunto de tecnologias que abrangem além de sistemas baseados em
conhecimento, matérias correlatas como redes neurais, algoritmos genéticos, lógica nebulosa, e sistemas
híbridos, sendo utilizado na construção de sistemas inteligentes de suporte à decisão, modelagem,
otimização, previsão, controle ou automação industrial, reconhecimento de imagens, entre outros,
alcançando muitas vezes eficiência superior aos métodos convencionais.
Uma área bastante atraente para esta tecnologia é a de Sistemas Tutoriais Inteligentes, uma evolução dos
Computer Aided Instruction (Instrução Assistida por Computador) com mais potencial para proporcionar uma
experiência personalizada de aprendizagem para o estudante, simulando as interações professor-aluno.
Segundo o modelo de (JONASSEN, 1993), uma aplicação deste tipo deve atender às seguintes caracterícas
para ser considerado “inteligente”:
1. O conteúdo do tema deve ser codificada de modo que o sistema possa acessar as informações, fazer
inferências ou resolver problemas.
2. O sistema deve ser capaz de avaliar a aquisição do conhecimento pelo estudante.
3. As estratégias tutoriais devem ser projetadas para reduzir a discrepância entre os conhecimentos do
especialista e do estudante.
A arquitetura de um sistema tutorial inteligente considera diversos componentes, como base de
conhecimento do domínio ser estruturado em forma de símbolos de maneira a facilitar a consulta e a
inferência; mapeamento dos aspectos comportamentais do estudadante que possam influenciar o processo
de aprendizagem, destacando os tópicos de maior interesse do aprendiz e a velocidade das interrelações;
abordagens usadas pelo sistema para que o processo de aprendizagem ocorra de forma mais proveitosa,
respeitando as diferentes experiências entre os aprendizes; interface intuitiva e sem complicadores para a
sua utilização, usando técnicas de processamento de linguagem natural. O ensino, por ser uma área que
depende da interação e da adaptação, características tipicamente humanas, apresenta muitas dificuldades na
implementação de soluções computacionais inteligentes. Os poucos projetos existentes não implementam
todas as funcionalidades explicitadas pelos trabalhos teóricos, por isso, há justificativa de se investir no
estudo, tanto das formas de implementação como de planejamento desses sistemas.
O escopo de aplicações para sistemas baseado em conhecimentos é tão extenso quanto o
conhecimento humano. Porém cada nova aplicação tem requeruido trabalho criativo e desafiador, embora
hajam emergidos alguns princípios e sistematizações. Mesmo que as aplicações possam sejam muito
diversas, apresentam três feições comuns:
1. Existem reconhecidos peritos humanos nestes campos;
2. O conhecimento destes peritos pode ser quantificado; e
3. O conhecimento pode ser expresso em regras declarativas no lugar de procedimentos
– 41 –

Se um problema for tão difícil que nenhum humano saiba como iniciar, nenhum sistema de
computador poderá igualmente resolvê-lo. Se o problema requerer julgamentos intuitivos sobre situações
novas – como calcular o potencial de mercado para uma nova invenção ou um roteiro de novela – então a
intuição não poderá ser formalizada num sistema baseado em conhecimento. As aplicações ótimas para tais
sistemas são aquelas que requerem grande volume de conhecimento bem definido e formalizável.
Sistemas baseado em conhecimentos podem servir como filtro para distinção da situação critica em
dezenas de casos rotineiros. Um especialista humano é melhor qualificado que um programa de computador
para julgar o potencial de petróleo ou depósito mineral em uma dada localização. No entanto, a quantidade
de locais a observar e de dados torna-se muito grande, de forma que o sistema acaba sendo necessário para
efetuar a triagem dos mais promissores para a visita do geólogo.
Do vasto acervo de sistemas baseado em conhecimentos existentes, à guisa de um rápido painel sobre
o assunto, destacaremos uma área representativa – a médica – e descreveremos algumas experiências
brasileiras.

2.4.1 – A área médica


As soluções das décadas anteriores propunham programas que realizassem diagnóst icos e fizessem
recomendações terapêuticas. Muita coisa mudou desde então, sendo esta idéia hoje considerada limitada.
Atualmente, há menos ênfase no apoio computacional para a diagnose. Os sistemas baseado em
conhecimentos existentes na atualidade, provavelmente são mais usados no laboratório e em ambientes
educacionais, para vigilância e alertas clínicos ou em áreas muito ricas em dados, como na medicina
intensiva. O objetivo é apoiar os profissionais de saúde no decorrer normal de seus deveres, ajudando em
tarefas baseadas na manipulação de dados e de conhecimentos. Um sistema baseado em conhecimento
poderia funcionar dentro de um sistema de registro eletrônico de dados médicos, por exemplo, alertando o
responsável toda vez que detectar contraindicação para um determinado tratamento planejado, ou quando
encontrar um padrão de dados clínicos que sugiram uma mudança significativa na condição de saúde do
paciente.
Existem vários tipos diferentes de tarefas clínicas aos quais os sistemas baseado em conhecimentos
podem ser aplicados, sugeridas por (Coieira, 1998):
Alertas e lembretes: um sistema baseado em conhecimento conectado a um monitor pode avisar, em tempo
real, aos médicos sobre mudanças na condição do paciente. Em situação menos crítica, pode examinar
resultados de testes laboratoriais e prescrições de medicamentos, enviando avisos por meio do correio
eletrônico.
Auxílio ao diagnóstico: quando um caso for complexo, ou a pessoa que está fazendo o diagnóstico for
inexperiente, um sistema baseado em conhecimento pode determinar um resultado mais provável e seguro.
Crítica terapêutica: o programa pode checar inconsistências, erros e omissões em um plano existente de
tratamento, ou ser usado para formular um tratamento baseado nas condições específicas de um paciente e
nos consensos terapêuticos recomendados.
Reconhecimento e interpretação de imagens: triagens em massa onde o programa pode indicar imagens
que tenham anormalidades em radiografias planas mais comuns, até as imagens mais complexas, como
angiogramas, tomografias e ressonâncias magnéticas, chamando a atenção para exame detalhado pelo
baseado em conhecimento.
Muitos dos sistemas pioneiros, desenvolvidos para serem utilizados durante um encontro clínico com
um paciente, não chegaram a sair dos laboratórios de pesquisa onde foram idealizados, em parte porque eles
não receberam apoio suficiente dos clínicos para permitir seu uso na rotina. Claramente, a base psicológica
para desenvolver esse tipo de apoio é considerada atualmente pouco encorajadora, dado que a avaliação
geral do paciente parece ser um assunto mais importante do que a formulação do diagnóstico.
Outros desses sistemas continuaram a ser desenvolvidos, transformando -se, em parte, em sistemas
educacionais. O DXplain é um bom exemplo. Foi desenvolvid o no Massachussetts General Hospital pelo grupo
do Prof. Octo Barnett de Harvard. Utilizado para diagnóstico em medicina interna a partir de um conjunto
de achados clínicos, como sinais, sintomas e dados laboratoriais. O sistema contém uma base de
probabilidades aproximadas para cerca de cinco mil manifestações associadas a duas mil doenças
diferentes. Estes dados descrevem o relacion amento entre sintomas, sinais e exames de laboratorio com as
doenças do qual fazem parte. Devido à grande quantidade de informações clínicas contidas em sua base de
conhecimento, Dxplain pode prover uma variedade de funções de assistência clínica. Produz uma lista de
diagnósticos possíveis por ordem decrescente de importância e sugere investigações posteriores. Esta
ordenação é uma maneira educacional de ver o dado clínico, uma vez que usualmente não estão disponíveis
em livros de textos ou outras fontes tradicionais de conhecimento.
– 42 –

O DXplain está em uso em vários hospitais e escolas médicas, para consultas médicas, mas
principalmente para educação clínica. Também assume o papel de um livro-texto eletrônico em medicina, ao
correlacionar manifestações e doenças, fornecendo inclusive referências bibliográficas relevantes.

Figura 2.7 –Tela de diagnóstico da versão de demonstraçlão do DXplain

O sistema HELP é mais um bom exemplo. Foi desenvolvido em 1980 na Universidade de Utah. Ele
não apenas apoia as aplicações de rotina de um sistema de informação hospitalar, incluindo o gerenciamento
das admissões e altas, e das prescrições médicas, mas também inclui uma função de apoio à decisão,
emitindo alertas e lembretes aos clínicos, interpretação de dados e diagnóstico de doenças, sugestão de
manejo de pacientes e protocolos clínicos.
O Quick Medical Reference System (QMR) realiza o diagnóstico diferencial em muitas áreas da Medicina
Interna, sendo também útil para ensino. Contudo, tem um grau de profundidade limitado em várias áreas,
como nas doenças cardiovasculares. Seu desempenho foi testado com 31 casos não solucionados dos serviços
médicos de dois hospitais universitários. O diagnóstico obtido foi comparado com a melhor hipótese
diagnóstica fornecida pelo médico que atendia os casos. O diagnóstico definitivo foi o encontrado para os 20
casos que foram resolvidos depois de um seguimento de seis meses. O médico acertou 80% destes casos e
QMR 85%, uma diferença não significativa. Porém, os médicos que não cuidavam do caso (residentes, por
exemplo), acertaram apenas 60% dos diagnósticos. O trabalho de avaliação foi publicado em Annals of
Internal Medicine. 1989; 110(10):824-832). O programa QMR está comercialmente disponível através da
Camdat Corp., Tel. 1-800/875-8355.
A despeito destas histórias de sucesso, os sistemas baseado em conhecimentos não estão sendo usados
rotineiramente. As razões citadas por (Coieira, 1998) são as seguintes:
1. exigência de um sistema de registro médico computadorizado para fornecer os dados (muitas
instituições ainda não têm seus dados disponíveis eletronicamente);
2. projeto de interface pobre desencorajando o emprego, embora mostrem benefícios;
3. pouca adaptação ao processo de assistência médica, exigindo esforço adicional dos profissionais
médicos, já sobrecarregados; e
4. “tecnofobia” dos trabalhadores de saúde com respeito ao uso de computadores. Este autor, no entanto,
acredita que se os usuários de um sistema sentirem que oferece benefício, o utilizarão. Se não,
independentemente de seu valor, provavelmente será rejeitado. Já existem atualmente muitos sistemas
que conseguiram ser aceitos na prática clínica.
– 43 –

(Widman, 1998) acrescenta que embora a área de computação médica tenha contribu ído
significativamente para a melhoria da atenção à saúde, um estudo feito por Shortliffe lança uma sombra
sobre este otimismo. Levantamento de 168 visitas sucessivas em uma clínica de Medicina Interna revelou
que, apesar dela ter toda as histórias clínicas de seus pacientes, com resultados de laboratório e de
radiologia, em 81% das visitas alguma informação julgada importante pelo médico não estava disponível.
Informa ainda que achados semelhantes foram relatados pelo Workgroup for Electronic Data Interchange, de
que 50% dos registros médicos baseados em papel hoje, ou estão perdidos completamente ou contêm dados
incompletos. Outro estudo feito em 1996, encomendado pelo Institute of Medicine dos EUA, descobriu que
cerca de 30% das prescrições de tratamento médico nunca são documentadas.
Este autor conclui dizendo que o campo de informática médica não é novo, contudo parece estar em
sua infância no que se refere a incrementar a prática médica. A informática médica tem o potencial de
beneficiar o atendimento ao paciente, de uma maneira tão efetiva quanto a descoberta de um novo
medicamento ou terapia. Os seus benefícios diretos serão derivados do fato de podermos aumentar a
capacitação e a ação dos médicos e de outros profissionais de saúde , através do melhor acesso ao
conhecimento médico e informação. Esta é a promessa de informática médica e estará à frente evidentemente
do processo de forjar uma nova prática médica na era da informação.
Formas de representação do conhecimento. A mais comum é como sistema de produção baseados em
regras. Estas são formas de representação baseadas em associações entre conceitos, como por exemplo:
“ondas de Osborne são associadas à hipotermia”. Normalmente as regras não definem relações causa-efeito, mas
apenas “receitas” de decisão, usadas no dia-a-dia do profissional. O mecanismo de inferência verifica a
veracidade das regras para cada caso, podendo combinar várias delas até chegar a uma decisão com alto
grau de probabilidade. Um exemplo de uma regra de produção é:
Se as seguintes condições forem verdadeiras:
1) o paciente apresenta estridor respiratório;
2) há história prévia de insuficiência respiratória congestiva
então são prováveis os seguintes diagnósticos:
1) edema pulmonar, com uma probabilidade de 80%;
2) asma, com uma probabilidade de 50%
3) embolismo pulmonar com uma probabilidade de 20%.

Há também sistemas baseados em modelos de causa-efeito. A base de conhecimento especifica


associações do tipo: “uma queda na pressão sangüinea causa aumento do tônus sistema simpático”. O mecanismo
de inferência se baseia em cadeias de relações causais, como por exemplo: “se o paciente tem icterícia, então tem
hiperbilirrubinemia, e se a bilirrubina não conjugada está aumentada, então há comprometimento hepático. Se há febre,
então há infeccção viral ou bacteriana. Então pode tratar-se de uma hepatite”.
Por fim, há os sistemas baseados em casos. A base de conhecimento é formada por dados clínicos
individuais, os quais relacionam casos típicos com os sinais e sintomas apresentados, achados laboratoriais,
diagnóstico e tratamentos utilizados. O mecanismo de inferência utiliza o raciocínio de analogia, bastante
empregado pelos médicos: “se já tive um paciente com as mesmas condições e diagnóstico que esse, então o mesmo
tratamento vai funcionar”.
Conclusões. De acordo com (Coeira, 1998) após a primeira euforia que cercou a promessa de programas de
apoio a diagnóstico, a última década viu uma crescente desilusão com o potencial prático desses sistemas;
embora tenham comprovado sua confiabilidade e precisão em diversas ocasiões. As razões podem ser: 1)
inadequação na adaptação dos programas à prática clínica; 2) resolver problemas não muito relevantes; 3)
impor mudanças na maneira com que os clínicos trabalham. No entanto, quando preenchem um papel
apropriado, os sistemas baseado em conhecimentos oferecem benefícios significativos. Desta forma, uma
das tarefas mais importantes que os desenvolvedores de sistemas baseados na IA enfrentam hoje é
caracterizar de forma precisa os aspectos da prática médica mais adequados para a introdução de sistemas
inteligentes.
Segundo (Widman, 1998), os principais obstáculos para desenvolvimento de sistemas baseado em
conhecimentos para aplicações médicas são:
1. As tarefas médicas são difíceis por causa de diferenças entre os pacientes individuais e a incerteza dos
dados clínicos disponíveis;
2. A gama de erro aceitável é pequena por causa de preocupações éticas e riscos legais;
3. Não há escassez deespecialistas humanos.
4. As exigências de certificação obrigatória dos programas (FDA) desencorajam a comercialização de
sistemas;
5. Diminuição dos fundos de apoio à pesquisa na área.
– 44 –

Por outro lado, os fatores que favorecem uma disseminação crescente de tecnologias de sistema baseado em
conhecimentos são:
1. Avaliação do custo versus eficácia de atendimento médico pagos per capita;
2. Aumento da qualidade na assistência ao paciente;
3. Diminuição das barreiras técnicas (acesso disseminado à Internet, aumento no conhecimento básico de
informática pelos usuários médicos, disponibilidade de computadores mais poderosos e mais baratos).
Um exemplo nacional. O Hospital Virtual Brasileiro, desenvolvido e gerenciado pelo Núcleo de Informática
Biomédica da Unicamp, usa o potencial da Internet para tornar disponíveis informações da qualidade de um
centro de referência. O seu conteúdo é composto por dados estruturados médicos e da área da saúde
humana. Sua arquitetura segue a metáfora de um hospital real, com a informação organizada em
departamentos e setores virtuais.

Figura 2.8 –Tela de entrada do Hospital Virtual Brasileiro


Um compêndio de sistemas de inteligência artificiais em uso clínico rotineiro está disponível na
Internet, no endereço www.coiera.com/ailist/list.html, incluindo sistemas de atenção aguda, sistemas
educacionais, sistemas de laboratório, controle de qualidade e sistemas de administração e de imagens
médicas. A descrição detalhada destes produtos pode ser encontrada no site, assim como um texto sobre
apoio às decisões clínicas.

2.4.2 – Experiências brasileiras


As aplicações de sistemas baseado em conhecimentos no Brasil encontra-se em crescimento em
diversos campos de conhecimento, como em áreas tão díspares como a bancária, a médica, a agro-pecuária, a
jurídica e a geologia, para citar algumas. Nota-se também a tendência a desenvolver-se sistemas baseado em
conhecimentos híbridos. A lista apresentada a seguir não é exaustiva, apenas pretende dar uma idéia de
como esta teconologia está sendo empregada no país.

Aplicações agrícolas. Trabalhos apresentados nos simpósios da Agrosoft, Congresso de Informática Aplicada
à Agropecuária e Agroindústria .
Diagnose Virtual: Um Sistema para Diagnóstico de Doenças do Milho via Web. Relata aspectos de um sistema para
Diagnóstico de Doenças do Milho que foi implementado no subprojeto de Diagnóstico Remoto em
desenvolvimento na Embrapa Informática Agropecuária em parceria com a Embrapa Milho e Sorgo. Este
subprojeto objetiva a implantação de um ambiente na área de sanidade que possilite o diagnóstico de
doenças remotamente e permita também que os produtores e extensionistas tenham um maior acesso aos
veterinários e fitopatologistas da Embrapa através de consultas virtuais. Este subprojeto integra três facetas
tecnológicas: Sistemas Especialistas, Internet e Sistemas de Multimídia.
[www.agrosoft.org.br/trabalhos/ag99/artigo18.htm]
AGROFLO: Sistema Baseado em conhecimento para Planejamento de Sistemas Agroflorestais. Demonstrando a
viabilidade e a aplicabilidade dos sistemas baseado em conhecimentos no processo de planejamento e
projeto de sistemas agroflorestais, foi desenvolvido um protótipo denominado AGROFLO, especificamente
para o caso de sistema “Taungya”, uma forma particular de estabelecimento de culturas florestais em
associação com culturas agrícolas temporárias. Também, devido a grande amplitude do Estado de Minas
Gerais, o sistema teve suas recomendações restritas a duas áreas geográficas do Estado - as Macrorregiões de
Planejamento I - Metalúrgica e Campo das Vertentes e II - Zona da Mata Mineira.
O sistema está dividido em quatro módulos. O primeiro seleciona os componentes do sistema agroflorestal;
o segundo e o terceiro determinam o espaçamento e a necessidade de adubação das culturas,
respectivamente, e o quarto módulo agrega as informações anteriores e as apresentam ao usuário na forma
de um relatório conclusivo. O resultado do teste de validação do AGROFLO, mostrou que o sistema
– 45 –

incorporou, com sucesso, o conhecimento dos peritos consultados. Este fato, aliado ao baixo tempo de
execução apresentado, pode torná-lo um instrumento útil para demonstrar a potencialidade da utilização da
técnica de sistemas baseado em conhecimentos na área de agrossilvicultura, associadas a programas de
fomento florestal.
[http://agrosoft.com/ag95/papers/doc35.htm]
Sistema Baseado em conhecimento no Controle de Gado de Leite. No contexto de agropecuária e agronegócios, os
Sistemas Baseados em Conhecimento podem se revelar importantes instrumentos de auxílio à tomada de
decisões, fornecendo interpretações de resultados técnicos e econômicos e recomendando ações a serem
implantadas. Assim, este sistema controla um rebanho leiteiro ao interagir com o usuário através de
perguntas sobre o manejo do rebanho e apresenta, ao final de cada sessão, um diagnóstico contendo os
problemas encontrados no gado em questão, bem como as soluções viáveis. Além disso, fornece um roteiro
organizado de análise do problema, ao elaborar um instrumento de auxílio à difusão de tecnologia pela
extensão rural, contando com esclarecimentos, sugestões e recomenda ções técnicas.
[http://agrosoft.com/ag95/papers/doc42.htm]

iLab. Empresa que comercializa os seguintes produtos: [www.ilab.com.br/]


iCol – Sistema de Planejamento de Colheita. Aplicação voltada para a definição otimizada da programação
estratégica de corte mensal de cana-de-açúcar de uma unidade industrial para todo o período da safra,
estabelecendo a época ideal de colheita de cada um dos blocos de cultivo, levando em consideração critérios,
restrições e curvas de comportamento a ele relacionados. A otimização da solução baseia-se na aplicação de
técnicas de programação por restrições, utilizando processos de busca por heurística.
iPlan – Sistema de Planejamento de Plantio. Atua em um nível mais alto que o planejamento de colheita, porque
analisa de 3 a 6 anos à frente, definindo a programação de reforma e plantio das áreas de cultivo de cana-de-
açúcar. Essa programação indica os anos ideais de reforma de cada bloco de cultivo, e aponta a variedade
ótima para o plantio segundo também critérios e restrições qualitativos e quantitativos de análise das
variedades de cana-de-açúcar especificadas. Além disto, paralelamente, ocorre todo o processo de
planificação das áreas de cultivo de muda, e uma integração total com o sistema iCol para possibilitar a
simulação das safras seguintes da usina.
iFrota - Sistema de Planejamento de Frota. O sistema gera a configuração ideal de unidades de transporte para
execução da tarefa de transporte de matéria-prima entre o campo e a indústria. Essa configuração ideal pode
ser obtida para um prazo flexível de tempo, seja vislumbrando-se um horizonte de 1 ano, como mesmo de 1
dia de safra. Trabalha com informações referentes às frentes de corte, aos turnos de trabalho, e à
configuração de caminhões da frota da empresa. Obviamente existirão algumas restrições a serem
respeitadas, como o número máximo de caminhões disponíveis, a disposição e extensão de turnos de
trabalho, e as referentes a certos tipos de caminhão em atuarem em algumas frentes de corte.

Aplicações médicas
Diagnóstico de Cardiopatias Isquêmicas, desenvolvido pela Fundação Bahiana de Cardiologia e COPPE/UFRJ.
Esta é uma das doenças de maior incidência no Brasil e no mundo. Pode apresentar -se com agina estável,
instável ou infarto agudo do miocárdio. Um sistema baseado em conhecimento pode ser de extrema
validade, pois, a partir de um grupo de informações básicas iniciais, o sistema pode conduzir um diálogo
com o usuário-médico, a fim de levá-lo ao diagnóstico mais provável. Apoiando na formulação diagnóstica
do problema do paciente e na determinação do tipo e forma de atendimento que lhe deverá ser dado, em
função da gravidade de seu quadro clínico, poderá ser utilizado em unidades de atendimento periféricas
urbanas, de natureza primária da rede pública de saúde, visando auxiliar o médico não especialista, no
encaminhamento de pacientes que requeiram atendimento em uma unidade de referência especializada. Em
sua primeira versão, o sistema obteve para 88 casos de teste, um desempenho conforme o esperado em 80%
dos casos.
[www.informaticamedica.org.br/informed/isquem.htm].

NIACIN. Ferramenta para montar sistemas baseado em conhecimentos médicos em diferentes


especialidades. Para isso representa o conhecimento em forma de 1) Triplas: diagnóstico-descritor-freqüência
de ocorrência (descritor-descritor-tipo de relação) ou 2) Duplas: diagnóstico-tratamento descritor-
importância intrínseca (descritor-confirmabilidade). Na associação entre diagnósticos e sintomas, o elemento
de associação é a freqüência relativa de ocorrência do sintoma na doença. A saída é uma listagem que pode
ser: quais são os sintomas de uma determinada doença, quais as doenças que apresentam um determinado
sintoma, quais os tratamentos para uma determinada doença, etc. A consulta ao sistema baseado em
conhecimento, para realizar um determinado diagnóstico e propor tratamentos para o mesmo, se faz
mediante uma lista de sintomas, que aparece em ordem alfabética na tela do computador. O sistema
mostrou-se ser capaz de trabalhar com diferentes bases de conhecimento, como vaginites, raiva, diarréia
– 46 –

infantil, diarréia infecciosa em neonatos, e doenças exantemáticas. A montagem dessas bases, usando o
NIACIN, é relativamente simples e rápida. Assim, o mecanismo de inferência utilizado no NIACIN, que é
semelhante ao usado no programa TROPICAL, foi testado com sucesso em 40 casos clínicos e
anatomoclinicos obticos junto ao Hospital Universitário da UFRJ.
[www.informaticamedica.org.br/informed/niacin.htm].

Aplicações jurídicas.
CENAJUD - Central Nacional de Decisões Judiciais sobre Drogas. Profissionais como juízes, promotores,
advogados, procuradores, agentes públicos, etc., dispõe de muitos bancos de dados legislativo e de
jurisprudência, através da Internet ou de sistemas do mercado. São centenas de Tribunais, gerando mais de 6
milhões de documentos. Esta recuperação em muitos sistemas ainda requer uma sintaxe para a consulta. Isso
dificulta o acesso ao usuário final, que utiliza na maioria das buscas nestas bases, auxílio de profissionais
intermediários, que conhecem o funcionamento da base de dados, suaa linguagem controlada e a indexação
praticada nele. Esta ferramenta, emprega recuperação de decisões Judiciais com técnicas de Inteligência
Artificial; permite a consulta em linguagem natural, o refinamento da pesquisa através de filtros e a
indexação automática de novas decisões judiciais.
[http://www.ijuris.org/projetos/projetos.htm]

Engenharia Naval
O departamento de Engenharia Naval e Oceânica da Coppe/Ufrj desenvolveu o sistema Diagnóstico de
Motores Diesel, uma aplicação de sistemas baseado em conhecimento utilizando monitoração de variáveis
operacionais ou análise química do ó1eo lubrificante.
[www.oceanica.ufrj.br/]

Monitoração da fotossíntese
O Laboratório de Automação Agrícola da Escola Politécnica da USP propôs a modelagem de fotossíntese por
redes neurais artificiais, uma oportuna aplicação que pretende analisar a absorção do CO2 da atmosfera. É de
domínio público que o efeito estufa, agente do aquecimento global, promove sérias conseqüências à vida
através de alterações climáticas, como secas e enchentes catastróficas, ameaçando a biodiversidade. A
queima de combustíveis fósseis libera na atmosfera enormes quantidades de dióxido de carbono, principal
gás de efeito estufa. Em resposta a essas constatações, sentiu-se a necessidade de controlar a concentração
deste gas. As implicações à existência humana apontam para a a grande importância de se conhecer e
mensurar a fotossíntese, definidora de sumidouros de CO2. Alguns pesquisadores avaliam o potencial da
floresta para atuar como um sumidouro de dióxido de carbono atmosférico. Fala-se da fertilização por este
gás, que é a intensificação da produtividade da vegetação terrestre, com um maior crescimento das plantas,
produzida por efeito de uma concentração elevada de CO 2. Avaliar a troca deste gás nas plantas em seu
ambiente natural, revela-se de importância fundamental. Este trabalho modelou a fotossíntese, transpiração
e condutância estomática com redes neurais artificiais, no nível da folha em Hymenaea courbaril L. (jatobá),
utilizando os dados coletados no projeto de Fitomonitoração.
[www.pcs.usp.br/~laa/Grupos/CLIMA_modelagem_de_fotossintese.php]

Produção e distribuição de energia elétrica


A crescente demanda da malha das redes de transmissão e distribuição de energia elétrica e o aumento de
sua complexidade, requer sistemas de operação, supervisão e controle cada vez mais complexos, exigindo
cada vez mais dos recursos humanos de operação, análise e manutenção desses sistemas. A escassez destes
recursos humanos exigirá a concepção de sistemas de operação e supervisão mais inteligentes, capazes de
reduzir o tempo de formação dos profissionais da área e minimizar os erros de operação com a redução do
tempo gasto em análise para a obtenção dos diagnósticos das falhas. Atualmente são crescentes os
investimentos no sentido da automatização dos complexos associados aos sistemas de produção,
transmissão e distribuição de energia elétrica. O Sistema Integrado de Operação Supervisão e Controle possibilita
as funções referentes a operação convencional dos sistemas e o diagnóstico das falhas possíveis, dando ao
operador subsídios para as tomadas de decisões, incluindo onde possível, o bloqueio de comandos errados,
corrigir e até mesmo ensinar o operador. O sistema com base em conhecimento está voltado à integração da
operação, supervisão e diagnósticos de falhas de sistemas de energia elétrica, e, em um estágio mais
avançado, um sistema que ensine o operador neófito a lidar com o sistema, de modo interativo e amigável,
possibilitando como conseqüência, a utilização de operadores menos especializados. O protótipo constuído
foi de uma modelagem acadêmica, portanto não implementou todas as funções necessárias, mas tão somente
algumas, de forma suficiente a que seja possível demonstrar a viabilidade do sistema baseado em
conhecimento para este fim.
[www.eps.ufsc.br/disserta98/maia/cap1.htm]
– 47 –

3. Um passeio pela potencialidade do software

3.1 – O que o Idealize faz por você

Ao observamos uma realidade complexa, temos tendência a desenvolver abstrações simplificadoras


para facilitar nossa compreensão. Neste processo, podemos desprezas fatos relevantes que resulta em uma
avaliação incompleta. O mesmo fato narrado por diversos observadores, às vezes são diferentes ao ponto de
se tornarem contraditórios. Desta forma, muitas vezes precisamos utilizar cuidadosos refinamentos da
observação, de forma a registrar uma representação mais próxima do mundo real.
O Idealize pode se converter em um instrumento para esta função, uma vez que o programa além de
processar o conhecimento, conta com recursos de inferência, linguagem de programação de sistemas
baseados em conhecimento e interface gráfica que permite manipular objetos aos quais podem ser agregados
diversos valores.
O seu potencial inclue, entre outros, a capacidade de
 Organizar conhecimento esparso;
 Estruturar o raciocínio;
 Visualizar confiabilidade de informações;
 Dispor cenários alternativos;
 Adquirir conhecimento;
através de recursos visuais de fácil apreensão.
O problema de reunir informações significa tratar com imensa massa de dados, às vezes em recortes
avulsos e cópias em papéis soltos, o que pode ocasionar o extravio de algum pormenor importante. O
Idealize estrutura as informações de forma eletrônica, reunindo dados esparsos em diversas fontes. Para
isso, trata os mais importantes tipos de arquivo – sejam de texto, imagem ou multimídia. Também
possibilita a captura de partes de textos de diversos documentos e permite que haja acréscimo incremental,
para montar um acervo de forma gradativa.
Antes de iniciar a série de exemplos que servirão para sucessivas aproximações das diversas
potencialidades do software, exibiremos os principais conceitos através de casos extremamente simples que
auxiliarão sua compreensão.
Para exibir os principais elementos do Idealize, como objeto, relacionamento e documento associado,
imaginemos que se tenha uma coleção de artigos científicos espalhados em diversos arquivos qeu abrangem
quatro áreas: Astronomia, Biologia, Medicina, Paleontologia. Poderemos utilizar o software para apresentá-
los de uma forma visual organizada e de fácil acesso. Os objetos em geral são na forma de retângulo, mas
podem apresentar outras formas ou até ser substituídos por imagens. Há relacionamentos de hierarquia
entre eles, sinalizadas por setas. Os objetos possuem diversas propriedades, entre elas os documentos
associados. Desta forma, os artigos do assunto biologia poderiam ser apresentado na forma da Fig. 3.1 a
seguir.

Figura 3.1 – Artigos de biologia

O símbolo do livro aberto no canto superior esquerdo dos objetos indica a existência de arquivo
associado, ilustrados pela Fig. 3.2 da página seguinte.
– 48 –

Figura 3.2 – Documento associado ao objeto

Reunindo os demais assuntos que houver (neste exemplo mais três) de maneira semelhante aquela
mostrada atrás, precisaremos criar uma porta de entrada para acessar os assuntos, como esta da Fig. 3.3 a
seguir. As setas apontando para a direita no canto superior esquerdo identificam que estes objetos estão
expandidos numa página de continuação, página esta onde este mesmo objeto aparece com a seta apontado
para a esquerda (ver Fig. 3.1), indicando que se originou de outra.

Figura 3.3 – Relação de assuntos disponíveis


☺ Veja o cenário Ciência na pasta Cap. 3 do CD-Rom.

No sentido mais estrito – não levado em conta na montagem anterior – estas setas indicam
dependência lógica, onde os elementos descendentes são argumentos usados para justificar o ascendemte,
formando uma cadeia de dedução que pode ser analisada para comprovar ou negar uma tese sendo
avaliada. Para isso, considere um evento sobre «Lúcio Apuleio, escritor latino (c. 125 - c. 180). Casado com
uma viúva rica, foi acusado pelos parentes de sua esposa de haver utilizado magia para obter seu amor.
Defendeu-se através de uma célebre Apologia , que se conservou até nossos dias» [Wikipedia].
A partir de fragmentos de texto retirado de «Apuleio acusado de magia» (História Viva, n°
43, maio/2007, p. 45 a 47), vamos estruturar o texto em objetos para responder à questão:
Apuleio utilizou-se de encantos mágicos
Colocaremos um a um os argumentos e sua representação no Idealize ao lado:
– 49 –

Há mais dois argumentos que omitiremos porque os três discutidos são suficientes para a
demonstração que pretendemos. As cores diferentes para os argumentos da acusação (verde) e da defesa
(vermelho), agregam mais informação ao gráfico. Como veremos, o uso de cores é padronizado no Idealize
permitindo uma identificação imediata de seu significado, podendo ser adaptado pelo usuário.
O gráfico completo encontra-se na Fig. 3.4 a seguir.

Figura 3.4 – Argumentos de acusação e defesa de Apuleio


☺ Veja o cenário Apuleio na pasta Cap. 3 do CD-Rom.

Exemplo 3.1 – Organizar conhecimento

Para esta demonstração, vamos focalizar nossa atenção na ação do terror em Madri, que ocorreu em
11 de março de 2004, tentando responder à pergunta
As declarações do governo espanhol que aquele atentado era da ETA,
influiram no resultado das eleições?
Para estruturar este levantamento, precisamos tomar umas decisões prévias sobre onde iremos buscar
informações e avaliar estes meios. As notícias que vemos na imprensa não devem ser encaradas como
verdades absolutas, mas sim como versões, mais ou menos fiéis aos acontecimentos, cujas imprecisões
podem advir de erros de avaliação intencionais ou não. Assim, fidelidade das fontes de notícias é um
aspecto que sempre devemos levar em conta. Nem sempre são isentas e podem defender algum interesse.
Para exemplificar, durante o segundo governo de Vargas, a Última Hora sempre o apoiava, enquanto as
publicações vinculadas à UDN o denegriam sistematicamente, com uma paixão que transcendia à verdade.
Na atualidade, a grande imprensa brasileira tenta ser menos sectária. Ainda assim, o primeiro cuidado que
se deve tomar é com a fonte da notícia, qual é sua orientação editorial, quais os interesses dos proprietários
ou dos anunciantes, a ótica ou opinião do jornalista e assim por diante.
– 50 –

Desta forma, para melhorar nossa aproximação aos fatos, devemos sempre buscar informações em
diversas fontes. Entre aquelas disponíveis com acesso pela Internet, estão os portais de notícias, as revistas e
os jornais. Preferimos estes últimos, para poder acompanhar a evolução das notícias diariamente. Vale a
pena lembrar que, em geral, exigem algum tipo de assinatura para acessar seus sites. Para simplificar este
exercício, dispensamos os jornais internacionais – como Times, Le Monde, El País ou NY Times – e nos
fixaremos em dois veículos nacionais, a Folha de S. Paulo e o Jornal do Brasil que, para este assunto
específico podem ser considerados isentos.
Nossa intenção é acompanhar os acontecimentos até que tenhamos dados suficientes para responder
à questão, o que pode significar muitos dias. Manteremos também as notícias das duas publicações em
conjuntos separados para uma melhor análise de insenção, levando em conta as considerações acima.

Figura 3.5 – Estrura hierárquica das notícias.


Dentre as alternativas de organização, destacamos a temática e a cronológica, sendo esta última mais
adequada para permitir avaliar a evolução dos fatos. A estrutura poderia ser hierárquica, como ilustrada na
Fig. 3.5 da página anteior. Sendo a quantidade de notícias imprevisível, não teremos controle sobre o
crescimento do gráfico, que poderá se tornar grande e confuso, exigindo incômoda rolagem de tela para ser
acompanhado. Isto pode ser evitado com o uso de um recurso do Idealize, a página de continuação,
permitindo uma organização mais adequada, como uma página por dia, tornando mais fácil o acesso às
informações.
Como já vimos, os objetos do Idealize podem ter arquivos associados, neste caso a própria notícia e
deverão ter um nome que seja um resumo significatico de seu conteúdo, não ao estido de manchete de jornal
mas de uma vinheta, uma frase completa que possa ser analisada. Esta exigência não tem a ver apenas com
uma compreensão mais clara do conteúdo, como também ao uso de mecanismos de análise embutidos no
produto que serão vistos mais adiante.
Reuniremos todas as notícias sobre o assunto, mesmo que não pareçam relevantes para não deixar
escapar nenhum detalhe. Para facilitar a conclusão, a cada dia faremos uma seleção das evidências que
surgirem para a resposta da pergunta, como um resumo do dia e do jornal.
No primeiro dia colhemos nove notícias em um jornal e cinco no outro. O teor variava entre o horror
causado pelo atentado e a comoção mundial que ocasionou e algumas análises políticas. Ocorreu a poucos
dias de eleições na Espanha onde o chefe do partido conservador, José María Aznar era o franco favorito. De
imediato, o governo tentou responsabilizar a ETA pelo atentado, uma vez que os separatistas bascos foram
duramente reprimidos por este governo e poderiam tentar um feito espetacular buscando os holofotes dos
quais andavam ausentes. Esta versão predominou no primeiro dia, o que fortaleceria Aznar. No entanto, já
houve algumas sugestões que poderia ser de inspiração da Al Qaeda porque era muito diferente de ataques
anteriories da ETA, que procurava atingir um alvo determinado e não uma matança indiscrimada. Neste
caso, seria desfavorável ao atual primeiro-ministro, que se aliou aos EUA na invasão do Iraque, contra a
opinião da maioria dos espanhóis. Assim, havia indícios inconclusivos para os dois lados e a eleição ainda
não havia ocorrido. Na Fig. 3.6 a seguir, as setas no canto superior dos objetos indicam que há continuação
(direita) e a própria página de continuação (esquerda).

Vous aimerez peut-être aussi