Académique Documents
Professionnel Documents
Culture Documents
CENTRO POLITÉCNICO
PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA
DM-2009/2-002
ii
Agradecimentos
– meus pais Nelcy da Silva e Eleiva Corrêa da Silva, que não mediram esforços, frente
às adversidades, para a conclusão de mais esta etapa de minha vida;
– meus irmãos Adriane e Renato Corrêa da Silva, que prestaram conselhos valiosos no
decorrer da empreitada;
– meus sobrinhos Rafaela e Pedro da Silva Moreno, que foram minha fonte de inspira-
ção nos momentos mais difíceis;
– minha namorada Ingrid Simões Gross, que faz com que meus dias sejam cada vez
mais felizes e plenos;
– meu cunhado Claiton Baes Moreno, que sempre acreditou em meu potencial;
– os colegas André Moraes e Rafael Burlamaqui, que com muito apoio, cumplicidade,
amizade, atualidades, rivalidade e uma dose de detonação, serviram de respaldo para superar os
momentos mais desafiadores do curso, com muito bom humor;
– meus amigos e familiares em geral, que sempre estiveram por perto revigorando a
energia para que eu pudesse encarar os momentos árduos com serenidade;
– meu Professor Adenauer Corrêa Yamin, que me mostrou, com seu exemplo, que
podemos nos tornar grandes homens sem perder a essência;
iii
Epígrafe
iv
Sumário
Lista de Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix
Lista de Siglas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv
Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xix
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xx
1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Motivações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Lógica Fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
v
2.3.1 Sistemas Fuzzy Intervalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Algoritmo Genético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
vi
5.2.2 Raio-X e Equipamentos Digitais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6 Arquitetura Proposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7 O Sistema Proposto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8 Estudos de Caso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
vii
8.4 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9 Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Publicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
viii
Lista de Figuras
Figura 1 Clássica: (a) união; (b) intersecção; (c) complemento; (d) diferença. ....... 6
Figura 2 Fuzzy: (a) união; (b) intersecção; (c) complemento; (d) diferença. ......... 7
Figura 4 e ∪ A,
e (b) meio excluído A
Fuzzy: (a) A; e ∩ A,
e X; (c) contradição A e ∅. ...... 9
Figura 13 (a) restrição, ótimo local e ótimo global; (b) convergência prematura. . . . . . . 28
Figura 20 Quantização monocromática: (a) 256 níveis; (b) 16 níveis; (c) 2 níveis. . . . . 38
ix
Figura 22 Etapas do processamento digital de imagens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Figura 23 Exemplo de histograma da imagem: (a) baixo contraste; (b) alto contraste. . 42
Figura 26 Filtragem: (a) imagem original; (b) filtro passa-baixa; (c) filtro passa-alta. . . 45
Figura 38 Chassi, ecrãn e filme: (a) chassi; (b) acoplamento ecrãn e filme. . . . . . . . . . . . 58
Figura 39 Radiografia: (a) leitora digital; (b) estação de trabalho; (c) impressora laser. 59
Figura 42 Radiografia: (a) digital - alto contraste; (b) convencional - baixo contraste. . 65
x
Figura 47 Arquitetura servidor - processamento e armazenagem. . . . . . . . . . . . . . . . . . . . . 74
Figura 55 Histograma: (a) densidade baixa; (b) densidade média; (c) densidade alta. . . 88
Figura 63 Imagem: (a) original; (b) particionamento quadtree; (c) segmentação resul-
tante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Figura 65 Partição inicial: (a) 64 quadrantes; (b) 16 quadrantes; (c) 4 quadrantes. . . . . . 102
Figura 66 Segmentação da necrose obtida com precisão (a) alta; (b) média; (c) baixa . . 104
Figura 67 Imagens de raio-X da Tíbia e Fíbula (a) corte inferior (b) corte superior . . . 105
Figura 69 Imagem de raio-X (a) original; (b) quadtree; (c) segmentação resultante . . . . 107
Figura 70 Histograma da imagem: (a) original; (b) com a segmentação; (c) padrão espe-
rado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
xi
Figura 71 Fuzzificação e pertinência: (a) idade; (b) entrada 1 densidade; (c) entrada 2. 109
Figura 72 Defuzzificação por centróide: (a) idade + entrada 1; (b) idade + entrada 2. . 110
Figura 73 Radial fuzzy: (a) normal; (b) osteopenia tendendo à osteoporose. . . . . . . . . . . 111
Figura 79 Fatores de risco: (a) cadastro dos fatores; (b) cadastro dos grupos. . . . . . . . . . 125
xii
Lista de Tabelas
xiii
Tabela 22 Resultados para necrose, precisão baixa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Tabela 24 Pertinência de saída pela regra MIN para os valores de idade e entrada 1. . . . 109
Tabela 25 Pertinência de saída pela regra MIN para os valores de idade e entrada 2. . . . 109
Tabela 26 Funções de saída resultante da regra MAX obtidas a partir da regra MIN. . . 110
xiv
Lista de Siglas
AG Algoritmo Genético
xv
FOV Field of View
Hz Hertz
LZW Lempel-Ziv-Welch
xvi
pixel Picture Element
xvii
Lista de Símbolos
∩ Operação de Intersecção
∪ Operação de União
A
e Conjunto Fuzzy A
B
e Conjunto Fuzzy B
A Conjunto Clássico A
B Conjunto Clássico B
X Conjunto Universo X
Y Conjunto Universo Y
A
e Operação de Complemento associado ao Conjunto Fuzzy A
xviii
Resumo
Palavras-chave: lógica fuzzy; sistemas fuzzy intervalares; algoritmo genético; algoritmo ge-
nético adaptativo; processamento de imagem; sistema CAD; radiologia digital; radiologia e
diagnóstico por imagem; processamento paralelo e distribuído.
xix
Abstract
Osteoporosis is a disease characterized by low bone mass and deterioration in the mi-
croarchitecture of bone tissue. Moreover, this is the most common metabolic disease and the
leading cause of fractures by skeletal fragility. It is globally considered one of the major public
health problems for its increasing prevalence and association with vertebral fractures and other
broken bones, whose individual and social consequences are serious.
There is a equipment called bone densitometry to identify this disease. But, it is neces-
sary other alternatives to the use of bone densitometry, because the equipment is very expensive
and does not exist in the largest network of health care in the country, which is the public basic
health units.
In this sense, is being presented a proposal to develop a computational tool to facilitate
the diagnosis and management of therapy with reduced operating costs from the use of con-
ventional X-ray, using algorithms for segmentation and classification of images, showing the
treatment of uncertainties arising from different stages of processing.
For this purpose, are used several resources of theoretical and applied researches. Also,
genetic algorithms are applied in the segmentation of the original image, using the quadtree
partitioning. Still, the resulting classification is a process of fuzzification related to quantita-
tive values of bone density and qualitative risk factors. Therefore, the models covered by this
work provides both information about bone mineral density: qualitative, derived from the fuzzy
model, and quantitative, originated from genetic algorithm model.
Key-words: fuzzy logic; interval value fuzzy systems; genetic algorithm; adaptive genetic al-
gorithm; image processing; CAD system; digital radiology; radiology and image diagnosis;
processing parallel and distributed.
xx
1
1 Introdução
1.1 Motivações
Sabe-se que o HUSFP não possui o densitômetro ósseo, por ser um equipamento bas-
tante caro e inacessível à maioria dos hospitais e das unidades básicas de saúde. Entretanto, esse
tipo de equipamento é importantíssimo para o diagnóstico da osteopenia, que é uma patologia
considerada estágio inicial da osteoporose.
Um outro fator importante que motiva a realização dessa proposta é o experimento que
será posteriormente sugerido em conjunto com o HUSFP — pólo reconhecido de pesquisa em
neonatalogia —, a qual envolverá o acompanhamento do crescimento de nascidos prematuros
a partir de imagens digitalizadas de raio-X. Assim, um banco de imagens de prematuros as-
sociado às informações de DMO provenientes da ferramenta computacional desse trabalho de
pesquisa, poderá estabelecer um padrão de crescimento dos prematuros, facilitando diagnósti-
cos de possíveis desvios ou deficiências no desenvolvimento dos bebês.
1.2 Objetivos
Com isso, pretende-se desenvolver uma ferramenta computacional que gerencie o pro-
cessamento de um grande fluxo de imagens digitais oriundo de hospitais e postos de saúde, com
o propósito de efetuar a segmentação e a classificação das informações médicas, possibilitando
assim, o diagnóstico da DMO.
Além disso, essa dissertação conta com a introdução, o capítulo da arquitetura pro-
posta, o capítulo da proposta propriamente dito, os estudos de caso, a conclusão, as referências,
os trabalhos publicados e, o anexo.
No capítulo 2 são abordados conceitos referentes à teoria dos conjuntos fuzzy e siste-
mas fuzzy intervalares.
O capítulo 4 tem como objetivo principal ressaltar alguns conceitos referentes ao pro-
cessamento de imagens e técnicas de processamento utilizadas nessa proposta.
2 Lógica Fuzzy
Neste capítulo abordam-se conceitos referentes à teoria dos conjuntos fuzzy, aspectos
históricos e sistemas fuzzy intervalares, objetivando-se um melhor entendimento sobre sistemas
fuzzy como forma de integração e elaboração de novas estratégias para classificação de dados
imprecisos na área médica.
A noção de conjunto fuzzy foi dada por Zadeh (1965) com o objetivo de definir conjun-
tos que não possuem fronteiras bem definidas e, a lógica fuzzy, é baseada na teoria dos conjuntos
fuzzy. Esta é uma generalização da teoria dos conjuntos tradicionais para resolver os paradoxos
gerados a partir da classificação verdadeiro ou falso da lógica clássica. Tradicionalmente, uma
proposição lógica tem dois extremos: ou completamente verdadeiro ou completamente falso.
Entretanto, na lógica fuzzy, uma premissa varia em grau de verdade de 0 a 1, o que leva a ser
parcialmente verdadeira e parcialmente falsa (TANSCHEIT, 2003).
1e e ... N
e para conjuntos fuzzy e A, B, C ... N para conjuntos clássicos
A, B,
e C
2
É atribuído grau de pertinência 0,5 ao elemento 10 associado ao conjunto fuzzy A.
3
John Venn, nascido na Inglaterra, criador dos diagramas de Venn adotados pela matemática moderna.
7
união A ∪ B = {x | x ∈ A ou x ∈ B}
intersecção A ∩ B = {x | x ∈ A e x ∈ B}
complemento A = {x | x < A , x ∈ X}
união µA∪
e Be(x) = µA
e(x) ∨ µ B
e(x)
intersecção µA∩
e Be(x) = µA
e(x) ∧ µ B
e(x)
involução A=A
A∩B= A∪B
princípio de Morgan
A∪B= A∩B
Nota (1): A formalização destas propriedades utilizam operadores da lógica clássica.
axioma de contradição e∩ A
A e, ∅
A análise das referidas exceções pode ser observada na Figura 3, cuja representação é
dada por um conjunto clássico, e na Figura 4 a representação é dada por um conjunto fuzzy.
Segundo Tanscheit (2003), uma variável linguística é aquela cujos valores são nomes
de conjuntos fuzzy. Por exemplo, a temperatura de um determinado processo pode ser uma
variável linguística assumindo valores baixa, média, e alta. Esses valores são descritos por
intermédio de conjuntos fuzzy, representados por funções de pertinência, conforme mostrado na
Figura 5.
De modo genérico, os valores de uma variável linguística podem ser sentenças em uma
linguagem especificada construídas a partir de termos primários (alto, baixo, pequeno,
médio, grande, zero, por exemplo), de conectivos lógicos (negação “NÃO”, conectivos “E”
e “OU”), de modificadores (muito, pouco, levemente, extremamente) e de delimitado-
res (como parênteses “()”) (JAFELICE et al., 2005; TANSCHEIT et al., 2007).
A principal função das variáveis linguísticas é fornecer uma maneira sistemática para
caracterização aproximada de fenômenos indefinidos. Em essência, a utilização do tipo de
descrição linguística empregada por seres humanos, e não de variáveis quantificadas, permite
que sistemas muito complexos sejam analisados através de termos matemáticos convencionais.
Formalmente, uma variável linguística é caracterizada por uma quíntupla (N, T(N),
X, G, M), onde: N é o nome da variável; T(N) é o conjunto de termos de N, ou seja, o conjunto
de nomes dos valores linguísticos de N; X é o universo de discurso; G representa as regras
sintáticas para gerar os valores de N (como uma composição de termos de T(N), conectivos
lógicos, modificadores e delimitadores) e, M indica as regras semânticas para associar a cada
valor gerado por G um conjunto fuzzy em X (TANSCHEIT, 2003; TANSCHEIT et al., 2007).
(a)
(b)
(c)
Figura 7: Funções de pertinência: (a) baixa; (b) média; (c) alta
12
Segundo Tanscheit et al. (2007) funções de pertinência contínuas podem ser definidas
por intermédio de funções analíticas. Por exemplo, a função µAe(x) = (1 + (a(x − c))b )−1 pode
ser usada para definir as funções de pertinência associadas aos conjuntos fuzzy correspondentes
aos termos pequeno, médio e grande. A forma de µAe(x) pode ser modificada através da
manipulação dos três parâmetros a, b e c, como observado na Equação 2.1 .
µ pequeno (x) = (1 + (9x2 )−1
µAe(x)
µmédio (x) = (1 + (9(x − 0, 5))2 )−1 (2.1)
µgrande (x) = (1 + (9(x − 2))2 )−1
Conforme Tanscheit (2003) as relações podem ser expressas de forma analítica (para
universos infinitos, por exemplo), ou de forma tabular, muito utilizada no caso de universos
finitos e discretos. Esta última forma recebe o nome de matriz relacional, cujos elementos, em
se tratando de conjuntos fuzzy, são valores infinitos entre zero e um.
Proposições fuzzy podem ser combinadas por meio de diferentes operadores, como, por
exemplo, os conectivos lógicos E e OU, a negação NÃO e o operador de implicação SE...ENTÃO.
Assim, as proposições fuzzy daí resultantes podem ser descritas em termos de relações fuzzy
(TANSCHEIT, 2003; JAFELICE et al., 2005; TANSCHEIT et al., 2007).
Como exemplo pode-se imaginar um programa fuzzy, com base na arquitetura abor-
dada, o qual controla uma aceleração baseando-se em dois valores de entrada, que correspon-
dem à velocidade (em KM/H) e temperatura (em ◦ C)5 de um carro e de seu motor, respec-
tivamente. Esse sistema fornece como saída um resultado relativo à pressão de aceleração
(em PSI)6 com o objetivo de obter o melhor rendimento do motor baseando-se na necessidade
do motorista.
5
Grau Celsius, unidade de temperatura proposta pelo astrônomo sueco Anders Celsius (1701-1744)
6
Abreviatura, do Inglês, significa libra-força por polegada quadrada.
16
Os sistemas fuzzy, segundo Silveira (2002), têm sido utilizados nos últimos anos para
tratar os problemas que envolvem imprecisão. No entanto, algumas vezes é difícil para o espe-
cialista representar seu conhecimento através de números reais, podendo determinar, por exem-
plo, que um determinado valor possui um grau de verdade de 0.3, sendo complexo determinar
se esse grau de veracidade é 0.34 ou 0.39. Além disso, quando a aquisição do conhecimento é
realizada entre vários especialistas é comum alguma divergência de valores.
17
Essa definição estende toda a teoria de conjuntos fuzzy para uma teoria de conjuntos
fuzzy intervalar suficientemente capaz de expressar qualquer conjunto fuzzy, seja este intervalar
ou não, sendo que os valores inteiros dos conjuntos fuzzy não intervalares são representados por
intervalos degenerados7 . Tal generalização pode ser ainda estendida para qualquer entidade
fuzzy, pois todas elas são definidas a partir de uma entrada e um grau de pertinência.
Observa-se na Figura 10 (b) que cada valor constituinte do intervalo hipotético [a,b]
contém um limite inferior e um limite superior correspondente ao respectivo grau de pertinência.
(a) (b)
Figura 10: Função de pertinência: (a) intervalar; (b) valores intervalares de entrada.
Fonte: Cruz A.; Bedregal (2007), modificados pelo autor.
7
Quando o limite inferior e o limite superior do intervalo são iguais.
8
Regiões mais distantes do extremo.
18
Um sistema fuzzy intervalar é baseado na teoria dos conjuntos fuzzy intervalares e se-
gue todas as etapas do desenvolvimento de um sistema fuzzy convencional, mas se valendo de
valores e funções intervalares ao invés de números reais.
Essa questão torna-se indispensável no escopo dessa proposta. Isso porque tem como
objetivo prover: uma modelagem fuzzy que suporte dados decorrentes de PDI contendo infor-
mações imprecisas e um grande número de especialistas envolvidos na modelagem do sistema.
Então, a abordagem intervalar constitui uma forma adequada de desenvolver a proposta.
A lógica fuzzy trabalha de forma mais acessível, aproximando uma função originada
de associações linguísticas de entrada e saída, aos dados obtidos com o PDI, e aplicando regras
da teoria dos conjuntos fuzzy na resolução de problemas os quais teriam difícil modelagem
por uma teoria mais rígida. Devido suas possibilidades, a lógica fuzzy tem encontrado grandes
aplicações em áreas como: raciocínio aproximado, robótica, PDI, reconhecimento de padrões,
sistemas de controle, tomada de decisão, medicina (KLIR; FOLGER, 1987; COX et al., 1998).
19
3 Algoritmo Genético
Neste capítulo apresentam-se conceitos dos algoritmos genéticos, que são algoritmos
matemáticos inspirados nos mecanismos de evolução natural e recombinação genética. Outro
fator abordado é existência desse algoritmos com técnicas auto-adaptativas, que melhoram o
desempenho do algoritmo tradicional.
O algoritmo criado por Holland era capaz de resolver problemas complexos de uma
maneira muito simples e tinha sua metodologia baseada em uma população (um conjunto) de
algumas cadeias de bits ( 0’s e 1’s)1 denominados indivíduos2 . Semelhante à natureza, o sistema
evoluía até o melhor cromossomo atender um problema específico, mesmo sem saber as carac-
terísticas do problema que estava sendo solucionado. A solução era encontrada de um modo
automático e não-supervisionado, sendo que as únicas informações dadas ao sistema eram ajus-
tes ao cromossomo (AGUIAR, 1998).
1
Para os exemplos serão utilizados cadeias de 5 bits.
2
Por convenção um indivíduo é constituído por um cromossomo.
20
A criação de uma população inicial pode ser efetuada de várias formas. Uma das
maneiras é através da geração aleatória, em que não haverá influência do meio externo. Quando
é através de uma seleção heurística, as soluções são buscadas por aproximações sucessivas
avaliando-se os progressos alcançados. Qualquer conhecimento que se tenha sobre o problema
deve ser utilizado na inicialização da população, minimizando, assim, o tempo de computação
(CONCILIO, 2000).
O método roleta atribui a cada indivíduo uma probabilidade, proporcional ao seu cál-
culo de aptidão, de passar para a próxima geração. Portanto, quanto maior for a aptidão de um
indivíduo, maior sua probabilidade de passar para a próxima geração. Com isso, valores ale-
atórios são gerados dentro da escala acumulada de aptidões e os indivíduo que possuírem tais
valores são selecionados, conforme exemplo observado na Tabela 8 e ilustrado na Figura 12.
Figura 12: Gráfico: probabilidade (esq.) aptidão acumulada (dir.) ref. Tabela 8.
A seleção de indivíduos pelo método roleta pode fazer com que o melhor indivíduo
da população seja perdido, uma vez que sua metodologia está baseada em probabilidade. Um
recurso paliativo pode ser utilizar a estratégia elitista para preservar os melhores indivíduos de
uma geração para outra.
Outro método é a seleção por torneio, em que um grupo de indivíduos é obtido aleato-
riamente e participa de um torneio (1×1)5 , onde os mais aptos são escolhidos para reproduzirem
uma nova população (SILVA, 2001).
Outro exemplo de mecanismo de seleção é o rank (BÄCK et al., 1997 apud CONCILIO,
2000), que se baseia na estratégia de ordenamento dos indivíduos de acordo com a aptidão para
determinar a probabilidade de seleção, podendo ser usadas equações lineares ou não-lineares
para determinar esta probabilidade. Diferente do método de roleta, o torneio não necessita
escalonar ou ordenar seus indivíduos.
5
Confronto entre 2 indivíduos.
24
Com o cruzamento de pelo menos dois progenitores, uma ou mais novas soluções são
criadas a partir do intercâmbio de suas informações genéticas, em um ou mais pontos, que
também são selecionados aleatoriamente. Os operadores mais empregados, segundo SILVA
(2001), são os seguintes cruzamentos: de um ponto; multipontos; ou, ainda, uniforme.
Portanto, o processo de cruzamento faz rupturas no código genético, motivo pelo qual,
quanto maior for a ruptura, menor será a semelhança entre pais e filhos, dificultando a con-
vergência. A taxa de cruzamento define-se como a medida da possibilidade de aplicação dos
operadores de cruzamento a um dado par de indivíduos e, quanto maior for essa taxa, maior
será a quantidade de indivíduos introduzidos na nova população de cruzamento (BARCELLOS,
2000).
Esses tipos de rotinas são utilizados para mudar o funcionamento do algoritmo, incrementando-
o com rotinas consideradas mais inteligentes ou que requeiram estruturas capazes de tornarem
o algoritmo mais robusto (AGUIAR, 1998). Nesse contexto serão abordados as seguintes rotinas:
operador inversor, elitismo e reprodução em estado constante.
O elitismo consiste, assim como na natureza, em fazer com que o indivíduo mais apto
não apenas reproduza mais frequentemente, como também possua maior longevidade, sobre-
vivendo, muitas vezes, de uma geração para outra. Para se aplicar esse tipo de rotina aos AG,
pegam-se os melhores cromossomos de uma população e repassam-se para as gerações seguin-
tes, de modo a garantir a melhor solução encontrada em qualquer uma das gerações até o final
do processo.
Nos algoritmos genéticos, quando são geradas novas populações utilizando apenas os
operadores genéticos, pode-se facilmente observar que, em muitos casos, o melhor indivíduo
de uma geração desaparece na geração seguinte. Assim, para melhorar a eficiência do AG é
interessante utilizar a estratégia elitista (SILVA, 2001).
Os parâmetros da função objetivo, segundo SILVA (2001), podem ser contínuos (nú-
mero infinito de soluções) ou discretos (número finito de possíveis soluções). Com isso, a
manipulação da função objetivo pode ser bastante complexa, demandando um alto custo com-
putacional.
Para lidar com tais funções, SILVA (2001) propõe cuidados a serem tomados para não
avaliar cromossomos idênticos mais de uma vez, o que pode ser feito de algumas maneiras,
como por exemplo: (i) evitando gerar cromossomos idênticos na população inicial; (ii) veri-
ficando se foi aplicado cruzamento ou mutação nos pais, pois, caso contrário, os filhos serão
iguais aos pais; (iii) observando se o filho é igual a um dos pais; (iv) mantendo a população com
todos os cromossomos distintos entre si, o que também ajuda na manutenção da diversidade;
(v) antes de avaliar um filho, verificando se já existe um cromossomo igual a esse na população.
Uma estratégia para tratar restrições no AG é simplesmente atribuir aptidão zero aos
cromossomos infactíveis 6 . Porém, os cromossomos infactíveis próximos das regiões factíveis,
segundo Michalewicz (1996), podem conter informações importantes.
6
Aqueles cromossomos que não satisfazem as restrições.
28
(a) (b)
Figura 13: (a) restrição, ótimo local e ótimo global; (b) convergência prematura.
Fonte: SILVA (2001).
Um dos grandes problemas que deve ser enfrentado para quem pretende usar um algo-
ritmo genético, segundo Barcellos (2000), reside na escolha de seus parâmetros. Os algoritmos
genéticos usam, pelo menos, três parâmetros numéricos – alguns algoritmos genéticos mais so-
fisticados podem usar outros –, a saber: probabilidade de recombinação7 (pr), probabilidade de
mutação8 (pm) e tamanho da população (pop).
A escassa teoria sobre AG não auxilia muito sobre a escolha de seus parâmetros e
usualmente utilizam-se valores testados empiricamente. Diversos pesquisadores fizeram ex-
perimentos sobre o ajuste dos parâmetros do algoritmo genético, dentre os quais se podem
destacar: Jong (1975), Grefenstette (1986), Goldberg (1989) e Schaffer et al. (1989).
7
Pode ser encontrado no texto também como: taxa de recombinação ou taxa de cruzamento.
8
Pode ser encontrado no texto também como: taxa de mutação.
30
Segundo Goldberg (1989), Jong foi um dos pioneiros em utilizar funções para teste de
desempenho do AG. Jong (1975) elaborou cinco funções que possuíam propriedades especifi-
cas e, com isso, pôde avaliar o desempenho dos algoritmos genéticos, elaborando dois conceito
de medida de desempenho, a saber: (i) desempenho online, que é definido como a média da ap-
tidão de todos os cromossomos da população durante o processamento; (ii) desempenho offline,
que leva em conta apenas o melhor cromossomo da população para computar o desempenho.
Já Grefenstette (1986) usou uma outra abordagem para a questão, tratando a escolha
dos parâmetros do AG como um meta-problema e usou um segundo algoritmo genético (Meta-
AG) para encontrar os parâmetros que melhorariam o desempenho online, obtendo os resultados
apresentados na Tabela 14.
Schaffer et al. (1989), em seu trabalho, dobrou o número de funções de teste referente
às funções de teste de Jong (1975), totalizando dez funções, utilizando o código de gray9 para
codificação de todos os parâmetros — pois o código de gray tinha se mostrado superior ao
código binário — e adotando a estratégia elitista.
Os valores encontrados por Grefenstette (1986) são diferentes dos propostos por Jong
(1975), talvez pelo fato deste último ter se preocupado apenas com o desempenho online, sugere
Barcellos (2000).
9
Código de Gray é um sistema de código binário onde de um número para outro apenas um bit varia.
10
Abreviatura, do Inglês, significa unidade central de processamento, popularmente chamado de “processador”.
31
Com isso, uma investigação teórica feita por Goldberg (1989) forneceu a seguinte fór-
mula: pop = 1.65 × 20.21×length , que calcula o tamanho da população em função do tamanho
dos cromossomos (length)11 . Aplicando-se a fórmula, obtêm-se populações de 7, 30, 130 e 557
indivíduos para cromossomos de comprimentos 10, 20, 30 e 40 bits, respectivamente.
Já Schaffer et al. (1989) concluiu que existe uma forte interação entre tamanho da
população (pop), probabilidade de recombinação (pr) e probabilidade de mutação (pm). Mas,
mas surpreendentemente a interação função e parâmetros (pop), (pr) e (pm) foi estatisticamente
rejeitada, indicando que o desempenho não depende do tipo de função que está sendo otimizada,
e, sim, dos parâmetros com que o AG trabalha.
Schaffer et al. (1989) observou, também, que altas taxas de recombinação melhoram o
desempenho com pequenas populações, prejudicando-o com populações maiores. Ainda, ana-
lisou que recombinação de dois pontos tem um desempenho melhor que recombinação
de um ponto apenas para populações entre 50 e 100 cromossomos, sem diferenças significa-
tivas para outros tamanhos de populações.
• o aprendizado Online se vale de uma interação simultânea entre o CLF e o AG, adaptando
a base de regras conforme seu processo evolutivo, que, nesse caso, resultará em estratégias
de adaptação particulares ao problema.
Com isso, o AG e suas modalidades (Meta-AG, FAGA, entre outros) ocupam lugar
de destaque entre os paradigmas da computação evolutiva, por que contém de forma simples e
natural os conceitos necessários da computação evolutiva. Além disso, têm resultados bastante
aceitáveis com relação aos recursos empregados e pela ampla gama de problemas aplicáveis,
tornando-se uma estratégia indispensável no contexto desta proposta (HOLLAND, 1975; GRE-
FENSTETTE, 1986; GOLDBERG, 1989; HERRERA et al., 1994; AGUIAR, 1998).
Vale destacar também que, modelos baseados em algoritmos evolutivos têm se mos-
trado adequados ao avanço da computação de alto desempenho, uma vez que são modelos que
usufruem de todas as prerrogativas de escalabilidade e disponibilidade de sistemas como agre-
gados de computadores, grades computacionais ou computadores multicores13 (AGUIAR, 2004).
13
Computador com vários processadores.
34
As imagens são produzidas por uma variedade de dispositivos físicos, tais como: câ-
meras e vídeo-câmeras; equipamentos de radiografia; microscópios eletrônicos, magnéticos e
de força atômica; radares; equipamento de ultra-som. A produção e utilização de imagens po-
dem ter diversos objetivos, que vão do puro entretenimento até aplicações militares, médicas ou
tecnológicas (ESQUEF, 2002).
O computador não pode guardar em sua memória ou modificar em seus circuitos qual-
quer imagem na forma analógica, que é como o olho humano a enxerga, porque o computador
trabalha com números discretos, não podendo representar diretamente tons de cinza ou cores
contínuas. Para que o computador possa operar com imagens, elas precisam primeiro ser con-
vertidas para uma grande lista de números (COTRIM, 2007).
Figura 16: Imagem monocromática com destaque para uma região de 17 × 17 pixels.
Fonte: Esquef (2002), modificado pelo autor.
Sendo assim, para que uma imagem possa ser manipulada por computador, segundo
Mascarenhas e Velasco (1989), é necessário que essa imagem seja discretizada ou digitalizada,
tanto espacialmente quanto em sua amplitude. Com isso, uma imagem pode ser discretizada
através de um processo que envolve dois passos, a saber: (i) amostragem, no qual são definidos
os valores para as coordenadas x e y da matriz de pontos, e (ii) quantização, que consiste em
escolher um valor múltiplo relacionado à banda de frequência da intensidade para cada ponto
da imagem.
Então, amostrar uma imagem significa definir, para uma imagem real, as características
da matriz sobre a qual esta será representada. Essas características são comumente reconheci-
das como resolução da imagem e estão diretamente relacionadas com a qualidade da imagem.
Evidentemente, dependendo das características desta matriz, ou seja, tamanho e dimensões dos
pixels, mais fiel será a representação discreta da imagem. A Figura 18 ilustra dois tipos de
amostragem para representação de uma reta (EFFORD, 2000).
37
(a) (b)
Figura 18: Diferença na geometria da amostragem: (a) retangular; (b) hexagonal.
Fonte: Efford (2000), modificado pelo autor.
(a) (b)
Figura 19: Amostragem com: (a) aliasing; (b) anti-aliasing.
Erros como os de “falsos contornos” podem ocorrer quando se usa um reduzido nú-
mero de tons de cinza em uma quantização (ver Figura 20 (b) e (c)). Este fenômeno caracteriza-
se pela transição de tons de cinza mais frequentes em áreas de pouca variação. De uma forma
geral, pode-se dizer que, dispondo de uma dada quantidade de bits, a escolha do nível de quan-
tização e da amostragem dependerá do tipo de imagem a ser discretizada e dos critérios de
avaliação subjetivos (MASCARENHAS; VELASCO, 1989).
Não existe uma regra exata para determinado tipo de imagem, no entanto, é possível
concluir que, para imagens com variação suave de tons é necessária uma maior quantidade de
níveis de quantização, não sendo relevante a amostragem. Já para imagens com grande detalha-
mento é conveniente o uso de uma amostragem densa, não sendo necessária uma quantização
com muitos níveis de cinza (GONZALEZ; WOODS, 1992).
Quanto ao contraste de uma imagem, segundo Gonzalez e Woods (1992), pode ser de-
finido como a razão dos níveis de cinza do objeto e do fundo (diferença local de luminância).
Dessa afirmação deriva-se o brilho aparente de um objeto, o qual depende fortemente da inten-
sidade do fundo, sendo que qualquer alteração no contraste pode gerar uma melhor definição
dos objetos. A Figura 21 demonstra para um objeto de mesmo nível de cinza diferentes fundos,
tornando o objeto mais ou menos visível.
Deve-se ressaltar que não existe um modelo formal para a segmentação de imagens.
A segmentação é um processo empírico e adaptativo, procurando sempre se adequar às carac-
terísticas particulares de cada tipo de imagem e seus objetivos. Apesar da grande diversidade
de técnicas de segmentação de imagens, ainda assim, atualmente existe um grande interesse no
estudo e desenvolvimento de novas técnicas (ESQUEF, 2002).
4
Dispositivo que recebe um sinal e o retransmite, independentemente de conversão de energia.
41
O histograma de uma imagem digital com k níveis de cinza é definido por uma função
discreta (ver Equação 4.1) onde, o argumento k representa os níveis de luminância discretos,
nk representa o número de pixels na imagem com intensidade k e n é o número total de pixels
da imagem, ou seja, n = M × N. De forma simplificada, o histograma de luminância de uma
imagem representa a contagem dos níveis de cinza desta podendo informar a distribuição dos
pixels dentro dos k níveis possíveis (ESQUEF, 2002).
nk
p(k) = (4.1)
n
O histograma da imagem digital é uma ferramenta bastante útil na etapa de pré pro-
cessamento, pois fornece uma visão estatística sobre a distribuição dos pixels, o contraste da
imagem e os níveis de iluminação. Além disso, o histograma é muito utilizado na etapa de
segmentação, principalmente em técnicas que se utilizam da similaridade entre os pixels. Tam-
bém, é usado com frequência como sendo uma distribuição estatística dos pixels na imagem
(luminância), como por exemplo no caso das técnicas que o utilizam para calcular a entropia5
da imagem (ESQUEF, 2002). Na Figura 23 são apresentadas duas imagens e seus histogramas,
sendo que a imagem (a) é de baixo contraste, enquanto a imagem (b) possui um maior contraste.
(a) (b)
Figura 23: Exemplo de histograma da imagem: (a) baixo contraste; (b) alto contraste.
Fonte: Esquef (2002).
5
Metodologia que permite a compreensão das características gerais.
43
(a) (b)
Figura 24: Exemplo de histograma da imagem: (a) bimoidal; (b) multimodal.
Fonte: Esquef (2002).
O realce de imagem tem por objetivo acentuar certos aspectos da imagem para subse-
quente análise ou visualização. No realce de imagem não são acrescidas informações a ela, e
sim enfatizadas determinadas características da imagem. Um exemplo de realce é a variação de
contraste, que transforma o valor de cinza de determinados pixels em valores diferentes, ressal-
tando determinados aspectos da imagem (GONZALEZ; WOODS, 1992 apud ANTUNES, 1999).
Lembre-se que um histograma (ver Seção 4.2.2) é uma tabela que indica para cada
nível de cinza a quantidade de pixels existente na imagem, apresentando uma frequência ou
densidade maior de pixels em um determinado nível de cinza que em outro. Portanto, equalizar
um histograma, segundo Gonzalez e Woods (1992), significa gerar uma uniformização de den-
sidade para os níveis de cinza da imagem, resultando em maior contraste e nitidez da imagem,
ressaltando, assim, os objetos nela contidos, conforme ilustra a Figura 25 (b).
(a) (b)
Figura 25: Equalização de histograma: (a) imagem original; (b) imagem equalizada.
Na técnica de filtragem6 , o valor de nível de cinza de uma imagem depende não apenas
do nível de cinza original, mas dos valores de níveis de cinza de sua vizinhança. O tamanho
desta vizinhança não é limitado, sendo que normalmente os vizinhos mais próximos têm maior
influência sobre os mais distantes (JAIN, 1989 apud ANTUNES, 1999).
Os filtros, de modo geral, são projetados e implementados como ferramentas para re-
alizar realce de imagens, cuja atividade consiste no incremento da qualidade geral da imagem,
podendo ser interessante para fins de visualização, ou ainda, para ressaltar determinados objetos
e características da imagem (JAIN, 1989 apud ANTUNES, 1999). Existem duas classes importan-
tes de filtros amplamente utilizadas: (i) filtros de passa-baixa e (ii) filtros de passa-alta.
Um filtro passa-baixa tem valores próximos a zero para as altas frequências, portanto,
a imagem apresenta-se “suavizada”. Isto ocorre porque as altas frequências correspondem às
transições abruptas. Este filtro tem ainda como efeito a eliminação de ruídos da imagem, mas
apresenta defeitos ao tornar a imagem menos nítida e definida (JAIN, 1989). A Figura 26 (b)
ilustra um filtro passa-baixa denominado filtro da média.
Um filtro passa-alta tem valores próximos a zero para as baixas frequências, resultando
em um efeito de “agudização” da imagem, ou seja, as transições entre diferentes regiões da
imagem tornam-se mais nítidas. Entretanto, ele enfatiza o ruído que possa existir na imagem
(JAIN, 1989). A Figura 26 (c) ilustra um filtro passa-alta denominado filtro laplaciano +
original, usado para detectar bordas mantendo a informação original.
A detecção de regiões em uma imagem pode ser feita com dois objetivos: extrair uma
determinada região ou dividir a imagem num conjunto de regiões distintas. Uma região de uma
imagem é definida como um conjunto de pontos ligados em que, a partir de qualquer ponto da
região pode-se chegar a qualquer outro ponto por um caminho completamente contido nessa
região (GONZALEZ; WOODS, 1992 apud ANTUNES, 1999).
O método de divisão e fusão consiste em agrupar os pixels até que se tenham regiões
sobre as quais exista uma homogeneidade H. Para isto são executadas sucessivas divisões
e fusões sobre a imagem. Este método é normalmente associado a uma estrutura de dados
quadtree 7 , que permite decompor e agrupar partes de uma imagem (GONZALEZ; WOODS, 1992).
Construir essa estrutura quadtree significa dividir uma região em quatro quadrantes,
sendo que cada um pode ser dividido novamente em quatro subquadrantes, e assim sucessiva-
mente, até que seja encontrado o fator H. A Figura 27 ilustra uma segmentação quadtree (esq.)
e seu grafo representando seus particionamentos (dir.) (GONZALEZ; WOODS, 1992).
Figura 27: Imagem segmentada usando quadtree (esq.) e grafo da segmentação (dir.).
Fonte: Gonzalez e Woods (1992), modificado pelo autor.
7
Uma quadtree é uma estrutura de dados utilizada para codificar imagens.
47
(a) (b)
Figura 28: Imagem e histograma: (a) com ruído; (b) pós limiarização.
Para isso, a linguagem Java evoluiu para atender vários requisitos desejáveis em uma
linguagem de programação, tais como: confiabilidade, devido ao seu gerenciamento de me-
mória resultando em um ganho de eficiência; redigibilidade, por eliminar alguns conceitos das
linguagens C e C++ que dificultavam a reutilização de código; e, portabilidade, pois, diferente
das linguagens convencionais que são compiladas para código nativo, a linguagem Java é com-
pilada para um bytecode que é executado por uma máquina virtual, com isso ela independe de
sistema operacional tornando-se uma linguagem multiplataforma (DEITEL; DEITEL, 1999).
Contudo, Java é uma linguagem simples e de fácil aprendizado, pois possui um redu-
zido número de construções. A diminuição das construções mais suscetíveis a erros de pro-
gramação como ponteiros e gerenciamento de memória, também faz com que a programação
em Java seja mais eficiente. Ela contém um conjunto de bibliotecas que fornecem grande parte
das funcionalidades básicas da linguagem. Além disso, ela adota o paradigma de orientação a
objetos fazendo com que a reutilização de código, com proteção e encapsulamento a partir de
bibliotecas de terceiros, seja algo trivial (DEITEL; DEITEL, 1999).
Uma API11 que é o conjunto de rotinas e padrões estabelecidos por um software para
a utilização das suas funcionalidades por programas aplicativos que não querem se envolver
em detalhes da implementação do software, mas apenas usar seus serviços. Destaca-se na
linguagem Java uma API específica para processamento de imagens, intitulada JAI12 , sendo
sua principal característica a robustez aplicada ao PDI (DEITEL; DEITEL, 1999).
Essa API é basicamente uma biblioteca formada por um conjunto de classes utilizadas
para o tratamento de imagens que trabalham de forma mais avançada e complexa. Dentre as
vantagens dessa biblioteca, uma das mais importantes está no modo como ela foi implementada,
que simplifica e minimiza as tarefas referente ao tratamento de imagens. Além disso, é consti-
tuída por classes de leitura e gravação, as quais são capazes de codificar e decodificar imagens,
fazendo com que elas possam ser de diferentes extensões, como: BMP, JPEG, GIF, PNG, TIFF
(DEITEL; DEITEL, 1999).
10
Palavra, do Inglês, significa código em bytes.
11
Abreviatura, do Inglês, significa Interface de Programação de Aplicativos.
12
Abreviatura, do Inglês, significa Java Imagem Avançada.
49
Uma alternativa bem mais interessante, e provavelmente muito mais viável, é a imple-
mentação da JVM em hardware13 na forma de placa ou microchip14 . A primeira iniciativa neste
sentido é da Sun Microsystems, que está produzindo os microchips picoJava, microJava e
UltraJava. Estes são capazes de executar diretamente bytecodes, acelerando em milhares de
vezes a velocidade de execução (SCHÜTZER; MASSAGO, Acessado em 2009).
Percebe-se, desta forma, que o PDI é uma área multidisciplinar, tanto na atuação
quanto na derivação, pois suas técnicas baseiam-se na ótica, colorimetria, neurofisiologia, enge-
nharia elétrica e ciência da computação. Com o desenvolvimento das tecnologias de hardware,
principalmente de memória e processamento, estas áreas têm apresentado um grande desenvol-
vimento e ainda vislumbram um próspero futuro (COTRIM, 2007).
13
Palavra, do Inglês, significa a parte física do computador.
14
Um microchip é, propriamente, um circuito integrado.
50
Em 1895, o físico alemão Wilhelm Conrad Röntgen descobriu de maneira casual uma
radiação até então desconhecida, o raio-X, que é produzido através da interação de elétrons com
certos materiais. Isso ocasionou uma revolução no meio científico, em especial na medicina, de
tal forma que em 1900 a radiologia já existia como especialidade médica. Por volta de 1940,
novas tecnologias como a televisão e os intensificadores de imagens permitiram a realização de
fluoroscopias de ótima qualidade e em tempo real (WELLS et al., 1993).
Para que a imagem digital possa ser interpretada como a imagem de um objeto ou de
uma estrutura anatômica, os dígitos de cada pixel da imagem são convertidos em tons de cinza
numa escala proporcional a seus valores. A imagem digital final será o resultado do arranjo de
uma grande quantidade de pixels apresentando tonalidades diferentes de cinza e formando no
conjunto uma imagem apreciável (NOBREGA, 2008).
A imagem médica produzida por equipamentos que realizam cortes seccionais traz
consigo uma informação de profundidade. A imagem bidimensional, que se vê na tela ou no
filme radiográfico, quando carrega consigo este tipo de informação recebe o nome de voxel
(NOBREGA, 2008).
Os diversos métodos de diagnóstico que trabalham com imagem digital, segundo No-
brega (2008), necessitam fazer uma conversão da imagem analógica para a linguagem compre-
endida pelos computadores, o sistema binário de informação. O dispositivo responsável pela
transformação dos sinais da imagem em equivalente no sistema binário é o ADC1 . Este disposi-
tivo tem por finalidade converter a voltagem correspondente a um ponto em particular do objeto
em dígitos de computador.
A conversão dos sinais analógicos para digitais (ver Figura 30) deve obedecer ao Te-
orema de Nyquist. Diz o teorema que para a representação em valores discretos de um sinal
analógico periódico deve-se obter, no mínimo, duas amostras do sinal por período. Um número
de amostras inferior ao proposto por Nyquist seria incapaz de reproduzir com fidelidade a in-
formação analógica. Número de amostras superior ao proposto produz excesso de informação
ocasionando “aliasing” (NOBREGA, 2008).
Nos sistemas digitais, os dados brutos armazenados pelo computador serão processa-
dos pelo dispositivo conhecido por DAC2 , que se encarregará de atribuir aos diferentes dígitos
o correspondente de uma escala de cinzas. Após o devido processamento, esta imagem estará
disponível para ser apresentada na forma de uma matriz de escala de cinzas, em um terminal de
vídeo, impressora, ou mesmo, filme radiográfico (NOBREGA, 2008).
1
Abreviatura, do Inglês, significa conversor de analógico para digital.
2
Abreviatura, do Inglês, significa conversor de digital para analógico.
53
Os raios-X de freamento, segundo Castro (2006), são produzidos pela atração elétrica
entre o núcleo (+) e o elétron (-). Quando o elétron passa próximo do núcleo, ele é atraído
e sua velocidade diminui (freamento). Quanto maior a desaceleração mais energia cinética
é transformada em eletromagnética, ou seja, em raios-X de freamento (ver Figura 31). Esse
mecanismo acontece com maior frequência do que os raios-X característicos.
Assim sendo, o raio-X é uma onda eletromagnética, como a luz visível, as ondas de
rádio, os raios infra-vermelhos e os raios ultra-violetas. As ondas eletromagnéticas têm como
características: a sua frequência e o seu comprimento de onda, sendo estas duas característi-
cas inversamente proporcionais, ou seja, quanto maior a frequência menor o comprimento de
onda. A energia de uma onda é diretamente proporcional a sua frequência (EASTMAN KODAK
COMPANY, 1980).
Como o raio-X é uma onda de alta energia, o seu comprimento de onda é muito curto
da ordem de 10−12 metros (um picometro) e sua frequência é da ordem de 1017 Hz. Com este
comprimento de onda muito curto, estes raios tem a capacidade de penetrar na matéria, o que
possibilita sua utilização no estudo dos tecidos do corpo humano (CASTRO, 2006).
As cargas elétricas em um material interagem entre si através das forças elétricas. Elas
podem ser de atração, quando as cargas forem opostas, ou de repulsão, quando as cargas tiverem
o mesmo sinal. Quanto mais cargas de sinais opostos separarmos, maior será a força de atração
entre elas e, desta forma, pode-se dizer que existe uma energia potencial armazenada nesse caso.
Se uma carga elétrica for colocada entre os pólos, ela será atraída e se movimentará na direção
do pólo de carga oposta, conceito este conhecido como potencial elétrico, também chamado de
tensão ou voltagem (BONJORNO et al., 1993).
(a) (b)
Figura 33: Elétron: velocidade × tensão (a) 10 volts; (b) 100 volts.
O movimento das cargas elétricas gera um fluxo chamado de corrente elétrica. Por
definição, a corrente elétrica será a quantidade de carga em um intervalo de tempo. No proce-
dimento de disparo dos raios-X, além da escolha da tensão (KV), também deve ser escolhida a
corrente em mA (miliampère). Um outro conceito muito utilizado para produção de raios-X é o
de potência, cujo unidade de medida é o watt (W) (BONJORNO et al., 1993; CASTRO, 2006).
Todo aparelho de raio-X contém uma ampola (ver Figura 34), que tem a função de
produzir os raios-X a partir da colisão de elétrons com um alvo. Como já visto anteriormente,
quando os elétrons atingirem o alvo (átomo), poderão ser produzidos raios-X característicos
ou de freamento. Portanto, a ampola deve ter um dispositivo que acelere os elétrons em alta
velocidade da direção do alvo (CASTRO, 2006).
Quando isso acontece, os elétrons ficam livres ao redor do filamento e são atraídos pelo
ânodo, que é carregado com carga positiva. Quanto maior for a quantidade de carga positiva no
ânodo maior será a força que acelerará o elétron de encontro ao alvo, ou seja, maior será a ener-
gia cinética do elétron, e por sua vez, maior será a energia dos raios-X produzidos (EASTMAN
KODAK COMPANY, 1980).
Diversos equipamentos utilizam o raio-x para gerarem imagens médicas, nesta seção
serão abordados apenas dois equipamentos, a saber: radiografia computadorizada, com alguns
aspectos comparativos à radiologia convencional, e o densitômetro ósseo.
57
A resultante após a interação dos raios-X com o objeto sensibilizará o filme radio-
3
gráfico , resultando na imagem final. É importante saber que as diferenças de densidade de-
terminam as características radiológicas dos diferentes materiais e estruturas (CASTRO, 2006).
O feixe de raios-X tem um formato cônico e concentra uma intensidade maior de raios-X no
centro desse cone (EASTMAN KODAK COMPANY, 1980).
Assim, materiais densos, como os metais, absorvem muito os raios-X (cfe. Figura 36),
pois têm um número atômico muito alto. Por outro lado, o ar, com densidade atômica e número
atômico baixos, não absorve os raios-X. Com isso, temos em ordem crescente cinco densidades
radiológicas básicas: ar, gordura, água, cálcio e metal (CASTRO, 2006).
Os fótons de raios-X, que formam as imagens radiográficas, não podem ser vistos
pelo olho humano (ver Figura 37). Então, fez-se necessário usar receptores que convertam
a radiação (informação) em imagem visível. Podem-se usar dois métodos: (i) uma película
fotográfica pode ser exposta diretamente aos raios-X ou (ii) a energia dos raios-X é convertida
em luz visível para então serem convertidas em imagem (ou impulso elétrico ou exposição na
chapa) (CASTRO, 2006).
Os ecrãns têm como elemento base o fósforo, que é um sólido cristalizado natural
ou artificial que exibe a propriedade, quando exposto aos raios-X, de luminescência, ou seja,
habilidade de absorver radiação de comprimento onda curta, e convertê-la em radiação de com-
primento de onda longa no espectro visível (CASTRO, 2006).
Sendo assim, os ecrãns são constituídos por: (i) um suporte feito de cartão ou plástico;
(ii) uma capa de fósforo microcristalino, fixo com uma cola apropriada e (iii) uma capa protetora
(plástico), a qual é aplicada sobre o fósforo para prevenção de eletricidade estática, proteção
física e permite a limpeza sem danificar a capa de fósforo. A Figura 38 (a) ilustra a estrutura
que comporta o ecrãn e o filme radiológico, denominado chassi, e a Figura 38 (b) ilustra o
funcionamento e o acoplamento do ecrãn e o filme, partindo de um corte transversal em um
chassi (CASTRO, 2006).
(a)
(b)
Figura 38: Chassi, ecrãn e filme: (a) chassi; (b) acoplamento ecrãn e filme.
O filme radiológico é composto por uma película plástica, chamada de base, revestida
por uma substância chamada emulsão e uma camada protetora. Os fótons incidentes de raios-
X são absorvidos no fósforo pelo efeito comptom (aumento de comprimento de onda), o que
resulta na emissão de elétrons livres (CASTRO, 2006).
59
Com isso, a energia que se obtém desses elétrons é então convertida em fótons de
luz através do processo de luminescência, e os fótons produzidos por esse processo saem do
fósforo e expõe-se ao filme. Essa etapa é conhecida como imagem latente, pois essas impressões
no filme não são visíveis a olho nu, somente se verá a imagem após o processo de revelação
(CASTRO, 2006).
Já em alguns sistemas digitais, o chassi pode estar constituído por uma superfície de
silício que atua como um conversor opto-eletrônico, levando a informação obtida do feixe
de raio-X diretamente ao computador (cfe. Figura 39(b)). No computador, os dados obtidos
serão apresentados na tela e disponibilizados em formato de arquivos gráficos, podendo ficar
disponíveis na rede ou resultando em uma radiografia em filme utilizando uma impressora laser
(cfe. Figura 39(c)) (NOBREGA, 2008).
Contudo, o aparelho de raio-X digital é uma eficiente máquina que não utiliza filmes
nem produtos químicos para revelação, contribuindo, assim, para a preservação do planeta.
O chassi digital é o único aparato responsável por diferenciá-lo da radiografia convencional
(NOBREGA, 2008).
Entretanto, o ganho é exorbitante, uma vez que as informações são expressas de forma
ágil, sendo que as imagens de raio-X digital apresentam alta qualidade de imagem, contraste e
definição de detalhes impensáveis na radiografia comum (CASTRO, 2006). A Figura 40 ilustra
um aparelho de radiografia que pode ser convencional ou digital, dependendo do chassi utili-
zado.
Existem vários formatos de arquivos para imagens estáticas dentre os quais podem-se
citar e descrever respectivamente: JPEG, GIF, BMP, TIFF, PNG, SPIFF e DICOM.
O padrão JPEG, desenvolvido pelo Joint Photographic Experts Group4 para compres-
são de imagens estáticas, armazena todos os pixels através de um método de compressão com
perda, significando que sempre que a imagem é gravada nesse formato perde-se alguma infor-
mação. O tamanho do arquivo JPEG resultante é muito pequeno, porém os dados que contêm
são sempre uma aproximação da imagem original (GUIMARÃES, 2002).
O formato GIF (Graphics Interchange Format) foi introduzido em 1987 pela Compu-
Serve5 a fim de fornecer um formato de imagem a cores para seus arquivos, em substituição
do formato RLE (Run-length encoding), que era apenas a preto e branco (GUIMARÃES, 2002).
O GIF, que tem uma taxa de compressão de perda de informação baixa, comporta animação e
possui canal alpha — a quarta variante na definição da cor.
Já o formato BMP (Microsoft Windows Bitmap), criado pela Microsoft6 , suporta até
24 bits para cor e as imagens são frequentemente armazenadas sem compressão, resultando em
arquivos de tamanho grande (GUIMARÃES, 2002).
O formato TIFF (Tag Image File Format), desenvolvido em 1986 pela Aldus Corpo-
ration, atualmente parte da Adobe Software7 , suporta 24 bits para cor e a imagem pode ser
comprimida com algoritmos como: LZW (Lempel-Ziv-Welch), CCITT (Consultative Commit-
tee on International Telegraphy and Telephony) ou JPEG (GUIMARÃES, 2002).
4
Comissão mista entre diversas entidades e empresas do mundo.
5
Empresa Estado Unidense, atualmente operando como prestadora de serviços para a Internet.
6
Empresa de software fundada por Bill Gates e Paul Allen com sede em Redmond, WA, USA
7
Empresa de software com sede em San Jose, California, USA.
63
O formato PNG (Portable Network Graphics) é uma evolução do formato GIF de-
senvolvido pelo comitê da Internet e endossado formalmente como padrão pelo W3C (World
Wide Web Consortium) — consórcio internacional no qual organizações filiadas trabalham jun-
tas para desenvolver padrões para a word wide web — em 1997. Imagens PNG mapeadas em
cores tendem a ser 30% menores do que a GIF (GUIMARÃES, 2002).
Um arquivo PNG pode armazenar texto em seu cabeçalho e palavras chaves são usadas
para indicar o que cada string8 representa — uma forma de armazenar metadados. No cabe-
çalho estão armazenadas informações de largura, altura, tamanho em bits, tipo de cor, método
de compressão, método de filtragem e método de interlace. Outros tipos de informação são
alocados em locais separados e a informação textual é armazenada no espaço padrão de texto
com palavras-chave adequadas (GUIMARÃES, 2002).
O SPIFF (Still Picture Interchange File Format) é um formato de arquivo bitmap gené-
rico definido pela ITU (International telecommunication Union), órgão responsável por deter-
minar um conjunto de normas e especificações internacionais para a área de telecomunicações,
e ISO/IEC9 — organização que define padrões internacionais em diferentes áreas e a organiza-
ção internacional de padronização de tecnologias elétricas, eletrônicas e relacionadas — para
armazenamento de imagens em tons de cinzas e cores. Este formato veio substituir oficialmente
o formato de arquivo JFIF para armazenamento de dados JPEG (GUIMARÃES, 2002).
Assim como o PNG, arquivos SPIFF são compostos de seções para armazenamentos
de metadados, sendo compostas pelos seguintes ítens: cabeçalho (tamanho do cabeçalho, iden-
tificador, versão, perfil da aplicação, número de componentes de cores, espaço de cor e outros),
diretório de informações (referências para informações armazenadas dentro do arquivo SPIFF)
e dados da imagem (GUIMARÃES, 2002).
O ruído, segundo Nobrega (2008), é o principal fator que afeta a qualidade de uma
imagem digital. O ruído pode ser definido como um artefato eletrônico e caracteriza-se pela
presença de “granulação” na imagem e depende de vários fatores, a saber alguns deles: (i)
detectores; (ii) eficiência na digitalização; (iii) magnificação.
A resolução da imagem digital está relacionada com a matriz e, quanto maior o arranjo
da matriz, melhor será a resolução da imagem. O tamanho do pixel varia em função do campo
de visão (FOV) utilizado. O campo de visão representa o tamanho máximo do objeto em estudo
que ocupa a matriz, com isso, quanto maior for o objeto, maior será o campo de visão. A
fórmula que determina o tamanho do pixel está representado na Equação 5.1 (NOBREGA, 2008).
FOV
pixel = (5.1)
Matriz
(a) (b)
Figura 42: Radiografia: (a) digital - alto contraste; (b) convencional - baixo contraste.
Outros parâmetros relevantes para a produção de imagens médicas são os que quan-
tificam o risco do paciente, os graus de invasibilidade, a dosagem de radiações ionizantes, o
grau de desconforto do paciente, o tamanho (portabilidade) do instrumento, a capacidade de
descrever as funções fisiológicas bem como as estruturas anatômicas e o custo do procedimento
(COTRIM, 2007).
Uma modalidade de produção de imagens perfeita deverá produzir imagens com alta
resolução espacial de contraste e de tempo; deverá ser de baixo custo, portátil, livre de risco,
indolor e não invasiva; não deverá usar radiações ionizantes; deverá ter capacidade de descrever
as funções fisiológicas, bem como as estruturas anatômicas. A primeira razão para a prolife-
ração de modalidades de produção de imagens é que nenhuma modalidade satisfaz todos estes
requisitos, sendo cada uma satisfatória para uma ou mais dessas dimensões e indesejável para
outras (ALMEIDA, 1998).
66
O ambiente de rede comum nos serviços de diagnóstico por imagem é conhecido pela
sigla RIS, sistema de informações radiológicas, responsável pelo gerenciamento das informa-
ções dos pacientes, dos estudos, séries e imagens. A rede RIS apresenta melhor eficiência
quando conectada ao sistema de informações do hospital conhecida pela sigla HIS. O HIS é o
sistema responsável por cadastros e agenda dos pacientes, bem como gerencia o faturamento e
o estoque, entre outras informações do hospital (COTRIM, 2007).
Os problemas das aplicações clínicas devem ser resolvidos de uma forma rápida e
objetiva. Entretanto, o processo de observação humana é influenciado pelos aspectos internos e
externos. Os aspectos externos fazem referência às informações identificadas (luz, monitores,
ruídos, etc.) e os aspectos internos fazem referência à fadiga que atrapalha o indivíduo no
relacionamento das informações obtidas com o seu próprio conhecimento (COTRIM, 2007).
67
Uma aplicação de CAD tem basicamente dois aspectos que influenciam na sua efeti-
vidade. O primeiro está associado à metodologia de processamento das imagens e o segundo à
visualização dos resultados através de uma interação intuitiva com o usuário (COTRIM, 2007).
Sendo assim, em um sistema de CAD estas funções podem ser executadas automati-
camente ou através de um processo de interação com o usuário. A manipulação da imagem
pode ser utilizada para aumentar o contraste de uma área em relação a outra, ou mesmo, para
a extração de extremidades. Outra possibilidade é a separação do tecido mole em relação ao
ósseo utilizando funções de controle de variação espacial ou técnicas de energia dual. Supres-
são de artefatos (ruídos) e efeitos de dispersão conduzem à redução de artefatos indesejados e à
consequente melhora na qualidade da imagem (COTRIM, 2007).
Sabe-se que o objetivo dos sistemas de CAD é melhorar a acurácia diagnóstica, assim
como aprimorar a consistência na interpretação de imagens mediante o uso da sugestão de
resposta diagnóstica fornecida por algum computador (COTRIM, 2007).
Porém, algumas ferramentas CAD que apresentam ótimos resultados ainda não são uti-
lizadas na rotina clínica por apresentarem alto custo computacional. As dificuldades em aplicar
estes algoritmos CAD na rotina clínica e as limitações ainda existentes para armazenamento,
processamento, busca e recuperação de imagens em grandes bases de dados vêm motivando
empresas e instituições de pesquisas a encontrarem novas soluções para essas tarefas (SURI et
al., 2005).
68
6 Arquitetura Proposta
Este capítulo tem como propósito abordar a arquitetura para o processamento de infor-
mações médicas proposta.
Naquele momento, a união dos modelos baseados em autômatos celulares com o pro-
cessamento de alto desempenho e sua aplicação na determinação de áreas para conservação
ambiental fundamentaram a proposta da criação do ambiente de processamento de informações
geográficas denominado G-IPE (Geographic Information Processing Environment). Entretanto,
observou-se que estes mesmos modelos poderiam ser aplicados em outros problemas em áreas
distintas à ecologia, como por exemplo na medicina.
Sabe-se que existe um potencial muito grande a ser explorado com relação ao ganho
social e científico (criação de ferramentas para auxílio ao diagnóstico, desenvolvimento de no-
vas técnicas utilizando conhecimento mútuo, publicação de artigos, entre outros.) para ambos
setores, sendo que esta arquitetura visa isso na prática.
A camada cliente prevê dois tipos de usuários: (i) especialistas da saúde, situados na
camada: demandas de hospitais e postos de saúde, e (ii) especialistas das exatas, situados na
camada: desenvolvimento de modelos e simulação de aspectos dinâmicos.
Essa classe de usuários é composta pelos seguintes módulos (cfe. Figura 44): (i)
interface de cadastros e informações dos pacientes; (ii) interface de submissão de tarefas (dados
reais); (iii) interface de visualização e diagnóstico assistido e (iv)interface de administração. A
seguir uma breve descrição de cada um deles.
Já a outra classe, correspondente aos especialistas das exatas, está diretamente rela-
cionado ao âmbito de pesquisa básica e é responsável, por exemplo, pelo desenvolvimento de
modelos matemáticos, técnicas computacionais, algoritmos de segmentação de imagens médi-
cas, algoritmos de classificação, a fim de auxiliar o diagnóstico médico. É nesta camada que as
ferramentas CAD são desenvolvidas, simuladas e testadas.
Essa classe de usuários é composta pelos seguintes módulos (cfe. Figura 45): (i)
interface de parametrização de algoritmos e modelos; (ii) interface de submissão de tarefas
(dados hipotéticos); (iii) interface para a modelagem e teste de técnicas de visualização e (iv)
interface de administração. A seguir uma breve descrição de cada um deles.
e informações correspondentes aos diversos algoritmos e/ou modelos cadastrados. Com isso,
um mesmo algoritmo, por exemplo, poderá ter diversos perfis armazenados, o que implicará na
acurácia do mesmo quando for invocado para atuar sobre uma determinada tarefa, lembrando
que cada tipo de algoritmo deverá ter sua interface de parametrização própria.
Nesta camada servidor, a arquitetura prevê dois módulos, a saber: (i) a gerência dos
recursos, situado na camada middleware, e (ii) processamento e armazenamento, situados na
camada recursos do servidor.
A classe de gerência de recursos é composta pelos seguintes módulos (cfe. Figura 46):
(i) framework iPar, (ii) gerente de aplicações e (iii) framework iFuz.
73
Abaixo temos a especificação de cada ator e suas respectivas funções numeradas con-
forme ilustrado na Figura 48:
3. Paciente;
6. Recepcionista;
11. Técnico ou Médico com permissão para efetuar as funções do ítem anterior;
15. Imagens e informações médicas sob sigilo médico, disponíveis no banco de dados para
serem utilizadas nas simulações dos modelos;
77
16. Demanda submetida para processamento, mas aguardando em uma lista de espera, geren-
ciada pelo “gerente de aplicação” a finalização de outra demanda com prioridades maior;
19. Recurso computacional (cluster/grid) para processamento de alto desempenho (ver tam-
bém Figura 47);
21. Recurso de hardware para contemplar o banco de dados (ver também Figura 47);
22. Informações dos pacientes sob sigilo médico armazenadas no banco de dados e prontas
para serem requisitadas pelo “gerente de aplicação” para processamento;
23. Professor pesquisador com permissão para gerenciar a interface administrativa e/ou
usuário com permissão para atender à interface para criação de técnicas de visuali-
zação (ver também Figura 45);
26. Usuário da área da saúde com nível máximo de prioridade no sistema, neste caso Médi-
cos;
27. Dispositivo móvel para notificar o médico de alguma demanda que foi submetida ao pro-
cessamento e já está com seus resultados disponíveis para o diagnóstico;
29. Laudo do paciente obtido com auxílio do diagnóstico informado após a submissão da
demanda, às ferramentas desenvolvidas pelos pesquisadores da área das ciências exatas;
O processo terá início quando os usuários (26 e 23) definirem uma área de pesquisa
com contribuições e necessidades em comum, utilizando a informática como atividade meio e
as informações provenientes da área da saúde.
Com isso, o usuário (26) aciona seus subordinados para fornecerem as informações
necessárias para que os usuários (13) comecem a realizar as pesquisas.
Essa arquitetura fornece suporte específico aos sistemas voltados para área médica
(CAD), apresentando alto desempenho computacional, sendo orientada a atender às demandas
oriundas das necessidades do HUSFP dentro das possibilidades da UCPEL.
7 O Sistema Proposto
O projeto M-IPE, no qual esta proposta está inserida, foi aprovado pelo comitê de
ética em pesquisa da UCPEL em 2008 e segue todas as normas brasileiras e internacionais de
pesquisas em seres humanos.
Para este propósito, são utilizados diversos recursos de pesquisa teórica e aplicada.
Ainda, aplicam-se algoritmos genéticos na segmentação da imagem original, utilizando o par-
ticionamento quadtree. Também, a classificação resultante passa por um processo de fuzzifica-
ção, em que são tratados os valores quantitativos da densidade óssea e os qualitativos dos fatores
de risco. Portanto, os modelos contemplados por este trabalho fornecem as seguintes informa-
ções sobre a densidade mineral óssea: qualitativas, oriundas do modelo fuzzy, e quantitativas,
produtos do modelo de algoritmo genético.
80
As regiões podem ter forma quadrada, retangular ou arbitrária, e um dos motivos pela
escolha da segmentação quadtree é o balanceamento da carga a ser processada. Os quadrantes
produzidos constituem a carga a ser distribuída entre os processadores e a divisão ocorre de
forma recursiva até que seja atingido um critério de parada. A figura 50 ilustra o funcionamento
do algoritmo genético quadtree.
Os parâmetros do algoritmo genético são: (i) tamanho da população (t pop ); (ii) número
de gerações (nger ); (iii) taxa de mutação (tmut ) e taxa de cruzamento (tcru ); (iv) os valores RGB
da região de interesse(intrgb ); (v) a variação do padrão da classificação (∆r , ∆g , ∆b ); (vi) o per-
centual de pontos que caracterizam uma região de interesse (pint ) e (vii) o objetivo da função
( fob j ) que permite a classificação dos candidatos de acordo com a semelhança com o padrão de
interesse (SILVA et al., 2008).
82
Estes novos pontos (indivíduos) são obtidos através dos operadores convencionais de
reprodução: mutação e cruzamento; correspondendo às taxas (tmut ) e (tcru ) e obedecendo o
parâmetro (t pop ).
Estes novos candidatos são avaliados novamente quanto à sua semelhança ao padrão
esperado. Se a população não obtiver um percentual satisfatório de pontos para caracterizar um
quadrante como região de interesse, o processo de reprodução e avaliação da semelhança será
repetido até que a população atinja o número máximo de gerações (nger ) (SILVA et al., 2008).
O parâmetro (pinicial ) define quantas partições do espaço de busca inicial serão criadas
para a execução do algoritmo genético. Como o processo é recursivo, o número de quadran-
tes inúmeras vezes torna-se maior que o número de processadores disponíveis. Neste caso, o
framework iPar gerencia esses quadrantes em uma lista de tarefas (SILVA et al., 2008; SILVA;
AGUIAR, 2009).
Enquanto o quadrante não for considerado região de interesse e não atingir um tama-
nho intermediário definido pelo parâmetro (tlista ), os novos quadrantes originados continuam
retornando à lista de tarefas. Quando um quadrante atingir o tamanho correspondente ao es-
tipulado pelo (tlista ) (i.e quando o quadrante apresentar dimensões inferiores à estipulada pelo
parâmetro) fica inviável encaminhá-lo para a lista de tarefas, pois a perda de desempenho devido
à transmissão e ao tráfego na rede não compensaria a paralelização dessas tarefas.
83
As interfaces que fornecem suporte ao algoritmo genético permitem que seja registrado
o perfil do algoritmo em dois âmbitos. O primeiro quanto à função objetivo, cujo propósito é
definir a informação que se deseja procurar em uma imagem e pode ser observada na ilustração
da Figura 51 (a); o segundo diz respeito à precisão e aos respectivos parâmetros do algoritmo
genético podendo ser observada na ilustração da Figura 51 (b).
(a)
(b)
Figura 51: Interface de controle do AG (a) função objetivo (b) parâmetros de precisão
O iPar gerencia a chamada de tarefas em nodos do cluster segundo uma lista de ta-
refas iniciais criada pela aplicação a ser paralelizada (esta será chamada apenas de aplicação
no decorrer do texto). Quando o iPar é iniciado, este executa um shell script1 que deve invo-
car, através de uma chamada (call), a função principal (main) para a referida aplicação. Isso
se faz necessário porque existem diferentes aplicações paralelizáveis, com propósitos distintos,
disponíveis no ambiente iPar.
Contudo, a estrutura de gerenciamento do iPar controla três estruturas que são funda-
mentais para o processamento de alto desempenho, a saber: (i) listas das aplicações paralelizá-
veis; (ii) lista dos nodos e (iii) lista de tarefas.
A lista de tarefas também é um vetor onde cada elemento corresponde a outro vetor.
No vetor principal “pai” cada índice corresponde a uma tarefa a ser executada, que resulta no
vetor interno “filho”. O identificador da tarefa é o próprio índice do vetor principal “pai” e este
vetor é preenchido em tempo de execução pela aplicação paralilizável.
Com isso, o vetor interno “filho” possui cinco elementos, a saber: (i) identificador da
tarefa (nome), que será passado pelo método “executa()” da aplicação paralilizável, quando a
tarefa for distribuída; (ii) o status da tarefa, que pode ser: aguardando, processando ou fina-
lizada; (iii) identificador do nodo que está processando a tarefa, correspondente ao índice do
vetor “pai” da lista de nodos; (iv) tempo de início da tarefa e (v) tempo gasto na realização da
tarefa.
Uma aplicação paralelizável deve ser implementada seguindo uma metodologia pré-
definida, a fim de permitir que o iPar (gerente) efetue a execução das aplicações com alto de-
sempenho, eximindo da própria aplicação qualquer relação com esse quesito.
Com isso, uma aplicação paralelizável deve conter três métodos fundamentais para o
gerenciamento da aplicação: (i) o método “inicia()”, que realiza rotinas iniciais do programa
e cria as tarefas iniciais devidamente identificadas para posteriormente serem processadas; (ii)
o método “finaliza()”, que conclui o programa juntando todos os resultados das computações
e (iii) o método “executa(parâmetros)”, que é o único a receber parâmetros e tem autonomia
para chamar outros métodos que não os principais, a fim de manipular os parâmetros recebidos
tornando-se, por isso, o método que contém ou invoca o código paralelizado.
Vale ressaltar que a aplicação paralelizável interage com o gerente via RMI e deve
receber no método principal da classe dois parâmetros indispensáveis: o primeiro é a identi-
ficação da conexão RMI com o gerente, e o segundo é um dos métodos principais referidos
anteriormente (“inicia()”, “finaliza()” ou, “executa(parâmetros)”).
Quando a execução de todas as tarefas tiverem sido finalizadas, o iPar finaliza a aplica-
ção paralela agrupando todos os resultados parciais, e notifica o “gerente de aplicação” (contido
em outro módulo da arquitetura M-IPE) para que ele assuma o gerenciamento dos resultados.
Para isso, será necessário possuir um banco de imagens com padrões de normalidade
e anormalidade associadas a uma amostra pré-definida onde, regiões de luminosidade da amos-
tra (imagem) serão estabelecidas para os graus de densidade. A segmentação da imagem deve
garantir que as funções do histograma de luminância mantenham-se dentro de um padrão acei-
tável.
Uma imagem que apresenta qualidade alta mantém um percentual muito alto de inci-
dência de pixels na faixa A. Contudo, quando as amostras foram analisadas apresentando ruídos
observou-se que deveria existir uma faixa de aceitação (B) quanto à qualidade da imagem sob
análise.
89
Sabe-se que quanto melhor for a definição de uma imagem, menor será o percentual
de incidência de pixels nas faixas fora do padrão. Imagens com pouca resolução apresentarão
um percentual elevado de pixel na faixa C (não aceitável) e não serão classificadas.
Os valores intervalares também serão utilizados para suprir alguma anormalidade quanto
à função de luminância do histograma, já que a mesma poderá estar dentro da faixa padrão,
localizada em uma região bem definida, mas não apresentando, porém, a função padrão estabe-
lecida. Isso pode ocorrer por intermédio de uma segmentação irregular cujo resultado carregará
consigo um valor também impreciso. A Figura 57 ilustra dois exemplos hipotéticos de histo-
gramas, no qual os valores resultantes não correspondem ao padrão estabelecido.
Outra alternativa que a modelagem fuzzy oferece para o cálculo da DMO é a utilização
de valores intervalares. Nesse sentido, o sistema processa os dados intervalares individual-
mente, internamente ao sistema, juntando os resultados no final do processamento. Outra opção
é utilizar funções de pertinência intervalares, sendo que essa opção não foi abordada por essa
proposta.
90
Conforme Equação 7.1 o cálculo do centróide (C) pode ser descrito da seguinte forma:
N é o número de regras disparadas e wi é o grau de ativação na ação consequente yi , corresponde
à pertinência da ação, portanto wi ∈ [0, 1] (MITRA; PAL, 2005).
N
P
wi yi
i=1
C= N
(7.1)
P
wi
i=1
(a) (b)
Os valores de saída do sistema são representados pela variável doença, que diz respeito
à DMO, e utilizou os seguintes termos: normal, osteopenia e osteoporose, variando entre
uma escala de 1 a 10 (ver Figura 60 (a)). Sendo assim, as variáveis bidimensionais de entrada
(idade e densidade) e a variável de saída (doença) estão interligadas por uma base de regras, e
interagem de acordo com os valores de entrada do sistema. A Figura 60 (b) ilustra a modelagem
do sistema, baseada, principalmente, na base de regras que será descrita a seguir.
(a)
(b)
Figura 60: Modelagem fuzzy: (a) variáveis de saída; (b) regras do modelo
A base de regras foi modelada a partir de uma tabela de relação entre os termos das
variáveis de entrada associado à doença (cfe. Tabela 16). Com isso, existe uma regra para cada
termo linguístico de entrada multiplicados entre si, resultando em nove regras condicionais as-
sociadas aos seus respectivos termos de saída. A regras condicionais seguem o mesmo formato
do seguinte exemplo: SE densidade baixa E idade jovem ENTÃO osteoporose.
É importante ressaltar que outras regras condicionais podem ser inseridas no contexto
da base de conhecimento. Caso um especialista julgue necessário adicionar alguma informa-
ção posterior à modelagem, regras como modificadores linguísticos, condições, proposições
poderão ser inseridas no modelo a fim de tornar o sistema ainda mais robusto.
É comum, por exemplo, que a osteoporose ocorra em pessoas idosas. Com isso, uma
regra linguística modelada para identificar esses casos pode inserir um modificador linguístico
na variável de saída com o objetivo de emitir um “alerta” suave, pois é usual esse tipo de
classificação para pessoas idosas.
93
Outra alternativa que o modelo oferece está relacionada aos fatores externos. Existem
fatores de risco relacionados ao estilo de vida do paciente, que podem agravar ou acelerar o
estado da doença. Assim sendo, o sistema possui uma opção na modelagem que atende a essas
informações, constituindo, assim, um percentual de influência diretamente relacionado ao valor
de defuzzificação do sistema.
O objetivo do sistema proposto é permitir que o especialista das ciências exatas possa
simular uma série de aspectos dinâmicos, referente ao processamento de imagens médicas, a
partir da parametrização de algoritmos e modelos apresentando alto desempenho.
Entretanto, esse sistema não se restringe apenas aos modelos propostos, pois ele foi
estruturado de maneira dinâmica através de suas interfaces, permitindo assim que, à medida
que novos modelos de algoritmos forem sendo adicionados no projeto, os usuários, através das
interfaces de parametrização e submissão, terão a opção de utilizar os modelos para simula-
ção. Vale ressaltar que novos modelos, para serem incorporados pelo M-IPE devem seguir as
especificações dos frameworks existentes.
94
Assim, o sistema permite que um usuário possa “disparar” uma série de simulações de
uma vez, utilizando as interfaces e sua variedade de algoritmos e modelos disponíveis. Com
isso, o usuário informa sua preferência quanto à notificação referente à finalização do processa-
mento das tarefas (ex. notifica uma a uma ou apenas quando todo o conjunto de tarefas forem
processadas) e, aguarda seus resultados. Um caso recorrente da aplicação é o processamento
noturno, em que o usuário “dispara” uma série de tarefas no final de seu expediente, e no início
de sua jornada de trabalho no dia posterior os resultados já estão disponíveis.
Com isso, para submeter as tarefas o usuário precisa atender às exigências correspon-
dentes ao modelo desejado, e isso é gerenciado através das interfaces de submissões, pois são
nelas que os perfis dos algoritmos são invocados antes de serem processados. A Figura 62
ilustra um exemplo de submissão de DMO.
Ainda não existem, por exemplo, padrões suficientes que possam definir todas as dire-
trizes para a análise envolvendo imagens com o uso de raio-X e o auxílio de computador. Neste
sentido, os modelos propostos visam estabelecer uma ferramenta computacional utilizando al-
goritmos evolutivos para segmentação das imagens médicas e métodos de vanguarda, como
lógica nebulosa e matemática intervalar, para calcular tanto informações qualitativas quanto
quantitativas.
Além da elaboração de uma arquitetura para fornecer suporte ao projeto M-IPE, esta
proposta contemplou algumas áreas bem definidas, a saber: (i) processamento paralelo e dis-
tribuído na elaboração do framework iPar para processamento de alto desempenho; (ii) proces-
samento de imagens, utilizados na segmentação e extração das informações da imagem; (iii)
sistema CAD, na elaboração de um sistema fuzzy para auxílio ao diagnóstico da DMO; (iv)
simulação de aspectos dinâmicos, uma vez que o sistema desenvolvido permitiu analisar uma
grande quantidade de informações e (v) protopipação de interfaces, para utilização dinâmica
dos modelos relacionados aos especialistas das exatas e para elaboração de simulações de as-
pectos dinâmicos.
Vale ressaltar que os modelos propostos propendem para um modelo totalmente dinâ-
mico, a fim de permitir que os usuários (exatas) interajam com os diferentes tipos de algoritmos
e modelos implementados, e uma série de opções para tratar os diferentes tipos de informações
médicas oriundas das demandas do HUSFP sem a ajuda de um especialista da computação.
8 Estudos de Caso
Este capítulo apresenta as informações referentes aos objetos que foram utilizados para
os testes dos modelos, bem como as informações técnicas dos dispositivos, resultados obtidos e
os trabalhos relacionados.
T1
speedup = (8.1)
Tp
Com isso, os estudos de caso tinham duas frentes bem definidas, a saber: (i) detecção
de necrose, na qual algoritmo proposto deveria informar a região necrosada de uma imagem e
(ii) o cálculo da DMO, onde o objetivo do algoritmo era localizar a estrutura óssea da imagem.
Assim sendo, o AG quadtree proposto, por ter características evolucionárias não uni-
formes, não procedeu de maneira similar para todos os quadrantes da estrutura, uma vez que
a mesma era simétrica (ver Figura 63 (b)), e resultou em uma segmentação de aproximada-
mente 29.90% de identificação do objeto. Esse algoritmo levou 61 segundos executando em um
processador (sequencial), sendo que nesse tempo deve-se contabilizar o processamento (equi-
valente a 75% do tempo total) e a construção do resultado (equivalente a 25% do tempo total),
resultando em uma nova imagem segmentada (cfe. Figura 63 (c)).
Além disso, dois aspectos importantes foram observados. O primeiro deles dizia res-
peito ao ganho de desempenho ao classificar um quadrante de tamanho grande, pois o algoritmo
não varre todo espaço de busca para classificar uma região e, quando um quadrante com dimen-
sões maiores é inicialmente classificado (como região de interesse ou não), o algoritmo não
99
efetua mais nenhum procedimento sobre o referido quadrante, ou seja, nesses quadrantes o al-
goritmo proposto obtém um ganho de desempenho em relação aos algoritmos que varrem toda
a imagem.
Com isso, o algoritmo passou a exigir do usuário a escolha entre dois aspectos fun-
damentais para segmentação da imagem. O primeiro era o tempo de execução do algoritmo,
quanto mais precisão era exigida, maior o tempo de execução, e o segundo era a precisão pro-
priamente dita, que estava diretamente relacionada com o problema a ser classificado.
Outro destaque é o de que o método elitista foi adotado e 20% dos melhores indivíduos
sempre serão transferidos para as próximas gerações, os outros 80% são cruzados utilizando a
técnica roleta.
100
Outra observação interessante nesse caso é que, quanto maior o tamanho da partição
inicial da imagem, maior o risco do AG desconsiderar pequenas informações (função objetivo)
sobre o quadrante, funcionando como um filtro. Assim, interpretou-se que, quando se neces-
sitava de maior precisão, tanto o tamanho factível do quadrante deveria ser mínimo, como o
particionamento inicial deveria conter regiões menores, resultando em um maior número de re-
giões (maior carga computacional a ser processada). Para a referida imagem, a partição inicial
com mais de 256 quadrantes gerou partes muito pequenas e o custo de comunicação foi bastante
elevado.
Com isso, observou-se que o algoritmo com precisão alta detectou a informação con-
tida na imagem e não excedeu 1% de informação extra em relação à imagem analisada (ver
Figura 63 (a). Entretanto, obteve-se um tempo de execução de aproximadamente 120 segundos
para processar (sequencialmente) e montar o resultado. Quando a precisão média foi utilizada
o algoritmo excedeu até 2% da informação contida na imagem e executou o processamento
sequencial em aproximadamente 90 segundos. E, para a precisão baixa, a execução sequencial
levou aproximadamente 60 segundos e a informação não excedeu 3% da informação contida na
imagem.
Entretanto, vale ressaltar que a imagem analisada nesses testes tinha um grau de com-
plexidade baixo e os parâmetros obtidos a partir dos resultados da segmentação iniciais tiveram
de ser reavaliados, pois as imagens dos problemas reais apresentavam complexidade mais ele-
vada, conforme observado nas próximas seções.
101
(a) (b)
Figura 64: Modelos de experimentação animal (a) modelo 1 (b) modelo 2
Assim sendo, foram utilizados os três tipos de precisão para detecção da necrose, onde
apenas os parâmetros de particionamento inicial foram alterados, a fim de avaliar resultados de
desempenho e classificação da necrose. Com isso, a imagem foi particionada em 64, 16, 4 e 1
quadrantes iniciais (ver Figura 65).
102
(a)
(b)
(c)
Figura 65: Partição inicial: (a) 64 quadrantes; (b) 16 quadrantes; (c) 4 quadrantes.
Assim, foram produzidos resultados utilizando o ambiente iPar, onde oito processado-
res foram utilizados para processamento e mais de cem simulações foram realizadas para cada
grau de precisão do algoritmo. Os resultados foram obtidos com base em informações estatís-
ticas, entretanto, é difícil definir o comportamento do algoritmo genético, uma vez que este é
baseado na evolução natural e possui comportamento estocástico.
103
Com isso, a classificação resultante relativa à detecção da necrose para o grau de apro-
ximação máximo do algoritmo proposto detectou aproximadamente 7.10% de região necrosada
em média (cfe. ilustrado na Figura 66 (a)). Já a classificação resultante da precisão média de-
tectou aproximadamente 8.60% de região necrosada em média (cfe. ilustra Figura 66 (b)), e
a classificação resultante com precisão baixa detectou aproximadamente 9.50% de necrose na
imagem em média (ver Figura 66 (c)).
Assim sendo, pôde-se fazer algumas observações interessantes, a saber: (i) quanto
menor a precisão do algoritmo melhores os tempos obtidos; (ii) uma imagem particionada ini-
cialmente em muitos quadrantes está associada a um custo computacional grande em relação à
taxa de comunicação devido à quantidade de imagens (tarefas) existentes; (iii) em contrapartida,
um número maior de quadrantes iniciais facilita a classificação das funções do AG, eliminando
possíveis particionamentos recursivos internos do algoritmo; assim, o particionamento de 16 e
64 quadrantes equivaleram-se em relação ao tempo de execução; (iv) quanto maior o particio-
namento inicial, menor a chance de o algoritmo filtrar alguma informação relevante da imagem.
(a) (b)
Figura 67: Imagens de raio-X da Tíbia e Fíbula (a) corte inferior (b) corte superior
Com isso, optou-se em extrair manualmente uma região da própria imagem que, apre-
sentava regiões bem definidas e simularia uma imagem de raio-X apropriada para o estudo. A
Figura 68 ilustra o ponto de extração da nova imagem, possuindo uma resolução de 1148 × 413
e um percentual de osso correspondente a 33.71% do total da imagem.
(a)
(b)
(c)
Figura 69: Imagem de raio-X (a) original; (b) quadtree; (c) segmentação resultante
108
Enquanto isso, nos estudos utilizando informações hipotéticas, observa-se que a partir
da imagem utilizada como referência para validação do algoritmo conseguiu-se extrair um pa-
drão de histograma significativo, oriundo da segmentação resultante. Assim, extraindo a região
de interesse, nesse caso, a estrutura óssea, espera-se que a informação de densidade seja obtida
conforme o deslocamento desse padrão de luminância sobre a escala da densidade. A Figura 70
ilustra o histograma original da imagem (a), o histograma a partir da imagem segmentada (b) e
uma das possíveis metodologia para extração da DMO do paciente.
Assim sendo, utilizaram-se valores hipotéticos para realizar algumas simulação no mo-
delo fuzzy a fim de validar a classificação quanto à DMO proposta. Então, os dados analisados
foram: (i) paciente com 22 anos; (ii) densidade hipotética intervalar de [1.23; 1.25] e (iii) fatores
de risco desconsiderados para análise. Vale ressaltar que os dados intervalares são processados
separadamente pelo sistema e, ao fim do processamento os resultados são agrupados.
Com isso, a entrada relativa à idade do paciente (22 anos) cortou apenas o termo lin-
guístico jovem da função idade, obtendo um grau de pertinência igual a 0.9 (ver Figura 71 (a)).
E, os valores intervalares de densidade tiveram o seguinte comportamento: o primeiro valor do
intervalo (1.23), referente à densidade, cortou a função densidade em dois termos linguísticos,
no primeiro, obteve grau de pertinência 0.1 para o termo média e, 0.9 para o termo alta (cfe.
Figura 71 (b)); já o segundo valor do intervalo (1.25) cortou apenas o termo alta, obtendo grau
de pertinência igual à 1 conforme ilustra Figura 71 (c).
109
Tabela 24: Pertinência de saída pela regra MIN para os valores de idade e entrada 1.
Densidade × Idade µ Jovem (0.9) µAdulto (0.0) µIdoso (0.0)
µBaixa (0.0) µOsteoporose (0.0) µOsteoporose (0.0) µOsteoporose (0.0)
µ Média (0.1) µOsteopenia (0.1) µOsteopenia (0.0) µOsteopenia (0.0)
µAlta (0.9) µNormal (0.9) µNormal (0.0) µNormal (0.0)
Tabela 25: Pertinência de saída pela regra MIN para os valores de idade e entrada 2.
Densidade × Idade µ Jovem (0.9) µAdulto (0.0) µIdoso (0.0)
µBaixa (0.0) µOsteoporose (0.0) µOsteoporose (0.0) µOsteoporose (0.0)
µ Média (0.0) µOsteopenia (0.0) µOsteopenia (0.0) µOsteopenia (0.0)
µAlta (1.0) µNormal (0.9) µNormal (0.0) µNormal (0.0)
Assim sendo, a Tabela 26 ilustra a regra MAX, que resulta nos valores máximos ob-
tidos na multiplicação das matrizes realizados na regra MIN, definindo assim os valores da
função de saída do sistema.
Após definidas as funções de saída, oriundas da regra MIN-MAX, representadas pelas
Figura 72, onde (a) é a função resultante para a idade e o primeiro valor intervalar de densidade
contendo seu centróide e (b) é a função resultante para a idade e o segundo valor intervalar de
densidade contendo seu centróide.
Tabela 26: Funções de saída resultante da regra MAX obtidas a partir da regra MIN.
Doença Idade + Entrada 1 Idade + Entrada 2
Osteoporose 0.0 0.0
Osteopenia 0.1 0.0
Normal 0.9 0.9
(a) (b)
Figura 72: Defuzzificação por centróide: (a) idade + entrada 1; (b) idade + entrada 2.
com seus respectivos graus de pertinência, a análise dos resultados poderá ser visualizada atra-
vés da técnica radial fuzzy (MORAES, 2009), conforme ilustra Figura 73, onde (a) representa um
resultado normal com uma leve tendência ao estágio intermediário da doença e (b) representa
um estágio avançado de osteopenia, com fortes tendências à osteoporose.
(a)
(b)
Figura 73: Radial fuzzy: (a) normal; (b) osteopenia tendendo à osteoporose.
Fonte: Moraes (2009).
Não foram necessárias informações relativas aos pacientes nesta fase de estudo, pois
esta proposta compreendeu apenas o desenvolvimento dos modelos e ferramentas computacio-
nais, caracterizando como desenvolvimento de pesquisa em computação. Todas as informações
associadas aos pacientes que por ventura forem recebidas serão mantidas sob sigilo.
Pode-se afirmar que os modelos propostos atingiram resultados significativos, uma vez
que o projeto M-IPE, no qual este trabalho está inserido, foi aprovado em um edital do BNDES
que disponibilizará recursos para elaboração de um centro de processamento de imagens, com
o objetivo de colocar em prática as ferramentas e modelos propostos por esse trabalho, visando
ao benefício da população carente que não dispõe de recursos para realizar tais diagnósticos.
O projeto também foi elogiado pelo ministério da saúde, pois apresenta a premissa de software
livre. Assim, todas as ferramentas resultantes do projeto serão disponibilizadas para hospitais e
postos de saúde sem custo algum.
Entretanto, algumas informações utilizadas para validação dos modelos eram hipotéti-
cas. Com isso, novas etapas de análise deverão ser realizadas, de modo a observar o compor-
tamento dos modelos frente a informações totalmente reais e com a supervisão de especialistas
da área médica. A proximidade entre os desenvolvedores das ferramentas (exatas) e os médi-
cos deverá ser minimizada, visto que o centro de processamento de imagens a ser instaurado
utilizará a infraestrutura do HUSFP e, essa proximidade com os médicos e especialistas deverá
acelerar a evolução das ferramentas.
113
9 Conclusão
Nesse contexto, as pesquisas que estão sendo desenvolvidas indicam ser bastante pro-
missoras quanto ao uso de sistemas de diagnóstico auxiliado por computador como uma se-
gunda opinião no processo de diagnóstico por imagem.
9.2 Contribuições
Partindo do fato que o HUSFP não possui o densitômetro ósseo e que esse tipo de equi-
pamento é importantíssimo para o diagnóstico da osteopenia, estágio inicial da osteoporose, o
desenvolvimento de uma ferramenta computacional alternativa a este equipamento, que calcula
tanto informações qualitativas (graus de osteopenia) quanto quantitativas (densitometria óssea),
utilizando imagens adquiridas a partir de raio-X convencional, viabilizará o diagnóstico e a
administração de terapia com custo operacional reduzido; e, popularizará este tipo de análise.
Apesar de ser objeto de pesquisa de vários grupos no Brasil e no mundo, vários desa-
fios ainda precisam ser vencidos. O primeiro desafio a ser considerado na construção de tais
sistemas é obter uma alta taxa de acerto de casos verdadeiros-positivos, isto é, indicar a presença
de uma doença quando ela realmente existe. Outra questão que merece destaque é a utilização
de recursos computacionais que proporcionem alto desempenho, uma vez que as imagens mé-
dicas apresentam grande volume de dados para processamento e este processamento envolve,
115
Banco de Dados e Programação para Web: presentes nas estratégias de armazenamento, re-
cuperação e acesso às informações de forma remota.
Outra melhoria que percebe-se é a criação de uma modelagem fuzzy, a fim de evoluir
o modelo de AG atual para um AG adaptativo fuzzy e melhorar seu desempenho. Também,
deve-se adaptar alguns métodos do AG para que sejam adaptados a uma versão mais nova do
Java e, assim, melhorar seu rendimento.
Este desdobramento não faz parte do escopo desta proposta, pois se necessita ainda
da agregação de novos colaboradores da área médica da UCPEL, que farão acompanhamento,
análise e interpretação dos possíveis resultados. E este tema interessantíssimo de pesquisa é
entendido neste momento como motivação para a execução e conclusão deste projeto.
117
Referências
BLACK, D. et al. Prevalent vertebral deformities predict hip fractures and new vertebral
deformities but not wrist fractures. Bone Mineral Research, n. 14, p. 821–828, 1999.
BONJORNO, J. et al. Física Fundamental. 1. ed. São Paulo, SP, Brasil: FTD, 1993. ISBN
85-322-2748-1.
CASTRO, A. Introdução à Radiologia. 1. ed. São Paulo, SP, Brasil: Rideel, 2006. ISBN
85-339-0783-4.
COX, E. et al. The Fuzzy Systems Handbook. 2. ed. Orlando, FL, USA: Academic Press, Inc.,
1998. ISBN 0121944557.
DARWIN, C. On The Origin of Species. MA, USA: Harward University Press, 1859.
DAVIS, L. Handbook of genetic algorithms. 1. ed. New York, NY, USA: Van Nostrand
Reinhold, 1991.
DEITEL, H.; DEITEL, P. Java How to Program. 3. ed. Upper Saddle River, New Jersey, USA:
Prentice Hall, Inc., 1999. ISBN 0-13-012507-5.
EASTMAN KODAK COMPANY. Fundamentos da Radiologia. 1. ed. Irvine, CA, USA, 1980.
EFFORD, N. Digital Image Processing: A Pratical Introduction Using Java. 1. ed. Leeds,
England: Addison Wensley, 2000. ISBN 0201596237.
GONZALEZ, R.; WOODS, R. Digital Image Processing. 3. ed. Reading, MA, USA:
Addison-Wesley, 1992. ISBN 0-201-50803-6.
HERRERA, F.; LOZANO, M.; VERDEGAY, J. L. The use of fuzzy connectives to design
real-coded genetic algorithms. Mathware & Soft Computing, v. 1, n. 3, p. 239–251, 1994.
HOLLAND, J. Outline for a logical theory of adaptive systems. J. ACM, New York, USA, v. 9,
p. 297–314, 1962.
ISHII, K.; SUGENO, M. A model of human evaluation process using fuzzy measure.
Man-Machine Studies, v. 1, n. 22, p. 19–38, 1985.
JAFELICE, R.; BARROS, L.; BASANEZI, R. Teoria dos conjuntos fuzzy com aplicações. In:
Notas em Matemática Aplicada. São Carlos, SP, Brasil: SBMAC, 2005. v. 1.
JAIN, A. K. Fundamentals of Digital Image Processing. Englewood Cliffs, NJ, USA: Prentice
Hall, 1989. ISBN 0-13-336165-9.
KLIR, G.; FOLGER, T. Fuzzy sets: uncertainty, and Information. 1. ed. Upper Saddle River,
NJ, USA: Prentice-Hall, Inc., 1987. ISBN 0-13-345984-5.
LINKOW, L. I.; CHERCHÈVE, R. Theories and techniques of oral implantology. 1. ed. Saint
Louis, MO, USA: Mosby, 1970. ISBN 0801630185.
MISCH, C. E. Dental Implant Prosthetics. 1. ed. St. Louis, MO, USA: Mosby, 2005. ISBN
978-0-323-01955-2.
MITRA, S.; PAL, S. K. Fuzzy sets in pattern recognition and machine intelli-
gence. Fuzzy Sets and Systems, v. 156, n. 3, p. 381–386, 2005. Disponível em:
<http://dx.doi.org/10.1016/j.fss.2005.05.035>.
NOBREGA, A. Manual de Técnicas Radiológicas. 3. ed. São Caetano do Sul, SP, Brasil:
Difusão Editora, 2008. ISBN 8578080335.
120
RAY, N. et al. Medical expenditures for the treatment of osteoporotic fractures in the united
states in 1995. Bone Miner. Res., n. 12, p. 24–35, 1997. Report from the National Osteoporosis
Foundation.
ROSS, T. Fuzzy Logic with Engineering Applications. 2. ed. University of New Mexico, USA:
John Wiley & Sons, Ltd., 2004. ISBN 0-470-86075-8.
SILVA, F. C. et al. Um sistema fuzzy para auxílio ao diagnóstico da densidade mineral Óssea.
Southern Conference on Computational Modeling, Rio Grande, RS, Brasil, 2009.
SILVA, F. C. et al. Quadtrees and genetic algorithms applied with high performance in
information segmentation and classification from medical images. Jornadas Chilenas de
Computación, n. 1, p. 1–8, 2008.
THOMPSON, D. et al. Prevalent vertebral fracture predicts clinical fracture in post menopausal
women. The Fracture Intervention Trial, v. 23, n. 151, 1998.
TURKSEN, I. Interval value fuzzy sets based on normal form. Fuzzy Sets and Systems,
Amsterdam, Netherlands, v. 20, p. 191–210, 1986. ISSN 0165-0114.
ZADEH, L. Fuzzy sets. information and control. Math Appl., New York, NY, USA, v. 8, p.
338–353, 1965.
122
Publicações
Abaixo segue a lista de publicações e eventos originadas pela proposta, que teve seu
início em 08/2007 e foi finalizada em 08/2009.
1.Resumo Completo:
2.Resumo Expandido:
3.Resumo:
•ERAD (Escola Regional de Alto Desempenho), 2009 – Caxias do Sul, RS, Brasil.
•ERAD (Escola Regional de Alto Desempenho), 2008 – Santa Cruz do Sul, RS, Bra-
sil.
•CIC/UFPEL (Mostra de Pós-Graduação), 2007, 2008 – Pelotas, RS, Brasil.
•CIC/UCPEL (Mostra de Pós-Graduação), 2007, 2008 e 2009 – Pelotas, RS, Brasil.
123
O módulo iFuz apresenta uma série de interfaces com o objetivo de atender formal-
mente ao cadastramento de variáveis linguísticas, bem como criação de base de regras e de
grupos de fatores de risco, entre outros. Alguns desses recursos ainda estão em desenvolvi-
mento, entretanto, quando alguma modelagem exige alguma informação diferenciada, esses
dados são inseridos manualmente pelo programador.
Com isso, para atender à modelagem fuzzy, faz-se necessário que o especialista ca-
dastre as informações correspondentes à necessidade da pesquisa. A primeira informação a
ser considerada é o nome de cada uma das variáveis linguísticas, onde, através da interface de
cadastramento das variáveis linguísticas (ver Figura 76), é possível efetuar esse cadastramento.
Nessa interface também está armazenado o universo de discurso (escala da variável), bem como
seu valor incremental necessário para a visualização gráfica e alguns cálculos.
Com isso, o percentual informado na interface 79 (b) é cruzado com o valor da função
de saída, podendo ou não alterar seu estado. É importante salientar que a resultante será o limite
máximo que esse grupo poderá sensibilizar quanto ao valor da função de saída do modelo.
(a)
(b)
Figura 79: Fatores de risco: (a) cadastro dos fatores; (b) cadastro dos grupos.
Neste momento tem-se um modelo fuzzy para interagir com uma dada aplicação e/ou
simulação, e seus perfis encontram-se armazenados no banco de dados e podem ser invocados
por qualquer simulação decorrente do projeto M-IPE através das interfaces de submissão.