Vous êtes sur la page 1sur 24

Lista de Classificação

Aluno: Rafael Resende Assis Silva - 91435


Questão 01)
Foi realizado o PCA dos dados da tabela 35. Entretanto, foi realizado o pré-
processamento de centrar na média (Y) e os dados já estavam autoescalados. Foi realizado
a comparação entre os 9 componentes principais do PCA e obtido que o PC1/PC3
apresentaram a melhor separação das classes. Desta forma, foi disponibilizado o gráfico
biplot dos Loadings e Scores utilizando 4 variáveis latentes (Figura 1).

Figura 1. Loadings e Scores dos componentes PC1 com PC3.


Porém, é necessário mostrar que os componentes que mais explicam as amostras
(PC1 e PC2) não separaram bem todas as classes (Figura 2).
Figura 2. Loadings e Scores dos componentes PC1 com PC3.
A partir da Figura 1 é possível inferir que:
• Utilizando somente o primeiro componente (PC1) é possível separar com sucesso
a classe de Caju e Manga das demais classes. Enquanto, utilizando somente o terceiro
componente (PC3) é possível separar efetivamente as classes de Uva e Maracujá.
• As amostras de Caju, Maracujá, Goiaba, Manga e Abacaxi obtiveram regiões da
classe bem definidas e separadas das demais amostras. Enquanto nas amostras de Acerola
e Uva foi possível estabelecer regiões para classificação e separação das demais amostras.
Porém, algumas amostras são provavelmente outliers e se retiradas do modelo, podem
melhorar a classificação.
• As amostras de Maracujá contêm maiores teores de Potássio, Zinco e pouco teor
de Sódio, dentre os demais minerais avaliados.
• As amostras de Goiaba contêm maiores teores de Potássio, Manganês, Ferro e
Fosforo e baixo teor de Cálcio.
• As amostras de Caju contem baixos teores dos minerais avaliados, porém dentre
eles, contém maiores teores de Sódio e Cobre.
• As amostras de Acerola contêm maiores teores de Sódio e Cobre e pouco teor de
Zinco.
• As amostras de Manga contêm maiores teores de Manganês, Ferro, Fosforo e
baixo teor de Sódio.
• As amostras de Abacaxi contêm maiores teores de Manganês, Ferro, Fosforo,
Magnésio, Potássio, Cálcio e baixos teores de Sódio e Zinco.
• As amostras de Uva contêm maiores teores de Cobre, Sódio e baixos teores de
Zinco e Cálcio.
Questão 02)
Questão 03
function Y = matrizbinaria (y)
[m,n]=size(y);
u=unique(y)
[p,q]=size(u);
Y=zeros(m,q);
for i=1:q
F=find(y==u(i));
Y(F,i)=1;
end

Questão 04)
a)
function T = rocs(Y,n)
[m,p]=size(Y);
for j=1:p
In(j)=(max(Y(:,j))-min(Y(:,j)))/n;
T(1,j)= max(Y(:,j))-In(j);
for i= 2:n
T(i,j)= T(i-1,j)-In(j);
end
end

b) % Matriz de Thresholds (T):


T=
0.9120 0.9380 0.9495
0.8940 0.9160 0.9290
0.8760 0.8940 0.9085
0.8580 0.8720 0.8880
0.8400 0.8500 0.8675
0.8220 0.8280 0.8470
0.8040 0.8060 0.8265
0.7860 0.7840 0.8060
0.7680 0.7620 0.7855
0.7500 0.7400 0.7650
0.7320 0.7180 0.7445
0.7140 0.6960 0.7240
0.6960 0.6740 0.7035
0.6780 0.6520 0.6830
0.6600 0.6300 0.6625
0.6420 0.6080 0.6420
0.6240 0.5860 0.6215
0.6060 0.5640 0.6010
0.5880 0.5420 0.5805
0.5700 0.5200 0.5600

Questão 5)
function resp= classif_aproximar(Y)
[n,m]=size(Y);
for i= 1:n
t=(max(Y(i,:)));
f= find(Y(i,:)==t);
resp(i,1)=f
end

Questão 6)
Tabela requerida:
Método PLS-DA
1. Conjunto Wine_GC
Neste modelo de classificação, centrar na média foi o pré-processamento (x) que
obteve os melhores parâmetros quando comparado com os outros (MSC, Derivadas e
Auto-escalar). A predição de cada classe segue abaixo:
2. Conjunto Butter_MS
Neste modelo de classificação, centrar na média foi o pré-processamento (x) que
obteve os melhores parâmetros quando comparado com os outros (MSC, Derivadas e
Auto-escalar). A predição de cada classe segue abaixo:
3. Conjunto Cola
Neste modelo de classificação, centrar na média foi o pré-processamento (x) que
obteve os melhores parâmetros quando comparado com os outros (MSC, Derivadas e
Auto-escalar). A predição de cada classe segue abaixo:

Método SIMCA
1. Conjunto Wine_GC
Neste modelo de classificação, centrar na média foi o pré-processamento (x) que
obteve os melhores parâmetros quando comparado com os outros (MSC, Derivadas e
Auto-escalar). A predição de cada classe segue abaixo:
2. Conjunto Butter_MS
Neste modelo de classificação, a correção do espalhamento dinâmico (MSC) foi
o pré-processamento (x) que obteve os melhores parâmetros quando comparado com os
outros (Centrar na média, Derivadas e Auto-escalar). A predição de cada classe segue
abaixo:
3. Conjunto Cola
Neste modelo de classificação, o pré-processamento (x) de centrar na média foi
que obteve os melhores parâmetros quando comparado com os outros (MSC, Derivadas
e Auto-escalar). A predição de cada classe segue abaixo:
Método K-NN
1. Conjunto Wine_GC
Neste modelo de classificação, a correção do espalhamento dinâmico (MSC) foi
o pré-processamento (x) que obteve os melhores parâmetros quando comparado com os
outros (Centrar na média, Derivadas e Auto-escalar). A predição de cada classe segue
abaixo:

2. Conjunto Butter_MS
Neste modelo de classificação não foi necessário realizar algum pré-
processamento (x) pois foi o que obteve os melhores parâmetros quando comparado com
os outros (Centrar na média, MSC, Derivadas e Auto-escalar). A predição de cada classe
segue abaixo:

3. Conjunto Cola
Neste modelo de classificação não foi necessário realizar algum pré-
processamento (x) pois foi o que obteve os melhores parâmetros quando comparado com
os outros (Centrar na média, MSC, Derivadas e Auto-escalar). A predição de cada classe
segue abaixo:

Análise I
1. Conjunto Wine_GC
Pré-processamento utilizado neste conjunto: Centrar na média.
Gráfico dos scores (PC1 e PC2).
Gráfico dos Loadings (PC1 e PC2).

2. Conjunto butter_MS
Pré-processamento utilizado neste conjunto: Centrar na média.
Gráfico dos scores (PC1 e PC2).

Gráfico dos Loadings (PC1 e PC2).

Conjunto cola
Pré-processamento utilizado neste conjunto: Centrar na média e correção do
espalhamento dinâmico (MSC).
Gráfico dos scores (PC1 e PC2).

Gráfico dos Loadings (PC1 e PC2).

O pré-processamento de centrar na média foi o mais efetivo para a separação das


classes dos conjuntos. Enquanto, os demais pré-processamentos não foram eficientes na
separação. Além disto, em todos os conjuntos foi possível verificar que o primeiro o
segundo componente foram os que mais explicaram os dados das variáveis. Sendo essa
conclusão obtida por meio dos valores de PC próximo a zero. Contudo, no primeiro
conjunto (Wine_GC) a separação das classes não foi efetiva quanto os demais conjuntos
(Butter_MS e Cola).

Análise II
1. Conjunto Wine_GC
Pré-processamento utilizado neste conjunto: Centrar na média e correção do
espalhamento dinâmico (MSC).
Gráfico dos scores (PC1 e PC2).
Gráfico dos Loadings (PC1 e PC2).

2. Conjunto butter_MS
Pré-processamento utilizado neste conjunto: Centrar na média e correção do
espalhamento dinâmico (MSC).
Gráfico dos scores (PC1 e PC2).

Gráfico dos Loadings (PC1 e PC2).


3. Conjunto cola
Pré-processamento utilizado neste conjunto: Centrar na média e correção do
espalhamento dinâmico (MSC).
Gráfico dos scores (PC1 e PC2).

Gráfico dos Loadings (PC1 e PC2).


QUESTÕES VALENDO PONTO EXTRA
Conjunto Iris Usando o PLS-DA e com o pré-processamento de centrar na média (X).

Conjunto Iris Usando o PLS-DA e sem o pré-processamento. Este modelo


apresentou melhores resultados, uma vez que o RMSECV foi menor em relação a demais
modelos com pré-processamentos testados (Centrar na média, 1 derivada(15)+centrar na
média, autoescalar).
Conjunto Sawdust. Usando o PLS-DA e com o pré-processamento de centrar na média
(X).
Conjunto Sawdust. Usando o PLS-DA e sem pré-processamentos. Este modelo
apresentou melhores resultados, uma vez que o RMSECV foi menor em relação a demais
modelos com pré-processamentos testados (Centrar na média, MSC, autoescalar).
Conjunto Sawdust. Usando o PLS-DA e com o pré-processamento de centrar na média
(X).
Conjunto Sawdust. Usando o PLS-DA e sem pré-processamentos. Este modelo
apresentou melhores resultados, uma vez que o RMSECV foi menor em relação a demais
modelos com pré-processamentos testados (Centrar na média, MSC, autoescalar).

Vous aimerez peut-être aussi