Académique Documents
Professionnel Documents
Culture Documents
Mestrado
DEFINIÇÃO DE UM CATÁLOGO DE MEDIDAS
PARA A ANÁLISE DE DESEMPENHO DE
PROCESSOS DE SOFTWARE
2008
i
Brasília
2008
ii
Agradecimentos
A Deus por ter-me concedido saúde, paz e a oportunidade de realizar este trabalho.
À minha esposa Suzana por ter compreendido os longos momentos de ausência,
dedicados inteiramente à elaboração deste trabalho.
Aos meus pais e irmãos pela convivência acolhedora, incentivo à pesquisa e educação
exemplar transmitida durante toda a minha vida, que culmina hoje com a publicação deste
trabalho.
À minha orientadora Dra. Káthia, pela orientação e cobrança constantes, mantendo a
motivação e persistência que me fizeram concluir esta pesquisa.
Aos meus colegas Ricardo Ajax, Luiz Carlos Ribeiro e Ana Paula Fukuda, pelo apoio
e por estarem sempre disponíveis para dividir idéias sobre a pesquisa.
Aos muitos amigos e profissionais com os quais pude dividir alegrias, desafios e
projetos.
iv
RESUMO
ABSTRACT
LISTA DE FIGURAS
Figura 1: As três dimensões críticas de uma organização (Chrissis, Konrad, Shrum, 2003a, p.
4). .................................................................................................................................. 7
Figura 2: Áreas de processo envolvidas na gestão quantitativa (Adaptado de SEI, 2002)...... 19
Figura 3: Estrutura do gráfico de controle (Adaptada de Florac e Carleton, 1999, p. 77). ..... 25
Figura 4: Fluxograma de decisão do gráfico de controle (Adaptado de Stapenhrust, 2005, p.
264) ............................................................................................................................. 27
Figura 5: Testes de instabilidade de processo ....................................................................... 33
Figura 6: Passos para desenvolvimento do catálogo de medidas ........................................... 38
Figura 7: Índice de desempenho de custos (XmR)................................................................ 72
Figura 8: Índice de desempenho de prazo (XmR)................................................................. 73
Figura 9: Valor agregado (Curva S) ..................................................................................... 73
Figura 10: Variação de custo ................................................................................................ 74
Figura 11: Orçamento no término ........................................................................................ 74
Figura 12: Cobertura de testes (XmR) .................................................................................. 78
Figura 13: Custo da qualidade (Barras) ................................................................................ 81
Figura 14: Percentual de custo da qualidade (XmR) ............................................................. 82
Figura 15: u Chart de Densidade de defeitos ........................................................................ 85
Figura 16: Diagrama de Pareto de Densidade de defeitos ..................................................... 85
Figura 17: Eficácia de testes (XmR)..................................................................................... 88
Figura 18: Eficácia de revisão (XmR) .................................................................................. 89
Figura 19: Taxa de mudanças (XmR) ................................................................................... 92
Figura 20: Volatilidade de requisitos (XmR) ........................................................................ 93
Figura 21: Prazo de ciclo (barras)......................................................................................... 95
Figura 22: Prazo de ciclo relativo ao tamanho (XmR) .......................................................... 96
Figura 23: Prazo médio para a falha (XmR) ......................................................................... 98
Figura 24: Produtividade (XmR) ........................................................................................ 101
Figura 25: Taxa de entrega (PF/mês) (XmR)...................................................................... 102
Figura 26: Reuso de código (XmR).................................................................................... 104
Figura 27: Taxa de remoção de defeitos (XmR) ................................................................. 107
Figura 28: Taxa de retrabalho total (XmR) ......................................................................... 110
vii
LISTA DE QUADROS
LISTA DE TABELAS
SUMÁRIO
1. Introdução ..................................................................................................................... 1
1.1. Motivação e contexto ........................................................................................... 1
1.2. Objetivos .............................................................................................................. 3
1.2.1. Objetivo geral .......................................................................................... 3
1.2.2. Objetivos específicos ............................................................................... 3
1.3. Metodologia ......................................................................................................... 4
1.3.1. Classificação da pesquisa ......................................................................... 4
1.3.2. Hipóteses e suposições............................................................................. 4
1.3.3. Coleta de dados........................................................................................ 5
1.3.4. Organização da dissertação ...................................................................... 6
2. Referencial teórico ........................................................................................................ 7
2.1. Processos de software ........................................................................................... 7
2.1.1. Modelos de processos de software ........................................................... 8
2.2. Medição de software........................................................................................... 11
2.2.1. Conceituação ......................................................................................... 11
2.2.2. Fatores críticos da implantação de programas de medição ...................... 13
2.2.3. Modelos de especificação de medidas .................................................... 15
2.2.4. Medidas de processos de software.......................................................... 15
2.3. Análise de desempenho de processos de software ............................................... 18
2.3.1. Análise de desempenho de processos segundo o modelo CMMI-DEV ... 18
2.3.2. Entendimento do desempenho do processo organizacional ..................... 20
2.3.3. Importância da estabilidade do processo ................................................ 21
2.3.4. Ferramentas de análise de desempenho de processos.............................. 22
2.3.5. Gráficos de controle............................................................................... 24
2.4. Gestão quantitativa de projetos de software ........................................................ 34
2.5. Considerações finais do capítulo ......................................................................... 36
3. Definição do catálogo de Medidas............................................................................... 37
3.1. Visão geral dos passos para definição do catálogo .............................................. 37
3.2. Seleção das medidas de desempenho de software ............................................... 40
3.2.1. Revisão da literatura e identificação das medidas ................................... 40
3.2.2. Categorização das medidas .................................................................... 41
3.2.3. Consolidação de medidas redundantes ................................................... 42
xi
1. INTRODUÇÃO
1.2. Objetivos
O presente trabalho tem por objetivo estabelecer um catálogo de medidas que permita
à análise de desempenho dos processos das áreas de processos da categoria de engenharia do
CMMI-DEV.
1.3. Metodologia
Segundo Moresi (2004, p. 11-14) uma pesquisa pode ser classificada quanto a sua
natureza, abordagem, fins e meios.
O presente trabalho tem por objetivo identificar um conjunto de medidas que permita a
análise de desempenho de processos de software . Portanto, a pesquisa caracteriza-se como
aplicada quanto à sua natureza, já que pretende gerar conhecimentos para aplicações práticas,
dirigidas à solução de um problema específico.
Quanto à abordagem utilizada, a pesquisa caracteriza-se como qualitativa, pois
buscará apresentar um exemplo prático da utilização do catálogo na definição de medidas nas
organizações e nos seus projetos.
A pesquisa irá propor instrumentos, caminhos e procedimentos para a gestão
quantitativa de projetos de software, tratando-se, portanto, de um instrumento de captação e
manipulação da realidade, configurando-se como pesquisa metodológica quanto aos fins.
Quanto aos meios de investigação, será realizada uma busca em material científico
publicado em livros, revistas e jornais, o que caracteriza a pesquisa como bibliográfica. A
partir do referencial teórico e do catálogo de medidas estabelecido, será realizada uma
aplicação prática em campo das medidas do catálogo na análise de desempenho dos
processos de um projeto de desenvolvimento de software.
Por se tratar de uma pesquisa qualitativa, não serão feitas hipóteses e sim suposições,
descritas adiante:
5
A coleta de dados nesta pesquisa teve por objetivo primário obter informações sobre a
utilização do catálogo de medidas como instrumento para a análise de desempenho de
processos. Com este intuito, a coleta de dados para a aplicação do catálogo desta pesquisa foi
realizada na unidade de fábrica de uma empresa brasileira.
O catálogo de medidas estabelecido não tem por finalidade listar todas as medidas
existentes e suas variações, mas sim identificar um conjunto de medidas que permita a análise
de desempenho dos processos das áreas de processos da categoria de engenharia do CMMI-
DEV. Sendo assim, não fazem parte do escopo desta pesquisa medidas de desempenho
relacionadas à gestão organizacional, como os processos de suporte (qualidade de produtos e
processo, medição e análise, entre outros) e gestão dos processos (definição de processos,
melhoria de processos, treinamento, entre outros).
A aplicação da pesquisa irá se limitar em apresentar um exemplo da aplicação de
medidas do catálogo em um projeto real. Portanto, essa aplicação não contemplou todas as
medidas do catálogo, nem mesmo todos os processos envolvidos em um projeto típico de
desenvolvimento de software.
6
2. REFERENCIAL TEÓRICO
Segundo Chrissis, Konrad e Shrum (2003), uma organização pode focar várias
dimensões para melhorar o desempenho de seus projetos de desenvolvimento de software.
Tipicamente, três destas dimensões são consideradas críticas: pessoas, procedimentos e
ferramentas, conforme a Figura 1.
Figura 1: As três dimensões críticas de uma organização (Chrissis, Konrad, Shrum, 2003a, p. 4).
2006a, p. 517) (SOFTEX, 2007, p. 47), a relação de processos dos modelos possui
semelhanças de nomenclatura, propósitos e resultados.
A partir das semelhanças entre os processos do ciclo de vida de software, pode-se
concluir que todos os três modelos servem como referência para o gerenciamento de
processos de software, já que abrangem todos os aspectos envolvidos na produção de
produtos e serviços de software.
O uso de uma abordagem baseada em processos pela indústria de software traz
consigo a necessidade de avaliar e evoluir estes processos, a fim de executar projetos
controlados e previsíveis. As ferramentas e técnicas de medição e análise quantitativa
permitem as organizações determinar e prever o desempenho dos seus processos, detectarem
desvios e identificar oportunidades de melhoria.
2.2.1. Conceituação
García et al (2006, p. 635) afirmam não haver tratamento uniforme para alguns
conceitos básicos de medição como métrica, medida básica, medida derivada e indicador.
Neste contexto, é importante definir os conceitos que serão utilizados como base para este
trabalho.
12
Quadro 3: Escalas de medição (FENTON; PFLEEGER, 1997, p. 45-53) (KAN, 2003, p. 59-61) (ISO/IEC,
2002, p. 5)
Escalas de
Descrição Exemplos
medição
Número de defeitos encontrados
no software, número de pessoas
A medição para uma escala absoluta é feita simplesmente pela
Absoluta da equipe, número de
contagem do número de elementos no conjunto da entidade.
ocorrências de um determinado
tipo, etc.
Cor dos olhos, classes de
Os valores das medidas são categorizados, representados por
defeitos, nomes de linguagens,
Nominal um nome ou rótulo. Não existe ordenação implícita entre as
classes de custos (custos
classes.
diretos, custos indiretos), etc.
Níveis de maturidade do CMMI
(níveis de 1 a 5), complexidade
Os valores das medidas são classificados, acrescentando a
de um sistema (baixa, média,
Ordinal noção de ordem e comparação. Porém, neste tipo de escala não
alta), classificação de
podem ser realizadas operações matemáticas entre as medidas.
severidade de um defeito em
níveis, etc.
Os valores das medidas têm distâncias iguais correspondendo a
quantidades iguais dos atributos. Preserva a importância da
ordem dos resultados da escala ordinal e ainda possui
Complexidade ciclomática,
Intervalar informações sobre o tamanho dos intervalos que separam seus
intervalo de datas, horários, etc.
pontos. Operações matemáticas de adição e subtração podem
ser aplicadas, porém não são permitidas multiplicações e
divisões entre as medidas. O valor zero não é possível.
Preserva a ordem, o tamanho dos intervalos entre entidades,
mas apresenta também as razões entre elas. Incorpora o
Tamanho, peso, altura, tempo
elemento zero absoluto (representando a total falta do
Razão entre falhas, custo, prazo,
atributo). Todas as funções aritméticas podem ser utilizadas
esforço, etc.
aplicadas em cada intervalo do mapeamento, gerando
resultados significativos.
Takara, Bettin e Toledo (2007, p. 92) complementam que um indicador é uma medida
extremamente importante para a organização, sendo acompanhada e analisada periodicamente
a partir de uma meta de desempenho pré-estabelecida.
A experiência de SEI (2001, p. 5) sugere que, em um programa de medição,
normalmente não é suficiente a definição de questões e medidas sem a visualização e reporte
de um indicador como forma de comunicação dos resultados.
SEI (SEI, 2004) PSM (DoD, 2004) ISO 15939 (ISO/IEC, 2002)
Nome/título do indicador Nome da medição Não contém a informação
Data Versão da medição Não contém a informação
Descrição da necessidade de informação
Questões Necessidade de informação Necessidade de informação
Não contém a informação Categoria de informação Não contém a informação
Objetivo Conceito mensurável Conceito mensurável
Entidade e atributos
Não contém a informação Entidades relevantes Entidades relevantes
Não contém a informação Atributos Atributos
Entradas Especificação de medida básica
Elementos de dados
Medidas básicas Medidas básicas
Definição
Não contém a informação Métodos de medição Método de medição
Não contém a informação Tipos de métodos Tipo de método de medição
Não contém a informação Escala Escala
Não contém a informação Tipos de escalas Tipo de escala
Não contém a informação Unidade de medição Unidade de medição
Especificação de medida derivada
Não contém a informação Medidas derivadas Medida derivada
Algoritmo Função de medição Função de medição
Especificação de indicador
Visualização gráfica Descrição do indicador e amostra Indicador
Análise Modelo de analise Modelo
Não contém a informação Critério de decisão Critério de decisão
Interpretação Interpretação do indicador Não contém a informação
17
Quadro 4 (cont.): Comparação dos modelos de especificação de medida
SEI (SEI, 2004) PSM (DoD, 2004) ISO 15939 (ISO/IEC, 2002)
Coleta de dados Procedimento de coleta de dados (para cada medida básica)
Como Não contém a informação Não contém a informação
Quando/Em que freqüência Freqüência da coleta de dados Não contém a informação
Por quem Responsável Não contém a informação
Não contém a informação Fase ou atividade de coleta de dados Não contém a informação
Formulários Ferramentas utilizadas para coleta de dados Não contém a informação
Não contém a informação Verificação e Validação Não contém a informação
Armazenamento de dados
Onde Repositório de dados coletados Não contém a informação
Como Não contém a informação Não contém a informação
Segurança Não contém a informação Não contém a informação
Reporte de dados Procedimento de análise de dados (para cada indicador)
Em que freqüência Freqüência de reporte dos dados Não contém a informação
Responsável pelo reporte Responsável Não contém a informação
Não contém a informação Fase ou atividade de análise dos dados Não contém a informação
Não contém a informação Fonte de dados para análise Não contém a informação
Não contém a informação Ferramentas utilizadas para análise de dados Não contém a informação
Por quem/Para quem Não contém a informação
Revisão, reporte e usuário
Perspectiva Não contém a informação
Informação adicional
Questões de sondagem Não contém a informação
Guia de análise adicional
Referência cruzada Não contém a informação
Não contém a informação Considerações de implementação Não contém a informação
Premissas Não contém a informação Não contém a informação
Evolução Não contém a informação Não contém a informação
Guia para sugestões de melhoria no indicador Não contém a informação Não contém a informação
18
Relatórios redigidos por SEI (2006b) e Kulik e Weber (2002), fazem uma ampla
avaliação da maturidade das organizações no que tange os processos de medição e análise do
desempenho dos seus processos. Ambos concluem que as organizações têm inúmeras
dificuldades na implantação de programas de medição.
Apesar disto, autores publicam também os resultados de pesquisas experimentais,
realizadas em organizações de reconhecida maturidade em processos de software, como a
IBM, NASA e HP (KITCHENHAM et al, 2006) (RESEMBERG; SHEPPARD; 1994)
(MCGARRY; BURKE; DECKER, 1998) (LINDSTRÖM, 2004) (GRADY, 1994)
(AGRAWAL; CHARI, 2007) (HERBSLEB; GRINTER, 1998) (GALIN; AVRAHAMI,
2007) (HALL; FENTON, 1997).
As diferentes medidas identificadas nestes trabalhos formam a base conceitual para a
definição do catálogo proposto nesta pesquisa, sendo apresentadas no capítulo 3.
momento o processo pode ser considerado estável e, portanto o seu desempenho futuro torna-
se previsível. (FLORAC; CARLETON, 1999, p. 70).
A estabilidade do processo é crucial para que a organização seja capaz de produzir
seus resultados de acordo com os planos. Florac e Carleton (1999, p. 71), justificam a
importância de se obter processos estáveis:
• Sem estabilidade e o entendimento da capacidade do processo, não existe
forma de distinguir sinais de ruídos, o que pode resultar em ações
inapropriadas.
• Sem um histórico de desempenho estável, situações descontroladas podem
ocorrer a qualquer tempo. Não existe base para prever as situações futuras e,
portanto todos os planos são considerados de alto risco.
• Desconhecendo o nível de estabilidade do processo, não existe base de
comparação para reconhecer causas especiais de desvio que demandem ações
de melhoria.
• Sem estabilidade não se obtém um processo repetível para usar como linha de
base para a implementação de melhorias. De fato, não existe um único
processo, mas diversos, todos diferentes. Os efeitos das ações de melhoria
podem ser imperceptíveis em meio a todas as variações.
Quantidade de defeitos
que as variáveis analisadas são associadas, 80,00
60,00
possivelmente em uma relação de causa-e-efeito. 40,00
20,00
-
- 50,00 100,00 150,00
Tamanho
dentro da do intervalo. 1
0
Os histogramas são úteis, pois permitem analisam a 0,0 0
to
0,08
to
0,16
to
0,24
to
0,32
to
0,40
to
0,48
to
0,56
to
0,64
to
0 ,72
to
0,80
to
0,8 8
to
0,96
to
1,04
to
1,12
to
0,0 8 0,16 0,24 0,32 0,40 0,48 0,56 0,64 0,72 0 ,80 0,88 0,9 6 1,04 1,12 1,20
taxa de variação de um processo.
Diagrama de O Diagrama de causa e efeito é uma representação
causa-e-efeito, gráfica de problemas e suas causas.
Espinha de peixe Esta ferramenta é muito útil em reuniões de
ou Ishikawa brainstorming, para capturar dos envolvidos na
execução do processo as causas prováveis de um
determinado problema.
Gráfico de Da mesma forma que um histograma, um gráfico de 35,00
Defeitos x Disciplinas x Builds
15,00
histogramas. Neste caso, a largura das colunas e 10,00
do gráfico.
24
Densidade de defeitos
0,300 80,00%
0,250
60,00%
ocorrências mais comuns de um evento e priorizar as 0,200
0,150
0,100 0,055 0,046
40,00%
0,050 0,014 0,010 0,009 0,003 - - 20,00%
ações a serem tomadas no tratamento do processo. - 0,00%
0,100
execução é a tendência de reagir às variações naturais 0,000
do processo. nov/05 dez/05 jan/06 fev/06 mar/06 abr/06 mai/06 jun/06 jul/06 ago/06 set/06
desempenho do processo e identificar as causas IDC (X) LC LCS (+3 sigmas) + 2 sigmas
+ 1 sigma LCI (- 3 sigmas) - 2 sigmas - 1 sigma
normais e especiais de variação.
Segundo Florac e Carleton (1999, p. 78), Kulpa e Johnson (2008, p. 247), Stapenhrust
(2005, p. 265), e Oakland (2003, p. 45), os dados utilizados para análise de desempenho de
processos podem ser classificados como variáveis ou atributos. Ao exibir os dados em um
gráfico de controle, é importante ter um entendimento claro das diferenças entre os tipos de
dados, já que os tipos de gráficos de controle e seus limites são em geral diferentes para
variáveis e atributos.
Dados variáveis, também chamados de dados de medições, medem normalmente
fenômenos contínuos ou contagens que representam medição de tamanho ou situação.
Exemplos de variáveis para a área de software incluem esforço gasto, anos de experiência,
utilização de memória e custo de retrabalho.
26
Por outro lado, os dados são classificados como atributos, ou dados discretos, nos
casos onde a informação é registrada somente quando o processo atende a determinado
critério. Atributos são normalmente medidos como contagens, como por exemplo: número de
defeitos encontrados, número de itens defeituosos, número de linhas de código de
determinado tipo, número de pessoas com determinada habilidade, entre outros.
Para Wheeler e Chambers (1992, pp. 40-42), dado determinado processo, medido a
partir de uma quantidade de valores numéricos, é importante determinar como estes dados
serão utilizados para análise e conclusão a respeito do fenômeno.
O conceito de subgrupo de dados trata da organização dos dados de maneira racional,
de forma que seja possível monitorar tanto o valor quanto a dispersão dos valores produzidos
pelo processo. Um subgrupo envolve um conjunto de múltiplas observações da medida
coletadas dentro de um curto espaço de tempo e, principalmente, sob as mesmas condições de
execução do processo (WHEELER; CHAMBERS, 1992, pp. 40-42) (FLORAC;
CARLETON, 1999, p. 137).
As medidas de um determinado subgrupo são apresentadas no gráfico de controle
como uma única observação do processo, representada pela média ou mediana dos dados da
amostra. Espera-se, portanto que exista uniformidade nos dados do subgrupo, e que variações
internas ao subgrupo sejam resultado de causas semelhantes de variação (FLORAC;
CARLETON, 1999, p. 137).
A homogeneidade dos subgrupos de dados é importante porque a variação das
observações dentro do subgrupo é utilizada para compor os limites de controle para o
processo. Minimizar esta variação torna os limites de controle mais ajustados ao desempenho
real do processo e, portanto torna mais fácil e precisa a identificação de causas especiais de
variação entre os subgrupos (FLORAC; CARLETON, 1999, p. 138).
Diferentes tipos de gráficos de controle são disponíveis para uso pela organização, e a
seleção de qual tipo é o mais adequado para cada situação não é trivial (KULPA; JOHNSON,
2008, pp. 244-247).
27
caso quando a medida baseia-se na quantidade de produtos com defeito, ou Poisson, quando,
por exemplo, a medida representa a quantidade de defeitos de um ou mais produtos.
Independentemente do modelo de distribuição (1.2) selecionado, a última pergunta
(1.2.1 e 1.2.2) refere-se à configuração das amostras de dados, ou áreas de oportunidade.
Neste caso, é necessário avaliar se as amostras de dados possuem tamanhos fixos ou variáveis
dentro de cada medida.
Por exemplo, uma medida de densidade de produtos defeituosos a cada 100 produtos
avaliados, representa uma distribuição binomial de amostras de tamanho fixo (100 produtos).
Neste caso o gráfico mais adequado é o np Chart. Já uma medida de densidade de defeitos por
ponto de função em sistemas de escopo diferentes, será representada por uma distribuição
Poisson em amostras de tamanhos variáveis, sendo mais adequado o uso de gráficos do tipo u
chart.
O Quadro 6 apresenta os principais tipos de gráficos de controle, suas aplicações e
exemplos de utilização em processos de engenharia de software.
Tipo de
gráfico de Descrição e aplicação Exemplos para área de software
controle
X-bar e R Gráficos para médias (X-bar) e dispersão (R) são úteis para • Média de esforço realizado
(XbarR) determinar quando a média (X-bar) ou a dispersão do diariamente com retrabalho
subgrupo (R) são afetadas por causas especiais. por semana (neste caso o
Estes gráficos de controle respondem às perguntas: ‘Qual é a subgrupo é de 1 semana ou 5
tendência central do processo?’ e ‘Quanta variação ocorreu dias úteis)
de um subgrupo a outro no decorrer do tempo?’ • Produtividade média de
Utilizada para dados do tipo variável com subgrupos projetos Java por mês (neste
pequenos (menores ou iguais a 10 observações). caso o subgrupo é o conjunto
de projetos Java finalizados
no mês)
X-bar e S Gráficos para médias (X-bar) e desvio padrão (S) são • Taxa de revisão de código
(XbarS) semelhantes às cartas X-bar e R, porém são mais eficientes (LOC/hora) por release (neste
que a primeira para subgrupos grandes (maiores que 10 caso o subgrupo é cada
observações). release, contendo mais do
que 10 revisões de código)
X e mR Nos casos onde as medições são coletadas de forma esparsa Aplicável para a maioria das
(XmR) ou quando são utilizadas individualmente para avaliação do medidas de processos de software:
processo, somente é possível apresentar valores individuais • Produtividade de um
nos gráficos de controle. O gráfico X é utilizado para valores determinado projeto por mês
individuais (subgrupo de tamanho 1), enquanto o gráfico mR • Variação de prazo de um
apresenta a variação entre dois valores consecutivos do determinado projeto por fase
processo. • Esforço realizado
diariamente com retrabalho
Utilizada tanto para variáveis quanto para atributos, em determinado projeto
independente de modelo de distribuição e com valores
individuais (subgrupo igual a 1).
29
Tipo de
gráfico Exemplos para área de
Descrição e aplicação
de software
controle
c-chart Utilizada para dados do tipo atributo com distribuição Poisson e • Número de defeitos
amostras de tamanhos constantes, normalmente maiores que 5 encontrados durante
observações. inspeção ou testes
• Número de shutdowns não
planejados no servidor de
aplicação
u-chart Gráfico de controle mais utilizado em processos de software caso • Defeitos por milhares de
os dados sejam atributos e a distribuição seja Poisson. É mais linhas de código
flexível que a carta c, pois permite a normalização dos dados • Defeitos por pontos de
(conversão para taxas), já que o tamanho das amostras não é função
constante.
central (LC) é calculada a partir da média dos valores da medida ( X ) e os limites de controle
superior (LCS) e inferior (LCI) são calculados, respectivamente, a partir da soma e subtração
do valor constante de 2,66 vezes a média das amplitudes móveis ( mR ) em relação à linha
central (LC).
O cálculo do valor do sigma, utilizado para estabelecer limites intermediários de
controle, é realizado a partir da divisão da média das amplitudes móveis ( mR ) pelo valor
constante de 1,128.
Para o gráfico de controle de amplitudes móveis (mR) a linha central (LC) é calculada
calculado a partir de 3,268 vezes a média ( mR ). Neste gráfico o limite inferior (LCI) é
sempre igual a zero, pois os valores de amplitude são absolutos.
Quadro 7: Fórmulas para o gráfico de controle XmR (Adaptado de Florac e Carleton, 1999, p. 95)
X + X +K+ X =X+
3mR
= X + 2,660mR
X =
1 2 n
k
n
LCS X
d2
mR = X − X , onde 1 ≤ i ≤ k − 1
i i +1 i LC X
=X
3mR
i =k
LCI =X− = X − 2,660mR
∑ mR i
X
d2
mR = i =1
mR mR
k sigma = =
X d 2 1,128
LCS = D mR 4 mR = 3,268mR
LC = mR
mR
LCI = 0 mR
composição da fórmula dos limites de controle tem como conseqüência limites de controle
superior (LCS) e inferior (LCI) variáveis, ou seja, para cada observação da medida, os limites
32
são re-calculados a partir da média geral ( u ) mais ou menos três vezes o valor do sigma, que
por sua vez é representado pela relação entre esta média e o tamanho a amostra para cada
observação da medida ( a i ).
Quadro 8: Fórmulas para o gráfico de controle u Chart (Adaptado de Florac e Carleton, 1999, p. 116)
= c , onde:
i
=u+3
u
u i LCS
a i
u
a i
u=
∑c i
a i
∑a i
sigma =
u
u
a i
De acordo com Florac e Carleton (1999, p. 2008), mesmo com subgrupos de dados de
tamanho igual a 1 (XmR), 3 a 4 subgrupos já são suficientes para estabelecer limites de
controle temporários (trial limits) e a partir destes identificar situações de processos de fora de
controle. Porém, é prematuro concluir que um processo é estável com menos de 20 a 30
subgrupos de dados coletados, no caso de subgrupos de tamanho maior que 1 (X-bar e S), ou
pelo menos 40 a 45 dados individuais, no caso de gráficos XmR.
É importante ressaltar que os quatro testes listados acima, apesar de suficientes, não
são os únicos existentes para a detecção de instabilidade de processo. Outras regras podem ser
aplicadas para identificação de padrões de oscilação e tendências do processo. Porém, quanto
mais critérios são aplicados ao gráfico de controle, maior é a chance de obter alarmes falsos
na identificação de sinais de variação. (WHEELER; CHAMBERS, 1992, pp. 96-97).
Segundo Florac e Carleton (1999, p. 80), os testes 2, 3 e 4 são chamados testes de
execução e são baseados na premissa que a variação do processo é simétrica em volta da linha
central (LC) e que os dados são exibidos em uma seqüência temporal. Este requisito de
simetria significa que estes testes são desenhados para uso principalmente em gráficos de
controle dos tipos: X-bar e individuais (X). Sendo assim, os testes 2, 3 e 4 não se aplicam aos
gráficos de controle do tipo amplitude (R), desvio padrão (S) ou amplitude móvel (mR).
A partir da análise do desempenho do processo em um gráfico de controle e a
identificação de causas especiais de variação, o diagrama de causa-e-efeito pode ser utilizado
34
Após a análise de desempenho dos processos é possível realizar a gestão dos projetos
a partir de informações precisas de desempenho e limites que representam a capacidade dos
processos da organização
Segundo o PMI (2004), projeto é um empreendimento temporário realizado para criar
um produto, serviço ou resultado único. Projetos são os meios para a realização do
planejamento estratégico da organização, normalmente motivados por uma demanda de
mercado, necessidade organizacional, solicitação de usuário, avanço tecnológico ou
necessidade regulamentar.
O gerenciamento de projetos é a aplicação de conhecimento, habilidades, técnicas e
ferramentas em atividades, a fim de satisfazer os objetivos do projeto (PMI, 2004). Para tal, o
gerenciamento de projetos envolve atividades de diferentes áreas de conhecimento além de
habilidades da administração geral, conhecimentos específicos da área de aplicação do
projeto, habilidades interpessoais e entendimento do ambiente do projeto.
Segundo Wakeland, Martin e Raffo (2003, p. 2), a gestão de um projeto de
desenvolvimento de software transcende a complexidade da gestão de projetos de outras áreas
de aplicação. Inicialmente o gerente necessita fornecer estimativas de custos, prazos e
qualidade com base em informações incompletas sobre os requisitos e recursos. O gerente
acaba então tendo que decidir o escopo do trabalho, a metodologia do projeto, o cronograma e
a equipe levando em consideração o impacto de fatores ambientais como experiência da
equipe, estabilidade dos requisitos, cultura da organização e ambiente de desenvolvimento.
Para complicar o problema, os fatores citados são dinâmicos e mudam constantemente no
decorrer do projeto.
No gerenciamento de projetos tradicional, o esforço de monitoramento e controle
envolve basicamente a identificação de desvios do desempenho realizado em relação ao
planejado para o projeto. A partir destes desvios são estão identificadas e implementadas
alternativas de ação com o objetivo de convergir o projeto para os seus objetivos (PMI, 2004,
p. 41).
Além das características do gerenciamento de projeto tradicional, o gerenciamento
quantitativo de projetos envolve o uso das informações de desempenho coletadas no projeto e
35
a capacidade dos processos da organização para avaliar a situação atual, variações em relação
ao planejamento e prever, através de modelos de desempenho, a probabilidade de o projeto
atender seus objetivos futuros. Através da avaliação correta das informações e da aplicação
adequada dos métodos de controle estatístico de processos (CEP) é possível coordenar ações
preventivas e corretivas de forma a manter o projeto alinhado com as suas metas de
desempenho (SEI, 2006a, p. 364-366).
Para o SEI (2006a, p. 364), o propósito da gestão quantitativa de projetos é gerenciar
quantitativamente o processo definido para o projeto a fim de que este atenda aos objetivos de
qualidade e de desempenho de processo estabelecidos para o projeto. A área de processo de
Gestão Quantitativa de Projetos (GQP) modelo CMMI-DEV envolve:
• Estabelecer e manter os objetivos de qualidade e de desempenho do processo
do projeto.
• Identificar os subprocessos adequados que compõem o processo definido para
o projeto, baseado no histórico de estabilidade e nos dados de capacidade
encontrados nas linhas de base ou modelos de desempenho de processos.
• Selecionar os subprocessos do processo definido do projeto que serão
gerenciados estatisticamente.
• Monitorar o projeto para determinar se os seus objetivos de qualidade e
desempenho dos processos estão sendo atendidos e identificar ações corretivas
apropriadas.
• Selecionar as medidas e técnicas analíticas que serão usadas para gerenciar
estatisticamente os subprocessos selecionados.
• Estabelecer e manter um entendimento da variação dos subprocessos
selecionados usando as medições e técnicas analíticas.
• Monitorar o desempenho dos subprocessos selecionados para determinar se
estes serão capazes de satisfazer, no futuro, os objetivos de qualidade e
desempenho de processos determinados para o projeto.
• Armazenar os dados da gestão estatística no repositório de medições da
organização.
Para o SEI (2006a, p. 313), o propósito do monitoramento e controle do projeto é
prover um entendimento do desempenho do projeto de forma que ações corretivas apropriadas
possam ser tomadas quando o desempenho do projeto desvia significativamente do
planejamento.
36
processos variam consideravelmente de uma organização para outra. Sendo assim, um dos
objetivos do catálogo é unificar os objetivos e características das medidas, permitindo que as
organizações comparem o desempenho dos seus processos com o desempenho geral da
indústria de software.
Para tal, torna-se necessário primeiramente identificar as medidas em prática nas
organizações, unificá-las em um conjunto mínimo e representativo de medidas para a
avaliação de desempenho de processos de software e, por fim, consolidar as medidas em um
catálogo, especificando detalhadamente as suas características. Seguindo esta linha
metodológica central, nove passos foram realizados no desenvolvimento desta pesquisa,
resumidos na Figura 6 e detalhados nas seções seguintes.
Medida Referências
Percentual de retrabalho Galin e Avrahami (2005), Galin e Avrahami (2006), Galin e Avrahami
(2007)
Percentual de tempo de SEI (2006b)
retrabalho
Retrabalho Agrawal e Chari (2007), Chikofsty e Rubin (1999), McGarry et al (2002) e
Stutzke (2005)
Taxa de retrabalho Debou, Kuntzmann-Combelles e Rowe (1994)
Depois de identificado o grupo de categorias de medição, cada uma das 869 medidas
foi categorizada de acordo com seu objetivo de medição em uma das seis categorias. A Tabela
1 abaixo apresenta um resumo quantitativo da distribuição das medidas em relação às
categorias de medição.
Quadro 12: Exemplos de eliminação de redundância pelo nome e descrição das medidas
Quadro 12 (cont.): Exemplos de eliminação de redundância pelo nome e descrição das medidas
à quantidade de linhas de código apenas a partir da sua descrição, já que o seu nome não deixa
claro o objetivo de medição.
Após análise das medidas a partir do nome e descrição, foi realizada a avaliação das
fórmulas das medidas, com o objetivo de identificar semelhanças de cálculo, mesmo em
medidas cujos nomes ou descrição não indicavam a redundância. O Quadro 13 apresenta
exemplos de medidas consolidadas a partir da análise de suas fórmulas.
Nome
Categoria Nome original Fórmula de cálculo Referências
consolidado
Escopo Produtividade Produtividade global e Kulpa e Johnson
tendências de qualidade (2008)
para cada projeto
Produtividade dos Kulik e Weber (2002)
programadores
Produtividade Becker et al (2006),
McGarry et al (2002),
SEI (2006a), SEI
(2006b) e
Stutzke (2005)
Produtividade Esforço / tamanho Kitchenham et al
(2006)
Produtividade Esforço / unidade de McGarry, Burke e
software Decker (1998)
Escopo Taxa de entrega Parâmetro de LOC / Pessoas Lindström (2004)
produtividade do processo
Produtividade LOC/hora Florac e Carleton
(1999)
Produtividade Novas linhas de Galin e Avrahami
código / dia (2007)
Produtividade Tamanho / IEEE (1992)
Quantidade de horas
Produtividade LOC / pessoa/dia Xu (2006)
(tamanho/esforço)
Produtividade do Milhares de linhas de Galin e Avrahami
desenvolvimento de código por (2005), Galin e
software homem/mês Avrahami (2006)
Qualidade Densidade de Densidade de defeitos Agrawal e Chari (2007)
defeitos Densidade de defeitos Número de defeitos / Buglione e Abran
componente de (2005)
software
Densidade de defeitos Defeitos / KLOC Lindström (2004)
Densidade de defeitos Defeitos / Tamanho Xu (2006)
Densidade de defeitos de Defeitos de Florac e Carleton
compilação compilação / KLOC (1999)
Densidade de defeitos de Defeitos / KLOC Humphrey (2000)
complicação
Densidade de defeitos de Defeitos / KLOC Humphrey (2000)
teste de integração
Densidade de defeitos de Defeitos / KLOC Humphrey (2000)
teste de sistema
Densidade de defeitos de Defeitos / KLOC Humphrey (2000)
teste unitário
46
Nome
Categoria Nome original Fórmula de cálculo Referências
consolidado
Qualidade Densidade de Densidade de defeitos de Defeitos de testes / Florac e Carleton
defeitos testes KLOC (1999)
Densidade de defeitos Becker et al (2006)
internos
Densidade de defeitos total Total de defeitos / Florac e Carleton
KLOC (1999)
Densidade de erros Numero de erros / Galin e Avrahami
KLOC (2005), Galin e
Avrahami (2006),
Galin e Avrahami
(2007)
Densidade de falhas Kulik e Weber (2002)
Número de defeitos a cada Kulpa e Johnson
lançamento e / ou build de (2008)
produto
a medida de ‘Taxa de entrega’ para as que apresentam na fórmula de cálculo a relação entre o
escopo e tempo.
No outro exemplo do Quadro 13, a medida de ‘Densidade de defeitos’ foi novamente
consolidada a partir da fórmula das medidas relacionadas. Neste caso, apesar de pequenas
diferenças na nomenclatura das medidas, o cálculo de todas as medidas á apresentado pela
relação entre a quantidade de defeitos e o escopo do produto de software, representado pelo
seu tamanho em quantidade de linhas de código (KLOC), tamanho ou quantidade de
componentes.
Seguindo o mesmo procedimento apresentado nos exemplos acima, as 869 medidas
coletadas dos trabalhos referenciados nesta pesquisa foram analisadas a partir de suas
características e foram consolidadas com o objetivo de identificar o conjunto de medidas
realmente diferentes citadas na literatura para cada categoria de medição.
Após a eliminação das medidas redundantes, restou um conjunto de 584 medidas de
características diferentes como pode ser verificado no APÊNDICE A, onde neste passo da
pesquisa foi preenchida a coluna de “Nome consolidado”.
Quadro 14: Exemplos de medidas cuja relação com as APs do CMMI-DEV é apresentada na literatura
Quadro 14 (cont.): Exemplos de medidas cuja relação com as APs do CMMI-DEV é apresentada na
literatura
Para o conjunto restante de medidas, não foi possível identificar diretamente nos
trabalhos referenciados o mapeamento com as áreas de processos do modelo CMMI-DEV.
Para estas medidas, conforme exemplificado no Quadro 15, foi feita uma análise das
características e objetivo de medição, procurando identificar quais áreas de processos do
modelo poderiam ser gerenciadas quantitativamente a partir de cada medida.
O objetivo desta pesquisa é criar um catálogo de medidas que permita a gestão
quantitativa de projetos de desenvolvimento de software. Com este foco, o conjunto de 584
medidas, devidamente categorizadas e mapeadas para as APs do CMMI-DEV, foi novamente
filtrado, selecionado somente as medidas mapeadas para áreas de processos do grupo de
Engenharia do modelo. Esta seleção foi realizada, pois as seis áreas de processos de
engenharia (Integração de produto - PI, Desenvolvimento de requisitos - RD, Gerenciamento
de requisitos - REQM, Solução técnica - TS, Validação - VAL e Verificação - VER)
correspondem aos processos básicos da produção de software e consistem na maior parte do
esforço envolvido em projetos de desenvolvimento de software. Após a seleção, 345 medidas
mapeadas para as APs de engenharia do modelo CMMI-DEV permaneceram no escopo desta
pesquisa.
50
Quadro 15: Exemplos de medidas cuja relação com as APs do CMMI-DEV foi identificada a partir de
suas características
Gopal, Mukhopadhyay e
Florac e Carleton (1999)
Resemberg e Sheppard
Quant. de referências
Eickelmann e Anant
Becker et al (2006)
Humphrey (2000)
Wang e Li (2005)
Lindström (2004)
Paul et al (1999)
Krishnan (2005)
Stutzke (2005)
Medida / Referências
(2006) (2007)
Grady (1994)
IEEE (1992)
PMI (2004)
Xu (2006)
(2003)
(1998)
(1994)
1. Esforço 14 X X X X X X X X X X X X X X
2. Quantidade de linhas de código 13 X X X X X X X X X X X X X
3. Densidade de defeitos 10 X X X X X X X X X X
4. Quantidade de pontos de função 10 X X X X X X X X X X
5. Quantidade de defeitos 09 X X X X X X X X X
6. Produtividade 08 X X X X X X X X
7. Tamanho 08 X X X X X X X X
8. Taxa de defeitos 07 X X X X X X X
9. Taxa de remoção de defeitos 07 X X X X X X X
10. Taxa de retrabalho 07 X X X X X X X
11. Variação de prazo 07 X X X X X X X
12. Prazo de ciclo 07 X X X X X X
13. Cobertura de testes 05 X X X X X
14. Complexidade 05 X X X X X
15. Complexidade ciclomática 05 X X X X X
16. Prazo 05 X X X X X
17. Custo real 05 X X X X X
18. Estimativa no término 05 X X X X X
19. Estimativa para terminar 05 X X X X X
20. Índice de desempenho de custos 05 X X X X X
21. Índice de desempenho de custos cumulativo 05 X X X X X
22. Índice de desempenho de prazo 05 X X X X X
23. Orçamento no término 05 X X X X X
Tabela 3 (cont.): Lista de medidas referenciadas por três ou mais autores 53
Gopal, Mukhopadhyay e
Florac e Carleton (1999)
Resemberg e Sheppard
Quant. de referências
Eickelmann e Anant
Becker et al (2006)
Humphrey (2000)
Wang e Li (2005)
Lindström (2004)
Paul et al (1999)
Krishnan (2005)
Stutzke (2005)
Medida / Referências
(2006) (2007)
Grady (1994)
IEEE (1992)
PMI (2004)
Xu (2006)
(2003)
(1998)
(1994)
24. Quantidade de requisitos 05 X X X X X
25. Taxa de entrega 05 X X X X X
26. Valor agregado 05 X X X X X
27. Valor planejado 05 X X X X X
28. Variação de custo (EVA) 05 X X X X X
29. Variação de prazo (EVA) 05 X X X X X
30. Variação no término 05 X X X X X
31. Volatilidade de requisitos 04 X X X X X
32. Custo 04 X X X X
33. Custo da qualidade 04 X X X X
34. Densidade de defeitos entregues 04 X X X X
35. Esforço de retrabalho 04 X X X X
36. Estabilidade de requisitos 04 X X X X
37. Prazo médio para falha 04 X X X X
38. Variação de esforço 04 X X X X
39. Eficácia de detecção de defeitos 03 X X X
40. Eficácia de revisão 03 X X X
41. Eficácia de testes 03 X X X
42. Esforço de revisão 03 X X X
43. Quantidade de defeitos de revisão 03 X X X
44. Quantidade de mudanças 03 X X X
45. Quantidade de páginas de documento 03 X X X
46. Reuso de código 03 X X X
47. Taxa de mudanças 03 X X X
48. Variação de tamanho 03 X X X
54
Neste passo foi necessário realizar novamente uma avaliação de medidas redundantes.
Porém, neste momento a análise não focou as características de nome, descrição e fórmula de
cálculo das medidas, como apresentado anteriormente no item 3.2.3. A avaliação procurou
identificar medidas diferentes, mas de mesmo objetivo, ou seja, mesma aplicação na gestão
quantitativa dos processos. Nestes casos, apesar das medidas de possuírem nomes, descrições
e fórmulas diferentes, essas provêm informações que permitem avaliar as mesmas áreas de
processos sobre a perspectiva das mesmas categorias de medição.
As 48 medidas foram analisadas individualmente e depois comparadas em conjunto, a
fim de identificar objetivos de medição semelhantes e então eliminar as redundantes. A
Tabela 4 abaixo apresenta os grupos de medidas analisados e a conclusão para permanência
no catálogo apenas das medidas mais referenciadas na literatura.
Quantidade
APs do CMM-DEV
Categoria Medida de Redundância de objetivo
aplicáveis
referências
Tempo Variação de 7 Todas Ambas as medidas avaliam a relação
prazo entre o realizado e o planejado da
Variação de 5 perspectiva de tempo para todas as APs
prazo (EVA) do CMMI-DEV. Sendo assim, a medida
com maior quantidade de referências
(Variação de prazo) foi mantida no
conjunto de medidas do catálogo.
Qualidade Densidade de 11 Solução Técnica (TS), As três medidas relacionadas com a
defeitos Desenvolvimento de quantidade de defeitos por produto de
Taxa de 7 Requisitos (RD), software avaliam os processos técnicos e
defeitos Integração de Produto (PI), de verificação e validação sobre a
Densidade de 4 Verificação (VER) e perspectiva de qualidade. Sendo assim,
defeitos Validação (VAL) apenas a medida de maior quantidade de
entregues referências (Densidade de defeitos) foi
mantida no conjunto de medidas do
catálogo.
Quantidade 9 Todas A medida de ‘Quantidade de defeitos de
de defeitos revisão’ é uma especialização da medida
Quantidade 3 de ‘Quantidade de defeitos’. Sendo
de defeitos assim, apenas a medida de maior
de revisão quantidade de referências (Quantidade de
defeitos) foi mantida no conjunto de
medidas do catálogo.
55
Quantidade
APs do CMM-DEV
Categoria Medida de Redundância de objetivo
aplicáveis
referências
Qualidade Eficácia de 3 Verificação (VER) e As três medidas têm por objetivo avaliar a
revisão Validação (VAL) eficácia da detecção de defeitos durante o
Eficácia de 3 desenvolvimento, antes da entrega dos
testes produtos. Neste caso, a quantidade de
Eficácia de 3 referências é igual para as três medidas.
detecção de Sendo assim, apesar das medidas ‘Eficácia
defeitos de revisão’ e ‘Eficácia de testes’ serem uma
especialização da medida ‘Eficácia de
detecção de defeitos’, decidiu-se manter as
duas medidas especializadas no catálogo,
pois estas permitem avaliar
independentemente o desempenho dos
processos de revisão técnica e testes.
Escopo Quantidade de 13 Solução Técnica (TS), A medida de tamanho é genérica, possuindo
linhas de Integração de Produto como especializações possíveis as outras três
código (PI), Verificação (VER) citadas. Neste caso, as especializações de
e Validação (VAL). ‘Quantidade de linhas de código’ e
Quantidade de 10 Todas ‘Quantidade de pontos de função’ são
pontos de amplamente referenciadas na literatura e,
função portanto foram selecionadas para
Tamanho 8 Todas composição do catálogo em detrimento da
Quantidade de 5 Todas medida de ‘Tamanho’.
requisitos A medida de ‘Quantidade de requisitos’ é
apresentada aqui, pois também é uma
especialização da medida excluída de
‘Tamanho’.
Quantidade APs do
Categoria Medida de CMM-DEV Redundância de objetivo
referências aplicáveis
Custo Índice de 5 Todas As duas medidas têm o mesmo objetivo de medição.
desempenho de A única diferença entre as duas é que o ‘Índice de
custos desempenho de custos acumulativo’ apresenta a
Índice de 5 medição de forma acumulada para um conjunto de
desempenho de atividades ou projeto. Neste caso, optou-se por
custos manter apenas o ‘Índice de desempeno de custos’
cumulativo pois a sua fórmula também permite a avaliação
acumulativa da medição.
Custo real 5 Todas Ambas as medidas possuem o mesmo objetivo de
Custo 4 medição, que é identificar o custo realizado pelo
projeto. Sendo assim, a medida com maior
quantidade de referências (Custo real) foi mantida no
conjunto de medidas do catálogo.
Esforço Esforço 14 Todas A medida de ‘Esforço de revisão’ é uma
Esforço de 3 VER, VAL especialização da medida de ‘Esforço’. Esta última,
revisão e IPM por sua vez, é mais genérica e pode ser aplicada na
medição de diferentes processos. Sendo assim, a
medida mais genérica e com maior quantidade de
referências (Esforço) foi mantida no conjunto de
medidas do catálogo.
Quadro 17: Distribuição das medidas do catálogo por categoria e área de processo
Quadro 18: Exemplos de diferentes interpretações das medidas para cada área de processo
atributos’, fato confirmado nos exemplos de medidas especificadas divulgado pelo próprio
PSM.
As seções de ‘Modelo de analise’, ‘Critério de decisão’ e ‘Interpretação do indicador’
do modelo foram interpretadas com foco na gestão quantitativa de projetos. Nestas seções,
para atender aos requisitos da área de processos do modelo CMMI-DEV, técnicas e métodos
de controle estatístico de processos foram inseridas como parte integrante do modelo,
aprimorando as técnicas e modelos de medição apresentados nos exemplos divulgados pelo
PSM.
As demais seções do modelo de especificação de indicador foram mantidas sem
alteração, conforme descrito no modelo do PSM.
O modelo de documento de especificação utilizado nesta pesquisa, adaptado a partir
do modelo do PSM proposto por DoD (2004), é apresentado a seguir, descrevendo os
objetivos e exemplos de cada seção do documento.
Nesta seção devem ser apresentadas as cartas de controle adotadas para o indicador,
bem como a forma de análise destas cartas focadas na estabilidade do processo e na
identificação de causas especiais de variação.
Critério de decisão Descrever um conjunto de critérios para avaliação e interpretação dos resultados do
indicador
A seção a seguir apresenta a seleção dos indicadores e suas medidas relacionadas para
composição do catálogo proposto nesta pesquisa.
gestão de projetos. Sendo assim, pode-se concluir que este indicador e sua medida associada
não agregam valor à análise de desempenho de processos, foco desta pesquisa, e, portanto o
mesmo foi excluído do escopo do catálogo de medidas.
O Quadro 19 apresenta o resultado desta análise, contento a relação de indicadores e
medidas selecionados para a especificação do catálogo.
A composição de um determinado indicador pode envolver uma ou várias medidas
derivadas, e estas por sua vez, podem envolver várias medidas básicas. É previsto, portanto,
que algumas medidas básicas sejam compartilhadas, ou seja, que estas apareçam descritas
repetidamente em diferentes indicadores do catálogo. Conforme mostrado no Quadro 19, um
exemplo desta situação é a medida básica de ‘Quantidade de defeitos’, que compõe as
medidas derivadas e indicadores de ‘Densidade de defeitos’, ’Eficácia de revisões e testes’ e
‘Taxa de remoção de defeitos’.
Durante a especificação dos indicadores, percebeu-se a necessidade de especializar
algumas medidas do catálogo, tornando-as mais específicas para utilização em determinados
indicadores. Tomando o mesmo exemplo citado acima, a medida de ‘Quantidade de defeitos’
foi especializada para as medidas de ‘Quantidade de defeitos abertos’ e ‘Quantidade de
defeitos fechados’ de forma a permitir o cálculo da medida derivada de ‘Taxa de remoção de
defeitos’.
As medidas especializadas durante a especificação do catálogo não fazem parte da
lista de medidas apresentada no Quadro 16. Estas são destacadas no Quadro 19, em um nível
mais profundo de endentação e identificadas conforme legenda ao final do quadro.
Quadro 20: Distribuição dos indicadores do catálogo por categoria e área de processo
Custo • Análise de valor • Análise de valor • Análise de valor • Análise de valor • Análise de valor • Análise de valor
agregado agregado agregado agregado agregado agregado
• Custo da Qualidade • Custo da Qualidade
70
Entidade e atributos
Entidades relevantes Projeto ou atividades do projeto
Atributos 1. Escopo planejado: Linha de base de escopo planejado para a tarefa ou projeto.
2. Prazo planejado: Linha de base de prazo planejado para a tarefa ou projeto.
Normalmente estimado com base no escopo planejado em relação aos recursos
disponíveis e produtividade destes para realização das tarefas.
3. Custo planejado: Linha de base de custo planejado para a tarefa ou projeto.
4. Custo realizado: Valor real de custo executado até o determinado momento.
5. Prazo realizado: Valor real de prazo executado até o determinado momento.
6. Escopo realizado: Valor real de escopo executado até o determinado momento.
Especificação de medida básica
Medidas básicas 1. Valor planejado (VP)
2. Custo real (CR)
3. Valor agregado (VA)
4. Orçamento no término (ONT)
Métodos de medição 1. Estimativa do custo total planejado para execução do trabalho de uma atividade ou
projeto até um determinado momento, obtida da linha de base do projeto. Este
custo é normalmente estimado com base no custo dos recursos alocados para
realização das tarefas do projeto.
2. Cálculo do custo total realizado na execução do trabalho de uma atividade ou
projeto até um determinado momento, normalmente obtido através do custo
acumulado dos recursos utilizados para a realização da tarefa ou projeto.
3. Cálculo do custo total planejado para execução do trabalho realmente terminado na
atividade ou projeto até um determinado momento. Este valor de custo
corresponde ao valor planejado, multiplicado pelo percentual de conclusão da
atividade ou projeto,
4. Estimativa de custo planejado para execução do trabalho de todo o projeto,
baseado no planejamento original mais mudanças autorizadas (VP total).
Tipos de métodos 1. Objetivo
2. Objetivo
3. Objetivo
4. Objetivo
Escala 1. Decimais, de zero a infinito
2. Decimais, de zero a infinito
3. Decimais, de zero a infinito
4. Decimais, maior do que zero a infinito
Tipos de escalas 1. Razão
2. Razão
3. Razão
4. Razão
Unidade de medição 1. Valor monetário (R$)
2. Valor monetário (R$)
3. Valor monetário (R$)
4. Valor monetário (R$)
Especificação de medida derivada
Medidas derivadas 1. Índice de desempenho de custos (IDC)
2. Índice de desempenho de prazo (IDP)
3. Variação de custo (VC)
4. Variação de custo percentual (VC %)
5. Estimativa para terminar (EPT)
6. Estimativa no término (ENT)
7. Variação no término (VNT)
72
2. Valor agregado (VA), Custo real (CR) e Valor planejado (VP): As medidas
básicas da análise de valor agregado são apresentadas em conjunto em um gráfico
de Curva S (Figura 9).
Variação de custo
R$ 20.000,00 50,00%
R$ - 0,00%
11,14%
-16,36% -23,12% -21,33%
R$ (20.000,00) -50,00%
-35,61% -37,57% -37,60% -40,70%
-53,05% -50,02% -46,38% -49,87% -49,74%
-49,27% -50,24%
-52,58%
-59,22%
-71,47% -68,86% -63,30%
R$ (40.000,00) -100,00%
-102,01%
R$ (60.000,00) -150,00%
Variação de custo (VC) Variação de custo percentual (VC %) Variação de custo acumulado percentual (VCa %)
Orçamento no término
R$ 3.500.000,00
R$ 3.000.000,00
R$ 2.500.000,00
R$ 2.000.000,00 R$ 1.795.000,00
R$ 1.500.000,00
R$ 1.000.000,00
R$ 500.000,00
R$ -
R$ (500.000,00)
R$ (1.000.000,00)
R$ (1.500.000,00)
jan/08 fev/08 mar/08 abr/08 mai/08 jun/08 jul/08 ago/08 set/08 out/08 nov/08 dez/08
Modelo de analise 1. As medidas IDC e IDP são apresentadas separadamente em Gráficos de Controle
X e mR (XmR) e de forma conjunta em um Diagrama de Dispersão:
1.1. O gráfico de controle XmR apresenta o desempenho do processo ao longo do
tempo com o objetivo de avaliar a estabilidade do mesmo. A análise deste
gráfico deve procurar por sinais de desvios, ou seja, variações excepcionais
do processo que necessitam de investigação detalhada para identificação e
correção das causas de variação. O cálculo da linha central e limites de
controle deste gráfico são realizados de acordo com o procedimento
apresentado na seção 2.3.5.4.
2. As medidas VA, CR e VP são apresentadas de forma cumulada em uma Curva S,
onde á possível comparar o valor do trabalho executado (VA) em relação ao custo
despendido para a realização do trabalho (CR) e ao valor de trabalho planejado
(VP). A cada observação destas três medidas, os valores plotados na curva S
permitem avaliar as variações de prazo em valores de tempo e monetário (Setas 1 e
2 na Figura 9, respectivamente) e a variação de custo em valor monetário (Seta 3
na Figura 9). Idealmente, as curvas das medidas VA, CR e VP deveriam ser
plotadas de forma sobreposta, indicando que o projeto ou tarefa está sendo
realizado exatamente dentro do custo e prazo previstos. Valores de CR e VP
superiores a VA indicam que o projeto ou tarefa encontra-se em desvio de
execução em relação ao custo e prazo planejados.
3. As medidas de VC e VC% são apresentadas em um único gráfico temporal de
freqüência mensal, que combina os valores coletados para as medidas com a
75
identificadas e tratadas.
2. A curva S do exemplo apresenta, a partir da observação realizada em Março de
2008, tendência de desvio já que os valores de CR e VA são inferiores ao valor de
PV por dois meses consecutivos. Sendo assim, ações gerenciais devem ser
realizadas para tratar os desvios.
3. A partir do gráfico de variação de custos mostrado no exemplo anterior é possível
concluir que em todos os meses apresentados no gráfico, o projeto ou tarefa
medido apresentou desvio superior ao limite estabelecido nos critérios de decisão.
Portanto, neste caso, desde o primeiro mês de medição seria necessário realizar
ações para correção do desempenho do projeto, tornando compatíveis o custo real
e valor agregado pelo trabalho realizado.
4. O gráfico de orçamento no término apresentado no exemplo identifica que os
valores de ENT são superiores a ONT desde a primeira observação das medições.
Sendo assim, são necessárias ações gerenciais para tornar a estimativa de custo
final do projeto igual ou inferior ao valor de ONT.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Diariamente. Coleta do valor de valor planejado para as atividades e/ou projeto
de dados planejadas para realização até a data da coleta.
2. Diariamente. Coleta do custo realizado na execução das atividades até a data da
coleta.
3. Diariamente. Coleta do valor de valor agregado nas atividades realizadas até a data
da coleta.
4. Mensalmente ou a cada mudança. Coleta do orçamento planejado para todo o
projeto a cada oportunidade de reporte da medida ou a cada mudança aprovada no
orçamento do projeto.
Responsável O Gerente do Projeto coleta os valores das medidas básicas de valor agregado.
Fase ou atividade de Em todas as fases do ciclo de vida do projeto.
coleta de dados
Ferramentas 1. Ferramenta de gerenciamento de cronograma e alocação de recursos.
utilizadas para coleta 2. Ferramenta de gerenciamento de cronograma e alocação de recursos.
de dados 3. Ferramenta de gerenciamento de cronograma e alocação de recursos.
4. Ferramenta de gerenciamento de cronograma e alocação de recursos.
Verificação e Auditorias nas linhas de base de planejamento e nos registros de desempenho, esforço e
Validação custo reportados pelas equipes da ferramenta de gerenciamento de cronograma.
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de Mensalmente.
reporte dos dados
Para os meses onde o indicador não for coletado, repetir os valores da última análise.
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Em todas as fases do ciclo de vida do projeto.
análise dos dados
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise
adicional
77
Tipos de escalas 1.
1.1. Absoluta
1.2. Razão
1.3. Absoluta
2.
2.1. Absoluta
2.2. Razão
2.3. Absoluta
Unidade de medição 1.
1.1. Linhas de código
1.2. Pontos de função
1.3. Requisitos
2.
2.1. Linhas de código
2.2. Pontos de função
2.3. Requisitos
Especificação de medida derivada
Medidas derivadas 1. Cobertura de testes
Função de medição Tamanho do produto de software testado
1. *100
Tamanho total do produto de software
Especificação de indicador
Descrição do 1. Cobertura de testes: Este indicador apresenta na Figura 12 o percentual do
indicador e amostra produto de software testado, em relação ao tamanho total do produto de software.
Objetivo de medição
Avaliar o desempenho dos processos técnicos de desenvolvimento de software através
Objetivo de medição
da qualidade do produto resultante da execução destes processos.
Entidade e atributos
Entidades relevantes Pacote ou unidade de software.
Atributos 1. Quantidade de defeitos
2. Tamanho
Especificação de medida básica
Medidas básicas 1. Quantidade de defeitos totais
2. Quantidade de defeitos por tipo
3. Tamanho, sendo representado por:
3.1. Quantidade de linhas de código, ou
3.2. Quantidade de pontos de função, ou
3.3. Quantidade de requisitos
Métodos de medição 1. Contagem do número de defeitos totais encontrados nos testes de um pacote ou
unidade de software
2. Contagem do número de defeitos encontrados nos testes de um pacote ou unidade
de software, classificados por tipo de defeito ou causa do defeito (Implementação,
Banco de Dados, Projeto, Requisito, Integração, Ambiente, etc.)
3. Contagem do tamanho de um pacote ou unidade de software testado
3.1. Contagem da quantidade de linhas de código (SEI, 1992)
3.2. Contagem da quantidade de pontos de função (IFPUG, 2004)
3.3. Contagem do número de requisitos funcionais do software.
Tipos de métodos 1. Objetivo
2. Objetivo
3. Objetivo
Escala 1. Inteiros, de zero a infinito
2. Inteiros, de zero a infinito
3.
3.1. Inteiros, de zero a infinito
3.2. Decimais, de zero a infinito
3.3. Inteiros, de zero a infinito
Tipos de escalas 1. Absoluta
2. Nominal
3.
3.1. Absoluta
3.2. Razão
3.3. Absoluta
Unidade de medição 1. Defeitos
2. Defeitos
3.
3.1. Linhas de código
3.2. Pontos de função
3.3. Requisitos
Especificação de medida derivada
Medidas derivadas 1. Densidade de defeitos totais
2. Densidade de defeitos por tipo
Função de medição Quantidade de defeitos totais
1.
Tamanho do pacote ou unidade de software
Quantidade de defeitos por tipo
2.
Tamanho do pacote ou unidade de software
85
Especificação de indicador
Descrição do 1. Densidade de defeitos: Este indicador apresenta na Figura 15 a razão entre a
indicador e amostra quantidade de defeitos encontrados durante os testes e o tamanho do pacote ou
unidade de software testado. O indicador apresenta também na Figura 16 a
classificação dos defeitos por tipo a fim de identificar os processos que mais
causaram defeitos no produto de software.
1,400
1,200
1,000
0,800
0,600
0,400
0,311
0,200
-
(0,200)
(0,400)
Interpretação do 1. O gráfico de controle u do exemplo acima apresenta aos responsáveis pela análise
indicador que os Builds 9, 10, 11, 12, 13, 15 e 18, apresentam sinais de desvio, já que
possuem valor fora dos limites de controle superior e inferior.
2. O Diagrama de Pareto do exemplo acima apresenta aos responsáveis pela análise
que as causas mais comuns de defeitos nos pacotes ou unidades de software são
Integração, seguida de Implementação, Projeto, Requisito, Banco de Dados e
Ambiente. Seguindo a regra de Pareto de que 20% das causas são responsáveis por
80% dos problemas, ações devem ser empregadas prioritariamente nos processo de
Integração, Implementação, Projeto e Requisito, pois estas serão mais efetivas na
melhoria da qualidade dos próximos pacotes ou unidades de software produzidas.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. A cada pacote ou unidade de software entregue ao Cliente (Build). Coleta da
de dados quantidade de defeitos totais do pacote ou unidade de software.
2. A cada pacote ou unidade de software entregue ao Cliente (Build). Coleta da
quantidade de defeitos por tipo do pacote ou unidade de software.
3. A cada pacote ou unidade de software entregue ao Cliente (Build). Coleta do
tamanho do pacote ou unidade de software.
Responsável O Analista de Testes coleta os dados de quantidade de defeitos e quantidade de defeitos
por tipo, o Analista de métricas obtém o dado de tamanho do pacote ou unidade de
software testado e consolida a informação das medidas.
Fase ou atividade de Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir durante a
coleta de dados fase de Operação do ciclo de vida do produto: Os dados devem ser coletados a partir do
momento em que os primeiros testes forem realizados nos pacotes ou unidades de
software até a implantação do produto. Opcionalmente, a medida pode permanecer
sendo coletada durante a operação ou garantia do produto em ambiente de produção.
Ferramentas 1. Ferramenta de registro de defeitos de testes
utilizadas para coleta 2. Ferramenta de registro de defeitos de testes
de dados 3.
3.1. Ferramenta de contagem de linhas de código
3.2. Ferramenta ou Relatório de análise de pontos de função
3.3. Ferramenta ou Lista de requisitos
Verificação e Auditorias dos registros de defeitos de testes e tamanho dos pacotes ou unidades de
Validação software.
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de A cada pacote ou unidade de software entregue ao Cliente (Build).
reporte dos dados
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir durante a
análise dos dados fase de Operação do ciclo de vida do produto: Os dados devem ser analisados a partir
do momento em que os primeiros testes forem realizados nos pacotes ou unidades de
software até a implantação do produto. Opcionalmente, a medida pode permanecer
sendo analisada durante a operação ou garantia do produto em ambiente de produção.
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise A análise da evolução da Densidade de defeitos por tipo pode ser realizada avaliando-
adicional se os diferentes Diagramas de Pareto produzidos em cada mês de coleta.
87
Função de medição
Quant. de defeitos de testes internos
1. * 100
Quant. de defeitos de testes internos + externos
Quant. de defeitos de revisão internos
2. * 100
Quant. de defeitos de revisão internos + externos
Especificação de indicador
Descrição do 1. Eficácia de testes: Este indicador apresenta na Figura 17 a razão entre a
indicador e amostra quantidade de defeitos encontrados pela equipe do projeto, nos testes internos, e o
total de defeitos encontrados, incluindo àqueles identificados pelo Cliente nos
testes de aceitação do sistema.
Fase ou atividade de 1. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
coleta de dados durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
2. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
3. Durante todo o ciclo de vida do projeto.
4. Durante todo o ciclo de vida do projeto.
Ferramentas 1. Ferramenta de registro de defeitos de testes
utilizadas para coleta 2. Ferramenta de registro de defeitos de testes
de dados 3. Ferramenta de registro de defeitos de revisão
4. Ferramenta de registro de defeitos de revisão
Verificação e Auditorias dos registros de defeitos de testes e revisões realizadas pela equipe e Cliente
Validação do projeto.
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de 1. Mensalmente.
reporte dos dados 2. Mensalmente.
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de 1. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
análise dos dados durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
2. Durante todo o ciclo de vida do projeto.
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e • Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do
usuário projeto)
• Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise Não aplicável
adicional
Considerações de • Fase ou atividade do ciclo de vida: A organização deve adaptar o momento de
implementação coleta e análise dos dados do indicador de acordo com as fases e atividades
definidas no modelo de ciclo de vida em prática nos projetos (Ex.: Cascata ou
iterativo).
• Quantidade de dados mínimos: A quantidade de dados mínimos para a análise de
desempenho do processo é definida conforme exposto na seção 2.3.5.4.
91
Modelo de analise 1. A medida de Prazo médio para a falha é apresentada em Gráficos de Controle X e
mR (XmR):
1.1. O gráfico de controle XmR apresenta o desempenho do processo ao longo do
tempo com o objetivo de avaliar a estabilidade do mesmo. A análise deste
99
3.3.4.9. Produtividade
Estes sinais demonstram que o processo pode estar fora de controle e deve então ser
analisado criticamente para identificar as causas de variação ações para correção.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Após entrega de um pacote ou unidade de software (Build).
de dados 2. Após entrega de um pacote ou unidade de software (Build).
3. Após entrega de um pacote ou unidade de software (Build).
Responsável • O Analista de métricas realiza contagem do tamanho do pacote ou unidade de
software, do esforço e prazo realizado.
• O Gerente do Projeto consolida as informações das medidas.
Fase ou atividade de Durante todo o ciclo de vida, para as fases onde sejam entregues pacotes ou unidades
coleta de dados de software (Build)
Ferramentas 1. Ferramenta de registro do tamanho do escopo do projeto.
utilizadas para coleta 2. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
de dados esforço.
3. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
esforço.
Verificação e Revisões e auditorias nas contagens de tamanho realizadas e nos registros de esforço e
Validação prazos do projeto.
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de 1. Ao final de cada fase, para as fases onde ocorre entrega de um pacote ou unidade
reporte dos dados de software (Build).
2. Ao final de cada fase, para as fases onde ocorre entrega de um pacote ou unidade
de software (Build).
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Durante todo o ciclo de vida, para as fases onde ocorre entrega de um pacote ou
análise dos dados unidade de software (Build).
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização (Painel de controle de indicadores).
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise Não aplicável
adicional
Considerações de • Quantidade de dados mínimos: A quantidade de dados mínimos para a análise de
implementação desempenho do processo é definida conforme exposto na seção 2.3.5.4.
104
Informação adicional
Guia de análise Este indicador é simples e fácil de coletar, porém ele pode acarretar em conclusões
adicional incorretas sobre o total de reuso do sistema. Esta limitação da medida deve-e ao fato de
que a medida básica de “Quantidade de linhas de código reutilizadas” é igual ao total
de linhas de códigos dos componentes reutilizados. Sendo assim, mesmo nos casos
onde apenas parte do componente (algumas funções ou métodos) tenha sido
efetivamente reutilizada, todas as linhas de código serão contabilizadas e portanto o
cálculo da medida derivada resultará em um valor impreciso (POULIN e CARUSO,
apud MASCENA, DE ALMEIDA E DE LEMOS MEIRA, 2005, p. 74).
Considerações de • Fase ou atividade do ciclo de vida: A organização deve adaptar o momento de
implementação coleta e análise dos dados do indicador de acordo com as fases e atividades
definidas no modelo de ciclo de vida em prática nos projetos (Ex.: Cascata ou
iterativo).
• Quantidade de dados mínimos: A quantidade de dados mínimos para a análise de
desempenho do processo é definida conforme exposto na seção 2.3.5.4.
A instabilidade descrita acima demonstra que o processo a partir deste período tende a
apresentar desempenho satisfatório, com taxa de remoção de defeitos maior do que 1.
Caso este desempenho seja mantido é importante re-estabelecer a linha de base do
processo.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Mensalmente. Coleta da quantidade de defeitos identificados (abertos) no mês.
de dados 2. Mensalmente. Coleta da quantidade de defeitos resolvidos (fechados) no mês.
Responsável 1. Analista de testes
2. Analista de testes
108
Fase ou atividade de 1. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
coleta de dados durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
2. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
Ferramentas 1. Ferramenta de registro de defeitos de testes
utilizadas para coleta 2. Ferramenta de registro de defeitos de testes
de dados
Verificação e Auditorias dos registros de defeitos de testes realizados no projeto.
Validação
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de 1. Mensalmente.
reporte dos dados
Responsável • Analista de testes do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de 1. Nas fases de Construção e Transição do ciclo de vida do projeto e prosseguir
análise dos dados durante a fase de Operação do ciclo de vida do produto: Os dados devem ser
coletados a partir do momento em que os primeiros testes forem realizados nos
pacotes ou unidades de software até a implantação do produto. Opcionalmente, a
medida pode permanecer sendo coletada durante a operação ou garantia do
produto em ambiente de produção.
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e • Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do
usuário projeto)
• Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise Não aplicável
adicional
Considerações de • Fase ou atividade do ciclo de vida: A organização deve adaptar o momento de
implementação coleta e análise dos dados do indicador de acordo com as fases e atividades
definidas no modelo de ciclo de vida em prática nos projetos (Ex.: Cascata ou
iterativo).
• Quantidade de dados mínimos: A quantidade de dados mínimos para a análise de
desempenho do processo é definida conforme exposto na seção 2.3.5.4.
Objetivo de medição
Avaliar o desempenho dos processos técnicos de desenvolvimento de software através
Objetivo de medição da quantidade de retrabalho necessário para solucionar falhas de qualidade do produto
resultante da execução destes processos.
Entidade e atributos
Entidades relevantes Atividades do cronograma
Atributos 1. Esforço de retrabalho
2. Esforço total
Especificação de medida básica
Medidas básicas 1. Esforço de retrabalho total
2. Esforço de retrabalho por disciplina
3. Esforço total do projeto
Métodos de medição 1. Quantidade de horas totais despendidas em atividades de retrabalho. Atividades de
correção de defeitos em produtos já finalizados e entregues pelo projeto ao Cliente.
2. Quantidade de horas despendidas em atividades de retrabalho para cada disciplina
da Engenharia de Software. Atividades de correção de defeitos em produtos de
determinada disciplina da Engenharia de Software já finalizados e entregues pelo
projeto ao Cliente.
3. Quantidade de horas de esforço total do projeto.
Tipos de métodos 1. Objetivo
2. Objetivo
3. Objetivo
Escala 1. Decimais, de zero a infinito
2. Decimais, de zero a infinito
3. Decimais, maior do que zero a infinito
Tipos de escalas 1. Razão
2. Nominal
3. Razão
Unidade de medição 1. Horas
2. Horas
3. Horas
Especificação de medida derivada
Medidas derivadas 1. Taxa de retrabalho total
2. Taxa de retrabalho por disciplina
Função de medição Esforço de retrabalho total
1.
Esforço total do projeto
Esforço de retrabalho por disciplina
2.
Esforço total do projeto
Especificação de indicador
Descrição do 1. Taxa de retrabalho: Este indicador apresenta na Figura 28 a razão entre o esforço
indicador e amostra de retrabalho realizado para ajuste dos produtos do projeto em relação ao esforço
total despendido no projeto. O indicador apresenta na Figura 29 também a
classificação da taxa de retrabalho por disciplina da Engenharia de Software,
auxiliando na priorização de ações gerenciais.
110
retrabalho.
Critério de decisão 1. A medida de Taxa de retrabalho total possui como critérios de decisão as regras de
instabilidade de processo para cada um dos gráficos que representam o indicador,
conforme descrito na seção 2.3.5.5
2. A medida de Taxa de retrabalho por disciplina não possui critério objetivo de
decisão, sendo que as disciplinas de maior taxa de retrabalho devem ser
prioritariamente tratadas.
Interpretação do Os gráficos de controle XmR do exemplo acima apresentam aos responsáveis pela
indicador análise que o processo de desenvolvimento gerou produtos com nível de qualidade
estável durante todo o período de análise, sem ter infringido nenhum dos testes de
instabilidade.
O Diagrama de Pareto do exemplo acima apresenta aos responsáveis pela análise que
as disciplinas de maior taxa de retrabalho são Requisitos, Modelagem de negócios,
Implementação e Análise e projeto, nesta ordem. Seguindo a regra de Pareto de que
20% das causas são responsáveis por 80% dos problemas, ações devem ser empregadas
prioritariamente no processo de Requisitos, pois estas serão mais efetivas na melhoria
da qualidade e redução do retrabalho nos próximos meses.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Mensalmente. Coleta da quantidade horas despendidas em atividades de
de dados retrabalho e no total de horas despendidas no mês.
2. Mensalmente. Coleta da taxa de retrabalho por disciplinas a partir das
atividades de ajustes de cada disciplina realizada no mês.
3. Mensalmente. Coleta da quantidade de horas totais despendidas no projeto no
mês.
Responsável A equipe de projeto realiza coleta do esforço realizado nas atividades do projeto, o
Gerente do Projeto consolida as informações das medidas.
Fase ou atividade de Durante todo o ciclo de vida.
coleta de dados
Ferramentas 1. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro
utilizadas para coleta de esforço.
de dados 2. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro
de esforço.
3. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro
de esforço.
Verificação e Auditorias dos registros de esforço realizado pela equipe nas atividades do projeto.
Validação
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de Mensalmente.
reporte dos dados
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Durante todo o ciclo de vida.
análise dos dados
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise A análise da evolução da Taxa de retrabalho por disciplina pode ser realizada
adicional avaliando-se os diferentes Diagramas de Pareto produzidos em cada mês de coleta. Ou
então plotando as medidas por disciplina individualmente em gráficos de controle.
112
5,00%
0,00%
-5,00%
-10,00%
-15,00%
Critério de decisão 1. A medida Variação de esforço total possui como critérios de decisão as regras de
instabilidade de processo para cada um dos gráficos que representam o indicador,
conforme descrito na seção 2.3.5.5
2. A medida de Variação de esforço por disciplina não possui critério objetivo de
decisão, sendo que as disciplinas de maior variação de esforço devem ser
prioritariamente tratadas.
Interpretação do Os gráficos de controle XmR do exemplo acima apresentam aos responsáveis pela
indicador análise que a observação de variação de esforço do mês de Julho/2007 excedeu o limite
superior de 3 sigmas e, portanto não passou no Teste 1. Este sinal sinaliza que o
processo pode estar fora de controle e deve então ser analisado criticamente para
identificar as causas de variação ações para correção.
O Diagrama de Pareto do exemplo acima apresenta aos responsáveis pela análise que a
disciplina de maior variação de esforço é Ambiente, seguido das disciplinas de
Gerenciamento de projetos, Requisitos, Gerenciamento de configuração e mudanças,
Modelagem de negócios e Testes, nesta ordem. O diagrama mostra também que as
disciplinas de Análise e projeto, Implantação e Implementação possuem variação de
esforço negativo, tendo realizado esforço menor do que o planejado. Seguindo a regra
de Pareto de que 20% das causas são responsáveis por 80% dos problemas, ações
devem ser empregadas prioritariamente no processo de planejamento e execução da
disciplina de Ambiente, pois será mais efetivo na redução da variação de esforço nos
próximos meses.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Mensalmente. Coleta da quantidade horas planejadas para realização em atividades
de dados do projeto no mês.
2. Mensalmente. Coleta da quantidade horas despendidas em atividades do projeto no
mês.
Responsável A equipe de projeto realiza coleta do esforço realizado nas atividades do projeto, o
Gerente do Projeto coleta as informações do esforço planejado do cronograma e
consolida as informações das medidas.
Fase ou atividade de Durante todo o ciclo de vida.
coleta de dados
Ferramentas 1. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
utilizadas para coleta esforço.
de dados 2. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
esforço.
Verificação e Auditorias dos registros de esforço realizado pela equipe nas atividades do projeto.
Validação
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de Mensalmente.
reporte dos dados
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Durante todo o ciclo de vida.
análise dos dados
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise A análise da evolução da Variação de esforço por disciplina pode ser realizada
adicional avaliando-se os diferentes Diagramas de Pareto produzidos em cada mês de coleta. Ou
então plotando as medidas por disciplina individualmente em gráficos de controle.
115
Critério de decisão 1. A medida Variação de prazo total possui como critérios de decisão as regras de
instabilidade de processo para cada um dos gráficos que representam o indicador,
conforme descrito na seção 2.3.5.5
2. A medida de Variação de prazo por disciplina não possui critério objetivo de
decisão, sendo que as disciplinas de maior variação de prazo devem ser
prioritariamente tratadas.
Interpretação do Os gráficos de controle XmR do exemplo acima apresentam aos responsáveis pela
indicador análise que a observação de variação de prazo dos meses de Julho/2007 (gráficos X e
mR) e Agosto/2007 (gráfico mR) excederam o limite superior de 3 sigmas e, portanto
não passaram no Teste 1. Estes sinais demonstram que o processo pode estar fora de
controle e deve então ser analisado criticamente para identificar as causas de variação
ações para correção.
O Diagrama de Pareto do exemplo acima apresenta aos responsáveis pela análise que a
disciplina de maior variação de prazo no mês de Julho/2007 é Requisitos, seguida das
disciplinas de Análise e projeto, Modelagem de negócios, Implementação e Testes,
nesta ordem. O diagrama mostra também que as disciplinas de Ambiente,
Gerenciamento de configuração e mudanças, Implantação e Gerenciamento de projetos
possuem variação de prazo negativo, tendo realizado suas atividades em prazo inferior
ao. Sendo assim, para tratar o sinal de desvio apresentado no mês de Julho/2007, ações
devem ser empregadas prioritariamente na disciplina de Requisitos, pois será mais
efetivo na redução da variação de prazo nos próximos meses.
Procedimento de coleta de dados (para cada medida básica)
Freqüência da coleta 1. Mensalmente. Coleta do prazo (em dias úteis) planejada para as atividades do
de dados projeto concluídas no mês.
2. Mensalmente. Coleta do prazo (em dias úteis) real para as atividades do projeto
concluídas no mês.
Responsável O Gerente do Projeto coleta as informações do prazo planejado e realizado no
cronograma e consolida as informações das medidas.
Fase ou atividade de Durante todo o ciclo de vida.
coleta de dados
Ferramentas 1. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
utilizadas para coleta esforço.
de dados 2. Ferramenta de gerenciamento de cronograma, alocação de recursos e registro de
esforço.
Verificação e Auditorias nos prazos planejado e realizado das atividades do cronograma do projeto,
Validação registrados pelo Gerente do Projeto.
Repositório de dados Repositório de medições da organização.
coletados
Procedimento de análise de dados (para cada indicador)
Freqüência de Mensalmente.
reporte dos dados
Responsável • Analista de métricas do projeto e Gerente de projetos (nível do projeto)
• Analista de métricas da organização (nível da organização)
Fase ou atividade de Durante todo o ciclo de vida.
análise dos dados
Fonte de dados para Repositório de medições da organização.
análise
Ferramentas Repositório de medições da organização.
utilizadas para
análise de dados
Revisão, reporte e Equipe do projeto, Gerente de projetos e Gerente organizacional (nível do projeto)
usuário Gerente organizacional e Gerente sênior (nível organizacional)
Informação adicional
Guia de análise A análise da evolução da Variação de prazo por disciplina pode ser realizada
adicional avaliando-se os diferentes Diagramas de Pareto produzidos em cada mês de coleta. Ou
então plotando as medidas por disciplina individualmente em gráficos de controle.
118
Unidade de medição 1.
1.1. Linhas de código
1.2. Pontos de função
1.3. Requisitos
2.
2.1. Linhas de código
2.2. Pontos de função
2.3. Requisitos
Especificação de medida derivada
Medidas derivadas 1. Variação de tamanho
Função de medição Tamanho real − Tamanho planejado
1. ∗ 100
Tamanho planejado
Especificação de indicador
Descrição do 1. Variação de tamanho: Este indicador apresenta na Figura 34 a razão entre o
indicador e amostra escopo (tamanho) real ao final de uma fase ou projeto em relação ao escopo
planejado na linha de base do projeto.
Este capítulo apresentou a seqüência de nove passos realizados nesta pesquisa para
elaboração do catálogo de medidas. Os passos envolveram desde a identificação das medidas
de desempenho mais referenciadas na literatura, passando pela consolidação e eliminação de
medidas redundantes que resultaram em 37 medidas de desempenho, até a especificação
121
Durante o primeiro ano de execução, o projeto objeto deste estudo de caso apresentou
um histórico de baixo desempenho nas disciplinas de engenharia de software, causado pela
instabilidade do escopo no início do projeto e também pela má avaliação da demanda de
trabalho do projeto, o que ocasionou em sub-dimensionamento da equipe alocada durante os
primeiros doze meses de execução.
Após a identificação dos desvios e a necessidade de recuperação do projeto, a equipe
de gestão reavaliou o escopo e esforço necessários para o projeto e focou ações na
implantação de processos de trabalho mais claros e detalhados e no aumento substancial da
equipe do projeto.
A partir da identificação da situação e características do projeto, a primeira etapa deste
estudo de caso envolveu a análise e seleção dos processos críticos do projeto, ou seja, àqueles
para os quais a organização estabeleceu explicitamente metas a serem atendidas ou os
processos cujo histórico tem demonstrado desempenho insatisfatório em relação às
expectativas dos envolvidos no projeto.
A seleção dos processos críticos do projeto é base para a identificação das
necessidades de análise de desempenho, já que os processos críticos para o projeto demandam
um acompanhamento mais preciso, através da aplicação de técnicas e modelos de controle
estatístico de processos.
Baseado no histórico do projeto e nos objetivos traçados para recuperação do
desempenho foram selecionados para os processos técnicos de engenharia de software. A
organização priorizou realizar análise de desempenho do processo de Solução técnica, além
124
engenharia de software, que foram utilizadas como fonte principal de dados para a análise de
desempenho dos processos.
As principais ferramentas utilizadas na coleta de dados para composição dos
indicadores deste estudo são:
• Ferramenta de cronograma: A organização utiliza como ferramenta de
gerenciamento dos cronogramas dos projetos a versão 2003 da solução de
EPM (Enterprise Project Management) da Microsoft. Neste ambiente, os
cronogramas dos projetos executados na organização são armazenados em um
servidor central (Microsoft Project Server) e gerenciados individualmente nas
estações de trabalho dos Gerentes de Projetos a partir da ferramenta Microsoft
Project Professional. Diariamente, os membros integrantes da equipe do
projeto utilizam a infra-estrutura do Microsoft Project Web Access para
acompanhamento das atividades atribuídas a cada um e registro do esforço
despendido na execução das mesmas.
• Ferramenta de controle de defeitos: A organização dispõe de ferramenta
Mantis, especificamente para registro de defeitos e sugestões de melhoria
identificados em revisões e testes, bem como acompanhamento da resolução
das ocorrências pela equipe técnica.
• Ferramenta de apoio à medição de tamanho: A organização atualmente possui
uma ferramenta desenvolvida internamente para apoiar as atividades de
medição de tamanho, baseada na técnica de análise de pontos de função.
A coleta das medidas básicas de desempenho do projeto sugeridas na especificação do
indicador de Valor agregado foi realizada a partir do cronograma do projeto. As medidas de
Valor planejado (VP) e Orçamento no término (ONT) foram obtidas da linha de base do
cronograma, registrada após a aprovação do planejamento do projeto e que inclui as metas de
esforço, recursos, custo e prazos para cada atividade detalhada no cronograma. As medidas
básicas de Custo real (CR) e Valor agregado (VA) foram obtidas do cronograma a partir do
desempenho realizado na execução das atividades, reportado diariamente pela equipe do
projeto.
Os dados para o indicador de Análise de valor agregado foram coletados mensalmente,
desde o início do projeto em Novembro de 2005, até o mês de Janeiro de 2008, somando 27
observações das medidas.
Com relação ao indicador de “Densidade de defeitos’, o mesmo foi aplicado no projeto
apenas para defeitos identificados nos testes realizados sob os componentes de software
126
desenvolvidos, portanto, não fez parte do escopo desta pesquisa os defeitos identificados por
atividades de revisão técnica nos produtos do projeto, como requisitos, especificações de
programas e código-fonte. Neste caso, as medidas básicas de Quantidade de defeitos totais e
Quantidade de defeitos por tipo, sugeridas na especificação da medida, foram obtidas a partir
dos registros na ferramenta de controle de defeitos, colocada em prática na organização
durante a execução do projeto. Já a medida básica de Tamanho foi obtida a partir da
estimativa de pontos de função registrada para cada unidade de software testada.
A medida de Densidade de defeitos foi agrupada pelo pacote de software, ou Build,
produzido em cada etapa do projeto. Os dados de quantidade de defeitos foram coletados na
ferramenta Mantis a partir do Build 1 até o Build 20.
Além da quantidade total de defeitos totais por Build do projeto, os defeitos
registrados na ferramenta Mantis foram classificados por tipo, de forma a identificar as causas
e permitir priorizar as ações de melhoria na qualidade do produto.
A partir da coleta dos dados do projeto necessários para composição dos indicadores
de Valor agregado e Densidade de defeitos, foi possível estabelecer os instrumentos para
gestão quantitativa do projeto. A seção a seguir apresenta os passos realizados para
estabelecer a linha de base de desempenho dos processos.
0,90 0 0 ,9 13
1,600
1,533
0,80 0
0 ,7 74 1,400
0,70 0 1,266
0 ,6 35 1,200
0,60 0
1,000 0,998
0,50 0 0 ,4 96
0,40 0 0,800
0 ,3 57 0,731
0,30 0 0,600
0,20 0 0 ,2 18 0,463
0,400
0,10 0
0 ,0 79
0,200 0,195
0,00 0
0,000
IDC (mR)
0,600
IDP (mR)
0,500 0,512 1,200
0,400 1,000 0,986
0,300 0,800
0,200
0,157 0,600
0,100
0,400
0,000 0,302
0,200
nov/05
abr/06
nov/06
abr/07
nov/07
dez/05
jan/06
fev/06
jun/06
jul/06
set/06
out/06
dez/06
jan/07
fev/07
jun/07
jul/07
set/07
out/07
dez/07
jan/08
mar/06
mai/06
ago/06
mar/07
mai/07
ago/07
0,000
dez/05
fev/06
dez/06
fev/07
dez/07
nov/05
mar/06
abr/06
mai/06
jun/06
jul/06
ago/06
set/06
nov/06
mar/07
abr/07
mai/07
jun/07
jul/07
ago/07
set/07
nov/07
jan/06
out/06
jan/07
out/07
jan/08
IDC (mR) LC LCS (+3 sigmas)
1,400
1,200
1,000
0,800
0,600
0,46 3
0,400
0,200
-
(0,20 0)
Período Gráfico Ū
De Build 1 a Build 20 u Chart 0,463
A partir dos limites de controle definidos nas linhas de base apresentadas na seção
anterior, é possível avaliar quantitativamente o desempenho real dos processos, identificar as
causas especiais de variação e concluir a respeito da estabilidade dos processos executados
pelo projeto.
Com este intuito, as medidas coletadas no projeto em estudo para os indicadores de
Análise de Valor Agregado e Densidade de defeitos foram representadas em cartas de
controle e outras ferramentas de gestão quantitativa e avaliadas frente aos critérios de decisão
definidos para cada indicador.
No caso do indicador de Análise de Valor Agregado, a Figura 35 mostra a aplicação
dos critérios de decisão sugeridos pela especificação do indicador em relação às cartas de
controle do tipo XmR para a medida de Índice de desempenho de custos (IDC).
IDC (X)
1,000
0,900 4 0,913
0,800
0,774
0,700
0,635
0,600
0,500 0,496
0,400
2,3 0,357
0,300
0,200 0,218
0,100 0,079
0,000
IDC (X) LC LCS (+3 sigmas) + 2 sigmas + 1 sigma LCI (- 3 sigmas) - 2 sigmas - 1 sigma
IDC (mR)
0,600
0,500 0,512
0,400
0,300
0,200
0,157
0,100
0,000
nov/05
abr/06
set/06
nov/06
abr/07
set/07
nov/07
dez/05
jan/06
fev/06
jun/06
jul/06
out/06
dez/06
jan/07
fev/07
jun/07
jul/07
out/07
dez/07
jan/08
mar/06
mai/06
ago/06
mar/07
mai/07
ago/07
que dois de três pontos consecutivos encontram-se abaixo de menos dois sigmas da linha
central.
Entre Julho de 2007 e Janeiro de 2008, o gráfico de controle X demonstra uma quebra
no desempenho do processo, já que, oito pontos consecutivos são apresentados na parte
superior da linha central (Teste 4).
A análise da medida IDP demonstra apenas desvio no mês de Outubro de 2006 do
gráfico de controle X (Teste 1), conforme apresentada na Figura 36.
IDP (X)
1,800 1
1,600
1,533
1,400
1,266
1,200
1,000 0,998
0,800
0,731
0,600
0,463
0,400
0,200 0,195
0,000
IDP (X) LC LCS (+3 sigmas) + 2 sigmas + 1 sigma LCI (- 3 sigmas) - 2 sigmas - 1 sigma
IDP (mR)
1,200
1,000 0,986
0,800
0,600
0,400
0,302
0,200
0,000
dez/05
fev/06
mar/06
jun/06
jul/06
dez/06
fev/07
mar/07
jun/07
jul/07
dez/07
nov/05
jan/06
abr/06
mai/06
ago/06
set/06
out/06
nov/06
jan/07
abr/07
mai/07
ago/07
set/07
out/07
nov/07
jan/08
-
1
(0,200 )
A análise das causas dos desvios apresentados nos indicadores e identificação de ações
corretivas e preventivas são etapas fundamentais da análise de desempenho dos processos.
Neste estudo de caso, seguindo as orientações propostas pela especificação do indicador, a
medida de Densidade de defeitos é também avaliada a partir da classificação da causa dos
defeitos, conforme apresentado na Figura 38. Percebe-se que a maior densidade de defeitos é
relacionada à disciplina de Implementação, sendo esta considerada a causa principal de falhas
nos componentes de software.
0,300 80,00%
0,250
0,200 60,00%
0,150 40,00%
0,100 0,055 0,046
0,050 0,014 0,010 0,009 0,003 - - 20,00%
- 0,00%
Densidade de defeitos
Percentual acumulado
A partir da identificação das causas mais prováveis, ações gerenciais e técnicas foram
propostas e implementadas pela organização sob a ótica da disciplina de implementação.
Entre as ações sugeridas, destacam-se:
• Integrar os processos e equipes de análise e implementação, com o objetivo e
facilitar o entendimento do negócio do sistema e reduzir falhas de
implementação.
• Incorporar técnicas de testes unitários no projeto no mesmo ambiente onde o
sistema será verificado e validado pela equipe de testes.
131
5. CONCLUSÃO
REFERÊNCIAS BIBLIOGRÁFICAS
AGRAWAL, M.; CHARI, K., Software Effort, Quality, and Cycle Time: A Study of CMM
Level 5 Projects. Software Engineering, IEEE Transactions on, vol. 33, no. 3, pp.145-156,
Mar, 2007.
BASILI, V.; CALDIERA, G.; ROMBACH, H. The Goal Question Metric Approach.
In:______. Encyclopedia of Software Engineering. Volume 1, John Wiley & Sons, Inc., 2.
ed., 2002, pp. 578-583.
BERANDER, P.; JÖNSSON, P. A goal question metric based approach for efficient
measurement framework definition, In: International Symposium on Empirical Software
Engineering, 2006, Rio de Janeiro, Brasil, Anais eletrônicos… Disponível em:
<http://portal.acm.org/citation.cfm?id=1159781>. Acesso em: 04 set. 2007.
136
BUGLIONE, L.; ABRAN, A. A Model for Performance Management and Estimation. 11th
IEEE International Software Metrics Symposium (METRICS'05), 2005, Washington, DC,
EUA, Anais… Set, 2005. p. 9
CHRISSIS, M.; KONRAD M.; SHRUM S. CMMI: guidelines for process integration and
product improvement. 2.ed. Boston: Addison-Wesley, 2003.
EICKELMANN, N; ANANT, A. Statistical Process Control: What You Don’t Measure Can
Hurt You! IEEE Software, vol. 20, no. 2, pp. 49-51, Mar/Abr, 2003.
GALIN, D.; AVRAHAMI, M. Do SQA Programs Work - CMM Works: A Meta Analysis.
Software - Science, Technology and Engineering, 2005. Proceedings. IEEE International
Conference on , vol., no., pp. 95-100, 22-23 Fev, 2005.
GARCÍA, F. et al. FMESP: framework for the modeling and evaluation of software processes.
Proceedings of the 2004 workshop on Quantitative techniques for software agile process,
pp. 5 - 13, Nov, 2004.
GRADY, R. Successfully Applying Software Metrics. Computer, vol. 1, pp. 18-27, Set,
1994.
HALL T.; FENTON, N. Implementing effective software metrics programs. IEEE Software.
vol. 14, no. 2, pp. 55-65, Mar/Abr, 1997.
138
IEEE. IEEE Std 1045-1992 - Standard for Software Productivity Metrics. Nova Iorque, 1992.
IFPUG - International Function Point Users Group. Count Practices Manual – Release 4.2,
2004.
KITCHENHAM, B. et al. Lessons learnt from the analysis of large-scale corporate databases.
Proceedings of the 28th international conference on Software engineering, pp. 439 - 444,
Mai, 2006.
KULIK P.; WEBER C. Software Metrics Best Practices 2001. Dayton, OH, EUA 2002.
Disponível em: <http://java.ittoolbox.com/pub/PK043002.pdf>. Acesso em: 27 ago. 2007.
139
MCGARRY, F.; BURKE, S.; DECKER, B. Measuring the impacts individual process
maturity attributes have on software products. Software Metrics Symposium, 1998. Metrics
1998. Proceedings. Fifth International, vol., no., pp.52-60, 20-21, Nov, 1998.
MURDOCH, J. et al. Measuring safety: applying PSM to the system safety domain.
Proceedings of the 8th Australian workshop on Safety critical systems and software, vol.
33, pp. 47 - 55 , 2003.
PAUL, R. et al. Software Metrics Knowledge and Databases for Project Management. IEEE
Transactions on Knowledge and Data Engineering, vol. 11, no. 1, pp. 255-264, Jan/Fev,
1999.
PUTNAM, L.; MYERS, W. Five core metrics. New York, NY: Dorset House Publishing,
2003.
RAFFO, D. Software project management using PROMPT: A hybrid metrics, modeling and
utility framework.
Information and Software Technology, vol. 47, no. 15, pp. 1009-1017, Dez, 2005.
SEI – Software Engineering Institute. CMMI® for Development, Version 1.2. Pittsburgh,
PA, EUA 2006a. Disponível em:
<http://www.sei.cmu.edu/pub/documents/06.reports/pdf/06tr008.pdf>. Acesso em: 01 out.
2006.
TAKARA, A.; BETTIN, A.; TOLEDO, C. Problems and Pitfalls in a CMMI level 3 to level 4
Migration Process, In: Sixth International Conference on the Quality of Information and
Communications Technology, 2007, Lisboa, Portugal, Anais… Disponível em: <
http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?isnumber=4335220&arnumber=4335237&count
=33&index=16>. Acesso em: 02 out. 2007.
142
WANG, Q; LI, M. Measuring and Improving Software Process in China. isese,., 2005
International Symposium on Empirical Software Engineering, 2005. pp. 183-192
Quadro 23: Fórmulas para cálculo da linha central e limites do gráfico de controle (Adaptado de Florac e
Carleton, 1999, pp. 85-123 e Stapenhrust 2005, pp. 153-164)
X-bar e R 1) Calcular as médias ( X ) e as amplitudes ( R ) para cada Limites do gráfico de médias (X-
(XbarR) bar):
subgrupo de tamanho n :
= X +X 1 2
+K+ X n LCS = X + A R
X 2
X
LC = X
k
n
X
R = X − X
k MAX MIN
LCI = X − A R
X 2
Limites do gráfico de amplitudes
2) Calcular a média geral ( X ) pela média de cada (R):
subgrupo:
LCS = D R 4
X +X +K+
R
= 1 2 X k
LC = R
X k R
LCI = D RR 3
3) Calcular a média das amplitudes ( R ) pela média de
cada amplitude do subgrupo:
= R +R 1 2
+ K + Rk
R k
X-bar e S 1) Calcular as médias ( X ) através da mesma fórmula Limites do gráfico de médias (X-
(XbarS) bar):
apresentada em XbarR e o desvio padrão ( S ) para cada
subgrupo de tamanho n : LCS = X + A R
X 3
∑ (X )
i= n
LC = X
2
i
−X X
S= i =1
n −1 LCI = X − A R
X 3
Limites do gráfico de desvios
padrão (S):
2) Calcular a média geral ( X ) através da mesma fórmula
apresentada em XbarR LCS = B S S 4
i =k LCI = B S
∑S
S 3
i
S = i =1
k
184
Quadro 23 (cont.): Fórmulas para cálculo da linha central e limites do gráfico de controle (Adaptado de
Florac e Carleton, 1999, pp. 85-123 e Stapenhrust 2005, pp. 153-164)
Tipo
Linha central (LC) e limites de controle (LCS
de Fórmulas base
e LCI)
gráfico
∑ mR i sigma =
mR
=
mR
mR = i =1 X d 2 1,128
k Limites do gráfico de amplitudes móveis (mR),
onde n = 1 :
LCS = D mR 4 mR = 3,268mR
LC = mR
mR
LCI = 0 mR
LC = cX
LCI = c − 3 c
c
sigma = c c
u=
∑c i
∑a i
185
Quadro 23 (cont.): Fórmulas para cálculo da linha central e limites do gráfico de controle (Adaptado de
Florac e Carleton, 1999, pp. 85-123 e Stapenhrust 2005, pp. 153-164)
np =
Número de ítens defeituosos LC = np
np
Número de amostras
LCI = np − 3s
np
2) Calcular o desvio padrão:
np
sigma = s np
s = np1 −
n
s=
(
p 1− p )
n
Tabela 5: Tabela de fatores de correção e constantes (Adaptado de Florac e Carleton, 1999, pp. 216-219)
n d2 A2 A3 B3 B4 D3 D4
2 1,128 1,880 2,659 - 3,267 - 3,268
3 1,693 1,023 1,954 - 2,568 - 2,574
4 2,059 0,729 1,628 - 2,266 - 2,282
5 2,326 0,577 1,427 - 2,089 - 2,114
6 2,534 0,483 1,287 0,030 1,970 - 2,004
7 2,704 0,719 1,182 0,118 1,882 0,076 1,924
8 2,847 0,373 1,099 0,185 1,815 0,136 1,864
9 2,970 0,337 1,032 0,239 1,761 0,184 1,816
10 3,078 0,308 0,975 0,284 1,716 0,223 1,777
11 3,173 0,285 0,927 0,322 1,678 0,256 1,744
12 3,258 0,266 0,886 0,354 1,646 0,283 1,717
13 3,336 0,249 0,850 0,382 1,619 0,307 1,693
14 3,407 0,235 0,817 0,407 1,953 0,328 1,672
15 3,472 0,223 0,789 0,428 1,572 0,347 1,653