Vous êtes sur la page 1sur 157

AVALIAÇÃO DA QUALIDADE DO ENSINO DE ENGENHARIA DE PRODUÇÃO

NO BRASIL A PARTIR DOS INDICADORES DO SINAES

Felipe Guilherme de Oliveira Melo

Dissertação de Mestrado apresentada ao


Programa de Pós-Graduação em Engenharia
Industrial, da Universidade Federal da Bahia,
como parte dos requisitos necessários à
obtenção do título de Mestre em Engenharia
Industrial.

Orientadores: Marcelo Embiruçu


Ricardo de Araújo Kalid

Salvador/BA
Dezembro de 2017
M528 Melo, Felipe Guilherme de Oliveira
Avaliação da qualidade do ensino de engenharia de produção no Brasil a partir
dos indicadores do SINAES / Felipe Guilherme de Oliveira Melo – Salvador, 2017.
155 f. : il. color.

Orientador: Prof. Dr. Marcelo Embiruçu.


Coorientador: Prof. Dr. Ricardo de Araújo Kalid.
Dissertação (Mestrado em Engenharia Industrial) – Universidade Federal da
Bahia, Escola Politécnica, 2017.

Referências: p. 104 – 118.

1. Avaliação da Educação Superior. 2. Ensino de Engenharia de Produção. 3. Sistema


Nacional de Avaliação da Educação Superior. 4. Indicadores de Qualidade.
I. Embiruçu, Marcelo. II. Kalid, Ricardo de Araújo. III. Universidade Federal da Bahia.
IV. Título.

CDD
Dedico este trabalho a todos
aqueles que, além de possuírem a
sede de conhecimento, possuem a
habilidade de compartilhá-lo.

iv
Agradecimentos_______________________

Mais uma etapa rumo ao aperfeiçoamento da minha formação profissional acaba de ser
concluída. As experiências adquiridas durante o período do mestrado, sem dúvidas,
ampliaram o horizonte dos meus conhecimentos e contribuíram com o meu crescimento
pessoal.
Agradeço a Deus, a Nossa Senhora Aparecida e ao meu protetor São Jorge por estarem à
frente dos meus passos e me guiarem pelo caminho mais apropriado, às vezes mais cansativo
e árduo, mas possível de ser trilhado por quem tem Fé.
Sou eternamente grato a todos da minha família, principalmente as duas mulheres da
minha vida: minha mãe (Ana Lúcia) e minha avó (Ivonete Alves). Vocês são o Norte da
minha vida e a minha motivação diária para superar todos os desafios.
Não poderia deixar de agradecer aos anjos que me acolheram em Salvador e permitiram
que eu me tornasse membro da família: Christiane Fontoura, Raiza Fontoura, Thais Fontoura,
Norma Fontoura e todos da família Mascarenhas Fontoura. Obrigado por todo carinho.
Agradeço a todos os meus amigos, que além de compartilharem comigo os momentos de
alegria, não me desamparam nas dificuldades: Adriano Moraes, Laíse Soares, Larissa Costa,
Valquíria Abreu, Robério Satyro, Gleidson Martins, Kaliane Rodrigues, Juliana Mocock e
Helena Perim. A amizade de vocês é um dos pilares que sustentam as minhas conquistas.
Agradeço a Edmilson Santos pela compreensão e pelo companheirismo de todas as horas;
obrigado por segurar em minha mão e confiar em minhas escolhas.
Minha imensa gratidão aos que fazem parte do Programa de Pós-graduação em Engenharia
Industrial (PEI/UFBA). A todos os professores, que não mediram esforços em compartilhar
todo o conhecimento e contribuir com minha formação; a Tatiane Reis, Tamiles Bispo e
Robinson Xavier, pelo suporte nos processos burocráticos, incentivos e conselhos nos
momentos oportunos; a Fabiana Passos, Daniele Vivas e Carol Viana, minhas amigas e
exemplos de dedicação e sabedoria; e aos que compartilharam comigo a rotina diária no
Laboratório de Informática do PEI: Javier López, Almir Ribeiro, Madalena Frisch, Mário
Bulhões e Ronald Panameño.

v
Agradeço aos meus orientadores, Prof. Marcelo Embiruçu e Prof. Ricardo Kalid, pelos
ensinamentos e pela confiança no desenvolvimento deste estudo. Obrigado por conduzirem
meus passos rumo a essa conquista.
Gostaria de estender minha gratidão às pessoas iluminadas que Deus colocou em meu
caminho para me apoiar das mais diversas maneiras e me motivar constantemente: Dana
Leonard, José Luis, Letícia Oliveira, Luis Oliveira, Lara Oliveira, Sérgio Guerra, Patrícia
Barros, Edson Cordeiro, Joeline Azevedo, Adirlene Pontes, Lenice Nunes, Geane Nunes, Tia
Nilda, Tio Getúlio, Jane Silva, Tia Risocler, Rosiane Cordeiro, Valdineide Tavares, Tia Têca,
Adelmo Aguiar Filho, Maria Teixeira, Prof.ª Rafaela Faciola, Prof. Ângelo Sant’anna, Prof.ª
Gléssia Lima e tantos outros.
Meus agradecimentos ao Prof. Márcio Martins, ao Prof. Robert Verhine e à Prof.ª
Fernanda Queiroz, por aceitarem o convite de participar da banca examinadora e contribuírem
com o aperfeiçoamento desta dissertação.
Por fim, agradeço à Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
(CAPES), pela concessão da bolsa de estudos.

vi
Andarei este dia e esta noite vestido e armado com as
armas de São Jorge. Meus inimigos terão olhos e não
verão, terão boca e não falarão, terão mãos e não me
ofenderão, terão pés e não me alcançarão e nem em
pensamento me farão mal. Armas de fogo ao meu corpo
não alcançarão, facas e lanças se quebrarão sem o meu
corpo tocar, cordas e correntes se arrebentarão sem o
meu corpo amarrar. Glorioso São Jorge, em nome de
Deus, estenda-me o seu escudo e as suas poderosas
armas, defendendo-me com a sua força e com a sua
grandeza, e que debaixo das patas de seu fiel cavalo meus
inimigos fiquem humildes e submissos a vós. Amém.
Oração de São Jorge.

vii
Resumo______________________________

A Engenharia de Produção (EP) é uma das modalidades de engenharia mais recentes no Brasil
e visa formar profissionais que possuam a base de conhecimentos técnicos comuns a todos os
cursos de engenharia (cálculos, físicas, mecânicas, ente outros) juntamente com as
competências e habilidades relacionadas à gestão do negócio e da produção. A aprovação da
Lei nº 9.394/1996 (Lei das Diretrizes e Bases da Educação Nacional) e a flexibilidade na
abertura de novos cursos de EP impactaram em um crescimento quantitativo sem precedentes
do ensino de EP no Brasil. Entre 2000 e outubro de 2017, estes cursos atingiram uma taxa de
crescimento maior que 1300 %. Nesse cenário, este estudo visa investigar a qualidade do
ensino de engenharia de produção no Brasil a partir dos resultados do Sistema Nacional de
Avaliação da Educação Superior e da percepção dos discentes sobre as condições do processo
formativo. Quanto aos métodos, tem-se uma pesquisa descritiva e exploratória de natureza
aplicada e abordagem quantitativa. Em relação aos procedimentos técnicos, utilizou-se as
pesquisas documental e bibliográfica e a aplicação das estatísticas descritiva e inferencial. As
informações utilizadas para compor as bases de dados são provenientes do Ministério da
Educação e do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira,
obtidas por meio do sistema e-MEC e dos microdados do Exame Nacional de Desempenho de
Estudantes (ENADE). Os resultados mostram que atualmente são ofertados 1017 cursos de
EP no Brasil, dos quais 95,5 % são cursos superiores plenos, 87,7 % são ofertados por
Instituições de Ensino Superior (IES) privadas e 95,7 % são ofertados presencialmente. O
único estado que não possui o curso de EP é o Acre. A oferta de vagas tem sido
expressivamente maior do que a demanda, gerando uma ociosidade crescente. Apesar de o
Brasil formar cerca de 12,6 mil engenheiros de produção por ano, a quantidade de concluintes
ainda é muito baixa em relação à quantidade de ingressantes. Quanto aos aspectos
qualitativos, 64,6 % dos cursos não possuem o Conceito ENADE. Analogamente, 71,6 % não
possuem o Conceito Preliminar de Curso. Em relação ao Índice Geral dos Cursos, 87,9 % das
IES que ofertam o curso de EP possuem conceito satisfatório. A região Sul se destaca
positivamente nas faixas mais altas de todos os indicadores de qualidade. Considerando os
conceitos obtidos no ENADE 2014, infere-se que os cursos com os conceitos mais altos são
ofertados por IES federais. Em relação à percepção dos estudantes, há contradições nos níveis
de qualidade dos cursos, pois vários cursos com Conceito ENADE insatisfatórios são
avaliados como satisfatórios pelos seus respectivos discentes. À luz desses resultados,
conclui-se que, apesar do crescimento quantitativo e da expansão geográfica, ainda existe um
longo caminho a ser trilhado rumo à consolidação dos cursos de EP do Brasil, considerando,
principalmente, a qualidade do ensino ofertado.

Palavras-chave: Avaliação da Educação Superior; Ensino de Engenharia de Produção;


Sistema Nacional de Avaliação da Educação Superior; Indicadores de Qualidade.
viii
Abstract______________________________

Industrial Engineering (IE) is one of the most recent engineering fields in Brazil and aims to
train professionals who have the technical knowledge common to all engineering programs
(calculus, physics and mechanics) along with skills and abilities related to business and
operations management. The law No. 9,394/1996 (Brazilian Education Guidelines and
Framework Law) and the ease to open new IE programs have caused an unprecedented
quantitative growth in the teaching of IE in Brazil. Between 2000 and October 2017, the
number of undergraduate IE programs grew by more than 1300 %. The purpose of this study
is to investigate the quality of IE education in Brazil based on the results from the Brazilian
student performance exam (ENADE) and the students’ perception about the conditions of the
educational process. In relation to the methods, it is a descriptive and exploratory research
based on a quantitative approach. Documentary and bibliographical research were carried out,
followed by the application of descriptive and inferential statistical methods. The information
used to compile the databases were provided by the Brazilian Ministry of Education and the
Brazilian Institute for Educational Studies and Research Anísio Teixeira. There are 1017
undergraduate IE programs in Brazil, of which 95.5% are called "full IE", 87.7% are offered
by private Higher Education Institutions (HEI), and 95.7% are classroom based. In addition,
IE programs are found all over the country, except in Acre, Brazil. The number of places
offered by HEIs is expressively greater than the number of enrolments. Although 12,600
industrial engineers graduate from Brazilian HEIs per year, the number of graduates
completing their studies is still very low. Regarding the qualitative aspects, 64.6% of the
programs do not have an ENADE score. Similarly, 71.6% of the programs do not have a
Preliminary Score for the Programs. In relation to the General Index for the Programs, 87.9%
of the HEIs that offer IE programs have a satisfactory score. The South region of Brazil stands
out in all quality indicators. Based on ENADE 2014 scores, we point out that the programs
with the highest scores are offered by federal public HEIs. Regarding students’ perceptions,
there are contradictions related to the quality indicators because several programs that have
unsatisfactory ENADE scores were evaluated as satisfactory by their students. In conclusion,
despite the quantitative growth and geographical expansion, there is still a long way to go
towards the effective consolidation of IE education in Brazil, particularly considering the
qualitative aspects.

Keywords: Higher Education Assessment; Industrial Engineering Education; Brazilian


System of Higher Education Evaluation; Educational Quality Indicators.

ix
Lista de Figuras_______________________

Figura 2.1 Modelo conceitual das conceptualizações da qualidade da educação


superior.................................................................................................. 29
Figura 3.1 Síntese dos componentes envolvidos no cálculo dos indicadores de
qualidade da educação superior brasileira.............................................. 40
Figura 4.1 Estrutura do planejamento da pesquisa.................................................. 50
Figura 5.1 Distribuição quantitativa dos cursos de engenharia no Brasil............... 59
Figura 5.2 Quantidade de cursos de EP entre 1990 e outubro/2017........................ 60
Figura 5.3 Distribuição dos cursos de EP em relação à esfera administrativa e à
organização acadêmica das IES............................................................. 62
Figura 5.4 Distribuição dos cursos de EP em relação às UF................................... 63
Figura 5.5 Quantidades de matrículas e concluintes entre 2011 e 2016.................... 64
Figura 5.6 Quantidade de matrículas nos cursos de EP entre 2011 e 2016............. 66
Figura 5.7 Quantidade de concluintes nos cursos de EP entre 2011 e 2016........... 67
Figura 5.8 Quantidade de matrículas trancadas, matrículas desvinculadas e
alunos transferidos para outros cursos da mesma IES nos cursos de
EP entre 2011 e 2016............................................................................. 68
Figura 6.1 Gráficos boxplot das respostas do QE, por item.................................... 77
Figura 6.2 Distribuição das 277 IES de acordo com as esferas
administrativas....................................................................................... 79
Figura 6.3 Distribuição dos 346 cursos por organização acadêmica e categoria
administrativa........................................................................................ 80
Figura 6.4 Distribuição geográfica dos 346 cursos de EP nas cinco regiões
brasileiras............................................................................................... 81
Figura 6.5 Distribuição dos 346 cursos de acordo com o Conceito ENADE 2014. 81
Figura 6.6 Distribuição dos respondentes em relação à organização acadêmica e
categorias administrativas das IES......................................................... 82
Figura 6.7 Gráfico de dispersão dos cursos de EP e seus respectivos Conceitos
ENADE 2014......................................................................................... 85
Figura 6.8 Relação entre os níveis de qualidade dos cursos e as dimensões do
QE.......................................................................................................... 98
Figura E.1 Distribuição das respostas do QE para o item “i27”: (a) IES públicas
e (b) IES privadas................................................................................... 132
Figura E.2 Distribuição das respostas do QE para o item “i28”: (a) IES públicas
e (b) IES privadas................................................................................... 132

x
Figura E.3 Distribuição das respostas do QE para o item “i29”: (a) IES públicas
e (b) IES privadas................................................................................... 133
Figura E.4 Distribuição das respostas do QE para o item “i30”: (a) IES públicas
e (b) IES privadas................................................................................... 133
Figura E.5 Distribuição das respostas do QE para o item “i31”: (a) IES públicas
e (b) IES privadas................................................................................... 133
Figura E.6 Distribuição das respostas do QE para o item “i32”: (a) IES públicas
e (b) IES privadas................................................................................... 134
Figura E.7 Distribuição das respostas do QE para o item “i33”: (a) IES públicas
e (b) IES privadas................................................................................... 134
Figura E.8 Distribuição das respostas do QE para o item “i34”: (a) IES públicas
e (b) IES privadas................................................................................... 134
Figura E.9 Distribuição das respostas do QE para o item “i35”: (a) IES públicas
e (b) IES privadas................................................................................... 135
Figura E.10 Distribuição das respostas do QE para o item “i36”: (a) IES públicas
e (b) IES privadas................................................................................... 135
Figura E.11 Distribuição das respostas do QE para o item “i37”: (a) IES públicas
e (b) IES privadas................................................................................... 135
Figura E.12 Distribuição das respostas do QE para o item “i38”: (a) IES públicas
e (b) IES privadas................................................................................... 136
Figura E.13 Distribuição das respostas do QE para o item “i39”: (a) IES públicas
e (b) IES privadas................................................................................... 136
Figura E.14 Distribuição das respostas do QE para o item “i40”: (a) IES públicas
e (b) IES privadas................................................................................... 136
Figura E.15 Distribuição das respostas do QE para o item “i41”: (a) IES públicas
e (b) IES privadas................................................................................... 137
Figura E.16 Distribuição das respostas do QE para o item “i42”: (a) IES públicas
e (b) IES privadas................................................................................... 137
Figura E.17 Distribuição das respostas do QE para o item “i43”: (a) IES públicas
e (b) IES privadas................................................................................... 137
Figura E.18 Distribuição das respostas do QE para o item “i44”: (a) IES públicas
e (b) IES privadas................................................................................... 138
Figura E.19 Distribuição das respostas do QE para o item “i45”: (a) IES públicas
e (b) IES privadas................................................................................... 138
Figura E.20 Distribuição das respostas do QE para o item “i46”: (a) IES públicas
e (b) IES privadas................................................................................... 138
Figura E.21 Distribuição das respostas do QE para o item “i47”: (a) IES públicas
e (b) IES privadas................................................................................... 139
Figura E.22 Distribuição das respostas do QE para o item “i48”: (a) IES públicas
e (b) IES privadas................................................................................... 139

xi
Figura E.23 Distribuição das respostas do QE para o item “i49”: (a) IES públicas
e (b) IES privadas................................................................................... 139
Figura E.24 Distribuição das respostas do QE para o item “i50”: (a) IES públicas
e (b) IES privadas................................................................................... 140
Figura E.25 Distribuição das respostas do QE para o item “i51”: (a) IES públicas
e (b) IES privadas................................................................................... 140
Figura E.26 Distribuição das respostas do QE para o item “i52”: (a) IES públicas
e (b) IES privadas................................................................................... 140
Figura E.27 Distribuição das respostas do QE para o item “i53”: (a) IES públicas
e (b) IES privadas................................................................................... 141
Figura E.28 Distribuição das respostas do QE para o item “i54”: (a) IES públicas
e (b) IES privadas................................................................................... 141
Figura E.29 Distribuição das respostas do QE para o item “i55”: (a) IES públicas
e (b) IES privadas................................................................................... 141
Figura E.30 Distribuição das respostas do QE para o item “i56”: (a) IES públicas
e (b) IES privadas................................................................................... 142
Figura E.31 Distribuição das respostas do QE para o item “i57”: (a) IES públicas
e (b) IES privadas................................................................................... 142
Figura E.32 Distribuição das respostas do QE para o item “i58”: (a) IES públicas
e (b) IES privadas................................................................................... 142
Figura E.33 Distribuição das respostas do QE para o item “i59”: (a) IES públicas
e (b) IES privadas................................................................................... 143
Figura E.34 Distribuição das respostas do QE para o item “i60”: (a) IES públicas
e (b) IES privadas................................................................................... 143
Figura E.35 Distribuição das respostas do QE para o item “i61”: (a) IES públicas
e (b) IES privadas................................................................................... 143
Figura E.36 Distribuição das respostas do QE para o item “i62”: (a) IES públicas
e (b) IES privadas................................................................................... 144
Figura E.37 Distribuição das respostas do QE para o item “i63”: (a) IES públicas
e (b) IES privadas................................................................................... 144
Figura E.38 Distribuição das respostas do QE para o item “i64”: (a) IES públicas
e (b) IES privadas................................................................................... 144
Figura E.39 Distribuição das respostas do QE para o item “i65”: (a) IES públicas
e (b) IES privadas................................................................................... 145
Figura E.40 Distribuição das respostas do QE para o item “i66”: (a) IES públicas
e (b) IES privadas................................................................................... 145
Figura E.41 Distribuição das respostas do QE para o item “i67”: (a) IES públicas
e (b) IES privadas................................................................................... 145
Figura E.42 Distribuição das respostas do QE para o item “i68”: (a) IES públicas
e (b) IES privadas................................................................................... 146

xii
Lista de Tabelas_______________________

Tabela 3.1 Parâmetros de conversão dos conceitos contínuos e discretos do


ENADE, CPC e IGC.............................................................................. 39
Tabela 3.2 Composição do Conceito ENADE e pesos das suas componentes........ 43
Tabela 3.3 Composição do CPC e pesos das suas dimensões e componentes......... 45
Tabela 4.1 Parâmetros de avaliação da significância dos testes estatísticos............ 57
Tabela 5.1 Quantidade de cursos de EP “plena” e suas ênfases.............................. 61
Tabela 5.2 Quantidade de cursos de EP ofertados por IES no Brasil...................... 63
Tabela 5.3 Vagas oferecidas, candidatos inscritos, ingressos total, relação
candidato/vaga e índice de ociosidade nos cursos de EP do Brasil....... 65
Tabela 5.4 Quantidade de cursos por faixa do Conceito ENADE 2014, esfera
administrativa e modalidade de oferta................................................... 69
Tabela 5.5 Quantidade de cursos por região e por faixa do Conceito ENADE
2014........................................................................................................ 70
Tabela 5.6 Quantidade de cursos por faixa do CPC, esfera administrativa e
modalidade de oferta.............................................................................. 70
Tabela 5.7 Quantidade de cursos por região e por faixa do CPC............................ 71
Tabela 5.8 Quantidade de IES por faixa do conceito IGC e por esfera
administrativa........................................................................................ 72
Tabela 5.9 IES que possuem o conceito IGC 5........................................................ 72
Tabela 5.10 Quantidade de IES por região e por faixa do IGC 2015........................ 71
Tabela 6.1 Distribuição das respostas do QE de acordo com as opções da escala
de avaliação............................................................................................ 76
Tabela 6.2 Distribuição dos 346 cursos em relação às ênfases da EP..................... 80
Tabela 6.3 Estatísticas descritivas das idades dos respondentes de acordo com o
gênero sexual.......................................................................................... 82
Tabela 6.4 Distribuição dos cursos e respondentes por faixa do Conceito
ENADE................................................................................................. 83
Tabela 6.5 Quantidade de respondentes por região do Brasil.................................. 83
Tabela 6.6 Resultado do teste de MW para categoria administrativa...................... 85
Tabela 6.7 Resultado do teste de KW para organização acadêmica........................ 86
Tabela 6.8 Rankings médios por organização acadêmica........................................ 86
Tabela 6.9 Resultados do teste de KW e Conover-Iman para as regiões
brasileiras.............................................................................................. 87

xiii
Tabela 6.10 Rankings médios por região................................................................... 87
Tabela 6.11 Resultados dos testes de KW e de Conover-Iman para a percepção
dos estudantes das IES públicas............................................................. 90
Tabela 6.12 Resultados dos testes de KW e de Conover-Iman para a percepção
dos estudantes das IES privadas............................................................. 92
Tabela 7.1 Síntese dos indicadores de qualidade dos cursos de EP......................... 100
Tabela A.1 Estatísticas descritivas para todas as respostas do QE........................... 119
Tabela A.2 Estatísticas descritivas para as respostas do QE: IES privadas.............. 120
Tabela A.3 Estatísticas descritivas para as respostas do QE: IES públicas.............. 121
Tabela B.1 Resultado dos testes de normalidade para as respostas do QE para as
IES privadas........................................................................................... 122
Tabela B.2 Resultado dos testes de normalidade para as respostas do QE para as
IES públicas............................................................................................ 123
Tabela B.3 Resultado dos testes de normalidade para os conceitos contínuos do
ENADE 2014......................................................................................... 124

xiv
Lista de Quadros_______________________

Quadro 2.1 Dimensões da qualidade e suas características na educação superior.... 30


Quadro 3.1 Ciclos e períodos do desenvolvimento do processo avaliativo da
educação superior brasileira................................................................... 37
Quadro 4.1 Variáveis utilizadas para composição da base de dados do estudo........ 52
Quadro 4.2 Itens e dimensões do QE 2014............................................................... 54
Quadro 6.1 Variáveis adicionadas à base de dados contendo as respostas do QE.... 75
Quadro 6.2 Testes estatísticos aplicados para verificação das diferenças entre os
grupos estudados.................................................................................... 79
Quadro 6.3 Características dos cursos e IES cujos estudantes apresentaram os
melhores desempenhos no ENADE 2014.............................................. 88
Quadro 6.4 Itens comuns aos 346 cursos avaliados no ENADE 2014..................... 94
Quadro 6.5 Itens da dimensão “OAF” que apresentam diferença estaticamente
significantes........................................................................................... 95
Quadro 6.6 Itens da dimensão “IIF” que apresentam diferença estaticamente
significantes........................................................................................... 96
Quadro 6.7 Itens da dimensão “ODP” que apresentam diferença estaticamente
significantes........................................................................................... 97

xv
Lista de Siglas_________________________

ABEPRO Associação Brasileira de Engenharia de Produção


ACE Avaliação das Condições de Ensino
ACO Avaliação das Condições de Oferta
ANOVA Análise de variância
CAPES Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
CC Conceito de Curso
CCE Componente de Conhecimentos Específicos
CEA Comissão Especial de Avaliação
CEFET Centro Federal de Educação Tecnológica
CFG Componente de Formação Geral
CI Conceito Institucional
CNRES Comissão Nacional de Reformulação da Educação Superior
CONAES Comissão Nacional de Avaliação da Educação Superior
CPA Comissão Própria de Avaliação
CPC Conceito Preliminar de Curso
EESC Escola de Engenharia de São Carlos
ENADE Exame Nacional de Desempenho de Estudantes
ENC Exame Nacional de Cursos
ENEM Exame Nacional do Ensino Médio
EP Engenharia de Produção
GEM Global Entrepreneurship Monitor
GERES Grupo Executivo da Reforma da Educação Superior
IDD Indicador da Diferença entre os Desempenhos Observado e Esperado
IES Instituições de Ensino Superior
IF Instituto Federal de Educação, Ciência e Tecnologia
IGC Índice Geral de Cursos
IIF Infraestrutura e Instalações Físicas
INEP Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira
KS Kolmogorov-Smirnov

xvi
KW Kruskal-Wallis
MEC Ministério da Educação
MW Mann-Whitney
OAF Oportunidades de Ampliação da Formação Acadêmica e Profissional
ODP Organização Didático-Pedagógica
PAIUB Programa de Avaliação Institucional das Universidades Brasileiras
PARU Programa de Avaliação da Reforma Universitária
PUC-Rio Pontifícia Universidade Católica do Rio de Janeiro
QE Questionário do Estudante
REUNI Programa de Apoio a Planos de Reestruturação das Universidades Federais
SC Sem Conceito
SERES Secretaria de Regulação e Supervisão da Educação Superior
SESu Secretaria de Educação Superior
SINAES Sistema Nacional de Avaliação da Educação Superior
TICs Tecnologias de Informação e Comunicação
UF Unidade Federativa
UFRJ Universidade Federal do Rio de Janeiro
USP Universidade de São Paulo

xvii
Sumário______________________________

1. INTRODUÇÃO............................................................................................................. 20
1.1. JUSTIFICATIVA E RELEVÂNCIA........................................................................ 23
1.2. OBJETIVOS.............................................................................................................. 24
1.2.1. Geral.................................................................................................................... 24
1.2.2. Específicos........................................................................................................... 24
1.3. ESTRUTURA DA DISSERTAÇÃO........................................................................ 25

2. GESTÃO DA QUALIDADE DA EDUCAÇÃO SUPERIOR.................................... 26


2.1. PERSPECTIVAS DA QUALIDADE E STAKEHOLDERS DA EDUCAÇÃO
SUPERIOR................................................................................................................ 26

3. AVALIAÇÃO DA EDUCAÇÃO SUPERIOR NO BRASIL..................................... 32


3.1. GESTÃO DA QUALIDADE DA EDUCAÇÃO SUPERIOR BRASILEIRA......... 32
3.2. SISTEMA NACIONAL DE AVALIAÇÃO DA EDUCAÇÃO SUPERIOR........... 37
3.2.1. Exame Nacional de Desempenho de Estudantes................................................. 42
3.2.2. Conceito Preliminar de Curso.............................................................................. 44
3.2.3. Índice Geral de Cursos........................................................................................ 45
3.3. CONSIDERAÇÕES FINAIS DO CAPÍTULO......................................................... 46

4. MÉTODOS E PLANEJAMENTO DA PESQUISA................................................... 48


4.1. CLASSIFICAÇÃO METODOLÓGICA DA PESQUISA........................................ 48
4.2. PLANEJAMENTO DA PESQUISA......................................................................... 49
4.3. FONTES DE DADOS............................................................................................... 51
4.3.1. Questionário do Estudante................................................................................... 53
4.4. ANÁLISE DOS DADOS.......................................................................................... 55
4.4.1. Análise exploratória............................................................................................. 56

5. A ENGENHARIA DE PRODUÇÃO NO BRASIL: ANÁLISE DOS DADOS


OFICIAIS E DOS INDICADORES DO SINAES..................................................... 58
5.1. A ENGENHARIA DE PRODUÇÃO NO BRASIL................................................. 58
5.2. ASPECTOS QUANTITATIVOS DA ENGENHARIA DE PRODUÇÃO.............. 60
5.3. ASPECTOS QUALITATIVOS DA ENGENHARIA DE PRODUÇÃO................. 69
5.3.1. Conceito ENADE................................................................................................ 69
5.3.2. Conceito Preliminar de Curso.............................................................................. 70
5.3.3. Índice Geral de Cursos........................................................................................ 71
5.4. CONSIDERAÇÕES FINAIS DO CAPÍTULO......................................................... 73

6. AVALIAÇÃO DOS CURSOS E DA PERCEPÇÃO DOS ESTUDANTES............. 75


6.1. ANÁLISE EXPLORATÓRIA.................................................................................. 75
6.1.1. Análise preliminar das respostas do QE.............................................................. 75
6.1.2. Caracterização das 277 IES e dos 346 cursos de graduação............................... 79
6.1.3. Caracterização dos respondentes......................................................................... 82
6.1.4. Discussão dos resultados..................................................................................... 83

xviii
6.2. AVALIAÇÃO DOS CURSOS DE ENGENHARIA DE PRODUÇÃO................... 84
6.2.1. Discussão dos resultados..................................................................................... 87

6.3. AVALIAÇÃO DA PERCEPÇÃO DOS ESTUDANTES......................................... 89


6.3.1. Percepção dos estudantes das IES públicas......................................................... 89
6.3.2. Percepção dos estudantes das IES privadas......................................................... 91
6.3.3. Discussão dos resultados..................................................................................... 93

7. CONCLUSÃO E CONSIDERAÇÕES FINAIS.......................................................... 99


7.1. LIMITAÇÕES DO TRABALHO............................................................................. 102
7.2. SUGESTÕES PARA TRABALHOS FUTUROS..................................................... 103

REFERÊNCIAS................................................................................................................. 104

APÊNDICES...................................................................................................................... 112
A. ESTATÍSTICAS DESCRITIVAS DAS RESPOSTAS DO QUESTIONÁRIO DO
ESTUDANTE............................................................................................................ 119
B. RESULTADOS DOS TESTES DE NORMALIDADE.............................................. 122
C. DESCRIÇÃO DOS TESTES ESTATÍSTICOS.......................................................... 125
D. ALGORITMOS IMPLEMENTADOS NO SOFTWARE R....................................... 128
E. GRÁFICOS DE FREQUÊNCIA DAS RESPOSTAS DO QUESTIONÁRIO DO
ESTUDANTE............................................................................................................ 132
F. PRODUÇÕES CIENTÍFICAS..................................................................................... 147

ANEXOS............................................................................................................................. 148
A. QUESTIONÁRIO DO ESTUDANTE 2014............................................................... 148

xix
Capítulo 1____________________________
Introdução

O progresso de qualquer nação é construído pelos profissionais que a compõem, os quais


promovem o desenvolvimento industrial e tecnológico e geram impactos e consequências
positivas nos aspectos econômicos e sociais (Lister & Donaldson, 2003; Đonlagić & Fazlić,
2015; Schrippe et al., 2016). Nesse contexto, a educação superior possui o desafio de
proporcionar e manter uma qualidade suficiente para atender às futuras necessidades
educacionais dos estudantes e da sociedade (Craven, 1975; Torgersen & Taylor, 1976).
No ensino superior, o conceito de “qualidade” está intrinsecamente ligado ao
gerenciamento das relações entre os stakeholders1 (partes interessadas) das instituições de
ensino, sendo eles: estudantes, governo, sociedade, indústrias, fornecedores, funcionários,
competidores, entre outros (Đonlagić & Fazlić, 2015; Guilbault, 2017; Gruber et al., 2010;
Hill, Lomas, & MacGregor, 2003; Logermann & Leišytė, 2015; McDowell & Sambell, 1999;
Santos, 2017; Seeman & O’Hara, 2006; Borkowski & Ugras, 1992; Voss, Gruber, & Szmigin,
2007). À luz disso, Faganel e Dolinšek (2012) e Lau (2014) mencionam que a qualidade da
educação superior está relacionada principalmente às expectativas dos estudantes, pois eles
são um dos mais importantes stakeholders, devendo ser capazes de fornecer o feedback
(opinião crítica) a respeito das condições do processo de ensino-aprendizagem. Para Leišytė et
al. (2013), os estudantes precisam atuar de forma ativa e participativa, como parceiros das
Instituições de Ensino Superior (IES).
A avaliação e o controle de qualidade da educação superior garantem a formação de
profissionais qualificados e com níveis de conhecimentos alinhados às demandas do mercado
de trabalho. Bertolin (2009) salienta que a palavra “qualidade” tem sido utilizada com
frequência no âmbito das pesquisas sobre educação superior. De fato, tanto na literatura
nacional quanto internacional, encontram-se inúmeros trabalhos relacionados ao tema, por
exemplo: Burlamaqui (2008); Dias Sobrinho (2010); Kamat e Kittur (2016); Melo, Kalid e
Embiruçu (2017a); Melo et al. (2017); Morosini (2009); e Souza (2017).
A preocupação com a avaliação do ensino superior brasileiro, em nível de graduação,
surgiu na década de 80, principalmente devido à expansão quantitativa, e desde então tem
1
Mitchell, Agle e Wood (1997) e Leišytė et al. (2013) ressaltam que os stakeholders são “qualquer grupo ou
indivíduo que pode afetar ou ser afetado pelo alcance dos objetivos de uma organização” (Freeman, 1984, p. 46).

Página 20 de 155
passado por um processo gradual de aperfeiçoamento (Matos et al., 2013; Verhine, Dantas, &
Soares, 2006). As ações visando à criação e à operacionalização de instrumentos que
permitissem a gestão da qualidade do ensino superior brasileiro culminaram no Sistema
Nacional de Avaliação da Educação Superior (SINAES), estabelecido em 2004 por meio da
Lei nº 10.861/2004 (Brasil, 2004).
O SINAES compreende um sistema amplo e complexo baseado em instrumentos de
avaliação que buscam traduzir o panorama da qualidade dos cursos de graduação e das IES no
Brasil. Pedrosa, Amaral e Knobel (2013) ressaltam que possivelmente o Brasil foi um dos
primeiros países a desenvolver um sistema de avaliação educacional com um alto nível de
abrangência, incluindo a avaliação de IES públicas e privadas, além da avaliação dos cursos e
do desempenho dos estudantes.
Os resultados do SINAES são demonstrados por meio de três indicadores de qualidade,
calculados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira
(INEP). O processo de obtenção desses indicadores se inicia com o Exame Nacional de
Desempenho de Estudantes (ENADE), que visa avaliar os resultados da aprendizagem dos
discentes e computar o Conceito ENADE dos cursos2. O segundo indicador, Conceito
Preliminar de Curso (CPC), visa avaliar os cursos de graduação considerando o quadro
docente, a percepção dos estudantes sobre o processo formativo e os resultados da
aprendizagem. Por fim, o terceiro indicador, Índice Geral de Cursos (IGC), avalia as IES com
base nas avaliações dos cursos de graduação e pós-graduação stricto sensu (MEC, 2010;
MEC, 2016).
O conjunto dos indicadores de qualidade do SINAES permite abalizar o cenário qualitativo
dos cursos de graduação e das IES, identificando aspectos que podem ser aperfeiçoados com
vistas a estabelecer critérios para a qualidade da formação educacional dos futuros
profissionais brasileiros. Neste trabalho, os resultados dos indicadores de qualidade do
SINAES são utilizados como parâmetros para a investigação da qualidade do ensino no
âmbito dos cursos de Engenharia de Produção (EP).
Considerando a quantidade de cursos, a EP ocupa o segundo lugar no ranking dos cursos
de engenharia no Brasil, muito embora seja uma das modalidades mais recentes de engenharia
(Melo et al., 2017). O primeiro curso de EP surgiu no Brasil em 1958, na Universidade de
São Paulo (USP), tendo como precursor o professor Rui Leme (Fleury, 2008). A partir de

2
Ao longo do texto desta dissertação a sigla “ENADE” se refere ao exame avaliativo aplicado pelo INEP,
enquanto o termo “Conceito ENADE” diz respeito à nota do curso, sendo este o indicador de qualidade que
reflete o desempenho dos estudantes no ENADE.

Página 21 de 155
1996, a quantidade de cursos de engenharia, principalmente EP, cresceu vertiginosamente
(Faé & Ribeiro, 2004; INEP & CONFEA, 2010; Mello & Sousa, 2015; Oliveira, 2004;
Oliveira, Barbosa, & Chrispim, 2005). Wrasse, Pasa e Pissidônio (2014) atribuem esse
crescimento à evidente evolução do mundo da produção e à consequente necessidade por
profissionais com as habilidades e competências do engenheiro de produção.
Motivados pela expansão quantitativa e pela preocupação com a qualidade na formação
profissional do engenheiro de produção, uma vasta quantidade de estudos científicos tem
abordado aspectos relacionados à gestão da qualidade do ensino de EP (Benfatti & Stano,
2010; Bittencourt, Viali, & Beltrame, 2010; Faé & Ribeiro, 2004; Furlanetto, Malzac Neto, &
Neves, 2006; Kádárová et al., 2014; Luiz, Costa, & Costa, 2010; Mello & Sousa, 2015; Melo
et al., 2014; Melo et al., 2016; Melo et al., 2017; Oliveira, 2004; Oliveira, 2005; Oliveira,
Barbosa, & Chrispim, 2005; Palma et al., 2012; Piratelli, 2005; Shafeek, Gutub, & Miski,
2014; Sousa et al., 2013; Sturm et al., 2015; Weise & Trierweiller, 2010). A maioria desses
estudos aponta os aspectos relacionados ao crescimento quantitativo dos cursos de EP,
entretanto não aborda com profundidade o impacto desse crescimento na qualidade do ensino.
Entre os indicadores de qualidade do SINAES, o Conceito ENADE é o mais conhecido e
utilizado como parâmetro de avaliação. À luz disso, a partir de uma revisão sistemática da
literatura, Melo, Kalid e Embiruçu (2017b) concluem que as pesquisas acadêmicas no âmbito
dos cursos de graduação em EP têm utilizado os resultados do ENADE sob quatro
perspectivas: (1) avaliação da grade curricular dos cursos; (2) avaliação de competências e
habilidades dos estudantes; (3) investigação da qualidade dos cursos; e (4) avaliação do
processo de ensino-aprendizagem. Em adição, os autores acrescentam que “[...] os
pesquisadores têm utilizado o Conceito ENADE para buscar novas oportunidades de
aperfeiçoamento, avaliação e projeção da qualidade do ensino nos cursos de EP no Brasil.”
(Melo, Kalid, & Embiruçu, 2017b, p. 11).
À luz dessas considerações sobre o crescimento quantitativo e a importância da avaliação
qualitativa dos cursos de EP, esta pesquisa almeja responder às seguintes perguntas:

 Até que ponto os aspectos quantitativos e qualitativos do ensino de EP refletem a


consolidação desses cursos no Brasil?
 Existe diferença estatisticamente significante entre os Conceitos ENADE dos
cursos e aspectos como a organização acadêmica das IES, as categorias
administrativas e as regiões do Brasil?

Página 22 de 155
 A percepção dos estudantes sobre as condições do processo formativo condiz com
o nível de qualidade dos seus respectivos cursos?
 Quais os aspectos que diferenciam os cursos de EP ofertados por IES públicas e
privadas em relação os níveis de qualidade do Conceito ENADE 2014?

Esta discussão sobre os aspectos relacionados à gestão da qualidade na educação superior e


à EP no Brasil contextualiza os temas abordados nesta dissertação e introduz as próximas
seções deste capítulo, que abordam a justificativa e relevância deste estudo, os objetivos e a
estrutura deste trabalho.

1.1. JUSTIFICATIVA E RELEVÂNCIA

De acordo com Cunha (2002), a EP é uma das áreas de atuação mais promissoras do século
XXI. As organizações têm evoluído e exigido profissionais capazes de intervir de forma
positiva nos aspectos que garantem vantagem competitiva em processos produtivos, qualidade
de produtos e estratégias de gestão, sendo estes atributos estreitamente relacionados ao perfil
profissional do engenheiro de produção (INEP & CONFEA, 2010).
Para atender à demanda de profissionais de EP, novos cursos surgiram, notadamente no
setor privado (Oliveira, Barbosa, & Chrispim, 2005; Bittencourt, Viali, & Beltrame, 2010).
Entre os anos de 2000 e 2008, os cursos de EP atingiram uma taxa de crescimento de quase
300 %, passando de 72 para 287 cursos (Melo et al., 2017). Como consequência, entre 2000 e
2007 a quantidade de ingressantes quintuplicou (INEP & CONFEA, 2010).
O SINAES avalia os cursos de graduação por meio de ciclos trienais. Assim, os cursos de
EP foram avaliados nos anos de 2005, 2008, 2011 e 2014. Ao realizar um estudo comparativo
sobre o desempenho dos estudantes de EP nos três primeiros anos de aplicação do ENADE,
Oliveira e Costa (2013, p. 10) concluem que em 2011 “[...] houve uma queda do percentual de
cursos de Engenharia de Produção com conceitos 4 e 5 principalmente, e um aumento
significativo do percentual de cursos com conceitos 1 e 2.” Além disso, os autores ressaltam
que “ao se comparar os setores público e privado verifica-se que os resultados obtidos pelo
setor público têm sido melhores, principalmente no que se refere aos cursos com conceitos
superiores a 3.” (Oliveira & Costa, 2013, p. 10). Em 2014, 347 cursos obtiveram o Conceito
ENADE, entretanto, Melo, Kalid e Embiruçu (2017a) apontam que, até outubro de 2017,
59,8 % dos cursos de EP não tinham sido avaliados pelo SINAES e 22,0 % dos cursos
Página 23 de 155
avaliados possuíam conceitos insatisfatórios. O alto percentual de cursos não avaliados se
justifica pelo crescimento acentuado na quantidade de novos cursos, que entre 2014 – ano que
ocorreu a última avaliação do SINAES – e outubro de 2017 passou de 643 para 1017 cursos.
Nesse cenário, a justificativa e a relevância deste estudo gravitam em torno da preocupação
com a qualidade do ensino de EP no Brasil e da identificação de aspectos que possam
contribuir com o incremento da qualidade desses cursos, reforçando a proposta de avaliação
do SINAES e buscando a melhoria contínua do ensino ofertado.

1.2. OBJETIVOS

1.2.1. Objetivo Geral

O objetivo geral deste trabalho é investigar a qualidade do ensino de EP no Brasil a partir


dos resultados do SINAES e da percepção dos discentes sobre as condições do processo
formativo.

1.2.2. Objetivos Específicos

O alcance do objetivo geral se alicerça no cumprimento dos seguintes objetivos


específicos:

 Traçar o panorama dos cursos de EP no Brasil, evidenciando aspectos quantitativos


(quantidade de cursos, matrículas, concluintes, ingressos, trancamentos e
transferências, além da distribuição geográfica) e qualitativos (relacionados aos
indicadores de qualidade da educação superior: Conceito ENADE, CPC e IGC);

 Comparar os Conceitos ENADE 2014 dos cursos de EP considerando aspectos


ligados às IES (organização acadêmica, categorias e esferas administrativas) e à
distribuição geográfica dos cursos;

 Verificar e descrever como os estudantes avaliam as condições do processo


formativo considerando as categorias administrativas das IES e os níveis de
qualidade dos cursos.
Página 24 de 155
1.3. ESTRUTURA DA DISSERTAÇÃO

Esta dissertação está estruturada em sete capítulos. Este capítulo introdutório aborda a
contextualização do tema, a justificativa e relevância da pesquisa e os seus objetivos.
O Capítulo 2 abrange os aspectos intrínsecos à gestão da qualidade da educação superior,
enfatizando a importância da avaliação do desempenho dos estudantes e da percepção desses
agentes acerca das condições de ensino.
Capítulo 3 contextualiza a gestão da qualidade da educação superior no Brasil, retratando
os aspectos históricos que resultaram na criação do SINAES.
O Capítulo 4 apresenta os métodos e os procedimentos técnicos utilizados para obtenção
dos resultados, juntamente com a estrutura do planejamento da pesquisa.
O Capítulo 5, como parte inicial dos resultados, apresenta o panorama dos cursos de EP no
Brasil, abrangendo aspectos quantitativos e qualitativos, baseados nos indicadores de
qualidade do SINAES. Em adição, ao final desse capítulo são apresentadas as discussões dos
resultados.
O Capítulo 6 apresenta a continuidade dos resultados e das discussões, baseado na análise
exploratória de dados e na aplicação dos testes estatísticos.
O Capítulo 7 traz as conclusões, bem como as principais limitações e algumas sugestões
para o desenvolvimento de trabalhos futuros.

Página 25 de 155
Capítulo 2____________________________
Gestão da qualidade da educação superior

Este capítulo aborda os aspectos que permeiam a definição do termo “qualidade” no


âmbito educacional e a relevância da gestão da qualidade da educação superior,
principalmente devido à internacionalização3. Em adição, citam-se os principais stakeholders
da educação superior e enfatiza-se a importância da avaliação do desempenho e da percepção
dos estudantes na gestão e na melhoria da qualidade desse nível de ensino.

2.1. PERSPECTIVAS DA QUALIDADE E STAKEHOLDERS DA EDUCAÇÃO


SUPERIOR

A gestão da qualidade educacional de um país é um fator fundamental para o seu


desenvolvimento social, econômico e político. Os investimentos relacionados à educação
superior são aspectos críticos que interferem no aperfeiçoamento do capital humano, nas
pesquisas científicas e na inovação tecnológica (Babbar, 1995; Machumu & Kisanga, 2014).
A gestão da qualidade tem sido discutida no contexto da educação superior há décadas
(Faganel & Dolinšek, 2012), se consolidando nos anos 80 e logo se tornando prioridade na
Europa e nos Estados Unidos (Bertolin, 2009; Green, 1994). Nicholson (2011) menciona que
esse tema também tem sido intensamente discutido na Austrália e no Canadá. A par disso,
nota-se que, gradativamente, os países têm compreendido que a excelência exigida na
fabricação dos produtos e na prestação de serviços está diretamente ligada à qualidade da
formação educacional dos seus colaboradores, sendo a educação superior a força motriz desse
sistema de qualificação profissional.
Em outra perspectiva, o impulso para a gestão da qualidade nesse nível de ensino também
está associado ao fato do mundo ter se tornado um espaço aberto no qual as pessoas se
deslocam livremente entre os países, logo, para atuar em contextos geográficos distintos, os
profissionais precisam possuir níveis equivalentes de conhecimento (Noaman et al., 2015;
Palmas, Ríos, & Gerrero, 2012; Phillips, Peterson, & Aberle, 2000). Nessa visão, Prados,
3
Nesse trabalho, o conceito de internacionalização está ligado à crescente demanda por profissionais aptos a
atuar em times compostos por pessoas de diferentes nacionalidades, em diferentes países.

Página 26 de 155
Peterson e Lattuca (2005) enfatizam que a colaboração efetiva entre profissionais excede o
domínio do mesmo idioma, sendo necessária também a garantia de que estes profissionais
possuam, no mínimo, o mesmo nível de conhecimento na área de atuação.
No cenário atual, cujo conhecimento é o pilar principal da economia e do
desenvolvimento, Đonlagić e Fazlić (2015) ressaltam que a educação superior desempenha
três funções vitais: geração, difusão e transferência do conhecimento. Em adição, Ekundayo e
Adedokun (2009) afirmam que a valorização dada à educação superior contribui com o
desenvolvimento do país de três maneiras: (1) no atendimento às expectativas da sociedade,
que espera que as IES cumpram seu papel de formar profissionais que atendam às
necessidades do mercado; (2) na formação do próprio corpo acadêmico, que é o capital
intelectual responsável por gerar, aplicar e aperfeiçoar conhecimentos através da pesquisa
científica, contribuindo com a solução de problemas que impactam no desenvolvimento do
país; e (3) na formação de profissionais altamente qualificados visando o desenvolvimento
das instituições.
A expansão e a diversificação das IES após a 2ª Guerra Mundial estão aliadas,
principalmente, ao reconhecimento da importância desse nível de ensino (Ribeiro & Belhot,
2002). Como consequência, Bertolin (2009) ressalta que esses fatores têm criado grandes
desafios para a gestão da educação superior, tais como: limitação de financiamento,
competição entre instituições de ensino, massificação dos sistemas educacionais,
desmotivação dos docentes, autonomia institucional, entre outros. Nesse cenário, as
discussões sobre a necessidade da gestão da qualidade na educação superior emergem e se
tornam relevantes.
Naturalmente, a expansão das práticas voltadas para o aperfeiçoamento da educação
superior motivou estudos acerca do conceito de “qualidade” nesse contexto, sendo este termo
comumente utilizado no âmbito industrial desde a década de 30. O termo “qualidade” envolve
aspectos intangíveis e ideológicos, agregando adjetivos e definições que variam conforme as
mudanças sociais, industriais, tecnológicas e políticas, em relação ao tempo e ao meio
(Bertolin, 2009). Nesse sentido, Harvey e Green (1993) e Green (1994) ressaltam que o
conceito de “qualidade” é relativo às perspectivas e às percepções dos indivíduos e da
sociedade. Na mesma linha de raciocínio, Vlãsceanu, Grünberg e Pârlea (2007, p. 70)
enfatizam que “qualidade na educação superior é multidimensional, multinível e dinâmica,
estando relacionada às configurações do contexto do modelo educacional, à missão e aos
objetivos da instituição, bem como às normas de um determinado sistema, instituição, curso
ou disciplina”.

Página 27 de 155
Machumu e Kisanga (2014) apontam que, comparando com a indústria e com o campo das
engenharias, a definição de “qualidade” na educação superior é mais complexa, pois, apesar
de cada instituição de ensino possuir sua própria missão, visão e valores, todas elas
desenvolvem atividades muito similares, baseadas na tríade ensino-pesquisa-extensão. Nesse
panorama, Dias Sobrinho (2008) e Souza (2017) destacam que há quase um consenso a
respeito da polissemia do termo “qualidade” no contexto da educação superior, tanto em
relação à subjetividade dos critérios e termos que o definem, quanto em relação à infinidade
de contextos que ele pode ser aplicado. Green (1994, p. 17) argumenta que é impossível
discutir qualidade na educação superior por meio de um conceito unitário, pois “qualidade”
precisa ser definida em termos de qualidades, levando em consideração que uma instituição
pode oferecer alta qualidade em relação a um fator e baixa qualidade em relação a outro.
Na visão de Schindler et al. (2015) existem três restrições que impossibilitam a definição
precisa de “qualidade” na educação superior. Primeiramente, o termo varia de acordo com a
percepção dos stakeholders e, obviamente, com o entendimento de cada um desses agentes
sobre o que a qualidade significa (Manjula & Vaideeswaran, 2011; Liu, 2016). Nesses termos,
Gruber et al. (2010, p. 5) ressaltam que “cada stakeholder da educação superior possui sua
própria visão de qualidade, de acordo com suas necessidades particulares”. A segunda
restrição está relacionada à multidimensionalidade do termo, que pode envolver inúmeros
aspectos dependendo do contexto estudado (industrial, educacional, social, econômico, entre
outros). Por fim, a terceira restrição se fundamenta na dinamicidade do termo, intrínseca à
busca contínua pela excelência.
A partir do reconhecimento que não existe um consenso em relação à definição do termo
“qualidade” na educação superior, Schindler et al. (2015) propõem um modelo conceitual que
envolve quatro abordagens e 18 indicadores que podem ser utilizados para avaliar a qualidade
da educação superior, permitindo o entendimento deste termo por meio de aspectos
abrangentes, inter-relacionados e centrados na percepção dos stakeholders (Figura 2.1). Para
Schindler et al. (2015) a importância da percepção dos stakeholders está estreitamente ligada
ao delineamento de estratégias e objetivos para alcançar a qualidade. Desse modo, são
necessárias estratégias amplas para atingir objetivos e resultados centrais e estratégias
específicas para identificar parâmetros de avaliação da qualidade (indicadores de qualidade).

Página 28 de 155
Figura 2.1 – Modelo conceitual das abordagens da qualidade da educação superior.

Fonte: Adaptado de Schindler et al. (2015).

De forma similar a Schindler et al. (2015), Owlia e Aspinwall (1996) identificam na


literatura seis dimensões que permeiam o termo “qualidade” e suas respectivas características
na educação superior, também sob a ótica dos stakeholders (Quadro 2.1).

Página 29 de 155
Quadro 2.1 – Dimensões da qualidade e suas características na educação superior.
Dimensões Características na educação superior Stakeholders
Suficiência de equipamentos/instalações físicas
Modernidade dos equipamentos/instalações físicas
Estudantes e
Tangíveis Facilidade de acesso
servidores
Ambiente visualmente atraente
Serviços de suporte (acomodações, esportes, entre outros)
Suficiência de servidores (professores, técnicos, entre outros)
Conhecimento teórico e qualificações
Estudantes e
Competência Conhecimento prático
servidores
Atualização
Experiência de ensino, comunicação
Entendimento das necessidades dos estudantes
Disponibilidade para ajudar os estudantes
Atitude Disponibilidade para orientações e conselhos Estudantes
Atenção pessoal
Emoção e cortesia
Relevância do currículo para a atuação profissional dos estudantes
Eficácia
Estudantes, servidores
Abordagem de habilidades e conhecimentos primários
Conteúdo e possíveis
Integridade, uso do computador
empregadores
Habilidade de comunicação e trabalho em equipe
Flexibilidade do conhecimento, sendo multidisciplinar
Apresentação efetiva
Sequenciamento, pontualidade
Consistência
Entregáveis Estudantes
Equidade dos exames
Feedback para os estudantes
Incentivo aos estudantes
Confiabilidade
Estudantes, servidores
Reconhecimento
Confiança e possíveis
Cumprimento de promessas de acordo com os objetivos
empregadores
Tratamento de reclamações, solução de problemas
Fonte: Adaptado de Owlia & Aspinwall (1996).

Apesar da intangibilidade intrínseca ao termo “qualidade”, uma das dimensões


apresentadas por Owlia e Aspinwall (1996) aborda justamente os aspectos tangíveis que
podem influenciar na percepção da qualidade do ambiente educacional. Além disso, algumas
dimensões estão relacionadas às abordagens propostas por Schindler et al. (2015), como a
confiança, o caráter excepcional e a natureza transformativa baseada nos resultados da
aprendizagem dos estudantes.
Cientes de que a qualidade da educação superior é moldada a partir das percepções dos
seus stakeholders, Köksal e Eği̇ tman (1998) ressaltam que definir quem são esses agentes
pode ser uma tarefa difícil, todavia, é a correta definição desses agentes que viabiliza o estudo
das mudanças necessárias rumo à melhoria da qualidade na educação superior. No mais,
Watson (2012) afirma que os stakeholders são definidos por meio do grau de participação e
importância que exercem, logo defini-los envolve a seleção e a priorização dos principais
atores envolvidos no alcance dos objetivos da organização.

Página 30 de 155
Em relação ao ambiente organizacional, Burrows (1999) preconiza que os stakeholders
podem ser divididos em dois grupos: internos (atuantes dentro da organização estudada) e
externos (atuantes em outras instituições ou órgãos externos que exercem influência sobre a
organização estudada).
No contexto da educação superior, não há uma definição ou quantidade exata a respeito
dos stakeholders. Em virtude do grau de aprofundamento de cada estudo, os autores
geralmente definem os stakeholders considerados mais importantes. Assim, entre os mais
citados no ambiente interno, tem-se: os estudantes e os funcionários da organização
(professores e técnicos); e no ambiente externo: a família dos estudantes, a comunidade local,
a sociedade, o governo, as agências de fomento, os possíveis empregadores e os órgãos
reguladores (Alves, Mainardes, & Rapouso, 2010; Beerkens & Udam, 2017; Gibson, 2010;
Green, 1994; Harvey & Green, 1993; Kettunen, 2014; Köksal & Eği̇ tman, 1998; Leišytė et
al., 2013; Liu, 2016; Ulewicz, 2017; Zabadi, 2013).
De acordo com Ulewicz (2017) e Beerkens e Udam (2017), os grupos de stakeholders com
maior notabilidade nas pesquisas científicas das últimas duas décadas têm sido os estudantes,
como agentes internos, e os possíveis empregadores, como agentes externos. Seeman e
O’Hara (2006) enfatizam que todas as IES possuem uma ampla variedade de stakeholders,
entretanto todas elas buscam satisfazer o estudante, sendo este o stakeholder que possui maior
influência no processo educacional. Por oportuno, destaca-se que no cenário brasileiro o
interesse na percepção positiva dos estudantes sobre o processo formativo é maior na esfera
privada, pois essas IES dependem financeiramente dos estudantes.
Para Douglas e Douglas (2006) e Ostrom, Bitner e Burkhard (2011), embora a educação
superior possua inúmeros stakeholders, os estudantes precisam estar no centro da reforma
desse nível de ensino, considerando a sua posição como o foco para oferta do serviço e o
objetivo de transformação por meio da aquisição do conhecimento. Em adição, Joseph,
Yakhou e Stone (2005) sugerem que os administradores das IES devem entender as
necessidades dos estudantes como principal alvo dos serviços educacionais, antes de
desenvolver programas que visem melhorar a satisfação ou eliminar a insatisfação no
processo de ensino.
Diante das considerações supracitadas, verifica-se que no âmbito educacional o termo
“qualidade” apresenta uma pluralidade de definições, podendo ser influenciado por aspectos
tangíveis e intangíveis em relação ao tempo e ao contexto avaliado. Entretanto, verifica-se que
é a percepção dos stakeholders que embasa a avaliação da qualidade e, consequentemente, o
estabelecimento de possível melhorias no processo de ensino-aprendizagem.

Página 31 de 155
Capítulo 3____________________________
Avaliação da educação superior no Brasil

As primeiras iniciativas com vistas à avaliação do ensino superior brasileiro foram


motivadas pelo crescimento quantitativo das IES e dos cursos de graduação. A par disso, este
capítulo traz um breve histórico do processo de criação, aperfeiçoamento e implantação das
ações visando à gestão da qualidade do ensino superior brasileiro. Por fim, apresentam-se o
SINAES e os seus três indicadores de qualidade.

3.1. GESTÃO DA QUALIDADE DA EDUCAÇÃO SUPERIOR BRASILEIRA

No contexto educacional, as práticas avaliativas contribuem com o aperfeiçoamento dos


aspectos tangíveis e intangíveis que influenciam na qualidade da formação dos estudantes.
Para Verhine e Freitas (2012), a execução de práticas avaliativas é necessária para a
compreensão das transformações que ocorrem no ensino superior. Em adição, Dias Sobrinho
(2010, p. 195) enfatiza que “a avaliação é a ferramenta principal da organização e
implementação das reformas educacionais”.
À luz disso, a motivação para a avaliação da qualidade da educação superior brasileira
surgiu em meados dos anos 80 (Barreyro, 2008; Rothen & Barreyro, 2010) a partir do
aumento acentuado na quantidade de IES, cursos de graduação e, consequentemente,
estudantes matriculados (Zainko, 2008). Desse período em diante as publicações sobre o tema
se intensificaram, de modo que os periódicos brasileiros mensalmente publicavam artigos a
respeito dessa temática. O crescimento das publicações na área acarretou a centralização do
tema no contexto das reformas das políticas públicas da educação (INEP, 2009).
Zainko (2008, p. 827) afirma que “o processo de construção histórica da avaliação da
educação superior no Brasil é marcado por avanços e retrocessos”, e Polidori (2009, p. 439)
ressalta que este processo “[...] apresenta uma trajetória bastante rica e, inclusive, inovadora
no que diz respeito à sua proposta de considerar o processo na sua totalidade.”
A Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) foi
responsável pela primeira iniciativa visando à avaliação da educação superior, que ocorreu em

Página 32 de 155
1976, no âmbito dos cursos de pós-graduação (INEP, 2009; Verhine, Dantas, & Soares,
2006). Em nível de graduação, a primeira proposta de avaliação foi criada pelo Ministério da
Educação (MEC) em 1983, ficando conhecida como Programa de Avaliação da Reforma
Universitária (PARU) e objetivando a gestão das IES, além da geração e disseminação do
conhecimento (Polidori, Marinho-Araujo, & Barreyro, 2006). Zainko (2008, p. 828) ressalta
que o PARU foi “[...] produzido a partir de levantamento de dados e apreciação crítica da
realidade da educação superior nacional, mediados por estudos, discussões e pesquisas, com a
finalidade de realizar uma avaliação comparativa de todo o sistema.”.
Por falta de apoio do próprio MEC, o PARU foi desativado no ano seguinte à sua criação e
substituído por iniciativas governamentais como a constituição da Comissão Nacional de
Reformulação da Educação Superior4 (CNRES), em 1985, e do Grupo Executivo da Reforma
da Educação Superior (GERES), em 1986 (Polidori, Marinho-Araujo, & Barreyro, 2006;
Bertolin, 2007; Zainko, 2008).
Em nível de graduação Zainko (2008) salienta que a CNRES idealizou as primeiras
políticas para gestão da qualidade do ensino superior brasileiro, apresentadas por meio do
relatório intitulado “Uma Nova Política para a Educação Superior”. Este relatório reforçou a
necessidade da criação de uma política racional de alocação de recursos públicos e indicou
algumas dimensões que balizaram as avaliações do ensino superior, tais como: avaliação dos
cursos, alunos, professores, servidores técnicos e administrativos; avaliação didático-
pedagógica do ensino; e avaliação das carreiras. Após a divulgação deste relatório, o MEC
criou o GERES (Bertolin, 2007). O GERES foi constituído por cinco membros que exerciam
funções no MEC e objetivavam elaborar uma proposta de reforma universitária fundamentada
no relatório da CNRES (Barreyro & Rothen, 2008).
Em 1993, após a atuação do GERES, surgiu o Programa de Avaliação Institucional das
Universidades Brasileiras (PAIUB), apoiado pela Secretaria de Educação Superior (SESu)
(Burlamaqui, 2008). O PAIUB foi uma proposta com um alto índice de aceitação pelas IES,
por ser centrado na autoavaliação a partir de um processo participativo e voluntário (Verhine,
Dantas, & Soares, 2006). Dias, Marchelli e Horiguela (2006) e Cordeiro et al. (2008)
ressaltam que o PAIUB considerou a autoavaliação institucional como etapa inicial do
processo de avaliação, sendo complementada pela avaliação externa. “Além disso, o PAIUB
partiu em busca de uma linguagem comum para todas as IES do país, por meio da criação de

4
Também conhecida como “Comissão dos Notáveis”.

Página 33 de 155
uma tabela mínima de indicadores institucionais para o ensino de graduação.” (Dias,
Marchelli, & Horiguela, 2006, p. 441).
Polidori, Marinho-Araujo e Barreyro (2006, p. 427) ressaltam que o PAIUB “foi a primeira
tentativa de implantação de um sistema nacional de avaliação institucional da educação
superior no país”, estando baseado em quatro etapas: (1) diagnóstico, construído a partir de
dados quantitativos sobre o curso em análise; (2) avaliação interna, contemplando a
autoavaliação realizada pela comunidade acadêmica do curso; (3) avaliação externa, realizada
pela comunidade acadêmica de várias IES, profissionais da área, representantes de entidades
científicas, empregadores, entre outros; e (4) reavaliação interna, feita a partir dos resultados
produzidos, propiciando uma análise participativa com a comunidade acadêmica do curso. Os
princípios do PAIUB foram centrados em aspectos como: compromisso institucional,
globalidade, comparabilidade, participação, respeito à identidade institucional, ausência de
premiações ou punições, adesão voluntária, legitimidade e continuidade do processo de
avaliação (Barreyro, 2006; Polidori, Marinho-Araujo, & Barreyro, 2006).
Embora Barreyro e Ristoff (2015) salientem que o PAIUB nunca foi formalmente extinto,
a literatura considera que este programa vigorou ativamente até meados do ano de 1995
(Barbosa, Freire, & Crisótomo, 2011; Hoffmann et al., 2014; Polidori, 2009), sofrendo
algumas críticas pelo fato de ser inconsequente (não gerar punições) e seus resultados não
serem publicizáveis, impossibilitando a criação de rankings (lista de posições) e a orientação
de financiamentos (Bertolin, 2007). Em adição, Amaral e Polidori (1999) ressaltam que dois
dos principais pontos fracos do PAIUB estavam relacionados à autonomia na definição das
próprias comissões internas de avaliação e à liberdade de cada IES em definir seu próprio
processo de avaliação, reduzindo a credibilidade e implicando na incomparabilidade dos
resultados obtidos por instituições distintas.
Em 1995 e 1996, por meio das Leis nº 9.131 (Brasil, 1995) e nº 9.394 (Brasil, 1996),
respectivamente, o MEC estabeleceu um novo mecanismo de avaliação, centrado no
desempenho dos estudantes concluintes: o Exame Nacional de Cursos (ENC, também
conhecido como “Provão”) (INEP, 2009). Pinto, Mello e Melo (2016, p. 91) afirmam que
“essa fase marcou o início da crescente ampliação do poder regulador federal para o controle
das atividades de ensino superior.”.
Dias Sobrinho (2010) salienta que o “Provão” se tratava basicamente de um exame escrito
aplicado nacionalmente aos estudantes concluintes de áreas pré-selecionadas anualmente pelo
MEC. “O Provão foi apresentado como um instrumento objetivo e, portanto, seus resultados

Página 34 de 155
podiam ser divulgados como indubitáveis e de efeitos inquestionáveis.” (Dias Sobrinho, 2010,
p. 205).
De acordo com Calderón, Poltronieri e Borges (2011) e INEP (2009), a partir das leis que
estabeleceram o “Provão”, foram progressivamente implementados mecanismos de avaliação
baseados em um teste misto de conhecimentos específicos (múltipla escolha e também
discursivo); um questionário sobre as condições socioeconômicas dos estudantes e suas
opiniões acerca das condições de ensino do curso frequentado; a Avaliação das Condições de
Oferta (ACO), posteriormente chamada de Avaliação das Condições de Ensino (ACE); e a
Avaliação Institucional. Bertolin (2007) esclarece que a ACE consistia em visitas in loco
feitas por especialistas e visava avaliar os cursos de graduação sob três aspectos: organização
didático-pedagógica, corpo docente e infraestrutura.
A primeira edição do “Provão” ocorreu em 1996 e avaliou três áreas de graduação:
administração, direito e engenharia, totalizando 616 cursos (Bertolin, 2007). Na sua última
aplicação, em 2003, participaram 435810 mil formandos em aproximadamente 6 mil cursos
de 26 áreas (Bittencourt, Casartelli, & Rodrigues, 2009; INEP, 2009).
Para Dias Sobrinho (2010, p. 204), “a implantação do Provão se fez repleta de
contradições”. Apesar da grande repercussão do exame, apoiado pela mídia, as críticas em
relação à sua metodologia de avaliação foram inúmeras (Barreyro, 2006; Rothen & Barreyro,
2011). As diferenças de concepções entre o seu antecessor – PAIUB – e o “Provão” foram
expressivas e impactaram na forma como a avaliação da educação superior estava sendo
moldada. Nesse sentido,

Cabe destacar que, enquanto no PAIUB a preocupação estava com a totalidade, com
o processo e com a missão da instituição na sociedade, no ENC a ênfase recai sobre
os resultados, com a produtividade, a eficiência, com o controle do desempenho
frente a um padrão estabelecido e com a prestação de contas. O PAIUB tem como
referência a globalidade institucional, aí compreendidas todas as dimensões e
funções das IES. O ENC tem como foco o curso, em sua dimensão de ensino, e tem
função classificatória, com vistas a construir bases para uma possível fiscalização,
regulação e controle, por parte do Estado, baseada na lógica de que a qualidade de
um curso é igual à qualidade de seus alunos. (INEP, 2009, p. 28).

Entre as principais críticas ao modelo avaliativo do “Provão”, Dias Sobrinho (2010)


ressalta: o enquadramento normativo e punitivo, associado às inúmeras exigências
burocráticas; a hierarquização dos cursos com base apenas no desempenho dos estudantes,
produzindo efeitos econômicos; o estabelecimento de critérios para distribuição de recursos e
prestígios; e a necessidade de obter uma posição cada vez mais alta na hierarquia dos cursos,

Página 35 de 155
principalmente no âmbito das IES privadas, induzindo práticas pedagógicas centradas
exclusivamente no bom desempenho do estudante no exame final.
A partir desses aspectos, Dias Sobrinho (2010, p. 207) ressalta que “o Provão não foi um
instrumento eficaz e rigoroso para a tomada de decisões relativas à regulação do sistema,
especialmente no que se refere às IES privadas que têm explícitos objetivos de lucro e que,
portanto, exigiriam vigilância maior quanto à qualidade científica e pedagógica e relevância
social de suas atividades educativas.”.
Segundo Rothen e Barreyro (2010, p. 25), ao iniciar seu mandato, o governo do ex-
presidente Luiz Inácio Lula da Silva (2003-2011) herdou, resumidamente, seis aspectos
relacionados à gestão da qualidade da educação superior:

1) A obrigatoriedade da renovação periódica do reconhecimento de cursos e do


credenciamento de IES;
2) A regulação do sistema vinculada à avaliação;
3) A consolidação da ideia de que um exame em larga escala é um indicador suficiente e
confiável para a avaliação da educação superior;
4) O represamento de processos de reconhecimentos de cursos e credenciamentos de IES;
5) A forte expansão da educação superior pela via da iniciativa privada; e
6) A consolidação da visão mercantil da educação superior.

Nesse cenário, em 2003, foi criada a Comissão Especial de Avaliação (CEA) com o
objetivo de elaborar um sistema de avaliação da qualidade do ensino superior, sendo
composta, principalmente, pelos idealizadores do PAIUB (CEA, 2003; Rothen & Barreyro,
2010; Pinto, Mello, & Melo, 2016). Esta comissão fundou os pilares sustentam o SINAES.
O documento com as primeiras diretrizes do SINAES foi divulgado ainda em 2003 e
intitulado “Bases para uma proposta de avaliação da educação superior” (CEA, 2003). Apesar
de não apresentar uma proposta consolidada, este documento fundamentou, posteriormente, a
implantação deste sistema.
Em síntese, Polidori (2009) afirma que a evolução do processo avaliativo do ensino
superior brasileiro pode ser dividida em quatro ciclos (Quadro 3.1).

Página 36 de 155
Quadro 3.1 – Ciclos e períodos do desenvolvimento do processo avaliativo da educação superior
brasileira.
Ciclos Período Descrição
Período do surgimento de várias iniciativas de organização de um processo de avaliação e
1º ciclo 1986 a 1992 da existência de avaliações isoladas no país, não se constituindo em uma avaliação de
caráter nacional (PARU, CNRES, GERES).
2º ciclo 1993 a 1995 Período de formulação de políticas avaliativas, marcado pela criação do PAIUB.
Período de consolidação e implementação das propostas governamentais, marcado pela
3º ciclo 1996 a 2003 criação do “Provão” e da ACE. Por fim, houve, ainda, algumas Portarias para regulamentar
e organizar a avaliação das IES.
Período marcado pela criação e implantação do SINAES, numa proposta de se desenvolver
4º ciclo 2003 a atual
uma avaliação formativa e que considerasse as especificidades das IES do país.
Fonte: Adaptado de Polidori (2009).

A par deste breve histórico sobre o processo de concepção e operacionalização do sistema


de gestão da qualidade do ensino superior brasileiro, a próxima seção busca aprofundar as
discussões sobre o SINAES e seus indicadores de qualidade.

3.2. SISTEMA NACIONAL DE AVALIAÇÃO DA EDUCAÇÃO SUPERIOR

Em 14 de agosto de 2004, o SINAES foi instituído por meio da Lei nº 10.861/2004 visando
“[...] assegurar o processo nacional de avaliação das IES, dos cursos de graduação e do
desempenho acadêmico de seus estudantes [...]” (Brasil, 2004, p. 1). Em adição, o artigo 1º
desta Lei ressalta que:

O SINAES tem por finalidades a melhoria da qualidade da educação superior, a


orientação da expansão da sua oferta, o aumento permanente da sua eficácia
institucional e efetividade acadêmica e social e, especialmente, a promoção do
aprofundamento dos compromissos e responsabilidades sociais das instituições de
educação superior, por meio da valorização de sua missão pública, da promoção dos
valores democráticos, do respeito à diferença e à diversidade, da afirmação da
autonomia e da identidade institucional (Brasil, 2004, p. 3).

Pinto, Mello e Melo (2016, p. 92) salientam que o SINAES compreende “uma concepção
de avaliação que se constitui em instrumento de política educacional, voltada para a
construção e consolidação da qualidade, da participação e da ética na educação superior,
respeitando às diferentes identidades institucionais e regionais”.
Para ser operacionalizado como um sistema de avaliação coerente, Dias Sobrinho (2008,
p. 820) salienta que a proposta do SINAES consiste na articulação entre diversas dimensões
educativas e institucionais; diferentes metodologias, procedimentos, objetos e objetivos;

Página 37 de 155
instâncias da comunidade acadêmico-científica e do Estado; autoavaliação e avaliação
externa; autorregulação e regulação; entre outros aspectos.
Brito (2008) destaca que, por compreender um sistema, o SINAES abrange um conjunto de
componentes e subcomponentes interligados que viabilizam a avaliação da educação superior,
sendo estes:

1) Avaliação institucional: fundamentada na autoavaliação da IES, feita internamente por


cada Comissão Própria de Avaliação (CPA) e por avaliadores institucionais
capacitados pelo INEP nos moldes do SINAES, por meio da avaliação externa in loco;
2) Avaliação de curso: feita in loco por avaliadores externos, pelos estudantes,
professores e pelo coordenador do curso, além da participação da CPA;
3) Avaliação do desempenho dos estudantes ingressantes e concluintes: embasada na
aplicação de um exame em larga escala a todos os concluintes da área avaliada.

À luz dessas considerações, Nunes, Duarte e Pereira (2017, p. 375) ressaltam que:

Os resultados dessas avaliações possibilitam traçar um panorama da qualidade dos


cursos e instituições de educação superior do país, sendo os dados obtidos utilizados
para orientação institucional e efetividade acadêmica e social; pelos órgãos
governamentais para orientar políticas públicas; e pelos estudantes, pais de alunos,
instituições acadêmicas e público em geral para orientar suas decisões quanto à
realidade dos cursos e das instituições. Podem ainda contribuir para a formulação de
políticas institucionais, possibilitando a articulação do planejamento e avaliação, e,
consequentemente, a melhoria do desenvolvimento institucional.

De acordo com os incisos I, II e III do artigo nº 33b da Portaria Normativa do MEC nº 23,
publicada em 20 de dezembro de 2016, os aspectos avaliados pelo SINAES são traduzidos em
três indicadores de qualidade, calculados pelos INEP: IGC, que reflete a qualidade da IES,
considerando os cursos de graduação e pós-graduação; CPC, relacionado à qualidade dos
cursos de graduação; e, Conceito ENADE, obtido a partir dos resultados da aprendizagem dos
estudantes em relação aos conhecimentos gerais e específicos da área de estudo (MEC, 2016,
p. 75). Os três indicadores de qualidade da educação superior são computados em uma escala
contínua e, posteriormente, convertidos para uma escala discreta de 1 a 5, sendo 3 o conceito
satisfatório mínimo e 5 o melhor conceito (MEC, 2016)5. Os cursos que ainda não passaram

5
Cabe salientar que o cálculo destes indicadores é baseado na curva de Gauss (distribuição normal ou curva
normal), adotando-se a média igual a três e calculando-se o desvio padrão sem a exclusão dos valores extremos.
Informações detalhadas sobre esse cálculo são apresentadas em Gregory (2013).

Página 38 de 155
pelo processo de avaliação do SINAES ou não possuem todos os insumos necessários para o
cálculo dos indicadores recebem a indicação “Sem Conceito” (SC).
A Tabela 3.1 mostra os critérios adotados pelo INEP para a conversão desses valores.

Tabela 3.1 – Parâmetros de conversão dos conceitos contínuos e discretos do Conceito ENADE, CPC
e IGC.
Faixas dos conceitos Faixas dos conceitos
discretos contínuos
1 0,000 ≤ conceito < 0,945
2 0,945 ≤ conceito < 1,945
3 1,945 ≤ conceito < 2,945
4 2,945 ≤ conceito < 3,945
5 3,945 ≤ conceito ≤ 5,000
Fonte: INEP (2015a)

Em relação a estes indicadores, alguns autores criticam: a ênfase dada unicamente aos
resultados do ENADE, como pilar principal do sistema (Brito, 2008; Dias Sobrinho, 2010;
Francisco et al., 2015; Polidori, 2009); a criação de rankings a partir dos conceitos obtidos,
estimulando competitividade entre IES e a avaliação da qualidade educacional via mercado
(Barreyro, 2008; Polidori, 2009; Dias Sobrinho, 2008; Calderón, Poltronieri, & Borges,
2011); e a diminuição das avaliações in loco, sinalizando conformidade e acomodação a partir
dos resultados (Giolo, 2008; Barreyro & Rothen, 2014).
No que diz respeito ao SINAES, alguns autores também discutem e/ou criticam as
perspectivas de avaliação adotadas (formativa/emancipatória ou somativa/regulatória) e
alegam que o sistema tem sofrido mudanças intensas desde sua concepção inicial,
fundamentada nos princípios do PAIUB, principalmente após à criação do CPC e do IGC, em
2008 (Barreyro & Rothen, 2008; Hoffmann et al., 2014; Polidori, Marinho-Araujo, &
Barreyro, 2006; Dias Sobrinho, 2010; Calderón, Poltronieri, & Borges, 2011).
Em relação às constantes adaptações do SINAES, principalmente após a criação CPC e ao
IGC, Verhine (2010, p. 634) defende que estes ajustes “representam avanços, pois facilitam a
exequibilidade de um sistema que, por um lado, é abrangente e complexo, e, por outro, é
fundamental para a consolidação, no país, de uma educação superior de qualidade.”. Em
adição, Verhine (2010, p. 647) salienta que a criação desses indicadores não contradiz a
proposta inicial do SINAES, pelo contrário, “permite a implementação plena da concepção
original, viabilizando a operacionalização de um modelo extremamente complexo e dando
conta da dimensão não adequadamente abordada na documentação norteadora - a da avaliação
para fins de regulação”.

Página 39 de 155
Segundo Verhine, Dantas e Soares (2006, p. 307), “é imprescindível reconhecer que
nenhum processo avaliativo, especialmente considerando-se aplicação de instrumentos em
larga escala, é capaz de cobrir todas as dimensões que compõem o conceito ‘Qualidade da
Educação Superior’”. Nesse sentido, apesar de reconhecer a importância das críticas ao
SINAES, principalmente em relação à adequação desse sistema à realidade brasileira e às
possibilidades de aperfeiçoamento das estratégias de avaliação, o conteúdo desta dissertação
não almeja discutir, nem mesmo pormenorizar, aspectos ligados às concepções pedagógicas,
filosóficas, avaliativas ou políticas relacionadas ao SINAES. Considerando a existência e a
aplicabilidade dos três indicadores de qualidade, os objetivos deste trabalho estão centrados
na investigação dos panoramas quantitativo e qualitativo do ensino de EP no Brasil, tanto em
relação ao desempenho dos estudantes quanto no que diz respeito à percepção deles sobre as
condições do processo formativo.
A Figura 3.1 apresenta, resumidamente, os componentes que permeiam o funcionamento
do SINAES e a relação entre os seus indicadores de qualidade. As próximas subseções
apresentam detalhes sobre as definições e os componentes utilizados nos cálculos de cada
indicador.

Figura 3.1 – Síntese dos componentes do cálculo dos indicadores de qualidade da educação superior
brasileira.

Fonte: Adaptado de INEP (2016b).

Página 40 de 155
A Figura 3.1 mostra a relação entre os três indicadores de qualidade e os seus respectivos
insumos, que abrangem a avaliação da percepção dos estudantes, proveniente das respostas do
“Questionário do Estudante” (QE); o Indicador da Diferença entre os Desempenhos
Observado e Esperado dos estudantes concluintes e ingressantes (IDD6); a avaliação do corpo
docente; e a avaliação dos programas de pós-graduação. A seta cinza, apontando no sentido
Conceito ENADE-IGC, visa mostrar que os resultados do Conceito ENADE são insumos para
o cálculo do CPC e os resultados do CPC são insumos para o cálculo dos IGC. Em síntese,
considera-se que o desempenho dos estudantes reflete a qualidade do curso de graduação e a
qualidade das IES deriva da “soma da qualidade” dos seus cursos, a nível de graduação e pós-
graduação stricto sensu.
Desde a concepção inicial do SINAES novos índices e indicadores têm sido criados. À luz
disso, mesmo reconhecendo a relevância dos indicadores relacionados à avaliação in loco
(Conceito Institucional [CI] e Conceito do Curso [CC]) e do valor agregado do curso (IDD),
os resultados desta dissertação se restringem à avaliação do que o MEC explicitamente define
como indicadores de qualidade da educação superior brasileira na Portaria Normativa nº 23,
sendo eles: Conceito ENADE, CPC e IGC (MEC, 2016). A escolha e o estudo dos
indicadores que melhor transparecem a qualidade dos cursos de graduação e das IES estão
ligados à visão dos pesquisadores da área e à importância dada pela sociedade e pela
comunidade acadêmica. Destarte, cabe destacar que ao passo que muitos pesquisadores
exaltam os resultados do IDD e das avaliações internas, esses resultados são pouco divulgados
pela mídia e compreendidos pela sociedade e pela comunidade acadêmica, que reverenciam,
principalmente, os resultados do ENADE, divulgados por meio do Conceito ENADE.

6
O IDD é um indicador de qualidade que mede o valor agregado pelo curso ao desenvolvimento dos estudantes
concluintes, considerando seus desempenhos no ENADE e suas características de desenvolvimento ao ingressar
no curso de graduação avaliado (Freitas Jr., Cruz, & Sharland, 2008; Garcia, Nicolini, & Andrade, 2014; INEP,
2017a). Rothen e Barreyro (2011) salientam que quanto maior a diferença entre o desempenho dos estudantes
concluintes em relação aos ingressantes, mais bem-avaliados são os cursos. Informações detalhadas sobre a
concepção e o cálculo do IDD podem ser encontradas em Verhine (2010) e Bittencourt et al. (2008).

Página 41 de 155
3.2.1. Exame Nacional de Desempenho de Estudantes

O ENADE é o ponto de partida do SINAES e foi estabelecido por meio da Lei nº


10.861/2004 (Brasil, 2004), visando:

[...] aferir o desempenho dos estudantes em relação aos conteúdos programáticos


previstos nas diretrizes curriculares do respectivo curso de graduação, suas
habilidades para ajustamento às exigências decorrentes da evolução do
conhecimento e suas competências para compreender temas exteriores ao âmbito
específico de sua profissão, ligados à realidade brasileira e mundial e a outras áreas
do conhecimento. (Brasil, 2004, p. 3).

Diante desse desafio, o MEC considera o ENADE um componente curricular obrigatório


dos cursos de graduação, constando no histórico escolar dos estudantes selecionados para o
exame (Brasil, 2004). A Portaria Normativa do MEC nº 40, de 12 de dezembro de 2007,
republicada em 29 de dezembro de 2010, estabelece que o ENADE deverá ser realizado
anualmente, aplicando-se trienalmente para cada curso (MEC, 2010).
A primeira aplicação do ENADE ocorreu em 2004, possuindo um caráter amostral e
envolvendo estudantes ingressantes (com até 25 % da carga horária mínima do currículo do
curso concluída) e concluintes (com mais de 80 % da carga horária mínima do curso
concluída), sendo essa uma das principais diferenças em relação ao “Provão” (MEC, 2010;
Barreyro & Rothen, 2014). Nesse aspecto, ao contrário da visão de muitos autores, Brito
(2008) ressalta que o ENADE não é considerado o substituto do “Provão”, pois os exames
foram pensados com base em princípios e contextos distintos.
A partir de 2009, o ENADE começou a ser aplicado de forma censitária a todos os
concluintes dos cursos avaliados no período (INEP, 2016a). O artigo nº 33f da Portaria
Normativa do MEC nº 40 esclarece que “O ENADE será aplicado aos estudantes ingressantes
e concluintes de cada curso a ser avaliado, conforme lançados no Cadastro e-MEC,
observados os respectivos códigos e os locais de oferta informados.”. Por outro lado, o inciso
III desse mesmo artigo explica que “Os alunos ingressantes que tiverem realizado o Exame
Nacional do Ensino Médio (ENEM), aplicado com metodologia que permita comparação de
resultados entre edições do exame, poderão ser dispensados de realizar a prova geral do
ENADE, mediante apresentação do resultado válido.” (MEC, 2010, p. 27).
A prova do ENADE é dividida em duas partes: (1) Componente de Formação Geral
(CFG), igual para todos os estudantes dos cursos avaliados no período, visando verificar os
conhecimentos dos estudantes sobre aspectos relacionados às realidades brasileira e mundial;

Página 42 de 155
e (2) Componente de Conhecimentos Específicos (CCE), elaborada de acordo com as
diretrizes curriculares nacionais para cada curso e voltada para aferir as competências, as
habilidades e os conteúdos agregados durante a formação (MEC, 2010).
Em relação ao formato da prova, a CFG é composta por oito questões objetivas de múltipla
escolha e duas questões discursivas com pesos iguais a 60 % e 40 %, respectivamente. As
questões discursivas da CFG são corrigidas levando em consideração o conteúdo, com peso
igual a 80 %, e aspectos referentes à língua portuguesa (ortográficos, textuais,
morfossintáticos e vocabulares), com peso igual a 20 % (INEP, 2016a). A CCE da área
totaliza 30 questões, sendo: 27 questões objetivas de múltipla escolha e três discursivas, com
pesos iguais a 85 % e 15 %, respectivamente (INEP, 2016a).
Durante o período de aplicação do ENADE o INEP também avalia as condições
socioeconômicas dos estudantes e a percepção deles a respeito das condições de ensino,
considerando três aspectos: organização didático-pedagógica (ODP); oportunidades de
ampliação da formação acadêmica e profissional (OAF); e infraestrutura e instalações físicas
(IIF). Essas informações são coletadas por meio do QE (INEP, 2016a).
Desde 2011 o QE passou a ser obrigatoriamente preenchido pelos estudantes selecionados
para o ENADE. O preenchimento é feito on-line por meio da plataforma do INEP, 30 dias
antes da realização do exame (Griboski, 2012; INEP, 2014). Apesar de serem obtidas durante
o período que antecede o ENADE, as informações coletadas por meio do QE não fazem parte
do cálculo do Conceito ENADE. A Tabela 3.2 apresenta, de forma resumida, as duas
componentes do cálculo do Conceito ENADE 2014.

Tabela 3.2 – Composição do Conceito ENADE 2014 e pesos das suas componentes.
Componentes Pesos
Nota padronizada do desempenho dos estudantes no CFG 0,25
Nota padronizada do desempenho dos estudantes no CCE 0,75
Fonte: INEP (2015b)

Ressalta-se que até 2014 “o Conceito ENADE foi calculado para cada unidade de
observação, constituída pelo conjunto de cursos que compõe uma área de avaliação específica
do ENADE (abrangência/enquadramento), de uma mesma Instituição de Educação Superior
(IES) em um determinado município” (INEP, 2016a, p. 12–13). Em outras palavras, os cursos
enquadrados na mesma área de avaliação, ofertados pela mesma IES e localizados no mesmo
município, obtiveram o mesmo Conceito ENADE, computado a partir da avaliação conjunta
do desempenho dos seus estudantes.

Página 43 de 155
3.2.2. Conceito Preliminar de Curso

A avaliação dos cursos de graduação objetiva verificar as condições de ensino oferecidas


aos estudantes, considerando aspectos como o perfil do corpo docente, a organização
didático-pedagógica do curso e a infraestrutura física da IES (Brasil, 2004, Art. 4º). O CPC
foi instituído pela Portaria Normativa do MEC nº 4, de 05 de agosto de 2008 (MEC, 2008a), e
é calculado no ano seguinte à avaliação do ENADE, “[...] a partir de informações sobre o
desempenho dos estudantes concluintes e as condições de oferta do processo formativo.”
(MEC, 2016, p. 75).
O CPC subsidia o processo de reconhecimento e renovação dos cursos de graduação,
fundamentando a tomada de decisão dos avaliadores do INEP. Desse modo, o artigo nº 3 da
Portaria Normativa do MEC nº 4 esclarece que “os cursos que tenham obtido conceito
preliminar insatisfatório deverão obrigatoriamente submeter-se à avaliação in loco, nos
processos de renovação de reconhecimento” (MEC, 2008a, p. 19). Em contraste, os cursos
com CPC 5 ficam dispensados de visitas in loco tanto na renovação quanto no
reconhecimento (MEC, 2008a, Art. 2º) e os cursos com CPC 3 ou 4 podem requerer a visita in
loco no prazo de 60 dias após a divulgação, a qual poderá confirmar ou alterar o CPC
computado anteriormente (MEC, 2008a, Art. 2º, Inciso 3º). Com base nesse indicador o MEC
buscou reduzir o número de visitas in loco, reduzindo os gastos, focando nos cursos com
maior necessidade de acompanhamento e viabilizando a operacionalização do SINAES.
As informações e os procedimentos técnicos utilizados no cálculo do CPC, computado em
2014, foram divulgados pelo INEP por meio da Nota Técnica DAES/INEP nº 58/2015 (INEP,
2015a). De acordo com o INEP (2015a, p. 1), “O CPC é constituído de oito componentes,
agrupados em três dimensões que se destinam a avaliar a qualidade dos cursos de graduação:
(a) desempenho dos estudantes, (b) corpo docente e (c) condições oferecidas para o
desenvolvimento do processo formativo.”. A Tabela 3.3 apresenta, resumidamente, a
composição do CPC e os pesos das suas dimensões e componentes7.

7
De acordo com Ikuta (2016), as ponderações do CPC são estabelecidas por meio de estudos realizados pela
equipe técnica do INEP, e mediante discussões com a Secretaria de Regulação e Supervisão da Educação
Superior (SERES), Comissão Nacional de Avaliação da Educação Superior (CONAES) e representantes de IES
públicas e privadas interessadas.

Página 44 de 155
Tabela 3.3 – Composição do CPC e pesos das suas dimensões e componentes.
Dimensões Componentes Pesos (%)
Nota dos concluintes no ENADE 20,0
Desempenho dos
Nota do Indicador da Diferença entre os 55,0
estudantes 35,0
Desempenhos Observado e Esperado (IDD)
Nota de proporção de docentes com título de mestre 7,50
Corpo docente Nota de proporção de docentes com título de doutor 15,0 30,0
Nota do regime de trabalho 7,50
Percepção dos Nota referente à organização didático-pedagógica 7,50
discentes sobre as Nota referente à infraestrutura e instalações físicas 5,0
15,0
condições do Nota referente às oportunidades de ampliação da
processo formativo 2,5
formação acadêmica e profissional
Fonte: INEP (2015a).

Na Tabela 3.3 verifica-se que o principal insumo do CPC está relacionado aos resultados
da aprendizagem dos discentes (Conceito ENADE e valor agregado do curso [IDD]),
representando 55,0 % deste conceito. As respostas do QE equivalem a 15 % do CPC.
Considerando que a avaliação dessas respostas é parte dos resultados desta dissertação,
informações mais detalhadas sobre o QE serão apresentadas no Capítulo 4 (Métodos e
Planejamento da Pesquisa).

3.2.3. Índice Geral de Cursos

O IGC foi instituído pela Portaria Normativa do MEC nº 12, de 5 de setembro de 2008
(MEC, 2008b), tendo como um dos objetivos a consolidação das informações dos cursos
superiores constantes nos cadastros, censos e avaliações oficiais realizadas pelo INEP e pela
CAPES. Este indicador é divulgado anualmente (MEC, 2008b). Apesar de ser um dos
indicadores que mais se distancia da realidade qualitativa de um curso em específico dentro
de determinada IES, este indicador foi escolhido para compor o panorama qualitativo por
possibilitar o delineamento de conclusões acerca do perfil das IES que ofertam os cursos de
EP a partir das suas organizações acadêmicas, categorias e esferas administrativas.
Os resultados do IGC derivam da avaliação das IES e objetivam identificar o perfil e o
significado da atuação dessas instituições, por meio de atividades, cursos, programas, projetos
e setores (Brasil, 2004, Art. 3º, p. 3), servindo de base para realização da avaliação
institucional externa (MEC, 2009). A divulgação mais recente do IGC é referente ao ano de
2015 e os insumos e procedimentos técnicos realizados no cálculo desse indicador são
apresentados pelo INEP por meio da Nota Técnica nº 4/2017/CGCQES/DAES (INEP,
2017b).

Página 45 de 155
De acordo com o INEP (2017b), o cálculo do IGC 2015 se baseou na média das notas
contínuas dos CPC no triênio 2013-2014-2015, ponderadas pela quantidade de matrículas em
cada curso, obtidas por meio do Censo da Educação Superior, para o mesmo período; e nas
médias dos conceitos dos cursos de mestrado e doutorado stricto sensu atribuídos pela
CAPES na avaliação trienal de 20138, ponderadas pela quantidade de matrículas em cada
curso no ano de 2015.
De acordo com Barreyro e Rothen (2014, p. 71), a instituição do IGC “consolidou a
influência na educação superior da tendência internacional de uso de indicadores.”. Os autores
ainda salientam que alguns dos questionamentos a respeito do IGC estão relacionados à
utilização dos CPC, que procedem dos resultados do Conceito ENADE. Em síntese, os
autores concluem que no IGC “pressupõe-se que uma instituição é a somatória de seus
cursos” (Barreyro & Rothen, 2014, p. 71).
Com base no exposto, ressalta-se que as críticas em relação ao IGC ocorrem,
principalmente, pela ênfase que a mídia tem dado a esse indicador, criando um ranking –
antes de cursos e agora de IES – e estimulando a competitividade entre elas, principalmente
no setor privado. Nesse sentido, Barreyro (2008) receia que divulgação do IGC se consolide
como um instrumento publicitário ao invés de um parâmetro para avaliar a qualidade do
ensino.

3.3. CONSIDERAÇÕES FINAIS DO CAPÍTULO

Este capítulo apresentou os principais aspectos relacionados à gestão da qualidade do


ensino superior no Brasil. As informações relacionadas ao SINAES e aos seus três
indicadores de qualidade da educação superior brasileira almejam embasar as discussões
apresentadas nos capítulos consecutivos, que buscam apresentar os resultados do SINAES no
contexto dos cursos de graduação em EP.
Os indicadores de qualidade do SINAES são os principais parâmetros qualitativos da
educação superior brasileira. Apesar das críticas em relação à concepção desse sistema e das
metodologias avaliativas utilizadas, deve-se reconhecer que um sistema de avaliação
educacional com tamanha abrangência e complexidade dificilmente atenderá às

8
Para o cálculo do IGC, considerando que a CAPES avalia os programas de mestrado e doutorado em uma escala
de 3 a 7, o INEP realiza a conversão dessa escala para valores entre 4 e 5, considerando as seguintes relações:
cursos de pós-graduação com conceito CAPES igual a 3 recebem a nota 4; cursos de pós-graduação com
conceito CAPES igual a 4 recebem a nota 4,5; e cursos de pós-graduação com conceito CAPES igual a 5, 6 ou 7
recebem a nota 5. (INEP, 2017b)

Página 46 de 155
especificidades de cada IES e de cada curso de graduação. Nesses termos, ressalta-se que as
constantes mudanças no processo avaliativo do SINAES são tentativas de adequação deste
sistema à diversidade das IES e dos cursos de graduação no Brasil.

Página 47 de 155
Capítulo 4____________________________
Métodos e planejamento da pesquisa

Este capítulo discorre sobre os aspectos relacionados à classificação metodológica da


pesquisa, ao planejamento das etapas de acordo com os objetivos específicos, às fontes de
coleta dos dados e ao detalhamento do processo de obtenção dos resultados.
A determinação correta da abordagem, dos métodos e das técnicas de uma pesquisa define
a qualidade do resultado final do trabalho, bem como sua possibilidade de reaplicação e
geração do conhecimento (Cauchick Miguel, 2007). Para Richardson (2012, p. 70), “método
em pesquisa significa a escolha de procedimentos sistemáticos para a descrição e explicação
de fenômenos”.

4.1. CLASSIFICAÇÃO METODOLÓGICA DA PESQUISA

Cauchick Miguel (2007) salienta que as tipologias de pesquisa variam e podem ser
classificadas de diversas maneiras. Os aspectos metodológicos dessa pesquisa se baseiam nas
classificações sugeridas por Marconi e Lakatos (2010), Gil (2008), Gerhardt e Silveira (2009),
Silva e Menezes (2005) e Cauckich Miguel (2012).
Gil (2008) aponta que a pesquisa pode ser classificada como básica (pura) ou aplicada,
considerando sua natureza. A pesquisa aplicada “objetiva gerar conhecimentos para aplicação
prática, dirigidos à solução de problemas específicos” (Gerhardt & Silveira, 2009, p. 35) e a
pesquisa básica visa gerar novos conhecimentos, úteis para o avanço da área estudada e sem
aplicação prática prevista. Esta pesquisa classifica-se como aplicada, pois os resultados visam
gerar informações norteadoras sobre o panorama dos cursos de EP no Brasil e explorar
aspectos relacionados à sua qualidade, os quais são passíveis de aplicação prática.
Em relação aos objetivos, Gil (2008) classifica as pesquisas como: exploratórias, cuja
principal finalidade é “[...] desenvolver, esclarecer e modificar conceitos e ideias, tendo em
vista a formulação de problemas mais precisos ou hipóteses pesquisáveis para estudos
posteriores” (p. 27); descritivas, visando à “[...] descrição das características de determinada
população ou fenômeno ou o estabelecimento de relações entre variáveis.” (p. 28); e

Página 48 de 155
explicativas, que possuem “como preocupação central identificar os fatores que determinam
ou que contribuem para a ocorrência dos fenômenos” (p. 28). Gil (2008) salienta que as
pesquisas descritivas estão voltadas para o estudo de associações entre variáveis e,
consequentemente, a descoberta de uma nova visão para o problema, podendo ser
classificadas também como exploratórias. Nesses termos, este estudo classifica-se como
exploratório e descritivo, pois visa investigar a qualidade do ensino de engenharia de
produção no Brasil a partir dos resultados do SINAES e da percepção dos discentes sobre as
condições do processo formativo.
Quanto à abordagem, as pesquisas podem ser quantitativas ou qualitativas. Silva e
Menezes (2005, p. 31) frisam que “a pesquisa qualitativa não se preocupa com
representatividade numérica, mas, sim, com o aprofundamento da compreensão de um grupo
social, de uma organização, etc.”. Em contraste, na pesquisa quantitativa “[...] tudo pode ser
quantificável, o que significa traduzir em números opiniões e informações para classificá-las e
analisá-las. Requer o uso de recursos e de técnicas estatísticas.” (Silva & Menezes, 2005,
p. 31). À luz disso, este estudo se classifica como quantitativo, pois se baseia na aplicação de
testes estatísticos para avaliar dados numéricos, gerar resultados e delinear conclusões.
Por fim, em relação aos procedimentos técnicos, este estudo se baseia: (1) na pesquisa
documental, na medida em que utiliza normas e documentos emitidos por órgãos oficiais
(MEC, Congresso Nacional, Presidência da República, IES, entre outros); (2) na pesquisa
bibliográfica, desenvolvida a partir da investigação dos materiais já publicados,
principalmente de livros e artigos científicos (Marconi & Lakatos, 2010); e (3) na aplicação
das estatísticas descritiva e inferencial.

4.2. PLANEJAMENTO DA PESQUISA

De acordo com Richardson (2012, p. 138), o plano de pesquisa norteia o processo de


investigação científica, pois “permite obter respostas aos problemas de pesquisa e controlar os
erros que podem ser produzidos por diferenças entre os sujeitos da pesquisa, pelos
instrumentos utilizados ou pela influência do próprio pesquisador.” Este plano deve conter
todas as etapas da pesquisa, incluindo desde a formulação do problema ou hipóteses até a
análise dos dados.
O planejamento da pesquisa representa o caminho percorrido pelo pesquisador para
concretização dos objetivos específicos e, consequentemente, o alcance do objetivo geral do

Página 49 de 155
trabalho (Marconi & Lakatos, 2010). “Os planos de pesquisa preparam-se para permitir ao
pesquisador responder às indagações da pesquisa, da melhor forma possível, em termos de
validade, precisão, objetividade e economia” (Richardson, 2012, p. 139).
Este estudo foi planejado mediante o desenvolvimento de duas etapas, as quais se
desdobram em quatro fases sucessivas e inter-relacionadas. Cada fase da pesquisa está
relacionada a um dos objetivos específicos do trabalho, delineados a partir das perguntas da
pesquisa (Figura 4.1).

Figura 4.1 – Estrutura do planejamento da pesquisa.

Página 50 de 155
4.3. FONTES DE DADOS

As informações utilizadas para compor as bases de dados desta pesquisa são provenientes
do MEC, por meio do sistema e-MEC9 (MEC, 2017) e dos microdados10 do ENADE, e do
INEP, através das Sinopses Estatísticas da Educação Superior (Censo da Educação Superior)
para os anos de 2011 a 201611 (INEP, 2016c). O sistema e-MEC unifica todas as informações
das IES e cursos de graduação no Brasil.
As informações dos cursos de EP foram extraídas do sistema e-MEC no dia 02 de outubro
de 2017. Em relação aos indicadores CPC e ao ENADE, 98,3 % dos resultados são referentes
à última avaliação dos cursos de EP, realizada pelo INEP em 2014. Os demais cursos que não
participaram da avaliação em 2014 possuem estes indicadores provenientes de avaliações
anteriores (2008 ou 2011). Os resultados do IGC são advindos da avaliação realizada em
2015, pois os dados referentes a 2016 não foram divulgados pelo INEP.
O Quadro 4.1 apresenta as variáveis que compõem a principal base de dados do estudo,
sendo estas divididas em três categorias: informações das IES, informações dos cursos de EP
e indicadores de qualidade.

9
O sistema e-MEC pode ser acessado através do endereço: http://emec.mec.gov.br/.
10
Os microdados compõem o menor nível de desagregação de dados recolhidos por pesquisas, avaliações e
exames realizados pelo INEP, estando disponíveis no endereço: http://inep.gov.br/microdados.
11
As Sinopses Estatísticas da Educação Superior são disponibilizadas pelo INEP através no endereço:
http://inep.gov.br/sinopses-estatisticas-da-educacao-superior.

Página 51 de 155
Quadro 4.1 – Variáveis utilizadas para composição da base de dados do estudo.
Categoria Nome da variável Descrição
Código da IES Código da IES no e-MEC.
Instituição Nome da IES.
Sigla da IES Sigla da IES.
Categ. Administrativa Categoria administrativa: Pública ou Privada.
Esfera Administrativa Esfera administrativa: federal, estadual, municipal ou privada.
Informações Organização acadêmica: Universidade; Faculdade; Centro
das IES Org. Acadêmica Universitário; Centro Federal de Educação Tecnológica; e Instituto
Federal de Educação, Ciência e Tecnologia.
UF da IES Unidade da Federação da IES.
Região da IES Região da IES: Norte, Nordeste, Centro-Oeste, Sudeste e Sul.
Município da IES Município da IES.
Situação Situação da IES: Ativa ou Inativa.
Código Curso Código do curso no e-MEC.
Nome do Curso Nome do curso no e-MEC.
Modalidade Modalidade do curso: presencial ou a distância.
Informações
Vagas Autorizadas Quantidade de vagas autorizadas pelo MEC
dos cursos de
Município do curso Município do curso.
EP
UF do curso Unidade da Federação do curso.
Região do curso Região do curso: Norte, Nordeste, Centro-Oeste, Sudeste e Sul.
Código do município Código do município no e-MEC.
ENADE – Discreto Conceito ENADE 2014 em escala discreta.
Indicadores de ENADE – Contínuo Conceito ENADE 2014 em escala contínua.
qualidade dos
CPC – Discreto Conceito CPC 2015 em escala discreta.
cursos de EP e
CPC – Contínuo Conceito CPC 2015 em escala contínua.
suas
respectivas IES IGC – Discreto Conceito IGC 2015 em escala discreta.
IGC – Contínuo Conceito IGC 2015 em escala contínua.

Embora o MEC considere o conceito “3” como o mínimo satisfatório para os indicadores
de qualidade, para refinar os resultados e delinear conclusões mais precisas este trabalho
considera três níveis de qualidade: insatisfatório (Conceitos ENADE 1 e 2), satisfatório
(Conceito ENADE 3) e excelente (Conceitos ENADE 4 e 5) (Melo et al., 2017).
Enquanto os três conceitos são utilizados para traçar o panorama qualitativo dos cursos de
EP (Capítulo 5), apenas o Conceito ENADE 2014 é utilizado como parâmetro para avaliação
e classificação dos cursos nos três níveis de qualidade supracitados, pois não possui influência
das respostas do QE (Tabela 3.2), ao contrário do CPC e, consequentemente, do IGC.
O estudo considerou apenas as respostas do QE aplicado em 2014 12 e, consequentemente,
os cursos cujos estudantes responderam o questionário no período estabelecido pelo INEP.
Além de ser a avaliação mais recente, o estudo longitudinal considerando as respostas do QE
e os conceitos obtidos em avaliações anteriores (2005, 2008, 2011) se torna pouco
informativo devido ao fato deste questionário ter sofrido adaptações ao longo dos anos e
apresentar diferentes versões.

12
Todas as versões do QE, desde 2004, estão disponíveis no portal do INEP
(http://portal.inep.gov.br/questionario-do-estudante).

Página 52 de 155
4.3.1. Questionário do Estudante

O QE é um instrumento de coleta de dados utilizado pelo INEP para delinear o panorama


socioeconômico dos estudantes selecionados para o ENADE e investigar a percepção desses
agentes acerca das condições de ensino oferecidas pelos seus respectivos cursos de graduação.
Polidori, Marinho-Araujo e Barreyro (2006, p. 433) ressaltam que o QE “[...] investiga a
percepção dos estudantes frente à sua trajetória no curso e na IES, por meio de questões
objetivas que exploram a função social da profissão e os aspectos fundamentais da formação
profissional.”.
O questionário completo possui 68 itens (Anexo A), sendo os 26 primeiros relacionados às
características socioeconômicas dos estudantes e os demais voltados à percepção sobre as
condições do processo formativo. Este estudo avalia apenas os 42 itens relacionados à
percepção dos estudantes.
Os itens são avaliados em uma escala de concordância do tipo Likert 13, com 6 pontos,
sendo “1” equivalente a “discordo totalmente” e “6” a “concordo totalmente”. Além disso, os
estudantes podem escolher as opções “Não se aplica” ou “Não sei responder”. Dada a
abordagem quantitativa deste estudo, estas duas últimas opções foram desconsideradas.
Em 2014, após realizar uma análise fatorial pelo método de componentes principais com
rotação varimax, utilizando a matriz de correlações policóricas, o INEP categorizou os 42
itens em três dimensões: ODP, IIF e OAF (Quadro 4.2) (INEP, 2015a).

13
A escala ordinal de Likert foi criada por Rensis Likert em 1932 (Likert, 1932). Esta escala é usada para obter
as preferências ou grau de acordo dos participantes a partir de uma declaração ou conjunto de declarações
(Betram, 2009).

Página 53 de 155
Quadro 4.2 – Itens e dimensões do QE 2014.
Item Descrição do item Dim.
i27 As disciplinas cursadas contribuíram para sua formação integral, como cidadão e profissional. ODP
Os conteúdos abordados nas disciplinas do curso favoreceram sua atuação em estágios ou em atividades de
i28 ODP
iniciação profissional.
As metodologias de ensino utilizadas no curso desafiaram você a aprofundar conhecimentos e desenvolver
i29 ODP
competências reflexivas e críticas.
i30 O curso propiciou experiências de aprendizagem inovadoras. ODP
i31 O curso contribuiu para o desenvolvimento da sua consciência ética para o exercício profissional. ODP
i32 No curso você teve oportunidade de aprender a trabalhar em equipe. ODP
i33 O curso possibilitou aumentar sua capacidade de reflexão e argumentação. ODP
O curso promoveu o desenvolvimento da sua capacidade de pensar criticamente, analisar e refletir sobre soluções
i34 ODP
para problemas da sociedade.
i35 O curso contribuiu para você ampliar sua capacidade de comunicação nas formas oral e escrita. ODP
i36 O curso contribuiu para o desenvolvimento da sua capacidade de aprender e atualizar-se permanentemente. ODP
i37 As relações professor-aluno ao longo do curso estimularam você a estudar e aprender. ODP
Os planos de ensino apresentados pelos professores contribuíram para o desenvolvimento das atividades
i38 ODP
acadêmicas e para seus estudos.
As referências bibliográficas indicadas pelos professores nos planos de ensino contribuíram para seus estudos e
i39 ODP
aprendizagens.
i40 Foram oferecidas oportunidades para os estudantes superarem dificuldades relacionadas ao processo de formação. ODP
i41 A coordenação do curso esteve disponível para orientação acadêmica dos estudantes. IIF
i42 O curso exigiu de você organização e dedicação frequente aos estudos. ODP
Foram oferecidas oportunidades para os estudantes participarem de programas, projetos ou atividades de extensão
i43 OAF
universitária.
Foram oferecidas oportunidades para os estudantes participarem de projetos de iniciação científica e de atividades
i44 OAF
que estimularam a investigação acadêmica.
i45 O curso ofereceu condições para os estudantes participarem de eventos internos e/ou externos à instituição. OAF
i46 A instituição ofereceu oportunidades para os estudantes atuarem como representantes em órgãos colegiados. OAF
i47 O curso favoreceu a articulação do conhecimento teórico com atividades práticas. ODP
As atividades práticas foram suficientes para relacionar os conteúdos do curso com a prática, contribuindo para sua
i48 ODP
formação profissional.
i49 O curso propiciou acesso a conhecimentos atualizados e/ou contemporâneos em sua área de formação. ODP
i50 O estágio supervisionado proporcionou experiências diversificadas para a sua formação. ODP
As atividades realizadas durante seu trabalho de conclusão de curso contribuíram para qualificar sua formação
i51 ODP
profissional.
i52 Foram oferecidas oportunidades para os estudantes realizarem intercâmbios e/ou estágios no país. OAF
i53 Foram oferecidas oportunidades para os estudantes realizarem intercâmbios e/ou estágios fora do país. OAF
i54 Os estudantes participaram de avaliações periódicas do curso (disciplinas, atuação dos professores, infraestrutura). IIF
As avaliações da aprendizagem realizadas durante o curso foram compatíveis com os conteúdos ou temas
i55 ODP
trabalhados pelos professores.
i56 Os professores apresentaram disponibilidade para atender os estudantes fora do horário das aulas. IIF
i57 Os professores demonstraram domínio dos conteúdos abordados nas disciplinas. ODP
Os professores utilizaram tecnologias da informação e comunicação (TICs) como estratégia de ensino (projetor
i58 IIF
multimídia, laboratório de informática, ambiente virtual de aprendizagem).
i59 A instituição dispôs de quantidade suficiente de funcionários para o apoio administrativo e acadêmico. IIF
i60 O curso disponibilizou monitores ou tutores para auxiliar os estudantes. IIF
i61 As condições de infraestrutura das salas de aula foram adequadas. IIF
i62 Os equipamentos e materiais disponíveis para as aulas práticas foram adequados para a quantidade de estudantes. IIF
i63 Os ambientes e equipamentos destinados às aulas práticas foram adequados ao curso. IIF
i64 A biblioteca dispôs das referências bibliográficas que os estudantes necessitaram. IIF
i65 A instituição contou com biblioteca virtual ou conferiu acesso a obras disponíveis em acervos virtuais. IIF
As atividades acadêmicas desenvolvidas dentro e fora da sala de aula possibilitaram reflexão, convivência e
i66 ODP
respeito à diversidade.
i67 A instituição promoveu atividades de cultura, de lazer e de interação social. OAF
A instituição dispôs de refeitório, cantina e banheiros em condições adequadas que atenderam as necessidades dos
i68 IIF
seus usuários.
Notas: ODP: organização didático-pedagógica; OAF: oportunidades de ampliação da formação acadêmica e profissional;
IIF: infraestrutura e instalações físicas.

Dentre os itens do Quadro 4.2, 23 (54,8 %) são relacionados à ODP, enquanto apenas sete
(16,7 %) são associados às OAF. Em adição, infere-se que ao longo do questionário a ordem
dos itens não é disposta de acordo com as dimensões avaliadas.

Página 54 de 155
Os itens relacionados à ODP buscam avaliar a estrutura curricular dos cursos em relação às
exigências educacionais para a formação profissional do engenheiro de produção, envolvendo
aspectos como: a integridade profissional (ética); o desenvolvimento de competências
transversais (pensamento crítico e reflexivo, proatividade, dedicação, comunicação, entre
outros); o papel social dos profissionais (solução de problemas sociais e respeito à
diversidade); o trabalho desenvolvido pelos docentes (organização dos planos de ensino,
domínio dos conteúdos, utilização de referências relevantes); e as dificuldades encontradas
pelos estudantes ao longo do processo de formação.
Os itens relacionados à dimensão IIF abrangem aspectos tangíveis e intangíveis que
interferem nas experiências educacionais dos estudantes. Em relação aos aspectos intangíveis,
citam-se: disponibilidade do corpo docente (professores e coordenador do curso); avaliações
periódicas internas (disciplinas, atuação dos professores, entre outros); utilização de diferentes
estratégias de ensino (ambiente virtual de aprendizagem, TICs e laboratórios); e
disponibilidade de suporte para realização de outras atividades acadêmicas (técnicos
administrativos/laboratórios, monitores e tutores). Quanto aos aspectos tangíveis, destacam-
se: infraestrutura do ambiente educacional (salas de aula, biblioteca e laboratórios, além da
qualidade dos equipamentos) e disponibilidade de instalações de apoio (refeitório, residência
universitária, cantina e banheiros).
As OAF incluem estratégias que buscam diferenciar o perfil dos estudantes por meio da
troca de experiências que extrapolam as atividades de ensino. Entre os aspectos avaliados
nesta dimensão, ressaltam-se: contato com a extensão universitária (participação em
programas, projetos e atividades extensionistas); contato com a pesquisa (participação em
iniciação científica e investigação acadêmica); participação em eventos acadêmicos dentro e
fora da IES; oportunidade de participação em órgãos do colegiado; participação em atividades
de cultura, lazer e interação social; e oportunidades para realização de intercâmbios (a nível
nacional e internacional, visando à realização de estudos acadêmicos ou estágios curriculares).

4.4. ANÁLISE DOS DADOS

Os dados foram compilados em planilhas eletrônicas. As estatísticas descritivas e os


resultados dos testes estatísticos foram obtidos com o software R versão 3.3.3, com suporte da
interface RStudio. O R é um software robusto e flexível que permite a manipulação de dados
e a realização de testes estatísticos paramétricos e não paramétricos, modelagem linear e não

Página 55 de 155
linear, análise de séries temporais e de sobrevivência, simulação e estatística espacial, além de
produzir elementos gráficos de alta qualidade (Seefeld & Linder, 2007). De acordo com
Jelihovschi (2014), o R foi, nos últimos 20 anos, a maior criação estatística consolidada em
um ambiente computacional.

4.4.1. Análise exploratória

A análise exploratória visa detalhar as estatísticas descritivas dos dados, se desdobrando


em conclusões preliminares e direcionando o emprego dos métodos estatísticos adequados.
De acordo com Cauchick Miguel e Ho (2012, p. 99), a análise exploratória “[...] é uma boa
prática para verificar a qualidade dos dados, a distribuição de frequências das variáveis e
outros aspectos, como calcular as medidas de tendência central e medidas de dispersão”. Para
tanto, apresentam-se as tabelas de frequências absolutas e relativas, os gráficos de frequência
e distribuição dos dados (boxplots) e os resultados dos testes de normalidade.
A verificação da normalidade dos dados direciona a determinação adequada dos testes
estatísticos a serem aplicados, considerando seus respectivas pressupostos. De acordo com
Razali e Wah (2011), as formas mais comuns para verificação da normalidade de um conjunto
de dados são: análise gráfica (histograma, QQ plot e Boxplot), métodos numéricos (assimetria
e curtose) ou aplicação de um teste formal de normalidade. Para verificar a aderência ou não
dos dados desta pesquisa a uma distribuição do tipo normal, além da análise gráfica e da
avaliação numérica, utilizaram-se o teste de Kolmogorov-Smirnov (KS) com correção de
Lilliefors e o teste de Cramér-von Mises. Estes testes foram escolhidos devido ao tamanho da
população e ao grau de robustez (Razali & Wah, 2011; Darling, 1957). Os testes de aderência
se baseiam nas seguintes hipóteses:

H0 = a população segue uma distribuição normal;


H1 = a população não segue uma distribuição normal.

Os resultados dos testes de normalidade determinam a utilização dos métodos paramétricos


ou não paramétricos. Nesse sentido, considerando que este estudo visa comparar caraterísticas
entre grupos distintos e independentes, os testes paramétricos mais adequados são: Análise de
Variância de 1 fator (ANOVA) ou teste “t”; ou os respectivos testes não paramétricos: teste de
Kruskal-Wallis (KW) ou teste de Mann-Whitney (MW). A aplicação dos testes também está
relacionada à quantidade de grupos: enquanto o teste de MW e o teste “t” são utilizados para

Página 56 de 155
comparar dois grupos, o teste de KW e a ANOVA são utilizados para comparar três ou mais
grupos (Spiegel & Stephens, 2009).
O nível de significância dos testes estatísticos, de acordo com Morettin e Bussad (2010), é
o valor decisivo para rejeição ou aceitação da hipótese nula dos resultados dos testes. Nesse
sentido, a Tabela 4.1 apresenta os níveis de significância utilizados para avaliação das
hipóteses adotadas neste estudo.

Tabela 4.1 – Parâmetros de avaliação da significância dos testes estatísticos.


Significância (Sig.) Natureza da evidência
0,1 > Sig. ≥ 0,05 Evidência moderada contra H0
0,05 > Sig. ≥ 0,01 Evidência forte contra H0
0,01 > Sig. ≥ 0,005 Evidência muito contra H0
Sig. < 0,005 Evidência fortíssima contra H0
Fonte: Adaptada de Morettin e Bussad (2010).

Página 57 de 155
Capítulo 5____________________________
A Engenharia de Produção no Brasil: análise dos
dados oficiais e dos indicadores do SINAES

A abrangência do campo de atuação profissional dos engenheiros de produção foi um dos


fatores que motivou a rápida expansão dessa área do conhecimento. Nesse sentido, este
capítulo apresenta o panorama dos cursos de graduação em EP do Brasil a partir de aspectos
quantitativos e qualitativos.

5.1. A ENGENHARIA DE PRODUÇÃO NO BRASIL

A EP surgiu e se consolidou nos Estados Unidos com o nome de Engenharia Industrial


(Industrial Engineering) entre 1882 e 1912, a partir do movimento conhecido como
Administração Científica (Scientific management), tendo como precursores: Frederick Taylor,
Henri Fayol, Frank Gilbreth, Lilian Gilbreth e Henry Gantt (Fleury, 2008; Furlanetto, Malzac
Neto, & Neves, 2006; INEP & CONFEA, 2010; Piratelli, 2005; Wrasse, Pasa, & Pissidônio,
2014).
Impulsionada pela Revolução Industrial, Piratelli (2005) e Fleury (2008) ressaltam que a
EP surgiu visando à racionalidade econômica aplicada aos sistemas de produção, o estudo de
arranjos físicos em indústrias, à programação da produção, e, em geral, à necessidade de
solucionar problemas nos processos fabris. Dada a necessidade de profissionais aptos a
resolver problemas como esses, a EP rapidamente se alastrou no contexto mundial. Kádárová
et al. (2014) destacam que ao final do século XIX algumas universidades europeias já
ofertavam o curso de EP na Alemanha, França, Espanha e no Reino Unido.
No cenário brasileiro, o ensino de EP surgiu em maio de 1958 na escola politécnica da
USP, tendo como expoente o professor Ruy Aguiar da Silva Leme, que propôs um curso de
extensão, em 1955, envolvendo as disciplinas “Engenharia de Produção” e “Complementos de
Organização Industrial” (Fleury, 2008).
Inicialmente, o curso de EP passou a ser ofertado como uma opção do curso de engenharia
mecânica da USP, tendo sua primeira turma, com 12 estudantes, formada em 1960 (Fleury,

Página 58 de 155
2008). Gradativamente, estes cursos começaram a se difundir no cenário brasileiro. No início,
novas disciplinas foram inseridas na graduação e pós-graduação, a exemplo do curso de
engenharia mecânica da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e em
programas de pós-graduação da PUC-Rio e da Universidade Federal do Rio de Janeiro
(UFRJ). Em 1967, a PUC-Rio implantou a habilitação em EP, seguida pela Escola de
Engenharia de São Carlos (EESC), em 1968, e pela UFRJ, em 1971 (ABEPRO, 2010). Em
1970, a USP aprovou a criação do curso autônomo de EP (Fleury, 2008; Oliveira & Costa,
2013). “Em 1980 já existiam 18 cursos e até 1997 criava-se aproximadamente dois cursos a
cada três anos no país” (Oliveira, Barbosa, & Chrispim, 2005, p. 5405).
Considerando as modalidades tradicionais da engenharia, a EP é relativamente recente,
todavia estudos apontam o crescimento acentuado na quantidade desses cursos no Brasil,
principalmente a partir da década de 90 (Bittencourt, Viali, & Beltrame, 2010; Faé & Ribeiro,
2004; INEP & CONFEA, 2010; Mello & Sousa, 2015; Oliveira, 2004; Oliveira, Barbosa, &
Chrispim, 2005; Oliveira et al., 2013; Schrippe et al., 2016; Sturm et al., 2015; Weise &
Trierweiller, 2010; Wrasse, Pasa, & Pissidônio, 2014). Atualmente, o sistema e-MEC
reconhece 5428 cursos de graduação em engenharia, sendo 1017 (18,7 %) de EP, dos quais
971 são classificados como EP “plena” e os demais possuem ênfase em alguma modalidade
das outras engenharias. A Figura 5.1 mostra a distribuição quantitativa das modalidades dos
cursos de engenharia no Brasil.

Figura 5.1 – Distribuição quantitativa dos cursos de engenharia no Brasil.

Engenharia Eletrônica 54
Engenharia de Materiais 57
Engenharia Florestal 73
Engenharia Agronômica 73
Modalidades de engenharia

Engenharia de Petróleo 75
Engenharia de Alimentos 107
Engenharia Ambiental 199
Engenharia Ambiental e Sanitária 202
Engenharia de Controle e Automação 221
Engenharia de Computação 228
Engenharia Química 244
Engenharia Mecânica 558
Engenharia Elétrica 604
Outras (120 modalidades) 668
Engenharia de Produção 971
Engenharia Civil 1094

0 200 400 600 800 1000 1200

Quantidade de cursos

Fonte: Dados compilados de MEC (2017).

Página 59 de 155
Em 2011, Oliveira et al. (2013) verificaram a existência de 444 cursos de EP, enquanto as
modalidades mais tradicionais da engenharia, tais como civil, elétrica e mecânica
apresentavam, respectivamente, 386, 298 e 238 cursos. A Figura 5.1 mostra que esse
panorama mudou, entretanto a quantidade de cursos de EP, apesar de atualmente estar abaixo
da de engenharia civil, ainda apresenta uma disparidade significante em relação às demais
modalidades.

5.2. ASPECTOS QUANTITATIVOS DA ENGENHARIA DE PRODUÇÃO

A quantidade e o crescimento contínuo dos cursos de EP despertam a atenção para o


estudo dos aspectos quantitativos abordados nessa seção, tais como o perfil das IES que
ofertam estes cursos, a distribuição geográfica, e as quantidades de vagas oferecidas,
ingressantes, matrículas e concluintes.
De acordo com Oliveira (2005), a partir da década de 90 os cursos de EP passaram por um
processo de expansão quantitativa sem precedentes. Bittencourt, Viali e Beltrame (2010)
ressaltam que entre o início da década de 90 e o ano de 2008 a quantidade de cursos de EP
teve uma taxa de crescimento de 1820,0 %. A Figura 5.2 ilustra a quantidade total desses
cursos entre 1990 e outubro de 2017 (MEC, 2017)14.

Figura 5.2 – Quantidade de cursos de EP entre 1990 e outubro/2017.


1200
Quantidade de cursos de EP e suas ênfases

1017
1000
842
800
643
600 530
390
400
287
188
200 137
72 101
20 21 28 37 55
0

Ano

Fonte: Dados compilados de MEC (2017).

14
Dados referentes aos anos anteriores podem ser obtidos nos trabalhos de Cunha (2002), Faé & Ribeiro (2004),
Oliveira (2005) e Bittencourt, Viali e Beltrame (2010).

Página 60 de 155
No início do século XXI, o crescimento dos cursos de EP era de 30 cursos por ano (INEP
& CONFEA, 2010). A partir da Figura 5.2, percebe-se que entre os anos de 2000 e 2016 têm
sido criados aproximadamente 49 novos cursos de EP por ano. Entre o ano de 2010 e outubro
de 2017, a taxa de crescimento na quantidade de cursos foi de 161,0 %, passando de 390 para
1017 cursos, dos quais 973 são ofertados presencialmente (95,7 %).
Furlanetto, Malzac Neto e Neves (2006) ressaltam que os cursos de EP no Brasil estão
distribuídos em dois tipos: os cursos ditos “plenos” e os cursos com habilitações (ênfases)
específicas em uma das modalidades tradicionais da engenharia. A Tabela 5.1 mostra que os
cursos de EP estão divididos em sete ênfases, além da EP “plena”.

Tabela 5.1 – Quantidade de cursos de EP “plena” e suas ênfases.


Cursos de EP plena e suas ênfases Quantidade de cursos Porcentagem (%)
Engenharia de Produção 971 95,5
Engenharia de Produção Mecânica 35 3,4
Engenharia de Produção Civil 5 0,5
Engenharia de Produção Agroindustrial 2 0,2
Engenharia de Produção Elétrica 1 0,1
Engenharia de Produção e Qualidade 1 0,1
Engenharia de Produção e Sistemas 1 0,1
Engenharia de Produção Química 1 0,1
Total 1017 100,0
Fonte: Dados compilados de MEC (2017).

Oliveira (2004) frisa que os primeiros cursos de EP surgiram como ênfase de uma das
modalidades tradicionais da engenharia, entretanto a partir da década de 90, com o célere
crescimento quantitativo, nota-se a inversão dessa característica, sendo frequentes cursos de
EP com ênfase em outras modalidades. Na Tabela 5.1, observa-se que a maioria dos cursos de
EP no Brasil é “plena”, enquanto apenas 4,5 % estão distribuídos entre sete ênfases, das quais
mecânica é a que apresenta a maior quantidade de cursos. Esse fato está historicamente ligado
à origem da EP no Brasil e também foi verificado por autores como Sturm et al. (2015) e
Schrippe et al. (2016). A tendência para a EP “plena” é justificada pela possibilidade de
formar profissionais com um currículo mais abrangente (gestão do negócio, gestão da
produção e gestão de sistemas técnicos), sendo este atributo extremamente valorizado no
mercado de trabalho atual (Cunha, 2002; Oliveira, Barbosa, & Chrispim, 2005).
Dentre os 1017 cursos de EP, 892 (87,7 %) são ofertados por IES privadas. A Figura 5.3
apresenta a distribuição dos cursos entre as IES considerando as cinco categorias de
organização acadêmica, a saber: Universidades, Centro Universitário, Faculdade, Centro
Federal de Educação Tecnológica (CEFET) e Instituto Federal de Educação, Ciência e
Tecnologia (IF); e as quatro esferas administrativas das IES (federal, estadual, municipal e
Página 61 de 155
privada). Sob esse aspecto, observa-se que entre as IES públicas a maior quantidade de cursos
é ofertada na esfera federal (81; 64,8 %), enquanto que nas IES privada, a maior parte dos
cursos é ofertada por faculdades (481; 53,9 %).
A partir da Figura 5.3 e remetendo-se ao trabalho de Oliveira, Barbosa e Chrispim, (2005,
p. 5406), destaca-se que “outro fator importante a se observar sobre o crescimento da
quantidade de cursos de Engenharia de Produção é que este ocorreu principalmente no setor
privado”. Em 2005, 71,0 % dos cursos eram ofertados por IES privadas e 29,0 % por IES
públicas. A Figura 5.3 mostra que essa disparidade aumentou de forma significante.

Figura 5.3 – Distribuição dos cursos de EP em relação à esfera administrativa e à organização


acadêmica das IES.
600
Quantidade de cursos de EP e suas ênfases

500 481

400

300

212
199
200

100
67
31
5 0 3 1 0 4 0 5 0 0 0 9 0 0 0
0
Universidade Centro Faculdade CEFET IF
Universitário

Organizações acadêmicas das IES

Federal Municipal Estadual Privada

Fonte: Dados compilados de MEC (2017).

Os cursos de EP estão distribuídos entre 751 IES, das quais apenas 78 são públicas. De
acordo com a Tabela 5.2, 13 IES se destacam por ofertarem mais de quatro cursos de EP.

Página 62 de 155
Tabela 5.2 – Quantidade de cursos de EP ofertados por IES no Brasil.
Quantidade de cursos
Quantidade de IES Porcentagem (%)
ofertados
1 629 83,8
2 72 9,6
3 26 3,5
4 11 1,5
5 5 0,7
6 1 0,1
9 1 0,1
10 1 0,1
11 1 0,1
12 2 0,3
18 1 0,1
19 1 0,1
Total 751 100,0
Fonte: Dados compilados de MEC (2017).

Em relação à distribuição geográfica, a Figura 5.4 mostra as porcentagens de cursos nas


cinco regiões brasileiras, bem como as quantidades absolutas por Unidade Federativa (UF),
considerando as duas categorias administrativas (pública e privada).

Figura 5.4 – Distribuição dos cursos de EP em relação às UF.

Fonte: Dados compilados de MEC (2017).

Página 63 de 155
A partir desses dados, nota-se que as regiões Sul e Sudeste concentram a maior parte dos
cursos de EP (739; 72,7 %). Em contraste, a região Norte possui a menor quantidade de
cursos (44; 4,3 %). Verifica-se também que, para todas as regiões, a quantidade de cursos
ofertados por IES privadas é, no mínimo, três vezes maior que a quantidade de cursos
ofertados por IES públicas.
Os cursos de EP estão disseminados em 26 UF do Brasil. Em 2005, Oliveira, Barbosa e
Chrispim (2005) identificaram que estes cursos não estavam presentes em oito UF brasileiras.
Em 2010, essa quantidade foi reduzida para cinco (Bittencourt, Viali, & Beltrame, 2010) e em
outubro de 2017, o Acre era a única UF que ainda não ofertava nenhum curso de EP.
A Figura 5.4 mostra que as sete UF que possuem mais de 50 cursos são: São Paulo (SP,
266), Minas Gerais (MG, 133), Rio de Janeiro (RJ, 126), Paraná (PR, 75), Santa Catarina (SC,
56), Rio Grande do Sul (RS, 55) e Bahia (BA, 53). Para estas UF a quantidade de cursos em
IES privadas é, no mínimo, quatro vezes maior do que a quantidade de cursos em IES
públicas. Em contraste, a menor quantidade de cursos é observada nas seguintes UF: Amapá
(AP, 2), Tocantins (TO, 2) e Roraima (RR, 1), sendo todos eles ofertados por IES privadas.
Dando continuidade à análise dos números da EP no Brasil, a Figura 5.5 exibe as
quantidades de matrículas e concluintes, para os anos de 2011 a 2016.

Figura 5.5 – Quantidades de matrículas e concluintes entre 2011 e 2016.

160000
140000
120000
100000
80000
60000
40000
20000
0
Pública Privada Pública Privada
Matrículas Concluintes
2011 20869 90979 1871 6451
2012 24129 105393 2287 8683
2013 26706 117421 2593 9607
2014 29089 132986 2824 9602
2015 29598 140989 2959 11871
2016 30736 134941 3355 13989

Fonte: Dados compilados de INEP (2016c).

Página 64 de 155
A Figura 5.5 mostra que desde 2011 a quantidade de matrículas nas IES privadas tem sido
mais de quatro vezes maior do que nas IES públicas. Em 2016, o número de matrículas nas
IES públicas aumentou 3,8 % e reduziu 4,3 % nas IES privadas. Em relação ao número de
concluintes, a quantidade de engenheiros de produção provenientes das IES privadas é no
mínimo três vezes maior em relação às IES públicas.
A Tabela 5.3 detalha a relação entre a oferta e a demanda para os cursos de EP e mostra
que a relação candidato/vaga (concorrência) tem caído expressivamente, principalmente na
esfera privada, que em 2015 e 2016 foi menor do que 1 (um).

Tabela 5.3 – Vagas oferecidas, candidatos inscritos, ingressos total, relação candidato/vaga e índice
de ociosidade nos cursos de EP do Brasil.
IES Privadas IES Públicas
Ano Cand./ Ociosidade Cand./ Ociosidade
VO CI TI VO CI TI
vaga (%) vaga (%)
2011 57490 94039 30788 1,6 46,4 5621 79831 5384 14,2 4,2
2012 64998 110041 44149 1,7 32,0 6270 102179 5922 16,3 5,5
2013 73872 119886 44187 1,6 40,1 6359 121320 6114 19,1 3,8
2014 136158 150324 59104 1,1 56,5 10330 129922 7395 12,6 28,4
2015 175609 163620 53602 0,9 69,4 10194 137971 7356 13,5 27,8
2016 283516 160467 44959 0,6 84,1 10982 105406 7184 9,6 34,5
Notas: VO = Vagas ofertadas; CI = Candidatos inscritos; TI = Total de ingressos.
Fonte: Dados compilados de INEP (2016c).

Conforme verificado por Bittencourt, Viali e Beltrame (2010, p. 13), “[...] o número de
candidatos ao curso de EP vem crescendo, entretanto a oferta de vagas tem crescido mais que
a procura”. Ao fazer uma comparação análoga para os anos de 2000 a 2006, sem distinguir as
IES públicas e privadas, Bittencourt, Viali e Beltrame (2010) verificaram que essa ociosidade
estava aumentando com o passar dos anos, atingindo 47 % em 2006. Na mesma linha de
raciocínio, a partir da Tabela 5.3, infere-se que a ociosidade continua crescendo
significativamente, atingindo 84,1 % nas IES privadas e 34,5 % nas IES públicas, em 2016.
A Tabela 5.3 revela que entre 2015 e 2016 as IES públicas tiveram uma redução de 23,6 %
na quantidade de estudantes inscritos e 2,3 % na de ingressantes. Em contraste, as IES
privadas registraram uma redução de 1,9 % na quantidade de estudantes inscritos e 16,1 % na
de ingressantes.
Considerando o total de ingressos (Tabela 5.3) e o total de concluintes (Figura 5.6), estima-
se que apenas 35,1 % dos estudantes ingressantes em 2011 concluíram o curso em 2015 e
30,5 % dos ingressantes em 2012 concluíram o curso em 2016. Em outras palavras, a cada 10
estudantes ingressantes nos cursos de EP, apenas três conseguem concluir o curso no tempo
previsto pelo MEC (5 anos).
Página 65 de 155
Em relação à quantidade de matrículas, a Figura 5.6 mostra a disparidade entre as IES
públicas e privadas. Entre as IES públicas, as federais possuem a maior quantidade de
estudantes matriculados, mantendo uma taxa de crescimento média de 9,3 % ao ano. As IES
municipais possuem a menor quantidade de estudantes matriculados, apresentando uma
redução de 46,8 % entre 2014 e 2015 e 4,8 % entre 2015 e 2016.

Figura 5.6 – Quantidade de matrículas nos cursos de EP entre 2011 e 2016.


180000
Quantidade de matrículas (2011-2016)

160000

140000

120000

100000

80000

60000

40000

20000

0
2011 2012 2013 2014 2015 2016
Federal 13333 14673 16504 17883 19770 20819
Estadual 5788 6013 6402 7356 7778 7965
Municipal 1748 3443 3800 3850 2050 1952
Privada 90979 105393 117421 132986 140989 134941
Total 111848 129522 144127 162075 170587 165677

Fonte: Dados compilados de INEP (2016c).

De acordo com a Figura 5.7, as IES federais são responsáveis pela formação da maior
quantidade de engenheiros de produção advindos de instituições de ensino públicas e
apresentaram um aumento de 22,1 % entre 2015 e 2016. Nesse mesmo período, as IES
estaduais apresentaram uma redução de 4,0 % na taxa de concluintes e as municipais um
crescimento de 5,6 %.

Página 66 de 155
Figura 5.7 – Quantidade de concluintes nos cursos de EP entre 2011 e 2016.
18000

Quantidade de concluintes (2011-2016) 16000

14000

12000

10000

8000

6000

4000

2000

0
2011 2012 2013 2014 2015 2016
Federal 1123 1261 1392 1581 1887 2304
Estadual 614 656 722 740 840 806
Municipal 134 370 479 503 232 245
Privada 6451 8683 9607 9602 11871 13989
Total 8322 10970 12200 12426 14830 17344

Fonte: Dados compilados de INEP (2016c).

Por oportuno, frisa-se que as Figuras 5.6 e 5.7 possuem o mesmo formato e a mesma
ordem relativa dos agentes, contudo a ordem de grandeza da quantidade de concluinte é 10
(dez) vezes menor do que a quantidade de matriculados nos cursos de EP no Brasil. Acredita-
se que essa característica é reflexo do crescente desinteresse dos estudantes pelo curso de EP,
tanto nas instituições públicas quanto nas privadas, justificado pela crescente ociosidade
(Tabela 5.3) das vagas e pela baixa quantidade de concluintes.
De acordo com Fonseca (2002), os principais motivos que explicam o desinteresse dos
estudantes pelo curso de EP são: a incapacidade do mercado para absorver todo a mão de obra
disponível, distanciando a formação acadêmica da atuação profissional; a alta carga horária
dos cursos, repleta de disciplinas com conteúdo, no total ou em parte, desnecessários e não
condizentes com os objetivos do curso e com o perfil do profissional; e a falta de
conhecimento, por parte dos estudantes, da grade curricular e dos objetivos pedagógicos do
curso – os estudantes devem saber o que é EP, como vão aprender EP e como os conteúdos
das disciplinas do curso de EP serão aplicados. Nessa mesma linha de raciocínio, ao estudar
os motivos da evasão no curso de EP da Universidade Federal de Goiás – Regional Catalão,
Santos, Lage Jr. e Ribeiro (2015) verificaram que os principais fatores que levam os alunos a
desistirem do curso são: insuficiência de estruturas de apoio ao ensino de graduação, como
laboratórios de ensino, equipamentos e outros; e a dedicação exigida pelo curso. Em outras

Página 67 de 155
palavras, acredita-se que muitos estudantes são atraídos pelos cursos de EP devido à
abrangência do campo de atuação profissional e à oportunidade de atuar como um
“engenheiro gestor”, entretanto, a falta de conhecimento sobre as possibilidades e dificuldades
na atuação do profissional de EP e as barreiras encontradas ao longo do curso (por exemplo: o
nível de dificuldade das disciplinas, principalmente nos semestres iniciais, exigindo uma
maior dedicação, e a ausência de infraestruturas físicas relacionadas especificamente à
formação em EP) frustram os alunos e contribuem com o aumento dos níveis de evasão.
Adiciona-se a estas razões o fato das empresas de base tecnológica brasileiras apresentarem
um baixo potencial de inovação (GEM, 2009), demandando, por consequência, uma baixa
quantidade de profissionais que engenham (engenheiros).
A Figura 5.8 corrobora com a constatação do crescente desinteresse dos estudantes pelo
curso de EP e revela que a quantidade total de matrículas trancadas apresentou uma redução
de 9,2 % entre 2015 e 2016. Em contraste, no mesmo período, as quantidades de matrículas
desvinculadas e alunos transferidos para outros cursos aumentaram em 21,6 % e 15,8 %,
respectivamente.

Figura 5.8 – Quantidade de matrículas trancadas, matrículas desvinculadas e alunos transferidos para
outros cursos da mesma IES nos cursos de EP entre 2011 e 2016.
50000
45000
40000
35000
30000
25000
20000
15000
10000
5000
0
Pública Privada Pública Privada Pública Privada
Alunos tranferidos para outros cusos da
Matrículas Trancadas Matrículas desvinculadas
mesma IES
2011 968 11976 2159 17605 141 3229
2012 1350 18404 2478 23081 185 2739
2013 1227 21909 2470 26713 190 3036
2014 1306 28628 3102 27717 152 3215
2015 1461 30469 2335 36277 148 3895
2016 2072 26916 2968 43996 156 4527

Fonte: Dados compilados de INEP (2016c).

Em síntese, esta seção apresentou um panorama dos cursos de EP no Brasil considerando


seus aspectos quantitativos. De forma complementar, a próxima seção traz em seu bojo os
aspectos qualitativos embasados nos indicadores de qualidade do SINAES.

Página 68 de 155
5.3. ASPECTOS QUALITATIVOS DA ENGENHARIA DE PRODUÇÃO

Esta seção abrange o panorama qualitativo dos cursos de EP. A análise se inicia com a
avaliação do desempenho dos estudantes a partir Conceito ENADE, na sequência abordam-se
os aspectos relacionados ao CPC e à avaliação das 751 IES, por meio do IGC.

5.3.1. Conceito ENADE

Baseada nos resultados da aprendizagem dos estudantes, a Tabela 5.4 exibe a distribuição
dos cursos de EP em relação às faixas do Conceito ENADE, as esferas administrativas e as
modalidades de oferta.

Tabela 5.4 – Quantidade de cursos por faixa do Conceito ENADE 2014, esfera administrativa e
modalidade de oferta.
Cursos presenciais Cursos a distância
ENADE Total %
Federal Estadual Municipal Privada Federal Estadual Privada
1 1 2 1 45 0 0 2 51 5,0
2 4 6 2 132 0 0 1 145 14,3
3 19 7 1 75 0 0 0 102 10,0
4 17 4 0 18 0 0 0 39 3,8
5 20 2 0 1 0 0 0 23 2,3
SC 18 10 8 580 2 1 38 657 64,6
Total 79 31 12 851 2 1 41 1017 100,0
Fonte: Dados compilados de MEC (2017), considerando os resultados do Conceito ENADE 2014.

A partir da Tabela 5.4, nota-se que 64,6 % dos cursos ainda não possuem o Conceito
ENADE. De acordo com Oliveira e Costa (2013), os percentuais de cursos sem Conceito
ENADE nos anos de 2005, 2008 e 2011 foram, respectivamente, 60,3 %, 47,3 % e 25,1 %.
Isso mostra que a quantidade de cursos sem conceito quase triplicou desde 2011. Esse
crescimento se justifica pela grande quantidade de cursos que surgiram nesse período, aliada à
baixa quantidade de concluintes. No mais, 69,3 % dos cursos com Conceitos ENADE 4 ou 5
são ofertados por IES públicas, em contraste, 95,0 % dos cursos sem conceito são ofertados
por IES privadas. Os cursos com Conceitos ENADE 1 ou 2 somam 196 e equivalem a 19,3 %
dos cursos do Brasil, sendo que 180 (92,8 %) são ofertados por instituições privadas.
Apenas 6,1 % (62 cursos) estão entre as faixas 4 e 5 do Conceito ENADE. Em adição,
salienta-se que apenas 23 cursos possuem Conceito ENADE 5, estando distribuídos entre 20
IES (17 universidades federais, 2 universidades estaduais e 1 faculdade privada) em quatro
regiões do Brasil, com exceção da região Norte.

Página 69 de 155
A Tabela 5.4 também mostra que a maior parte dos cursos sem Conceito ENADE é
ofertada por IES privadas (618 cursos; 94,1 %). Em adição, ressalta-se que 94,7 % dos cursos
a distância são ofertados por IES privadas e todos os avaliados possuem conceito
insatisfatório.
A Tabela 5.5 apresenta a quantidade de cursos por faixa do Conceito ENADE nas regiões
do Brasil. Em todas as regiões a porcentagem de cursos ainda não avaliados pelo SINAES é
superior a 59,3 %, sendo este o menor valor, apresentado pela região Sudeste. Em contraste, a
região Norte apresenta o maior percentual (72,7 %) de cursos sem conceito.

Tabela 5.5 – Quantidade de cursos por região e por faixa do Conceito ENADE 2014.
ENADE Norte Nordeste Centro-Oeste Sul Sudeste
1 3 10 3 6 29
2 5 18 9 18 95
3 2 12 2 18 68
4 2 6 0 10 21
5 0 3 2 6 12
SC 32 127 42 128 328
Total 44 176 58 186 553
Fonte: Dados compilados de MEC (2017), considerando os resultados do ENADE 2014.

O maior percentual de cursos nas faixas de Conceitos ENADE 1 ou 2 (22,4 %) e 3


(12,3 %) é encontrado na região Sudeste. Por outro lado, a região Sul possui o maior
percentual de cursos entre as faixas de Conceitos ENADE 4 e 5 (8,6 %).

5.3.2. Conceito Preliminar de Curso

Em relação ao CPC, a Tabela 5.6 apresenta a distribuição dos cursos considerando as


modalidades “presencial” e “a distância” e as categorias administrativas.

Tabela 5.6 – Quantidade de cursos por faixa do CPC, esfera administrativa e modalidade de oferta.
Cursos presenciais Cursos a distância
CPC Total %
Federal Estadual Municipal Privada Federal Estadual Privada
1 0 0 0 0 0 0 0 0 0,0
2 2 4 1 38 0 0 2 47 4,6
3 20 9 1 141 0 0 0 171 16,8
4 23 6 0 37 0 0 0 66 6,5
5 1 1 0 3 0 0 0 5 0,5
SC 33 11 10 632 2 1 39 728 71,6
Total 79 31 12 851 2 1 41 1017 100,0
Fonte: Dados compilados de MEC (2017), considerando os resultados do CPC 2014.

Página 70 de 155
Na Tabela 5.6 nota-se que uma quantidade elevada de cursos (728, 71,6 %) ainda não
possui CPC. Por oportuno, cabe salientar que 95,4 % dos cursos a distância nunca foram
avaliados e todos os avaliados possuem CPC 2. Além disso, apenas 3 deles (6,8 %) são
ofertados por IES públicas. No mais, verifica-se que a quantidade de cursos com CPC 4 ou 5
é relativamente baixa (71, 7,0 %) e apenas cinco cursos possuem CPC 5, sendo ofertados por
quatro universidades da região Sudeste: Universidade Federal de Juiz de Fora (UFJF, federal,
1 curso), Universidade Santa Cecília (UNISANTA, privada, 1 curso), Universidade Estadual
do Norte Fluminense Darcy Ribeiro (UENF, estadual, 1 curso) e Universidade Paulista
(UNIP, privada, 2 cursos).
Em relação às esferas administrativas das IES, a Tabela 5.6 mostra que, em todas as faixas
do CPC, a quantidade de cursos em IES privadas é superior aos demais, principalmente os
cursos que ainda não possuem este conceito. Nesses termos, ressalta-se que entre os 728
cursos sem CPC, 92,2 % são ofertados por IES privadas. Dentre os cursos com CPC 4 ou 5,
31 são ofertados por IES públicas e 40 em IES privadas.
Em relação à distribuição geográfica dos cursos nas faixas do CPC, a Tabela 5.7 mostra
que para todas as regiões o percentual de cursos que não foram avaliados pelo SINAES
ultrapassa 67,0 %, sendo a região Centro-Oeste a que possui a maior porcentagem (81,0 %).

Tabela 5.7 – Quantidade de cursos por região e por faixa do CPC.


CPC Norte Nordeste Centro-Oeste Sul Sudeste
1 0 0 0 0 0
2 5 7 1 9 25
3 2 24 9 26 110
4 2 8 1 16 39
5 0 0 0 0 5
SC 35 137 47 135 374
Total 44 176 58 186 553
Fonte: Dados compilados de MEC (2017), considerando os resultados do CPC 2014.

A região Sudeste apresenta a maior porcentagem de cursos (19,9 %) na faixa de CPC 3 e a


região Norte na faixa de CPC 2 (11,4 %). Em contraste, a região Sul apresenta o maior
percentual de cursos (8,6 %) com CPC 4 ou 5.

5.3.3. Índice Geral de Cursos

Avaliando as IES que ofertam os cursos de EP, conforme a Tabela 5.8, nota-se que a maior
parte dessas IES (507; 67,5 %) possui conceito satisfatório. As IES com os melhores
conceitos representam 20,4 % (153 IES) e as com conceito insatisfatório totalizam 3,7 % (28
Página 71 de 155
IES). Em adição, 63 IES (8,4 %), das quais 95,2 % são privadas, nunca passaram pelo
processo de avaliação do SINAES. Nenhuma IES possui IGC 1.

Tabela 5.8 – Quantidade de IES por faixa do conceito IGC e por esfera administrativa.
Quantidade de IES Porcentagem
Conceito IGC Total
Federal Estadual Municipal Privada (%)
1 0 0 0 0 0 0,0
2 0 0 1 27 28 3,7
3 11 7 11 478 507 67,5
4 30 7 0 108 145 19,3
5 7 1 0 0 8 1,1
SC 0 3 0 60 63 8,4
Fonte: Dados compilados de MEC (2017), considerando os resultados do IGC 2015.

Em relação ao conceito IGC e às esferas administrativas, a Tabela 5.8 aponta também que
em quase todas as faixas do conceito IGC a quantidade de IES privadas é maior do que a
quantidade de IES públicas, exceto no conceito 5, que não apresenta nenhuma IES municipal
ou privada. No mais, ressalta-se que apenas uma IES pública possui conceito IGC inferior a 3.
As oito IES que possuem o maior conceito totalizam apenas 1,1 %. Conforme a Tabela 5.9,
todas elas são universidades públicas, sendo sete federais e uma estadual.

Tabela 5.9 – IES que possuem o conceito IGC 5.


Esfera
Nome da IES Org. Acadêmica UF Região
administrativa
Universidade de Brasília Federal Universidade DF Centro-Oeste
Universidade Federal de São Carlos Federal Universidade SP Sudeste
Universidade Federal de Viçosa Federal Universidade MG Sudeste
Universidade Estadual de Campinas Estadual Universidade SP Sudeste
Universidade Federal de Minas Gerais Federal Universidade MG Sudeste
Universidade Federal do Rio Grande do Sul Federal Universidade RS Sul
Universidade Federal do Rio de Janeiro Federal Universidade RJ Sudeste
Universidade Federal de Santa Catarina Federal Universidade SC Sul
Fonte: Dados compilados de MEC (2017).

No que diz respeito à relação entre o conceito IGC e a distribuição geográfica, a


Tabela 5.10 mostra que para todas as regiões a quantidade de IES com IGC 3 é predominante,
sendo a região Sudeste a que mais se destaca, com quase 70,0 % das suas IES nessa faixa. A
região Centro-Oeste é a que possui a maior quantidade relativa das suas IES com IGC 2
(8,3 %) e nenhuma com IGC 5. A região Sul possui 27,7 % das suas IES com IGC 4 ou 5,
sendo este o maior percentual em relação às outras regiões.

Página 72 de 155
Tabela 5.10 – Quantidade de IES por região e por faixa do IGC 2015.
IGC Norte Nordeste Centro-Oeste Sul Sudeste
1 0 0 0 0 0
2 1 8 4 2 13
3 24 103 32 89 259
4 5 25 7 37 71
5 0 0 1 2 5
SC 8 18 4 11 22
Total 38 154 48 141 370
Fonte: Dados compilados de MEC (2017), considerando os resultados do IGC 2015.

A região Norte apresenta quase 21,1 % das suas IES sem conceito IGC, seguida pela
região Nordeste com 11,7 %. Essas duas regiões também são as únicas que não possuem
nenhuma IES que oferta o curso de EP e possui IGC 5.

5.4. CONSIDERAÇÕES FINAIS DO CAPÍTULO

Este capítulo apresentou um panorama dos cursos de EP com o intuito de gerar


informações norteadoras que forneçam subsídios para uma interpretação do estado atual do
ensino de EP no Brasil.
Os aspectos quantitativos mostram que a quantidade de cursos de EP continua crescendo
de forma expressiva. Estes cursos representam 18,7 % dos cursos de engenharia no Brasil e
nos sete últimos anos atingiram uma taxa de crescimento de 161,0 %, passando de 390, em
2010, para 1017 cursos em outubro de 2017. Destaca-se que 95,5 % dos cursos são “plenos” e
87,7 % são ofertados por IES privadas. A quantidade relativa de cursos em instituições
públicas tem sido cada vez menor e os cursos estão distribuídos por todo Brasil, exceto no
Acre, sendo ofertados por 751 IES.
Na mesma linha de raciocínio, salienta-se que a quantidade de vagas oferecidas tem
crescido mais do que a quantidade de candidatos inscritos e de ingressos nos cursos,
ocasionando um aumento crescente da ociosidade. A quantidade total de concluintes tem
aumentado de forma gradativa, com forte influência de estudantes oriundos de IES privadas.
É importante frisar que, ao passo que as quantidades de ingressos e matrículas crescem, as
quantidades de matrículas desvinculadas e estudantes transferidos para outros cursos da
mesma IES também aumentam. Esses fatores, somados à baixa quantidade de concluintes,
têm causado um aumento significativo da taxa de retenção (Figuras 5.6, 5.7 e 5.8).

Página 73 de 155
Quanto aos aspectos qualitativos, nota-se que as região Sul possui as melhores IES e as
maiores porcentagens de cursos com Conceito ENADE e CPC 4 ou 5, respectivamente. Por
outro lado, considerando o IGC e o CPC, a região Norte é a que apresenta os maiores índices
de IES e cursos com conceitos insatisfatórios ou sem conceito. Com base nos índices
apresentados, também é notória a melhor qualidade das universidades públicas quando
comparadas com as privadas.
A análise dos indicadores de qualidade em geral, e em específico do CPC e do Conceito
ENADE, revela que a maioria dos cursos ainda não foi avaliada pelo SINAES ou obteve um
conceito insatisfatório nas avaliações anteriores. Ademais, ressalta-se preocupação com o fato
das IES privadas serem responsáveis pela formação da maioria dos engenheiros de produção
do Brasil e estarem, predominantemente, nas faixas mais baixas dos três indicadores de
qualidade analisados.

Página 74 de 155
Capítulo 6____________________________
Avaliação dos cursos e da percepção dos estudantes

Este capítulo apresenta os resultados da análise exploratória dos dados; a caracterização


das IES, dos cursos de EP e do perfil dos respondentes do QE; além dos resultados dos testes
estatísticos. Ao final, discutem-se os resultados apresentados.

6.1. ANÁLISE EXPLORATÓRIA

A análise exploratória considerou duas bases de dados: (1) informações sobre os cursos de
EP e (2) respostas do QE 2014. Em relação aos cursos de EP selecionados para fazer parte do
estudo, a base de dados considera as mesmas variáveis apresentadas no Quadro 4.1. No que
diz respeito à base de dados que contém as respostas do QE, além das 42 colunas equivalentes
às questões do questionário, foram adicionadas cinco colunas (Quadro 6.1).

Quadro 6.1 – Variáveis adicionadas à base de dados contendo as respostas do QE.


Nome da variável Descrição
Níveis de qualidade a partir do Conceito ENADE 2014: insatisfatório (1 e 2),
Classe
satisfatório (3) e excelente (4 e 5).
Categ. Adm. Categoria administrativa: Pública ou Privada.
Esf. Adm. Esferas administrativas: Federal, Estadual, Municipal ou Privada.
Org. Acad. Organização acadêmica: universidade, faculdade, CEFET, IF ou centro universitário.
Região Região onde o curso é ofertado: Norte, Nordeste, Centro-Oeste, Sudeste e Sul.

As variáveis adicionadas à base de dados com as respostas do QE foram recuperadas por


meio do código individual de cada curso no e-MEC e permitiram o agrupamento das respostas
de acordo com os grupos avaliados nos testes estatísticos.

6.1.1. Análise preliminar das respostas do QE

Em 2014, 347 cursos de EP obtiveram o Conceito ENADE, entretanto o curso do “Centro


Universitário UNA” contou com a participação de apenas um discente, que não respondeu o
QE. Por esse motivo, este estudo considerou uma população de 346 cursos, distribuídos entre
277 IES. A Tabela 6.1 exibe as frequências das respostas do QE considerando as opções da
Página 75 de 155
escala de avaliação. A porcentagem de “não respondentes” por item não ultrapassou 9,0 % e
as menores taxas de respostas válidas por item foram de 82,0 % (i53), 82,3 % (i46) e 83,2 %
(i52).

Tabela 6.1 – Distribuição das respostas do QE de acordo com as opções da escala de avaliação.
Opções da escala de avaliação do questionário
Não Respostas Respostas
Item Não sei Não se
1 2 3 4 5 6 respondentes válidas (N) válidas (%)
responder aplica
i27 66 138 519 2162 4672 8027 73 40 1532 15582 90,45
i28 100 221 644 2108 4467 7904 158 95 1532 15442 89,64
i29 182 477 1020 2774 4546 6615 47 36 1532 15612 90,63
i30 248 566 1161 2751 4209 6681 45 36 1532 15614 90,64
i31 116 307 700 1937 4392 8140 70 35 1532 15590 90,50
i32 69 199 522 1465 3936 9442 48 16 1532 15631 90,74
i33 76 203 491 1502 4349 9015 40 21 1532 15634 90,75
i34 100 213 624 1817 4420 8405 87 31 1532 15577 90,42
i35 103 246 617 1907 4470 8275 59 20 1532 15616 90,65
i36 70 185 548 2099 5053 7673 38 30 1533 15627 90,71
i37 335 556 1184 2951 4556 6039 49 26 1533 15620 90,67
i38 175 480 1127 3131 4766 5939 34 44 1533 15617 90,65
i39 130 381 955 2600 4655 6852 47 76 1533 15572 90,39
i40 508 692 1460 3133 4135 5273 138 357 1533 15200 88,23
i41 607 882 1342 2443 3647 6675 38 62 1533 15595 90,52
i42 106 259 682 1968 4451 8181 27 22 1533 15646 90,82
i43 601 771 1288 2505 3735 6508 88 200 1533 15407 89,43
i44 695 846 1364 2586 3609 6233 115 248 1533 15332 89,00
i45 411 733 1333 2553 3909 6568 59 130 1533 15506 90,01
i46 966 1075 1606 2746 2940 4856 304 1203 1533 14188 82,36
i47 375 768 1353 2893 4376 5845 46 40 1533 15609 90,60
i48 714 1101 1691 3251 3831 4984 75 49 1533 15571 90,38
i49 137 411 903 2557 4879 6732 30 47 1533 15618 90,66
i50 246 298 542 1694 3492 8435 607 382 1533 14706 85,36
i51 135 201 442 1552 3807 8628 572 359 1533 14764 85,70
i52 1763 1103 1337 2154 2702 5315 535 787 1533 14373 83,43
i53 2381 1169 1191 1825 2418 5151 687 874 1533 14134 82,04
i54 481 541 858 1942 3300 8344 80 150 1533 15465 89,77
i55 146 361 831 2447 4882 6917 50 62 1533 15583 90,45
i56 340 706 1153 2647 4201 6509 61 79 1533 15555 90,29
i57 113 350 905 2507 5019 6752 25 25 1533 15645 90,81
i58 103 287 661 1736 3954 8891 34 29 1534 15632 90,73
i59 430 621 1028 2249 4128 7126 38 75 1534 15582 90,44
i60 612 866 1323 2584 3716 6307 104 183 1534 15408 89,43
i61 393 650 1156 2406 4229 6811 33 17 1534 15645 90,81
i62 627 838 1282 2534 3924 6302 119 69 1534 15507 90,01
i63 613 855 1323 2599 3922 6163 141 79 1534 15475 89,82
i64 181 466 835 2061 4100 7926 37 89 1534 15569 90,37
i65 860 745 968 1925 3268 6869 247 813 1534 14635 84,94
i66 189 435 922 2297 4347 7220 122 163 1534 15410 89,44
i67 880 1143 1510 2699 3311 5695 175 282 1534 15238 88,44
i68 523 754 1064 1991 3575 7676 69 43 1534 15583 90,45

De acordo com Mangiafico (2016), os gráficos de distribuição são apropriados para


representação de dados na escala ordinal, assim, a Figura 6.1 apresenta os gráficos bloxplot
para a distribuição das respostas válidas de cada item do QE.

Página 76 de 155
Figura 6.1 – Gráficos boxplot das respostas do QE, por item.

Página 77 de 155
Os gráficos da Figura 6.1 mostram que os itens possuem medianas iguais a 5 (69,0 %) ou 6
(31,0 %) e apenas seis deles (i29, i39, i49, i57, i59 e i68) apresentam a média razoavelmente
próxima à mediana. Todos os itens representam uma curva de distribuição com assimetria
negativa. A amplitude varia de 1 a 6, entretanto, em 17 itens os menores valores da escala de
avaliação (1, 2 e 3) são considerados outliers (valores espúrios) do conjunto de dados. As
estatísticas descritivas das respostas dos itens do QE podem ser verificadas no Apêndice A.
Quanto à variabilidade dos dados, o item “i53” (Foram oferecidas oportunidades para os
estudantes realizarem intercâmbios e/ou estágios fora do país) possui o maior intervalo
interquartil, seguidos pelos itens “i52” (Foram oferecidas oportunidades para os estudantes
realizarem intercâmbios e/ou estágios no país) e “i46” (A instituição ofereceu oportunidades
para os estudantes atuarem como representantes em órgãos colegiados). Coincidentemente,
estes foram os itens que obtiveram as menores taxas de respostas válidas, pois muitos
estudantes assinalaram as opções “Não sei responder” ou “Não se aplica”. No mais, verifica-
se que os três itens estão relacionados à dimensão “AOF” do QE. Neste caso, deduz que ou os
estudantes não têm obtido informações suficientes sobre as OAF oferecidas pelas suas
respetivas IES, ou estas IES não têm ofertado nenhuma dessas oportunidades.
Para todos os itens a análise gráfica sugere que as respostas estão distribuídas
assimetricamente. Após a aplicação dos testes de normalidade, verificou-se que, de fato, as
respostas não seguem nem se aproximam de uma distribuição normal. Os resultados dos testes
de normalidade são apresentados no Apêndice B.
À luz dessas informações, a análise dos resultados se baseia na aplicação dos testes não
paramétricos de Kruskal-Wallis (KW) e Mann-Whitney (MW), seguidos do pós-teste (post
hoc test) de Conover-Iman e da análise do tamanho do efeito (effect size analysis),
respectivamente. O Apêndice C traz uma breve descrição desses testes e a justificativa em
relação às suas escolhas, e o Apêndice D apresenta os scripts (linhas de comando/códigos)
utilizados para a aplicação dos testes no software R.
Os testes não paramétricos, em contraste com os paramétricos, não especificam parâmetros
da população da qual a amostra foi obtida, desconsiderando o tipo de distribuição (Siegel,
1956). De acordo com Whitley e Ball (2002), os métodos não paramétricos não exigem
pressupostos rigorosos a respeito do conjunto de dados, por exemplo a normalidade de sua
distribuição.
O Quadro 6.2 apresenta os grupos avaliados e testes estatísticos aplicados para verificação
das diferenças estatísticas.

Página 78 de 155
Quadro 6.2 – Testes estatísticos aplicados para verificação das diferenças entre os grupos estudados.
Nome da
Grupos Testes estatísticos
variável
Categorias Público Teste de Mann-Whitney
administrativas Privado Teste do tamanho do efeito de Cohen
Universidade
Centro Universitário
Organizações Faculdade Teste de Kruskal-Wallis
acadêmicas Centro Federal de Educação Tecnológica Pós-teste de Conover-Iman
Instituto Federal de Ciência, Educação e
Tecnologia
Norte
Nordeste
Teste de Kruskal-Wallis
Regiões Centro-Oeste
Pós-teste de Conover-Iman
Sudeste
Sul
Níveis de Excelente
Teste de Kruskal-Wallis
qualidade dos Satisfatório
Pós-teste de Conover-Iman
cursos Insatisfatório

6.1.2. Caracterização das 277 IES e dos 346 cursos de graduação

Em relação à caracterização das IES que ofertam os cursos de EP, a Figura 6.2 mostra que
entre as IES públicas, as federais possuem maior representatividade.

Figura 6.2 – Distribuição das 277 IES de acordo com as esferas administrativas.

Privada
(217 IES) Municipal
78,00% 1,00%

Pública Federal
(60 IES) 16,00%
22,00%

Estadual
5,00%

As IES estão organizadas academicamente em cinco classes, apresentadas na Figura 6.3.


Entre essas classes, nota-se que universidades e faculdades equivalem a 76,2 %. As
faculdades apresentam a maior discrepância entre a quantidade de cursos ofertados por IES
públicas e privadas.

Página 79 de 155
Figura 6.3 – Distribuição dos 346 cursos por organização acadêmica e categoria administrativa.

120
103 Pública Privada
95
100
Quantidade de cursos
80
73
64
60

40

20
2 3 5
1
0
Universidade Centro Faculdade CEFET IF
Universitário
Organização acadêmica das IES

Dentre os 346 cursos de EP, 99,1 % são ofertados presencialmente e estão distribuídos nas
sete ênfases da EP, além da EP “plena”, que representa o maior percentual dos cursos (Tabela
6.2).

Tabela 6.2 – Distribuição dos 346 cursos em relação às ênfases da EP.


Cursos Quant. (N) Porc.(%)
Engenharia de Produção 311 89,9
Engenharia de Produção Mecânica 25 7,2
Engenharia de Produção Civil 4 1,2
Engenharia de Produção Agroindustrial 2 0,6
Engenharia de Produção Elétrica 1 0,3
Engenharia de Produção e Qualidade 1 0,3
Engenharia de Produção e Sistemas 1 0,3
Engenharia de Produção Química 1 0,3
Total 346 100,0

No que concerne à localização geográfica, a Figura 6.4 ilustra a distribuição dos cursos da
amostra nas cinco regiões brasileiras.

Página 80 de 155
Figura 6.4 – Distribuição geográfica dos 346 cursos de EP nas cinco regiões brasileiras.

Centro-Oeste
4,3%
15 cursos
Sudeste
62,7% Nordeste
217 cursos 13,9%
48 cursos

Norte
2,3%
8 cursos
Sul
16,8%
58 cursos

Entre as 23 UF representadas, SP e MG possuem a maior quantidade de cursos (Figura


5.4), consequentemente a região Sudeste se destaca entre as demais, representando 62,7 % do
total de cursos da população.
A Figura 6.5 apresenta a quantidade de cursos por esfera administrativa, levando em
consideração os resultados do Conceito ENADE 2014.

Figura 6.5 – Distribuição dos 346 cursos de acordo com o Conceito ENADE 2014.

140
130 Federal Estadual Municipal Privada
Quantidade de cursos de EP

120

100

80
70
60
45
40
19 17 16 20
20
4 5 7 3
1 2 1 2 1 0 2 0 1
0
1 2 3 4 5
Faixas do conceito ENADE

Os dados da Figura 6.5 mostram que a quantidade de cursos ofertados em IES privadas só
não é superior à quantidade ofertada em IES públicas nas faixas mais altas do Conceito
ENADE, nas quais as IES federais se sobressaem. Enquanto 50,0 % dos cursos ofertados por

Página 81 de 155
IES públicas obtiveram conceitos excelentes, 66,8 % dos cursos ofertados por IES privadas
obtiveram conceitos insatisfatórios.

6.1.3. Caracterização dos respondentes

Ao todo, 17229 concluintes dos cursos de EP realizaram o ENADE 2014. Desse total,
15680 estudantes responderam o QE, implicando em uma taxa de retorno de 91,0 %.
Em relação ao perfil dos respondentes, 78,8 % (12363 estudantes) são provenientes de IES
privadas e 68,7 % são do gênero masculino (Tabela 6.3).

Tabela 6.3 – Estatísticas descritivas das idades dos respondentes de acordo com o gênero sexual.
Sexo N ME DP 1º Q MD 3º Q Min. Max. AMP Ass. Curt.
Feminino 4906 25,58 4,39 23 24 27 19 66 47 2,13 6,63
Masculino 10774 28,60 6,35 24 27 32 18 67 49 1,42 2,29
Notas: ME = média; DP = desvio padrão; Q = quartil; MD = mediana; AMP = amplitude;
Ass. = assimetria; Curt. = curtose.

Quanto à organização acadêmica, a Figura 6.6 mostra que 79,0 % dos respondentes são
provenientes de universidades ou faculdades. A maior disparidade entre a quantidade de
respondentes em relação às categorias administrativas ocorre nos Centros Universitários. Para
essas IES, a quantidade de estudantes na categoria privada é 73 vezes maior do que na
categoria pública.

Figura 6.6 – Distribuição dos respondentes em relação à organização acadêmica e categorias


administrativas das IES.

6000
Pública Privada
4932
5000
4492
Quantidade de IES

4000
2817 2939
3000

2000

1000
40 148 172 140
0
Universidade Centro Faculdade CEFET IF
Universitário
Organização acadêmica

Página 82 de 155
A Tabela 6.4 apresenta a distribuição dos cursos e respondentes por faixa do Conceito
ENADE e mostra que a quantidade de estudantes é proporcional à quantidade de cursos e seus
respectivos conceitos. Em relação às porcentagens de estudantes em cada faixa do Conceito
ENADE, enquanto 52,4 % dos estudantes das IES públicas representam os cursos com
conceitos excelentes, 70,5 % dos estudantes das IES privadas representam os cursos com
conceitos insatisfatórios.

Tabela 6.4 – Distribuição dos cursos e respondentes por faixa do Conceito ENADE.
Níveis de qualidade Conceitos IES Públicas IES Privadas
dos cursos ENADE QE QC QE/QC QE QC QE/QC
1 159 4 39,75 2791 45 62,02
Insatisfatórios
2 328 11 29,82 5921 130 45,55
Satisfatório 3 1094 27 40,52 3193 70 45,61
4 845 20 42,25 434 16 27,13
Excelentes
5 891 22 40,50 24 1 24,00
Total 3317 84 - 12363 262 -
Notas: QE = quantidade de estudantes; QC = número de cursos; IES = Instituições de Ensino Superior.

Por fim, considerando a distribuição dos respondentes nas cinco regiões brasileiras, a
Tabela 6.5 mostra que 69,7 % dos estudantes são provenientes de cursos localizados na região
Sudeste.

Tabela 6.5 – Quantidade de respondentes por região do Brasil.


Região Quant. de estudantes Porcentagem (%)
Norte 260 1,7
Nordeste 1917 12,2
Centro-Oeste 485 3,1
Sudeste 10932 69,7
Sul 2086 13,3
Total 15680 100,0

Comparando os dados da Figura 6.4 e da Tabela 6.5, verifica-se que os estudantes estão
distribuídos proporcionalmente em relação à quantidade de cursos ofertados em cada região.

6.1.4. Discussão dos resultados

A análise exploratória permitiu a avaliação preliminar dos dados e a caracterização das


IES, dos cursos de EP e dos respondentes. O QE obteve uma taxa de retorno considerada
bastante satisfatória, sendo este fator atribuído à obrigatoriedade do preenchimento, imposta
pelo INEP desde 2011.

Página 83 de 155
Em relação às respostas, a Tabela 6.1 e a Figura 6.1 explicitam a propensão dos estudantes
em assinalar os valores mais altos da escala de avaliação (5 ou 6). Nesse sentido, considera-se
que os estudantes reconhecem que os cursos de EP oferecem condições de ensino adequadas
às suas expectativas.
Os 346 cursos equivalem a 34,0 % dos 1017 cursos de EP do Brasil, incluindo aqueles que
ainda não possuem Conceito ENADE; e 96,1 % dos cursos que já possuem este conceito. Em
adição, as 277 IES incluídas neste estudo equivalem a 36,9 % das 751 IES que ofertam os
cursos de EP no Brasil.
As características das IES quanto às esferas e categorias administrativas (Figuras 6.2 e 6.3)
e a distribuição dos cursos em relação às ênfases, níveis de qualidade e regiões brasileiras
(Tabelas 6.1 e 6.4 e Figura 6.4) são proporcionais em relação aos mesmos aspectos
apresentados no Capítulo 5, referentes ao total de cursos de EP no Brasil.
A grande quantidade de respondentes proveniente de cursos ofertados por IES privadas é
reflexo da grande expansão dessa categoria administrativa. De acordo com Oliveira et al.
(2013, p. 1) “a formação em Engenharia experimenta um grande crescimento de número de
cursos, de IES e de modalidades de Engenharia, principalmente a partir de meados da década
de 1990, notadamente no setor privado.”. Por outro lado, o crescimento dos aspectos
quantitativos no setor público, especificamente na esfera federal, foi verificado por Salerno et
al. (2014) e explicado, principalmente, pela implantação do Programa de Apoio a Planos de
Reestruturação das Universidades Federais (REUNI) em 2008.
A caracterização dos respondentes do QE revela que a maioria deles é: do gênero
masculino (Tabela 6.3), sendo este aspecto intrinsecamente ligado ao perfil dos estudantes dos
cursos de engenharia (Lombardi, 2006; Machado et al., 2015); oriunda de universidades ou
faculdades, com forte influência da categoria privada (Figura 6.6); e proveniente da região
Sudeste (Tabela 6.5).

6.2. AVALIAÇÃO DOS CURSOS DE ENGENHARIA DE PRODUÇÃO

Esta seção almeja investigar a existência de diferenças estatisticamente significantes entre


os Conceitos ENADE 2014 e os aspectos relacionados aos cursos de EP (localização
geográfica, organização acadêmica, esferas e categorias administrativas).
Os resultados do teste de MW (Tabela 6.6) corroboram com as hipóteses que há diferença
de desempenho entre os estudantes das IES públicas e privadas (U = 3770,00; Sig. < 0,01) e

Página 84 de 155
que os estudantes das IES públicas possuem desempenho superior. O teste de Cohen revela
que a diferença entre os desempenhos possui uma significância prática bastante elevada
(d = 1,2789).

Tabela 6.6 – Resultado do teste de MW para categoria administrativa.


Teste de Mann- TE de
Categorias Whitney Cohen
N RM
administrativas
U Sig. d
Pública 84 259,62
3770,00 0,0000 1,2789
Privada 262 145,89
Notas: N = quantidade de cursos; RM = ranking médio; U = estatística do teste;
Sig. = significância; TE = tamanho do efeito; d = estatística do teste.

Quanto às esferas administrativas, a Figura 6.7 mostra que, de fato, os cursos de EP


ofertados em IES federais obtiveram um Conceito ENADE 2014 superior às demais.

Figura 6.7 – Gráfico de dispersão dos cursos de EP e seus respectivos Conceitos ENADE 2014.

Na mesma linha de raciocínio, a Tabela 6.7 explicita os resultados da aplicação do teste de


KW para comparação entre os conceitos contínuos dos cursos e as organizações acadêmicas
das suas respectivas IES.

Página 85 de 155
Tabela 6.7 – Resultado do teste de KW para organização acadêmica.
Teste de Kruskal- Pós-teste de
Comparações de pares Wallis Conover-Iman
H(4) Sig. Sig
Centro Universitário vs. CEFET 0,0132
Faculdade vs. CEFET 0,0074
Faculdade vs. Centro Universitário 0,4677
IF vs. CEFET 0,9004
IF vs. Centro Universitário 0,0029
62,156 0,0000
IF vs. Faculdade 0,0010
Universidade vs. CEFET 0,2033
Universidade vs. Centro Universitário 0,0000
Universidade vs. Faculdade 0,0000
Universidade vs. IF 0,1731

Ao comparar os resultados da Tabela 6.7 com os dados da Figura 6.6, infere-se que as
diferenças estão estreitamente relacionadas à disparidade entre as quantidades de IES públicas
e privadas em cada organização acadêmica. Nota-se que as diferenças apresentam maior
significância quando as organizações acadêmicas comparadas divergem de forma expressiva
em relação à quantidade de IES públicas e privadas, exceto para o par “Faculdade versus
Centro Universitário”, que ambos possuem maior representatividade de cursos privados.
A Tabela 6.8 apresenta os rankings médios de cada organização acadêmica e mostra que os
cursos ofertados pelos CEFET e IF apresentam os maiores rankings médios. Os rankings
médios das faculdades e dos centros universitários apresentam uma discrepância significante
em relação às outras organizações acadêmicas.

Tabela 6.8 – Rankings médios por organização acadêmica.


Organização acadêmica N RM
Universidade 168 210,0893
CEFET 3 290,3333
Faculdade 104 127,5096
Centro Universitário 66 139,3030
IF 5 282,0000
Notas: N = quantidade de cursos; RM = ranking médio.

Quanto às diferenças entre as regiões do Brasil, a Tabela 6.9 mostra que os estudantes da
região Sul são os únicos que apresentam desempenho com diferenças estatisticamente
significantes em relação às demais regiões.

Página 86 de 155
Tabela 6.9 – Resultados do teste de KW e Conover-Iman para as regiões brasileiras.
Teste de Kruskal- Pós-teste de
Comparações de pares Wallis Conover-Iman
H(4) Sig. Sig
Nordeste vs. Centro-Oeste 0,4951
Norte vs. Centro-Oeste 0,3623
Norte vs. Nordeste 0,4941
Sudeste vs. Centro-Oeste 0,4318
Sudeste vs. Nordeste 0,6327
13,276 0,0100
Sudeste vs. Norte 0,4507
Sul vs. Centro-Oeste 0,0371
Sul vs. Nordeste 0,0565
Sul vs. Norte 0,0517
Sul vs. Sudeste 0,0323

A Tabela 6.10 apresenta os rankings médios dos desempenhos dos cursos em relação a
cada região.

Tabela 6.10 – Rankings médios por região.


Regiões N RM
Nordeste 48 163,0625
Sudeste 217 170,5899
Centro-Oeste 15 134,6000
Norte 8 119,3750
Sul 58 210,5517
Notas: N = quantidade de cursos; RM = ranking médio.

Os resultados das Tabelas 6.9 e 6.10 comprovam que os estudantes dos cursos de EP da
região Sul apresentam um desempenho notadamente superior aos estudantes das demais
regiões.

6.2.1. Discussão dos resultados

Nesta seção, os Conceitos do ENADE 2014, em escala contínua, foram utilizados como
parâmetros para avaliar a qualidade dos cursos de EP. Optou-se por utilizar os valores
contínuos por acreditar que eles refletem com maior precisão o nível de qualidade de cada
curso.
A comparação entre as categorias administrativas das IES revela que os estudantes
oriundos de IES privadas possuem desempenho inferior aos demais (Tabela 6.6). O debate
acerca das diferenças de desempenho entre estudantes no ENADE foi um dos fatores que
motivou o MEC a criar o IDD, visto que as IES, principalmente privadas, “[...] apontavam um
possível favorecimento de instituições públicas na obtenção de conceitos mais elevados
influenciados pelo nível dos alunos ingressantes” (Bittencourt, Casartelli, & Rodrigues, 2009,

Página 87 de 155
p. 669–670). Nesse sentido, atribui-se o melhor desempenho dos estudantes das IES públicas
no ENADE à concorrência no processo de seleção para ingresso no curso, no qual as IES
públicas conseguem selecionar os alunos com níveis mais altos de conhecimentos. Embora o
IDD justifique essa discrepância entre os níveis de conhecimento dos estudantes ao
ingressarem e concluírem o curso, infere-se que a preocupação das IES está mais voltada para
a justificativa do baixo desempenho dos estudantes no ENADE e, consequentemente, o seu
impacto no CPC, do que para o aperfeiçoamento das diretrizes curriculares com vista a formar
profissionais com níveis compatíveis de conhecimento, independentemente das categorias
administrativas das instituições de ensino.
Os resultados das Tabelas 6.7 e 6.8 corroboram com as evidências do baixo desempenho
dos estudantes das IES privadas, ao passo que mostram que os estudantes provenientes dos
CEFET e dos IF, ambos IES exclusivamente públicas federais, apresentam os melhores
desempenhos. As universidades também apresentaram um ranking médio consideravelmente
superior às faculdades e aos centros universitários, representados predominantemente por IES
privadas.
Os estudantes oriundos dos cursos de EP localizados na região Sul apresentam
desempenho superior e estatisticamente significante em relação às demais regiões do Brasil,
mesmo essa região apresentando 56,7 % dos seus cursos ofertados por IES privadas.
O Quadro 6.3 sintetiza as características dos cursos que apresentaram os melhores
Conceitos ENADE, em 2014.

Quadro 6.3 – Características dos cursos e IES cujos estudantes apresentaram os melhores
desempenhos no ENADE 2014.
Parâmetro de avaliação Resultado
Categoria Administrativa Pública
Esfera Administrativa Federal
Organização acadêmica Universidade, CEFET e IF.
Região Sul

A investigação dos dados avaliados nesta seção culmina na preocupação com a qualidade
educacional dos profissionais de EP no Brasil. Diante dos resultados do ENADE 2014 e do
panorama apresentado no Capítulo 5, infere-se que a maioria dos engenheiros de produção
formados nos anos de 2015, 2016 e 2017 é oriunda de IES privadas localizadas na região
Sudeste, não sendo estas as características dos cursos com os melhores Conceitos no ENADE
2014.

Página 88 de 155
6.3. AVALIAÇÃO DA PERCEPÇÃO DOS ESTUDANTES

A partir da percepção dos estudantes, esta seção traz em seu bojo as discussões acerca dos
aspectos que diferem os cursos de EP considerando os seus níveis de qualidade.
Dada a disparidade entre a quantidade de estudantes de IES públicas e privadas que
realizaram o ENADE 2014 e as particularidades que permeiam essas instituições, tais como:
fontes mantenedoras, desenvolvimento de atividades de pesquisa e extensão, infraestrutura
física, administração de recursos, qualificação e regime de trabalho do corpo docente, entre
outros (Brasil, 1996; Mondini & Domingues, 2005), optou-se por avaliar as percepções dos
estudantes separadamente. Nesse sentido, para organizar a disposição dos resultados e facilitar
a sua interpretação, esta seção está dividida em duas subseções: Percepção dos estudantes das
IES públicas e Percepção dos estudantes das IES privadas.

6.3.1. Percepção dos estudantes das IES públicas

Considerando os três níveis de qualidade que agrupam os cursos de acordo com os seus
respectivos Conceitos ENADE 2014, a Tabela 6.11 exibe os resultados do teste de Conover-
Iman após a aplicação do teste de KW, para as IES públicas. As linhas destacadas na cor cinza
representam os itens com diferenças estatisticamente significantes em relação aos níveis de
qualidade comparados. Os itens “i27” (As disciplinas cursadas contribuíram para sua
formação integral, como cidadão e profissional); “i37” (As relações professor-aluno ao longo
do curso estimularam você a estudar e aprender); e “i58” (Os professores utilizaram TICs
como estratégia de ensino [projetor multimídia, laboratório de informática, ambiente virtual
de aprendizagem]) apresentaram inconsistência no teste de Conover-Iman15.

15
Apesar do resultado do teste de KW indicar a existência de diferenças estatisticamente significantes para as
respostas dos estudantes entre os três níveis de qualidade dos seus respectivos cursos (grupos), em alguns casos
os resultados do pós-teste de Conover-Iman não corroboram diretamente com essa hipótese. Em outras palavras,
a comparação por pares dos itens de cada grupo é inconsistente, impossibilitando a identificação de qual grupo
especificamente avaliou melhor o item em questão. Nesses casos, considerou-se que os grupos não apresentam
diferenças estatisticamente significantes.

Página 89 de 155
Tabela 6.11 – Resultados dos testes de KW e de Conover-Iman para a percepção dos estudantes das
IES públicas.
Pós-teste de Conover-Iman
KW RM
Item EXC-INS EXC-SAT INS-SAT
H(2) Sig. EXC SAT INS t Sig. t Sig. t Sig.
i27 8,231 0,0163 1609,043 1708,604 1665,021 1,204 0,2285 2,844 0,0067 0,882 0,1889
i28 0,733 0,6932 1621,689 1651,522 1635,836 0,307 0,3796 0,854 0,5900 0,319 0,7497
i29 6,295 0,0430 1632,359 1710,065 1605,115 -0,572 0,2836 2,174 0,0447 2,075 0,0381
i30 4,604 0,1000 1622,113 1696,979 1674,603 1,099 0,2718 2,084 0,0559 0,441 0,3296
i31 25,366 0,0000 1570,876 1725,925 1741,543 3,653 0,0003 4,405 0,0000 -0,315 0,3766
i32 17,050 0,0002 1712,918 1575,686 1640,645 -1,630 0,1032 -4,114 0,0001 -1,379 0,0839
i33 24,984 0,2867 1646,605 1682,583 1609,402 -0,821 0,2060 1,054 0,2060 1,519 0,2060
i34 5,926 0,0517 1653,854 1679,947 1561,916 -1,998 0,0458 0,754 0,2254 2,414 0,0238
i35 3,410 0,1817 1653,033 1679,653 1589,500 -1,383 0,0973 0,770 0,2206 1,847 0,1668
i36 3,192 0,2027 1628,295 1681,484 1690,629 1,340 0,1803 1,521 0,1926 -0,185 0,4266
i37 8,550 0,0139 1610,261 1712,152 1682,947 1,520 0,1286 2,835 0,0069 0,575 0,2827
i38 3,813 0,1486 1626,558 1665,783 1715,049 1,865 0,0934 1,099 0,2721 -0,978 0,1642
i39 2,591 0,2738 1638,441 1687,439 1620,526 -0,381 0,3517 1,385 0,2490 1,340 0,1805
i40 0,193 0,9079 1571,612 1580,449 1591,112 0,419 1,0000 0,251 0,8015 -0,217 0,4143
i41 0,521 0,7708 1646,532 1656,633 1620,281 -0,553 0,5806 0,282 0,3889 0,721 0,7069
i42 26,158 0,0000 1677,483 1709,803 1468,602 -4,557 0,0000 0,937 0,1745 4,952 0,0000
i43 80,513 0,0000 1774,931 1529,888 1429,166 -7,492 0,0000 -7,087 0,0000 2,056 0,0199
i44 59,303 0,0000 1750,129 1554,085 1435,229 -6,768 0,0000 -5,614 0,0000 2,405 0,0081
i45 21,413 0,0000 1704,222 1620,087 1493,146 -4,504 0,0000 -2,381 0,0087 2,548 0,0109
i46 12,984 0,0015 1536,137 1527,671 1376,978 -3,511 0,0007 -0,248 0,4022 3,144 0,0017
i47 14,411 0,0007 1707,881 1613,116 1546,092 -3,389 0,0011 -2,635 0,0085 1,321 0,0934
i48 9,878 0,0072 1691,361 1624,390 1548,921 -2,971 0,0045 -1,852 0,0640 1,480 0,0695
i49 7,617 0,0222 1673,004 1676,360 1549,895 -2,614 0,0135 0,095 0,4624 2,526 0,0116
i50 5,243 0,0727 1532,008 1476,051 1449,909 -1,939 0,0789 -1,732 0,0833 0,579 0,2813
i51 6,869 0,0322 1440,616 1484,226 1548,683 2,555 0,0160 1,342 0,0899 -1,438 0,1506
i52 57,995 0,0000 1689,392 1492,018 1387,246 -6,585 0,0000 -5,704 0,0000 2,148 0,0159
i53 247,380 0,0000 1830,182 1429,059 1212,853 -13,973 0,0000 -12,139 0,0000 4,596 0,0000
i54 7,694 0,0213 1648,326 1575,476 1704,636 1,192 0,1167 -2,054 0,0400 -2,574 0,0152
i55 1,855 0,3956 1638,806 1616,148 1683,957 0,963 0,3357 -0,641 0,2609 -1,361 0,2605
i56 0,175 0,9162 1648,845 1663,524 1657,812 0,190 0,8496 0,412 1,0000 0,114 0,4547
i57 24,706 0,0000 1731,542 1588,767 1544,790 -3,975 0,0001 -4,039 0,0001 0,881 0,1891
i58 6,563 0,0376 1696,548 1612,843 1625,512 -1,539 0,1238 -2,409 0,0240 -0,258 0,3980
i59 7,334 0,0256 1666,907 1656,795 1540,811 -2,661 0,0118 -0,284 0,3884 2,306 0,0212
i60 0,505 0,7768 1653,217 1650,579 1619,946 -0,698 0,7281 -0,074 0,4706 0,605 0,5455
i61 20,344 0,0000 1682,689 1697,847 1483,525 -4,185 0,0000 0,423 0,3360 4,240 0,0000
i62 30,363 0,0000 1705,968 1575,453 1467,810 -5,044 0,0000 -3,657 0,0003 2,146 0,0160
i63 33,484 0,0000 1707,514 1544,947 1482,272 -4,788 0,0000 -4,558 0,0000 1,253 0,1052
i64 30,186 0,0000 1703,215 1514,519 1693,044 -0,217 0,4142 -5,333 0,0000 -3,589 0,0003
i65 15,847 0,0004 1555,423 1422,637 1460,242 -2,114 0,0346 -3,860 0,0002 -0,786 0,2159
i66 0,364 0,8336 1608,319 1628,596 1608,230 -0,002 0,4992 0,576 0,8467 0,411 0,6810
i67 2,525 0,2829 1638,485 1582,317 1628,355 -0,214 0,4154 -1,569 0,1753 -0,914 0,3607
i68 7,811 0,0201 1690,257 1622,501 1568,703 -2,532 0,0171 -1,875 0,0609 1,055 0,1457
Notas: KW = Kruskal-Wallis; RM = ranking médio; EXC = Excelente; SAT = Satisfatório; INS = Insatisfatório; Sig. =
Significância; t = estatística do teste de Conover-Iman.

Na Tabela 6.11, os valores em negrito destacam os níveis de qualidade dos cursos cujos
itens obtiveram os maiores rankings médios, ou seja, foram melhor avaliados pelos
estudantes. Dentre os 25 itens que apresentam diferenças estatisticamente significantes:
quatorze estão relacionados aos cursos excelentes; quatro aos cursos excelentes e
insatisfatórios; seis aos cursos excelentes e satisfatórios; e um aos cursos satisfatórios e
insatisfatórios. Nenhum item está relacionado apenas aos cursos satisfatórios ou
insatisfatórios.

Página 90 de 155
6.3.2. Percepção dos estudantes das IES privadas

A Tabela 6.12 exibe os resultados do teste de Conover-Iman após a aplicação do teste de


KW, para as IES privadas. A cor das linhas e o destaque em negrito dos rankings médios
possuem os mesmos significados dos discutidos na Tabela 6.11.
Neste caso, nove itens apresentaram inconsistência no teste de Conover-Iman: “i27” (As
disciplinas cursadas contribuíram para sua formação integral, como cidadão e profissional);
“i28” (Os conteúdos abordados nas disciplinas do curso favoreceram sua atuação em estágios
ou em atividades de iniciação profissional); “i29” (As metodologias de ensino utilizadas no
curso desafiaram você a aprofundar conhecimentos e desenvolver competências reflexivas e
críticas); “i33” (O curso possibilitou aumentar sua capacidade de reflexão e argumentação);
“i35” (O curso contribuiu para você ampliar sua capacidade de comunicação nas formas oral e
escrita); “i37” (As relações professor-aluno ao longo do curso estimularam você a estudar e
aprender); “i38” (Os planos de ensino apresentados pelos professores contribuíram para o
desenvolvimento das atividades acadêmicas e para seus estudos.); “i39” (As referências
bibliográficas indicadas pelos professores nos planos de ensino contribuíram para seus
estudos e aprendizagens.); e “i55” (As avaliações da aprendizagem realizadas durante o curso
foram compatíveis com os conteúdos ou temas trabalhados pelos professores). Todos os itens
estão relacionados à dimensão ODP do QE.

Página 91 de 155
Tabela 6.12 – Resultados dos testes de KW e de Conover-Iman para a percepção dos estudantes das
IES privadas.
Pós-teste de Conover-Iman
KW RM
Item EXC-INS EXC-SAT INS-SAT
H(2) Sig. EXC SAT INS t Sig. t Sig. t Sig.
i27 28,066 0,0000 6000,276 5897,651 6239,572 1,574 0,1156 -0,648 0,2586 -5,213 0,0000
i28 6,287 0,0431 6004,095 5974,370 6135,025 0,854 0,3930 -0,186 0,4262 -2,441 0,0220
i29 13,755 0,0010 6162,365 5966,721 6221,022 0,369 0,3559 -1,182 0,2371 -3,710 0,0003
i30 40,375 0,0000 6175,146 5834,117 6269,829 0,597 0,2751 -2,065 0,0390 -6,362 0,0000
i31 24,335 0,0000 6210,118 5911,347 6233,114 0,152 0,4397 -1,891 0,0586 -4,919 0,0000
i32 0,588 0,7452 6054,347 6155,049 6166,651 0,761 0,6700 0,655 0,5126 -0,183 0,4276
i33 4,914 0,0857 6258,243 6061,790 6198,012 -0,403 0,3434 -1,262 0,2068 -2,119 0,0512
i34 2,891 0,2357 6241,825 6062,255 6163,967 -0,511 0,3047 -1,131 0,2580 -1,552 0,1812
i35 14,276 0,0008 6131,004 5974,991 6224,570 0,610 0,2708 -0,977 0,3287 -3,776 0,0002
i36 15,254 0,0005 6232,803 5967,567 6226,098 -0,043 0,4827 -1,647 0,0996 -3,876 0,0002
i37 42,554 0,0000 6102,297 5828,499 6279,862 1,106 0,1345 -1,636 0,1018 -6,525 0,0000
i38 19,070 0,0001 6179,454 5934,790 6237,229 0,360 0,3593 -1,464 0,1432 -4,368 0,0000
i39 8,111 0,0173 6058,866 5997,829 6189,179 0,825 0,4095 -0,371 0,3555 -2,804 0,0076
i40 9,620 0,0081 6275,666 5879,076 6062,901 -1,318 0,0938 -2,356 0,0185 -2,638 0,0125
i41 24,125 0,0000 6680,757 5953,845 6197,701 -3,001 0,0013 -4,334 0,0000 -3,521 0,0004
i42 0,982 0,6121 6291,555 6186,800 6152,480 -0,900 0,5522 -0,651 0,5153 0,515 0,3031
i43 37,694 0,0000 6505,281 6318,422 5942,419 -3,509 0,0005 -1,118 0,1318 5,423 0,0000
i44 38,225 0,0000 6437,289 6294,351 5906,841 -3,298 0,0010 -0,853 0,1968 5,589 0,0000
i45 26,518 0,0000 6345,639 6348,111 6007,644 -2,100 0,0357 0,015 0,4941 4,919 0,0000
i46 3,783 0,1508 5851,070 5625,795 5558,576 -1,775 0,1139 -1,315 0,1887 0,985 0,1624
i47 2,585 0,2746 6401,342 6145,065 6142,166 -1,601 0,1640 -1,519 0,1287 0,042 0,4834
i48 2,686 0,2611 6261,288 6058,781 6160,629 -0,612 0,2703 -1,181 0,2374 -1,439 0,2251
i49 4,781 0,0916 6484,803 6142,630 6140,732 -2,175 0,0445 -2,076 0,0379 0,028 0,4889
i50 8,154 0,0170 5450,929 5843,606 5876,429 2,850 0,0066 2,528 0,0115 -0,518 0,3021
i51 1,972 0,3731 6112,204 5893,590 5907,760 -1,352 0,1765 -1,392 0,2459 -0,227 0,4101
i52 145,920 0,0000 6436,956 6094,103 5373,862 -6,896 0,0000 -2,137 0,0163 10,773 0,0000
i53 290,940 0,0000 6619,586 6116,610 5123,022 -10,055 0,0000 -3,249 0,0006 15,217 0,0000
i54 28,658 0,0000 6815,703 6166,921 6038,999 -5,178 0,0000 -4,150 0,0000 1,973 0,0242
i55 7,788 0,0204 6226,482 6015,522 6201,684 -0,158 0,4373 -1,288 0,1979 -2,750 0,0090
i56 3,537 0,1706 6389,705 6077,192 6126,495 -1,645 0,0999 -1,875 0,0913 -0,714 0,2376
i57 9,480 0,0087 6455,300 6035,147 6199,530 -1,620 0,0526 -2,554 0,0160 -2,414 0,0158
i58 57,254 0,0000 6829,524 6411,986 6030,109 -5,374 0,0000 -2,693 0,0035 5,938 0,0000
i59 90,191 0,0000 7150,105 6445,770 5984,818 -7,409 0,0000 -4,298 0,0000 6,812 0,0000
i60 57,990 0,0000 6824,085 6315,740 5921,168 -5,675 0,0000 -3,066 0,0011 5,733 0,0000
i61 38,266 0,0000 6663,203 6408,727 6049,236 -3,874 0,0001 -1,540 0,0617 5,251 0,0000
i62 93,553 0,0000 6742,096 6547,263 5940,154 -5,036 0,0000 -1,174 0,1202 8,829 0,0000
i63 91,740 0,0000 6755,744 6529,349 5933,221 -5,156 0,0000 -1,362 0,0867 8,657 0,0000
i64 94,644 0,0000 7017,371 6480,392 5977,959 -6,868 0,0000 -3,404 0,0003 7,692 0,0000
i65 63,125 0,0000 6527,385 6093,951 5683,011 -5,636 0,0000 -2,772 0,0028 6,255 0,0000
i66 7,117 0,0285 6341,030 6184,436 6043,907 -1,893 0,0583 -0,958 0,1691 2,085 0,0556
i67 16,937 0,0002 6419,598 6141,844 5927,348 -3,064 0,0022 -1,659 0,0485 3,090 0,0030
i68 46,033 0,0000 6666,115 6401,119 6019,717 -4,230 0,0000 -1,664 0,0481 5,776 0,0000
Notas: KW = Kruskal-Wallis; RM = ranking médio; EXC = Excelente; SAT = Satisfatório; INS = Insatisfatório; Sig. =
Significância; t = estatística do teste de Conover-Iman.

Na Tabela 6.12, dentre os 25 itens que apresentam diferenças estatisticamente


significantes: dezesseis estão relacionados aos cursos excelentes; cinco aos cursos excelentes
e satisfatórios; três aos cursos excelentes e insatisfatórios; e um aos cursos satisfatórios e
insatisfatórios. O detalhamento das discussões sobre esses itens é apresentado na próxima
subseção.

Página 92 de 155
6.3.3. Discussão dos resultados

A avaliação da percepção dos estudantes visa compreender como eles avaliam as


condições do processo formativo considerando o nível de qualidade dos seus respectivos
cursos e as categorias administrativas das suas IES. Em outras palavras, busca-se responder às
seguintes questões de pesquisa: “A percepção dos estudantes sobre as condições do processo
formativo condiz com o nível de qualidade dos seus respectivos cursos?” e “Quais os aspectos
que diferenciam os cursos de EP ofertados por IES públicas e privadas em relação os níveis
de qualidade do Conceito ENADE 2014?”.
Além dos valores exibidos nas Tabelas 6.11 e 6.12, a avaliação dos resultados foi feita
juntamente com a análise das distribuições de frequência das respostas para cada item do QE,
conforme os gráficos expostos no Apêndice E. Os resultados revelam que existem diferenças
entre a percepção dos estudantes provenientes de IES públicas e privadas e que em todos os
itens a frequência da quantidade de respostas, considerando os três níveis de qualidade dos
cursos, é maior para os valores mais altos da escala de avaliação do QE, principalmente para
cursos ofertados por IES privadas. Nesses termos, destaca-se que mesmo nos cursos com
conceitos insatisfatórios, os estudantes assinalaram, para a maioria dos itens, os valores mais
altos da escala de avaliação.
Ante o exposto, pressupõe-se que a maioria dos estudantes dos cursos insatisfatórios
reconheceu que os seus respectivos cursos ofereceram condições satisfatórias de ensino e
infraestrutura, entretanto essas condições não se refletiram no desempenho deles no ENADE
2014 e, consequentemente no Conceito ENADE do curso, logo há controvérsias entre a
percepção de alguns estudantes e o desempenho deles no exame. À luz disso, sugerem-se três
hipóteses: a primeira é que os estudantes, principalmente das IES privadas, avaliaram os
cursos erroneamente, deixando de apontar as deficiências do processo formativo; a segunda é
que as IES de fato ofereceram condições de ensino satisfatórias, entretanto, essas condições,
apesar de percebida pelos alunos, não impactaram positivamente no desempenho deles no
exame; e por fim, a terceira hipótese está relacionada a um possível boicote, no qual os
estudantes foram orientados/estimulados a avaliar satisfatoriamente os cursos. Contudo,
qualquer que seja a hipótese, a opinião dos estudantes a respeito da qualidade do curso deve
ser considerada com cautela no processo de tomada de decisões sobre os aspectos qualitativos
dos curso.
O Quadro 6.4 exibe os nove aspectos que tanto na Tabela 6.11 quanto na 6.12 não
apresentam diferenças estatisticamente significantes, logo são comuns entre os cursos

Página 93 de 155
avaliados, independente das categorias administrativas das IES e dos níveis de qualidade dos
cursos. Alguns dos aspectos apresentados na Quadro 6.4 merecem ser destacados, como o
desenvolvimento de competências transversais (pensamento crítico, ética profissional,
comunicação, autoaprendizagem), a atuação profissional e a disponibilidade dos professores
fora dos horários de aula, e a utilização de referências bibliográficas que contribuíram com o
processo de ensino-aprendizagem dos estudantes. No mais, ressalta-se que nenhum desses
aspectos está ligado à dimensão “OAF” do QE.

Quadro 6.4 – Itens comuns aos 346 cursos avaliados no ENADE 2014.
Item Descrição Dim.
i27 As disciplinas cursadas contribuíram para sua formação integral, como cidadão e profissional. ODP
Os conteúdos abordados nas disciplinas do curso favoreceram sua atuação em estágios ou em atividades de
i28 ODP
iniciação profissional.
i33 O curso possibilitou aumentar sua capacidade de reflexão e argumentação. ODP
i35 O curso contribuiu para você ampliar sua capacidade de comunicação nas formas oral e escrita. ODP
i37 As relações professor-aluno ao longo do curso estimularam você a estudar e aprender. ODP
Os planos de ensino apresentados pelos professores contribuíram para o desenvolvimento das atividades
i38 ODP
acadêmicas e para seus estudos.
i39 As referências bibliográficas indicadas pelos professores nos planos de ensino contribuíram para seus ODP
estudos e aprendizagens.
As avaliações da aprendizagem realizadas durante o curso foram compatíveis com os conteúdos ou temas
i55 ODP
trabalhados pelos professores.
i56 Os professores apresentaram disponibilidade para atender os estudantes fora do horário das aulas. IIF

Os itens que apresentam diferenças estatisticamente significantes nas Tabelas 6.11 ou 6.12
são discutidos separadamente a partir das dimensões do QE. O Quadro 6.5 apresenta os itens
da dimensão “OAF”, o Quadro 6.6 apresenta os itens da dimensão “IIF” e o Quadro 6.7 os
itens da dimensão “ODP”.
Os itens do Quadro 6.5 estão relacionados principalmente aos cursos excelentes. O item
“i46” é estatisticamente significante para as IES públicas e o item “i67” para as IES privadas.
Nesse sentido, infere-se que ao passo em que os cursos com Conceitos ENADE 2014
excelente e satisfatório ofertados por IES públicas se diferenciaram dos demais por meio da
maior participação dos estudantes nos órgãos colegiados, os cursos com Conceito ENADE
2014 excelentes das IES privadas buscaram a maior interação social dos estudantes por meio
de atividades de cultura e lazer. No mais, enquanto as oportunidades para os estudantes
participarem de projetos de iniciação científica e de atividades que estimularam a investigação
acadêmica (i44), além de eventos internos e/ou externos à instituição (i45), foram oferecidas
pelos cursos com Conceitos ENADE 2014 excelente e satisfatório das IES privadas, apenas os
cursos das IES públicas com Conceitos ENADE 2014 excelentes ofertaram essa chance aos
seus estudantes.

Página 94 de 155
Quadro 6.5 – Itens da dimensão “OAF” que apresentam diferença estaticamente significantes.
IES públicas IES privadas
Item Descrição
EXC SAT INS EXC SAT INS
Foram oferecidas oportunidades para os estudantes participarem de
i43
programas, projetos ou atividades de extensão universitária.
Foram oferecidas oportunidades para os estudantes participarem de
i44 projetos de iniciação científica e de atividades que estimularam a
investigação acadêmica.
O curso ofereceu condições para os estudantes participarem de eventos
i45
internos e/ou externos à instituição.
A instituição ofereceu oportunidades para os estudantes atuarem como
i46
representantes em órgãos colegiados.
Foram oferecidas oportunidades para os estudantes realizarem
i52
intercâmbios e/ou estágios no país.
Foram oferecidas oportunidades para os estudantes realizarem
i53
intercâmbios e/ou estágios fora do país.
A instituição promoveu atividades de cultura, de lazer e de interação
i67
social.

O Quadro 6.6 mostra que os cursos ofertados por IES privadas, sobretudo os que obtiveram
Conceito ENADE 2014 excelente, foram bem avaliados em relação à infraestrutura física
oferecida. É pertinente destacar que os item “i41”, “i58” e “i60” não apresentaram diferenças
estatisticamente significante entre os cursos ofertados por IES públicas, entretanto, na esfera
privada, eles são os aspectos que diferenciam os cursos com Conceitos ENADE excelentes
dos demais. Estes itens versam sobre a disponibilidade do coordenador do curso para atender
os alunos, a utilização de TICs como estratégias de ensino e a disponibilidade de monitores ou
tutores para auxiliar os estudantes. Os itens “i54” (Os estudantes participaram de avaliações
periódicas do curso [disciplinas, atuação dos professores, infraestrutura]) e “i64” foram
melhor avaliados pelos estudantes dos cursos com conceitos insatisfatórios e excelentes, na
esfera pública, e apenas pelos estudantes dos cursos com conceitos ENADE 2014 excelente,
na esfera privada. Em adição, verifica-se que as condições adequadas de infraestrutura das
salas de aula, assim como a quantidade de equipamentos e materiais disponíveis para as aulas
práticas são aspectos que se relacionam aos cursos com Conceitos ENADE 2014 satisfatório e
excelente.

Página 95 de 155
Quadro 6.6 – Itens da dimensão “IIF” que apresentam diferença estaticamente significantes.
IES públicas IES privadas
Item Descrição
EXC SAT INS EXC SAT INS
A coordenação do curso esteve disponível para orientação acadêmica dos
i41
estudantes.
Os estudantes participaram de avaliações periódicas do curso (disciplinas,
i54
atuação dos professores, infraestrutura).
Os professores utilizaram tecnologias da informação e comunicação
i58 (TICs) como estratégia de ensino (projetor multimídia, laboratório de
informática, ambiente virtual de aprendizagem).
A instituição dispôs de quantidade suficiente de funcionários para o apoio
i59
administrativo e acadêmico.
i60 O curso disponibilizou monitores ou tutores para auxiliar os estudantes.
i61 As condições de infraestrutura das salas de aula foram adequadas.
Os equipamentos e materiais disponíveis para as aulas práticas foram
i62
adequados para a quantidade de estudantes.
Os ambientes e equipamentos destinados às aulas práticas foram
i63
adequados ao curso.
A biblioteca dispôs das referências bibliográficas que os estudantes
i64
necessitaram.
A instituição contou com biblioteca virtual ou conferiu acesso a obras
i65
disponíveis em acervos virtuais.
A instituição dispôs de refeitório, cantina e banheiros em condições
i68
adequadas que atenderam as necessidades dos seus usuários.

Em relação à dimensão “ODP”, os itens do Quadro 6.7 apresentam maior variabilidade


tanto em relação aos níveis de qualidade dos cursos quanto em relação às categorias
administrativas das IES.
Os itens “i29” e “i32” apresentaram diferenças estatisticamente significantes entre os
cursos ofertados por IES públicas, sendo melhor avaliado pelos estudantes dos cursos com
Conceitos ENADE 2014 excelente e insatisfatório. Considerando que as respostas do
estudantes das IES privadas não apresentaram diferenças estatisticamente significantes,
infere-se que os estudantes dos cursos ofertados por essas instituições, independentemente do
nível de qualidade, consideram que as metodologias de ensino utilizadas no curso os
desafiaram a aprofundar conhecimentos e desenvolver competências reflexivas e críticas (i29)
e que o curso possibilitou desenvolver competências relacionadas ao trabalho em equipe (i32).
Em contraste, os itens “i30” e “i36” apresentaram diferenças estatisticamente significantes
entre os cursos ofertados por IES privadas, sendo também melhor avaliado pelos estudantes
dos cursos com Conceitos ENADE 2014 excelente e insatisfatório. Por outro lado, as
respostas do estudantes das IES públicas não apresentam diferenças estatisticamente
significantes, logo, infere-se que os estudantes dos cursos ofertados por essas instituições,
independentemente do nível de qualidade, consideram que o curso propiciou experiências de
aprendizagem inovadoras (i30) e que contribuiu para o desenvolvimento da capacidade de
aprender e atualizar-se permanentemente (i36).

Página 96 de 155
Quadro 6.7 – Itens da dimensão “ODP” que apresentam diferença estaticamente significantes.
IES públicas IES privadas
Item Descrição
EXC SAT INS EXC SAT INS
As metodologias de ensino utilizadas no curso desafiaram você a
i29 aprofundar conhecimentos e desenvolver competências reflexivas e
críticas.
i30 O curso propiciou experiências de aprendizagem inovadoras.
O curso contribuiu para o desenvolvimento da sua consciência ética para o
i31
exercício profissional.
i32 No curso você teve oportunidade de aprender a trabalhar em equipe.
O curso promoveu o desenvolvimento da sua capacidade de pensar
i34 criticamente, analisar e refletir sobre soluções para problemas da
sociedade.
O curso contribuiu para o desenvolvimento da sua capacidade de aprender
i36
e atualizar-se permanentemente.
Foram oferecidas oportunidades para os estudantes superarem dificuldades
i40
relacionadas ao processo de formação.
i42 O curso exigiu de você organização e dedicação frequente aos estudos.
O curso favoreceu a articulação do conhecimento teórico com atividades
i47
práticas.
As atividades práticas foram suficientes para relacionar os conteúdos do
i48
curso com a prática, contribuindo para sua formação profissional.
O curso propiciou acesso a conhecimentos atualizados e/ou
i49
contemporâneos em sua área de formação.
O estágio supervisionado proporcionou experiências diversificadas para a
i50
sua formação.
As atividades realizadas durante seu trabalho de conclusão de curso
i51
contribuíram para qualificar sua formação profissional.
Os professores demonstraram domínio dos conteúdos abordados nas
i57
disciplinas.
As atividades acadêmicas desenvolvidas dentro e fora da sala de aula
i66
possibilitaram reflexão, convivência e respeito à diversidade.

Dando continuidade à discussão dos resultados do Quadro 6.7, destaca-se que os


estudantes dos cursos com Conceito ENADE 2014 insatisfatório, tanto das IES públicas
quanto das privadas, consideram que o curso contribuiu para o desenvolvimento da
consciência ética para o exercício profissional (i31).
Os itens “i34”, “i42”, “i47” e “i51” não apresentaram diferenças estatisticamente
significantes nas respostas dos estudantes dos cursos ofertados por IES privadas, entretanto,
no âmbito das IES públicas, eles foram melhor avaliados pelos estudantes dos cursos com
Conceitos ENADE 2014 excelente e satisfatório. A par disso, salienta-se que os cursos
satisfatórios e excelentes ofertados por IES públicas se diferenciaram dos cursos
insatisfatórios por promoverem o desenvolvimento da capacidade de pensar criticamente,
analisar e refletir sobre soluções para problemas da sociedade (i34); exigirem dos estudantes
organização e dedicação frequente aos estudos (i42); favorecerem a articulação do
conhecimento teórico com atividades práticas (i47); e instigarem a qualificação profissional
por meio das atividades realizadas durante a execução do trabalho de conclusão do curso.

Página 97 de 155
Os itens “i40” e “i66” não apresentaram diferenças estatisticamente significantes nas
respostas dos estudantes dos cursos ofertados por IES públicas, todavia, eles foram melhor
avaliados pelos estudantes dos cursos com Conceitos ENADE 2014 excelente e satisfatório,
na categoria privada. Nesses termos, ressalta-se que os cursos satisfatórios e excelentes
ofertados por IES privadas se diferenciaram dos cursos insatisfatórios por oferecerem
oportunidades para os estudantes superarem dificuldades relacionadas ao processo de
formação (i40) e por desenvolverem atividades acadêmicas que possibilitaram reflexão,
convivência e respeito à diversidade.
Tanto na categoria pública quanto na privada, os estudantes dos cursos com Conceitos
ENADE 2014 excelente e satisfatório se diferenciam dos demais em relação à três aspectos: o
acesso a conhecimentos atualizados e/ou contemporâneos da área de formação (i49); a chance
de passar por experiências diversificadas durante o estágio supervisionado (i50); e o domínio
dos professores sobre os conteúdos abordados nas disciplinas (i57).
A relação entre os níveis de qualidade dos cursos e as dimensões do QE permitiu a
verificação de que os estudantes dos cursos com os maiores Conceitos ENADE 2014
avaliaram melhor os itens relacionado às dimensões “IIF” e “OAF” do QE. A partir dos
Quadro 6.5, 6.6 e 6.7, a Figura 6.8 apresenta a relação entre a percepção dos estudantes de
acordo com as dimensões do QE e os níveis de qualidade dos seus respectivos cursos.

Figura 6.8 – Relação entre os níveis de qualidade dos cursos e as dimensões do QE.

Cursos satisfatórios e insatisfatórios


Cursos excelentes e insatisfatórios
Cursos excelentes e satisfatórios
Cursos excelentes
ODP IIF OAF
Questionário do estudante

Página 98 de 155
Capítulo 7____________________________
Conclusão e considerações finais

Este estudo objetivou investigar a qualidade do ensino de Engenharia de Produção (EP) no


Brasil a partir dos resultados do Sistema Nacional de Avaliação da Educação Superior
(SINAES) e da percepção dos discentes sobre as condições do processo formativo. Com isso,
almeja-se gerar informações norteadoras sobre o panorama atual do ensino de EP nas
Instituições de Ensino Superior (IES) brasileiras.
A educação superior, caracterizada pelo processo de formação profissional por meio da
prestação de serviços educacionais, representa um sistema complexo, dinâmico e abrangente.
Essas características ampliam e diversificam as discussões sobre a gestão da qualidade nesse
nível de ensino. À luz disso, conclui-se que a gestão da qualidade do ensino superior estimula
o aperfeiçoamento dos cursos de graduação e das IES por meio de instrumentos que permitem
regulamentar, controlar, melhorar e estabelecer padrões básicos de qualidade para a formação
dos mais diversos profissionais.
No âmbito dos cursos de EP, a partir dos aspectos quantitativos, é notório que a criação de
novos cursos tem ocorrido desenfreadamente, principalmente no setor privado. A par disso,
destaca-se que apenas 13,3 % destes cursos são ofertados por IES públicas. Como
consequência do crescimento, a quantidade de vagas ofertadas tem sido superior à quantidade
de ingressantes, implicando em uma ociosidade de 84,1 % nas IES privadas e de 34,6 % nas
IES públicas, em 2016. Esses fatores se tornam agravantes ao passo em que as quantidades de
matrículas desvinculadas e alunos transferidos para outros cursos da mesma IES também têm
aumentado de forma expressiva (Figura 5.8).
As IES brasileiras têm formado cerca de 12,6 mil engenheiros de produção por ano, sendo
79,0 % desses profissionais provenientes de IES privadas. Em adição, para os anos de 2011 a
2016 o número de matrículas nas IES privadas foi, no mínimo, quatro vezes maior que nas
IES públicas. Assim, infere-se que durante os próximos anos grande parte dos engenheiros de
produção do Brasil será proveniente de IES privadas.
No que diz respeito à qualidade dos cursos e das IES, percebe-se que como consequência
da criação de vários cursos em um curto espaço de tempo, apenas 29,8 % possuem o Conceito
ENADE (Exame Nacional de Desempenho de Estudantes). Essa porcentagem é ainda menor

Página 99 de 155
em relação ao Conceito Preliminar do Curso (CPC), que utiliza o Conceito ENADE como um
dos seus principais insumos.
A Tabela 7.1 sintetiza os resultados das avaliações do SINAES, considerando os três
indicadores de qualidade.

Tabela 7.1 – Síntese dos indicadores de qualidade dos cursos de EP.


Cursos IES
Níveis de Faixas dos
ENADE 2014 CPC 2014 IGC 2015
qualidade conceitos
PUB PRI Total PUB PRI Total PUB PRI Total
1 4 47 51 0 0 0 0 0 0
Insatisfatório
2 12 133 145 7 40 47 1 27 28
Satisfatório 3 27 75 102 30 141 171 29 478 507
4 21 18 39 29 37 66 37 108 145
Excelente
5 22 1 23 2 3 5 8 0 8
SC 39 618 657 57 671 728 3 60 63
Notas: PUB = Público; PRI = Privado; SC = Sem conceito
Fonte: Dados compilados de MEC (2017).

Os números da Tabela 7.1 evidenciam que os indicadores CPC e Conceito ENADE


possuem uma quantidade alarmante de cursos sem conceito ou com conceito insatisfatório,
principalmente na categoria privada. O Índice Geral de Cursos (IGC), por avaliar a IES de
forma global, considerando todos os cursos e programas de pós-graduação stricto sensu,
possui uma quantidade baixa de IES sem conceito. Entretanto, infere-se que, considerando
que a maioria dos cursos de EP não possui o CPC, este indicador não influenciou no cálculo
do IGC das IES. Sob essa ótica, acredita-se que este é o conceito que mais se distancia da
realidade qualitativa dos cursos de EP.
Em suma, ao avaliar os aspectos quantitativos e qualitativos dos cursos de EP, conclui-se
que apesar do crescimento em relação às quantidades de cursos, ingressantes, matrículas,
concluintes, e à expansão geográfica, ainda existe um longo caminho a ser trilhado rumo à
consolidação efetiva do ensino de EP do Brasil.
Considerando os resultados do Conceito ENADE 2014, conclui-se que os cursos cujos
estudantes apresentaram o melhor desempenho no exame são ofertados por IES públicas,
principalmente federais (Tabela 6.6 e Figura 6.7), destacando-se os Centros Federais de
Educação Tecnológica (CEFET), os Institutos Federais de Educação, Ciência e Tecnologia
(IF) e as Universidades (Tabela 6.8). Em adição, enfatiza-se que os estudantes oriundos de
cursos ofertados na região Sul apresentaram desempenho consideravelmente superior aos
demais (Tabela 6.10). O fato das demais regiões não apresentarem diferenças estatisticamente
significantes em relação ao desempenho dos seus estudantes, aliado à baixa quantidade de

Página 100 de 155


cursos com nível de qualidade excelente (Tabela 7.1), pode significar a precariedade em
massa no ensino de EP no Brasil. Obviamente, existem exceções em relação à esta conclusão.
No que se refere à avaliação da percepção dos estudantes sobre a qualidade do processo
formativo, conclui-se que, no geral, os cursos de EP têm ofertado condições bastante
satisfatórias em relação às três dimensões avaliadas no Questionário do Estudante (QE). No
entanto, enfatiza-se que para os cursos insatisfatórios essas condições não refletiram no
desempenho da maioria dos estudantes. A par disso, notou-se que os estudantes dos cursos
com Conceito ENADE 2014 insatisfatório tenderam a avaliar a qualidade dos seus cursos
melhor do que a realidade, assinalando os valores mais altos da escala de avaliação,
principalmente no âmbito das IES privadas (Apêndice E). Considerando que tanto o Conceito
ENADE quanto as notas referentes à percepção dos estudantes são insumos no cálculo do
CPC (Tabela 3.3), infere-se que o baixo desempenho dos estudantes no exame foi, de certa
forma, compensado pela boa avaliação dos cursos no QE. Desse modo, conclui-se que o
cálculo do CPC “disfarçou” a realidade qualitativa do ensino de EP, mesmo em proporções
pequenas, haja vista que as repostas dos estudantes equivalem a apenas 15,0 % desse
indicador.
A percepção dos estudantes avaliada por meio do QE mostra que existem aspectos comuns
a todos os cursos de EP (Quadro 6.4) enquanto outros divergem considerando os níveis de
qualidade dos cursos e as categorias administrativas das IES (Quadro 6.5, 6.6 e 6.7). A partir
da avaliação dos itens do QE que apresentaram diferença estatisticamente significantes
(Tabelas 6.11 e 6.12), conclui-se que os estudantes dos melhores cursos avaliaram melhor as
dimensões “Infraestrutura e instalações físicas” e “Oportunidades de ampliação da formação
acadêmica e profissional”, que estão relacionadas aos aspectos tangíveis e intangíveis que
interferem nas experiências educacionais dos estudantes e às estratégias que buscam
diferenciar a formação do perfil profissional dos estudantes por meio de atividades que
extrapolam os muros das IES (Figura 6.8).
Por fim, espera-se que durante o ciclo avaliativo de 2017 grande parte dos cursos de EP
seja avaliada pelo SINAES e tenha os seus conceitos ENADE e CPC computados. Desse
modo, a partir de 2018, será possível delinear conclusões mais específicas e atuais a respeito
da qualidade do ensino desses cursos e do panorama da EP no Brasil.

Página 101 de 155


7.1. LIMITAÇÕES DO TRABALHO

As limitações deste estudo envolvem, principalmente, três aspectos. O primeiro aspecto diz
respeito ao acesso e à dinamicidade do sistema e-MEC. Durante a coleta de dados, nem
sempre o sistema e-MEC esteve disponível para consulta, principalmente devido a problemas
no servidor do MEC. Além disso, percebeu-se que devido ao fato desse sistema ser atualizado
em tempo real, as informações coletadas podem variar em um curto espaço de tempo,
principalmente em relação à quantidade de cursos. Assim, a coleta das informações para a
organização da base de dados definitiva deste estudo foi realizada após o acompanhamento do
sistema durante seis meses e a verificação dos níveis de alteração das informações.
O segundo aspecto limitante foi a utilização do Conceito ENADE 2014 como critério para
a determinação do níveis de qualidade dos cursos e, posteriormente, categorização das
respostas do QE. Apesar de influenciar expressivamente no cálculo do CPC e,
consequentemente, no IGC, admite-se que os resultados do Conceito ENADE não são os
únicos critérios que definem a qualidade de um curso de graduação. Entretanto, tendo em
vista que as respostas do QE foram utilizadas para o cálculo do CPC (Tabela 3.3), os
resultados do Conceito ENADE foram os mais apropriados para serem utilizados como
variáveis de agrupamento.
Por fim, o terceiro aspecto limitante está relacionado às incertezas associadas ao banco de
dados do e-MEC. Nesse aspecto, de acordo com Boullosa, Cruz e Xexéo (1999), a incerteza
em bancos de dados pode surgir no nível das transformações do dados, que neste caso envolve
os processos de cálculo dos indicadores, e no nível do processamento dessas transformações,
cuja incerteza pode surgir como uma consequência do funcionamento do próprio sistema.

Página 102 de 155


7.2. SUGESTÕES PARA TRABALHOS FUTUROS

Os resultados e discussões apresentados neste trabalho ampliam as possibilidades de


pesquisa em relação à gestão da qualidade da educação nos cursos de EP e temas adjacentes.
Considerando como pontos de partida a gestão da qualidade em serviços educacionais e a
preocupação com a formação profissional do engenheiro de produção, destacam-se as
seguintes sugestões para trabalhos futuros:

1) Aprofundamento do estudo por meio da realização de uma análise qualitativa, baseada


na avaliação dos projetos político-pedagógicos dos cursos e em entrevistas com
gestores, coordenadores e estudantes;

2) Evidenciação mais aprofundada sobre as particularidades que diferem os cursos de EP


ofertados em IES públicas e privadas;

3) Investigação do impacto da qualidade dos cursos na taxa de empregabilidade dos seus


egressos ou no ingresso em cursos de pós-graduação stricto sensu;

4) Investigação das competências profissionais exigidas pelo mercado de trabalho, com


foco na “Indústria 4.0”16, na formação do engenheiro de produção e na avaliação dos
cursos em relação ao ensino dessas competências;

5) Avaliação do impacto das respostas do questionário do estudante e dos resultados do


Exame Nacional de Desempenho de Estudantes no cálculo do Conceito Preliminar de
Curso.

6) Avaliação das incertezas associadas ao banco de dados do INEP, disponibilizado no


sistema e-MEC.

16
O termo “Indústria 4.0” surgiu em 2011 na Alemanha e desde então tem sido utilizado nos mais diversos
contextos (político, industrial e educacional) para se referir à quarta Revolução Industrial (Drath & Horch, 2014;
Lasi et al., 2014). A “Indústria 4.0” abrange a integração de sistemas cibernéticos (softwares) e físicos
(equipamentos), prevendo aspetos relacionados às fábricas inteligentes baseadas em sistemas de produção com a
mínima interação humana (Brettel et al., 2014).

Página 103 de 155


Referências___________________________

Aickin, M., & Gensler, H. (1996). Adjusting for multiple testing when reporting research
results: the Bonferroni vs Holm methods. American Journal of Public Health, 86(5),
726–728. https://doi.org/10.2105/ajph.86.5.726.

Alves, H., Mainardes, E. W., & Raposo, M. (2010). A Relationship Approach to Higher
Education Institution Stakeholder Management. Tertiary Education and Management,
16(3), 159–181. https://doi.org/10.1080/13583883.2010.497314.

Amaral, A., & Polidori, M. (1999). Quality evaluation in Brazil: a competency based
approach? Higher Education Policy, 12(2), 177–199. https://doi.org/10.1016/s0952-
8733(99)00005-7.

Associação Brasileira de Engenharia e Produção - ABEPRO. (2010). Origens e evolução da


formação em engenharia de produção. Recuperado em 15 de março de 2017, de
http://www.abepro.org.br/arquivos/websites/1/Hist.pdf.

Babbar, S. (1995). Applying total quality management to educational instruction.


International Journal of Public Sector Management, 8(7), 35–55.
https://doi.org/10.1108/09513559510103175.

Barbosa, G. de C., Freire, F. de S., & Crisóstomo, V. L. (2011). Análise dos indicadores de
gestão das IFES e o desempenho discente no ENADE. Avaliação: Revista da
Avaliação da Educação Superior (Campinas), 16(2), 317–344.
https://doi.org/10.1590/s1414-40772011000200005.

Barreyro, G. B. (2006). Evaluación de la educación superior brasileña: el sinaes. Revista de la


Educación Superior, 35(137), 63-73.

Barreyro, G. B. (2008). De exames, rankings e mídia. Avaliação: Revista da Avaliação da


Educação Superior (Campinas), 13(3), 863–868. https://doi.org/10.1590/s1414-
40772008000300017.

Barreyro, G. B., & Ristoff, D. I. (2015). Os bastidores do Sinaes. Revista Diálogo


Educacional, 15(608), 295-344. https://doi.org/10.7213/dialogo.educ.15.044.dc01.

Barreyro, G. B., & Rothen, J. C. (2008). Para uma história da avaliação da educação superior
brasileira: análise dos documentos do PARU, CNRES, GERES e PAIUB. Avaliação:
Revista da Avaliação da Educação Superior (Campinas), 13(1), 131–152.
https://doi.org/10.1590/s1414-40772008000100008.

Barreyro, G. B., & Rothen, J. C. (2014). Percurso da avaliação da educação superior nos
Governos Lula. Educação e Pesquisa, 40(1), 61–76. https://doi.org/10.1590/s1517-
97022014000100005.

Becker, L. A. (2000). Effect size calculators. Obtido em 07 nov. 2017 em


https://www.uccs.edu/lbecker/effect-size.html#II.

Página 104 de 155


Beerkens, M., & Udam, M. (2017). Stakeholders in Higher Education Quality Assurance:
Richness in Diversity? Higher Education Policy, 30(3), 341–359.
https://doi.org/10.1057/s41307-016-0032-6.

Benfatti, E. de F. S. S., & Stano, R. de C. M. T. (2010). Utilização da tecnologia em Educação


a Distância na formação de engenheiros de produção da Universidade Federal de
Itajubá: uma avaliação educacional. Gestão e Produção, 17(2), 433–446.
http://dx.doi.org/10.1590/S0104-530X2010000200016.

Bertolin, J. C. G. (2007). Avaliação da qualidade do sistema de educação superior brasileiro


em tempos de mercantilização – período 1994-2003 (Tese de doutorado em Educação.
Universidade Federal do Rio Grande do Sul, Porto Alegre.

Bertolin, J. C. G. (2009). Qualidade em educação superior: da diversidade de concepções a


inexorável subjetividade conceitual. Avaliação: Revista da Avaliação da Educação
Superior (Campinas), 14(1), 127–149. https://doi.org/10.1590/s1414-
40772009000100007.

Betram, D. (2009). Likert Scales. Topic Report, The Faculty of Mathematics University of
Belgrad. Recuperado em 18 de nov. de 2-17, de
http://poincare.matf.bg.ac.rs/~kristina/topic-dane-likert.pdf.

Bittencourt, H. R., Viali, L., Casartelli, A. de O., & Rodrigues, A. C. de M. (2008). Uma
análise da relação entre os conceitos Enade e IDD. Estudos Em Avaliação
Educacional, 19(40), 247–262. https://doi.org/10.18222/eae194020082078.

Bittencourt, H. R., Casartelli, A. de O., & Rodrigues, A. C. de M. (2009). Sobre o índice geral
de cursos (IGC). Avaliação: Revista da Avaliação da Educação Superior (Campinas),
14(3), 667–682. https://doi.org/10.1590/s1414-40772009000300008.

Bittencourt, H. R., Viali, L., & Beltrame, E. (2010). A Engenharia de Produção no Brasil: Um
Panorama dos Cursos de Graduação e Pós-Graduação. Revista de Ensino de
Engenharia, 29(1), 11–19. https://doi.org/10.15552/2236-0158/abenge.v29n1p11-19.

Borkowski, S. C., & Ugras, Y. J. (1992). The ethical attitudes of students as a function of age,
sex and experience. Journal of Business Ethics, 11(12), 961–979.
https://doi.org/10.1007/bf00871962.

Borkowski, S. C., & Ugras, Y. J. (1992). The ethical attitudes of students as a function of age,
sex and experience. Journal of Business Ethics, 11(12), 961–979.
https://doi.org/10.1007/bf00871962.

Boullosa, J. R. F., Cruz, F. C. A., Xexéo, G. (1999). Incerteza em Bancos de Dados: tipo de
dados Nebulosos no GOA++. In: XIV Simpósio Brasileiro de Banco de Dados,
Florianópolis, SC: Sociedade Brasileira de Computação.

Brasil. (1995, 25 de novembro). Lei nº 9.131, de 24 de novembro de 1995. Altera dispositivos


da Lei nº 4.024, de 20 de dezembro de 1961 e dá outras providências (seção 1, Edição
Extra, pp. 19257). Brasília, DF: Diário Oficial da República Federativa do Brasil.

Página 105 de 155


Brasil. (1996, 23 de dezembro). Lei nº 9.394, de 20 de dezembro de 1996. Estabelece as
diretrizes e bases da educação nacional (seção 1, n. 12, pp. 27833). Brasília, DF:
Diário Oficial da República Federativa do Brasil.

Brasil. (2004, 15 de abril). Lei nº 10.861, de 14 de abril de 2004. Institui o Sistema Nacional
de Avaliação da Educação Superior e da outras providências (seção 1, n.72, pp. 3).
Brasília, DF: Diário Oficial da República Federativa do Brasil.

Brettel, M., Friederichsen, N., Keller, M., & Rosenberg, M. (2014). How Virtualization,
Decentralization and Network Building Change the Manufacturing Landscape: An
Industry 4.0 Perspective. International Journal of Information and Communication
Engineering, 8(1), 37–44.

Brito, M. R. F. de. (2008). O SINAES e o ENADE: da concepção à implantação. Avaliação:


Revista da Avaliação da Educação Superior (Campinas), 13(3), 841–850.
https://doi.org/10.1590/s1414-40772008000300014.

Burlamaqui, M. G. B. (2008). Avaliação e qualidade na educação superior: tendências na


literatura e algumas implicações para o sistema de avaliação brasileiro. Estudos em
Avaliação Educacional, 19(39), 133–153.

Burrows, J. (1999). Going Beyond Labels: A Framework for Profiling Institutional


Stakeholders. Contemporary Education, 70(4), 5–10.

Calderón, A. I., Poltronieri, H., & Borges, R. M. (2011). Os rankings na educação superior
brasileira: políticas de governo ou de estado? Ensaio: Avaliação e Políticas Públicas
em Educação, 19(73), 813–826. https://doi.org/10.1590/s0104-40362011000500005.

Carvalho, L. F. (2015). Análise da cultura organizacional no gerenciamento de projetos


(Dissertação de mestrado em Engenharia de Produção). São Carlos, SP: Escola de
Engenharia da Universidade de São Paulo.

Castro e Souza, P. A. (2012). Tamanho da amostra e poder para três testes não paramétricos
(Trabalho de conclusão de curso). Porto Alegre: Universidade Federal do Rio Grande
do Sul.

Cauchick Miguel, P. A. (2007). Estudo de caso na engenharia de produção: estruturação e


recomendações para sua condução. Production, 17(1), 216–229.
https://doi.org/10.1590/s0103-65132007000100015.

Cauchick Miguel, P. A. (2012). Metodologia de pesquisa em engenharia de produção e


gestão de operações ( 2 ed.). Rio de Janeiro: Elsevier: ABEPRO.

Cauchick Miguel, P. A., & Ho, L. L. (2012). Levantamento tipo survey. In Cauchick Miguel,
P. A. (Eds.), Metodologia de pesquisa em engenharia de produção e gestão de
operações ( 2 ed., pp. 75-102). Rio de Janeiro: Elsevier: ABEPRO.

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Hillsdale,
NJ: Lawrence Earlbaum Associates.

Comissão Especial de Avaliação – CEA. (2003). Sistema nacional de avaliação da educação


superior: bases para uma nova proposta de avaliação da educação superior. Brasília:

Página 106 de 155


INEP/MEC. Disponível em: < http://portal.mec.gov.br/arquivos/pdf/sinaes.pdf>.
Acesso em 01 out. 2017.

Cordeiro, J. S., Almeida, N. N., Borges, M. N., Dutra, S. C., Valinote, O. L., & Paiva, Z. M.
C. (2008). Um Futuro para a Educação em Engenharia no Brasil: Desafios e
Oportunidades. Revista de Ensino de Engenharia, 27(3), 69–82.
https://doi.org/10.15552/2236-0158/abenge.v27n3p69-82

Corrar, L. J., Paulo, E., & Dias Filho, J. M. (2009). Análise multivariada para os cursos de
administração, ciências contábeis e economia. São Paulo: Atlas.

Craven, E. C. (1975). Information Decision Systems in Higher Education: A Conceptual


Framework. The Journal of Higher Education, 46(2), 125–139.
http://dx.doi.org/10.2307/1980877.

Cunha, G. D. da. (2002). Um panorama atual da engenharia da produção. Recuperado em 07


de março de 2017, de
http://www.abepro.org.br/arquivos/websites/1/PanoramaAtualEP4.pdf.

Darling, D. A. (1957). The Kolmogorov-Smirnov, Cramer-von Mises Tests. The Annals of


Mathematical Statistics, 28(4), 823–838. https://doi.org/10.1214/aoms/1177706788.

Dias Sobrinho, J. (2008). Qualidade, avaliação: do SINAES a índices. Avaliação: Revista da


Avaliação da Educação Superior (Campinas), 13(3), 817–825.
https://doi.org/10.1590/s1414-40772008000300011.

Dias Sobrinho, J. (2010). Avaliação e transformações da educação superior brasileira (1995-


2009): do provão ao Sinaes. Avaliação: Revista da Avaliação da Educação Superior
(Campinas), 15(1), 195–224. https://doi.org/10.1590/s1414-40772010000100011.

Dias, C. L., Horiguela, M. de L. M., & Marchelli, P. S. (2006). Políticas para avaliação da
qualidade do Ensino Superior no Brasil: um balanço crítico. Educação e Pesquisa,
32(3), 435–464. https://doi.org/10.1590/s1517-97022006000300002.

Đonlagić, S., & Fazlić, S. (2015). Quality assessment in higher education using the
SERVQUAL model. Management, 20(1), 39-57.

Douglas, J., & Douglas, A. (2006). Evaluating Teaching Quality. Quality in Higher
Education, 12(1), 3–13. https://doi.org/10.1080/13538320600685024.

Drath, R., & Horch, A. (2014). Industrie 4.0: Hit or Hype? [Industry Forum]. IEEE Industrial
Electronics Magazine, 8(2), 56–58. https://doi.org/10.1109/mie.2014.2312079.

Ekundayo, H. T., & Adedokun, M. O. (2009). The Unresolved Issue of University Autonomy
and Academic Freedom in Nigerian Universities. Humanity & Social Sciences
Journal, 4(1), 61–67.

Faé, C. S., & Ribeiro, J. L. D. (2004). Um retrato da Engenharia de Produção no Brasil. In


Anais do XXIV Encontro Nacional de Engenharia de Produção (pp. 5653–5660).
Florianópolis, SC: ABEPRO.

Página 107 de 155


Faganel, A., & Dolinšek, S. Quality management systems in higher education. Slovenia:
University of Primorska. 2012.

Fleury, A. F. (2008). Produzindo o futuro: 50 anos de Engenharia de Produção na USP. São


Paulo: EPDUSP.

Fonseca, E. M. (2002). O ensino de engenharia de produção para o século 21. In: II


Congresso Nacional de Engenharia Mecânica – CONEM, João Pessoa – PB.

Francisco, T. H. A., Nakayama, M. K., Souza, I. R., & Zilli, J. C. (2015). Os indicadores de
qualidade como um instrumento de governança: Iniciando uma experiência no curso
de Administração. In: XXVI Encontro Nacional de Cursos de Graduação em
Administração (ENANGRAD). Foz do Iguaçu, PR.

Freeman, R. E. (1984). Strategic Management: A Stakeholder Approach. Boston: Pitman.

Freitas Jr., A. A., Cruz, B. P. A., & Sharland, E. M. R. (2008). Reflexões sobre o Indicador de
Diferença entre os Desempenhos Observado e Esperado na Composição da Nota do
ENADE: um olhar a partir do campo do Ensino de Administração. Revista ANGRAD,
9(1), 387–404.

Fritz, C. O., Morris, P. E., & Richler, J. J. (2012). Effect size estimates: Current use,
calculations, and interpretation. Journal of Experimental Psychology: General, 141(1),
2–18. https://doi.org/10.1037/a0024338.

Furlanetto, E. L., Malzac Neto, H. G., & Neves, C. P. (2006). Engenharia de produção no
Brasil: reflexões acerca da atualização dos currículos dos cursos de graduação. Revista
Gestão Industrial, 2(4), 38–50. https://doi.org/10.3895/s1808-04482006000400004.

Garcia, A. A., Nicolini, A. M., & Andrade, R. O. B. de. (2014). Valor agregado aos
estudantes nos cursos de administração: uma comparação do desempenho entre
instituições de ensino superior públicas e privadas. Revista Gestão Universitária na
América Latina - GUAL, 7(2), 24. https://doi.org/10.5007/1983-4535.2014v7n2p24

Gerhardt, T. E., & Silveira, D. T. (Eds.) (2009). Método de pesquisa. Porto Alegre, RS:
Editora da UFRGS.

Gibson, A. (2010). Measuring business student satisfaction: a review and summary of the
major predictors. Journal of Higher Education Policy and Management, 32(3), 251–
259. https://doi.org/10.1080/13600801003743349.

Gil, A. C. (2008). Método e técnicas de pesquisa social (6 ed.). São Paulo, SP: Atlas.

Giolo, J. (2008). “SINAES” intermitentes. Avaliação: Revista da Avaliação da Educação


Superior (Campinas), 13(3), 851–856. https://doi.org/10.1590/s1414-
40772008000300015.

Global Entrepreneurship Monitor – GEM. (2009). Empreendedorismo no Brasil. Curitiba:


Instituto Brasileiro da Qualidade e Produtividade.

Green, D. M. (1994). What is quality in higher education? Buckingham: SRHE and Open
University Press Imprint.

Página 108 de 155


Gregory, J. (2013). Avaliação: os pecados do MEC: Os problemas do Conceito ENADE.
Brasília, DF. Obtido em 10 jan. 2018 de
http://abrafi.org.br/NetManager/documentos/artigo_-_gregory-
avaliacao_os_pecados_do_mec.pdf.

Griboski, C. M. (2012). O Enade como indutor da qualidade da educação superior. Estudos


em Avaliação Educacional, 23(53), 178. https://doi.org/10.18222/eae235320121920

Gruber, T., Fuß, S., Voss, R., & Gläser-Zikuda, M. (2010). Examining student satisfaction
with higher education services. International Journal of Public Sector Management,
23(2), 105–123. https://doi.org/10.1108/09513551011022474.

Guilbault, M. (2017). Students as customers in higher education: The (controversial) debate


needs to end. Journal of Retailing and Consumer Services.
https://doi.org/10.1016/j.jretconser.2017.03.006.

Hachback Neto, A. A., & Stein, C. E. (2003). Uma Abordagem dos Testes Não-Paramétricos
com Utilização do Excel. In Anais da XVIII Semana da Matemática. Blumenau, SC:
FURB.

Hair, F. J., Black, W. C., Babin, B. J., & Anderson, R. E. (2009).Multivariate Data Analysis
(7 ed.). New Jersey: Prentice Hall.

Harvey, L. (2003). Student Feedback. Quality in Higher Education, 9(1), 3–20.


https://doi.org/10.1080/13538320308164.

Harvey, L., & Green, D. (1993). Defining Quality. Assessment & Evaluation in Higher
Education, 18(1), 9–34. https://doi.org/10.1080/0260293930180102.

Hill, Y., Lomas, L., & MacGregor, J. (2003). Students’ perceptions of quality in higher
education. Quality Assurance in Education, 11(1), 15–20.
https://doi.org/10.1108/09684880310462047.

Hoffmann, C., Zanini, R. R., Corrêa, Â. C., Siluk, J. C. M., Schuch Júnior, V. F., & Ávila, L.
V. (2014). O desempenho das universidades brasileiras na perspectiva do Índice Geral
de Cursos (IGC). Educação e Pesquisa, 40(3), 651–665.
https://doi.org/10.1590/s1517-97022014041491.

Ikuta, C. Y. S. (2016). Sobre o Conceito Preliminar de Curso: concepção, aplicação e


mudanças metodológicas. Estudos Em Avaliação Educacional, 27(66), 938–969.
https://doi.org/10.18222/eae.v27i66.4039.

Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Pereira (INEP) & Conselho
Federal de Engenharia, Arquitetura e Agronomia (CONFEA). (2010). Trajetória e
estado da arte da formação em engenharia, arquitetura e agronomia. Volume VII:
Engenharia de Produção. Brasília: INEP & CONFEA.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2009). SINAES –


Sistema Nacional de Avaliação da Educação Superior: da concepção à
regulamentação (5ª ed.). Brasília: INEP.

Página 109 de 155


Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2015a). Nota Técnica
Daes/Inep nº 58/2015. Cálculo do Conceito Preliminar de Curso 2014. Brasília, DF.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2015b). Nota Técnica
Daes/Inep nº 57/2015. Cálculo do Conceito ENADE 2014. Brasília, DF.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2017a). Nota Técnica
Nº 33/2017/CGCQES/DAES. Metodologia de cálculo do Indicador de Diferença entre
os Desempenhos Observado e Esperado (IDD). Brasília: DF.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2016a). Relatório de


área ENADE 2014: Engenharia de Produção. Disponível em: <
http://download.inep.gov.br/educacao_superior/enade/relatorio_sintese/2014/2014_rel
_engenharia_de_producao.pdf >. Acesso em 5 out. 2017.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2017b). Nota Técnica
Nº 4/2017/CGCQES/DAES. Metodologia utilizada no cálculo do Índice Geral de
Cursos Avaliados da Insĕtuição1 (IGC) referente ao ano de 2015. Brasília, DF.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira - INEP. (2016c). Sinopses


Estatísticas da Educação Superior – Graduação: 2011 a 2016. Recuperado em 07 de
março de 2017, de http://inep.gov.br/web/guest/sinopses-estatisticas-da-educacao-
superior.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira – INEP. (2014). Manual ENADE
2014. Disponível em: <
http://download.inep.gov.br/educacao_superior/enade/manuais/manual_enade_2014.p
df >. Acesso em: 05 out. 2017.

Instituto Nacional de Pesquisas Educacional Anísio Teixeira – INEP. (2016b). Indicadores de


Qualidade da Educação Superior: caracterização e perspectivas. 5º Fórum de
Reitores do CRUB. Disponível em: < http://www.crub.org.br/wp-
content/uploads/2016/11/INEP_Palestrante_Mariangela.pdf >. Acesso em: 05 out.
2017.

Jelihovschi, E. (2014). Análise exploratória de dados usando o R. Ilhéus, BA: Editus –


Editora da UESC.

Joseph, M., Yakhou, M., & Stone, G. (2005). An educational institution’s quest for service
quality: customers’ perspective. Quality Assurance in Education, 13(1), 66–82.
https://doi.org/10.1108/09684880510578669.

Kádárová, J., Kováč, J., Durkáčová, M., & Kádár, G. (2014). Education in Industrial
Engineering in Slovakia. Procedia - Social and Behavioral Sciences, 143, 157–162.
https://doi.org/10.1016/j.sbspro.2014.07.379.

Kamat, V. B., & Kittur, J. K. (2016). Quantifying the quality of higher and technical
education: salient perspectives. International Journal of System Assurance
Engineering and Management, 8(2), 515–527. https://doi.org/10.1007/s13198-016-
0428-0.

Página 110 de 155


Kettunen, J. (2014). The stakeholder map in higher education. International Journal of
Learning and Teaching, 78(7), 19-22. https://doi.org/10.7763/IPEDR.2014.V78.7.

Köksal, G., & Eği̇ tman, A. (1998). Planning and design of industrial engineering education
quality. Computers & Industrial Engineering, 35(3–4), 639–642.
https://doi.org/10.1016/s0360-8352(98)00178-8.

Lasi, H., Fettke, P., Kemper, H.-G., Feld, T., & Hoffmann, M. (2014). Industrie 4.0.
Wirtschaftsinformatik, 56(4), 261–264. https://doi.org/10.1007/s11576-014-0424-4.

Lau, J. W. C. (2014). Enriching Stakeholder Theory: Student Identity of Higher Education.


American Journal of Industrial and Business Management, 4(12), 762–766.
https://doi.org/10.4236/ajibm.2014.412082

Leišytė, L.; Westerheijden, D. F.; Epping, E.; Faber, M.; Weert, E. (2013). Stakeholders and
Quality Assurance in Higher Education. In 26th Annual CHER Conference, Lausanne
(CH). Retrieved from https://ris.utwente.nl/ws/portalfiles/portal/6152965.

Likert, R. (1932). A Technique for the Measurement of Attitudes.Archives of Psychology,


140, 1‐55.

Lister, G., & Donaldson, K. (2003). New roles for industrial engineers in developing
countries. The South African Journal of Industrial Engineering, 15(1), 43–52.
https://doi.org/10.7166/15-1-237.

Liu, S. (2016). Higher Education Quality Assessment and University Change: A Theoretical
Approach. In Quality Assurance and Institutional Transformation (p. 15–46). Springer
Singapore. https://doi.org/10.1007/978-981-10-0789-7_2.

Logermann, F., & Leišytė, L. (2015). Students as Stakeholders in the Policy Context of the
European Standards and Guidelines for Quality Assurance in Higher Education
Institutions. In The European Higher Education Area (p. 685–701). Springer
International Publishing. https://doi.org/10.1007/978-3-319-20877-0_43.

Lombardi, M. R. (2006). Engenheiras brasileiras: inserção e limites de gênero no campo


profissional. Cadernos de Pesquisa, 36(127), 173–202. https://doi.org/10.1590/s0100-
15742006000100008.

Luiz, N. M., Costa, A. F. D., & Costa, H. G. (2010). Influência da graduação em engenharia
de produção no perfil dos seus egressos: percepções discentes. Avaliação: Revista Da
Avaliação Da Educação Superior (Campinas), 15(1), 101–120.
https://doi.org/10.1590/s1414-40772010000100006.

Machado, P. I. S., Mouro, N. F. D., Angnes, J. S., & Stefano, S.R. (2015). Mulheres
graduadas em Engenharia: um Estudo de Caso. Revista ADMpg Gestão Estratégica,
Ponta Grossa, 8(2), 35 – 43.

Machumu, H. J., & Kisanga, S. H. (2014). Quality Assurance Practices in Higher Education
Institutions: Lesson from Africa. Journal of Education and Practice. 5(16), 144–156.

Página 111 de 155


Mangiafico, S. S. (2016). Summary and Analysis of Extension Program Evaluation in R.
Versão 1.9.0. Obtido em 07 nov. 2017 de
rcompanion.org/documents/RHandbookProgramEvaluation.pdf.

Manjula, R., & Vaideeswaran, J. (2011). A New Framework for Measuring the Quality of
Engineering Education System using SEI-CMM approach - (E2-CMM). International
Journal of Software Engineering & Applications, 2(1), 28–43.
https://doi.org/10.5121/ijsea.2011.2103.

Marconi, M. de A., & Lakatos, E. M. (2010). Fundamentos de metodologia científica (7 ed.).


São Paulo, SP : Atlas.

Matos, D. A. S., Cirino, S. D., Brown, G. T. L., & Leite, W. L. (2013). Avaliação no ensino
superior: concepções múltiplas de estudantes brasileiros. Estudos em Avaliação
Educacional (Online), 24(54), 172-193, 2013.
http://dx.doi.org/10.18222/eae245420131907.

McDonald, J. H. (2014). Biolological statistics (3. ed.). Baltimore, Maryland, U.S.: Sparky
House Publishing.

McDowell, L., & Sambell, K. (1999). Fitness for Purpose in the Assessment of Learning:
students as stakeholders. Quality in Higher Education, 5(2), 107–123.
https://doi.org/10.1080/1353832990050202.

Mello, J. A. V. B., & Sousa, F. R. D. (2015). Caminhos formacionais na engenharia de


produção: a formação docente e os resultados do ENADE 2011. Revista Gestão
Universitária Na América Latina - GUAL, 8(2), 199. https://doi.org/10.5007/1983-
4535.2015v8n2p199.

Melo, F. G., Araújo, I. da S., Araujo, J. D., Cirilo, J. V. A., & Barros, B. R. (2014). Educação
em Engenharia de Produção: Contribuições das Atividades de Ensino, Pesquisa e
Extensão do PET Engenharias/UFAL. In: XLII Congresso Brasileiro de Educação em
Engenharia – COBENGE. Juíz de Fora, MG: ABENGE.

Melo, F. G., Araújo, I. da S., Araujo, L., Barros, M., & Netto, A. O. (2017). Avaliação do
curso de engenharia de produção da UFAL/Campus do Sertão a partir da percepção
dos estudantes. In: XXXVII Encontro Nacional de Engenharia de Produção -
ENEGEP, 2017, Joinville – SC: ABEPRO.

Melo, F. G., Araújo, I. S., & Santos, L. A. (2016). Habilidades e Competências em


Engenharia: avaliação do ensino da competência liderança no curso de engenharia de
produção da UFAL/Campus do Sertão (pp. 1-10). In Anais do XLIV Congresso
Brasileiro de Educação em Engenharia. Natal: ABENGE.

Melo, F. G., Kalid, R., & Embirucu, M. (2017a). O Conceito ENADE no âmbito das
pesquisas acadêmicas sobre os cursos de engenharia de produção. In: XXXVII
Encontro Nacional de Engenharia de Produção – ENEGEP. Joinville – SC:
ABEPRO.

Melo, F. G., Kalid, R., & Embiruçu, M. (2017b). Learning outcomes and educational quality
assessment for industrial engineering undergraduate programs in Brazil. In Anais do
VII Research in Engineering Education Symposium (pp. 1-9). Bogotá: REEN.

Página 112 de 155


Ministério da Educação – MEC (2008a, 6 de agosto). Portaria Normativa n° 4, de 5 de agosto
de 2008. Regulamenta a aplicação do conceito preliminar de cursos superiores, para
fins dos processos de renovação de reconhecimento respectivos, no âmbito do ciclo
avaliativo do SINAES instaurado pela Portaria Normativa nº 1, de 2007.(seção 1, n.
150, p. 19). Brasília, DF: Diário Oficial da República Federativa do Brasil.

Ministério da Educação – MEC (2008b, 8 de setembro). Portaria Normativa nº 12, de 5 de


setembro de 2008. Institui o Índice Geral de Cursos da Instituição de Educação
Superior (IGC) (seção 1, n. 173, p.13). Brasília, DF: Diário Oficial da República
Federativa do Brasil.

Ministério da Educação - MEC. (2009, 25 de agosto). Portaria Normativa n° 821, de 24 de


agosto de 2009. Define procedimentos para avaliação de Instituições de Educação
Superior e Cursos de Graduação no âmbito do 1º Ciclo Avaliativo do Sistema
Nacional de Avaliação da Educação Superior e dá outras providências. (seção 1, n.
162, p. 9). Brasília, DF: Diário Oficial da República Federativa do Brasil.

Ministério da Educação - MEC. (2010, 29 de dezembro). Portaria normativa nº 40, de 12 de


dezembro de 2007. Institui o e-MEC, sistema eletrônico de fluxo de trabalho e
gerenciamento de informações relativas aos processos de regulação, avaliação e
supervisão da educação superior no sistema federal de educação, e o Cadastro e-MEC
de Instituições e Cursos Superiores e consolida disposições sobre indicadores de
qualidade, banco de avaliadores (Basis) e o Exame Nacional de Desempenho de
Estudantes (ENADE) e outras disposições (seção 1, n. 249, pp. 23-31). Brasília, DF:
Diário Oficial da República Federativa do Brasil.

Ministério da Educação - MEC. (2016, 21 de dezembro). Portaria Normativa nº 23, de 20 de


dezembro de 2016. Altera dispositivos da Portaria Normativa MEC no 40, de 12 de
dezembro de 2007, republicada em 2010, para efeitos imediatos nos processos de
cálculo e divulgação dos Indicadores de Qualidade da Educação Superior, a partir da
edição de 2015. (seção 1, n. 244, pp.75). Brasília, DF: Diário Oficial da República
Federativa do Brasil.

Ministério da Educação – MEC. (2017). Relatório de cusos de graduação em Engenharia de


Produção [Base de dados e-MEC]. Recuperado em 4 out. 2017, de
http://emec.mec.gov.br.

Mitchell, R. K., Agle, B. R., & Wood, D. J. (1997). Toward a Theory of Stakeholder
Identification and Salience: Defining the Principle of Who and What Really Counts.
The Academy of Management Review, 22(4), 853–885. https://doi.org/10.2307/25924

Mondini, V. E. D., & Domingues, M. J. C. de S. (2005). Entendendo a classificação das IES


no Brasil. In Anais do V Coloqui Internacional sobre Gestión Universitaria en
América del Sur (n.p.). Mar de la Plata: Argentina.

Morettin, P. A., & Bussab, W. de O. (2010). Estatística básica (6 ed.). Rio de janeiro, RJ:
Editora Saraiva.

Morosini, M. C. (2009). Qualidade na educação superior: tendências do século. Estudos em


Avaliação Educacional, 20(43), 165–186. https://doi.org/10.18222/eae204320092043

Página 113 de 155


Nachar, N. (2008). The Mann-Whitney U: A Test for Assessing Whether Two Independent
Samples Come from the Same Distribution. Tutorials in Quantitative Methods for
Psychology, 4(1), 13–20. https://doi.org/10.20982/tqmp.04.1.p013.

Nayak, B., & Hazra, A. (2011). How to choose the right statistical test? Indian Journal of
Ophthalmology, 59(2), 85–86 . https://doi.org/10.4103/0301-4738.77005.

Nicholson, K. (2011). Quality assurance in higher education: A review of literature.


Unpublished manuscript, Council of Ontario Universities Degree Level Expectations
Project McMaster University, Hamilton, Canada. Retrieved from
http://cll.mcmaster.ca/COU/pdf/Quality %20Assurance %20Literature %20Review.pd
f. 01 oct. 2017.

Noaman, A. Y., Ragab, A. H. M., Madbouly, A. I., Khedra, A. M., & Fayoumi, A. G. (2015).
Higher education quality assessment model: towards achieving educational quality
standard. Studies in Higher Education, 42(1), 23–46.
https://doi.org/10.1080/03075079.2015.1034262.

Nunes, E. B. L. de L. P., Duarte, M. M. S. L. T., & Pereira, I. C. A. (2017). Planejamento e


avaliação institucional: um indicador do instrumento de avaliação do SINAES.
Avaliação: Revista da Avaliação da Educação Superior (Campinas), 22(2), 373–384.
https://doi.org/10.1590/s1414-40772017000200006.

Oliveira, V. F. de, & Costa, M. V. de O. (2013). A evolução do desempenho da engenharia de


produção no ENADE. In Anais do XXXIII Encontro Nacional de Engenharia de
Produção (pp. 1–12). Salvador: ABEBRO.

Oliveira, V. F. de, Barbosa, C. dos S., & Chrispim, E. M. (2005). Cursos de Engenharia de
Produção no Brasil: Crescimento e Projeções. In Anais do XXV Encontro Nacional de
Engenharia de Produção (pp. 5403–5410). Porto Alegre: ABEPRO.

Oliveira, V. F. de. (2004). Um estudo sobre a avaliação dos cursos de engenharia de


produção. In Anais do XXIV Encontro Nacional de Engenharia de Produção
(pp. 5522–5529). Florianópolis: ABEPRO.

Oliveira, V. F. de. (2005). A avaliação dos cursos de engenharia de produção. Revista Gestão
Industrial, 1(3), 1–12. https://doi.org/10.3895/s1808-04482005000300001.

Oliveira, V. F., Almeida, N. N., Carvalho, D. M., & Pereira, F. A. A. (2013). Um Estudo
sobre a Expansão da Formação em Engenharia no Brasil. Revista de Ensino de
Engenharia, 32(3), 37–56. https://doi.org/10.15552/2236-0158/abenge.v32n3p37-56.

Ostrom, A. L.; Bitner, M. J.; & Burkhard, K. A. (2011). Leveraging Service Blueprinting to
Rethink Higher Education: When Students Become ‘Valued Customers,’ Everybody
Wins. Center for American Progress. Retrieved from
http://files.eric.ed.gov/fulltext/ED535642.pdf. 01 oct. 2017.

Owlia, M. S., & Aspinwall, E. M. (1996). A framework for the dimensions of quality in
higher education. Quality Assurance in Education, 4(2), 12–20.
https://doi.org/10.1108/09684889610116012.

Página 114 de 155


Palma, M., Ríos, I. de los, & Guerrero, D. (2012). Higher Education in Industrial Engineering
in Peru: Towards a New Model Based on Skills. In Procedia – XXXXVI Social and
Behavioral Sciences (pp. 1570–1580). http://doi.org/10.1016/j.sbspro.2012.05.342.

Palma, M., Ríos, I. de los, & Guerrero, D. (2012). Higher Education in Industrial Engineering
in Peru: Towards a New Model Based on Skills. In Procedia – XXXXVI Social and
Behavioral Sciences (pp. 1570–1580). http://doi.org/10.1016/j.sbspro.2012.05.342.

Pedrosa, R. H.L., Amaral, E., & Knobel, M. (2013). Assessing higher education learning
outcomes in Brazil. Higher Education Management and Policy, 24(2), 55-71.
http://dx.doi.org/10.1787/hemp-24-5k3w5pdwk6br.

Phillips, W. M., Peterson, G. D., & Aberle, K. B. (2000). Quality Assurance for Engineering
Education in a Changing World. International Journal of Engineering Education,
16(2), 97–103.

Pinto, R. S., Mello, S. P. T. de, & Melo, P. A. (2016). Meta-avaliação: uma década do
Processo de Avaliação Institucional do SINAES. Avaliação: Revista da Avaliação da
Educação Superior (Campinas), 21(1), 89–108. https://doi.org/10.1590/s1414-
40772016000100005.

Piratelli, C. L. (2005). A engenharia de produção no Brasil. In Anais do XXXIII Congresso


Brasileiro de Ensino de Engenharia (pp. 1–12). Campina Grande: ABENGE.

Pohlert, T. (2014). The Pairwise Multiple Comparison of Mean Ranks Package (PMCMR). R.
package.

Polidori, M. M. (2009). Políticas de avaliação da educação superior brasileira: Provão,


SINAES, IDD, CPC, IGC e... outros índices. Avaliação: Revista da Avaliação da
Educação Superior (Campinas), 14(2), 439–452. https://doi.org/10.1590/s1414-
40772009000200009.

Polidori, M. M., Marinho-Araujo, C. M., & Barreyro, G. B. (2006). SINAES: perspectivas e


desafios na avaliação da educação superior brasileira. Ensaio: Avaliação e Políticas
Públicas em Educação, 14(53), 425–436. https://doi.org/10.1590/s0104-
40362006000400002.

Prados, J. W., Peterson, G. D., & Lattuca, L. R. (2005). Quality Assurance of Engineering
Education through Accreditation: The Impact of Engineering Criteria 2000 and Its
Global Influence. Journal of Engineering Education, 94(1), 165–184.
https://doi.org/10.1002/j.2168-9830.2005.tb00836.x.

Razali, N. M., & Wah, Y. B. (2011). Power comparisons of Shapiro-Wilk, Kolmogorov-


Smirnov, Lilliefors and Anderson-Darling tests. Journal of Statistical Modeling and
Analitycs, 2(1), 21–33.

Ribeiro, L. R. C., & Belhot, R. V. (2002). A gestão da qualidade e o ensino de engenharia.


Revista de Ensino de Engenharia, 21(2), 17–25.

Richardson, R. J. (2012). Pesquisa social: Métodos e técnicas (3 ed.). São Paulo, SP: Atlas.

Página 115 de 155


Rothen, J. C., & Barreyro, G. B. (2010). Expansão da educação superior no Brasil e avaliação
institucional: um estudo do Sistema Nacional de Avaliação da Educação Superior
(SINAES) na “Revista Avaliação”. Série-Estudos, 30, 167–181.

Rothen, J. C., & Barreyro, G. B. (2011). Avaliação da educação superior no segundo governo
Lula: “provão II” ou a reedição de velhas práticas? Educação e Sociedade, 32(114),
21–38. https://doi.org/10.1590/s0101-73302011000100002.

Santos, E. F. dos. (2017). Qualidade nos bacharelados interdisciplinares da UFBA: perfil dos
concluintes e sua percepção sobre a formação (Dissertação de mestrado).
Universidade Federal da Bahia, Instituto de Humanidades Artes e Ciências, Programa
Pós-graduação em Estudos Interdisciplinares sobre a Universidade. Salvador, BA.

Santos, N. V. M., Lage Jr., M., & Ribeiro, M. L. L. (2015). In: XXXV Encontro Nacional de
Engenharia de Produção - ENEGEP, Fortaleza – CE: ABEPRO.

Schindler, L., Puls-Elvidge, S., Welzant, H., & Crawford, L. (2015). Definitions of Quality in
Higher Education: A Synthesis of the Literature. Higher Learning Research
Communications, 5(3), 3. https://doi.org/10.18870/hlrc.v5i3.244.

Schrippe, P., Medeiros, F. S. B., Weise, A. D., Hartmannsturm, C., & Koschek, J. F. (2016).
Mapping of the Undergraduate and Graduate Curriculum in Industrial Engineering in
Brazil. International Journal of Engineering Education, 3(32), 1250–1259.

Seefeld, K., & Linder, E. (2007). Statistics using R with biological examples. Boston, MA:
Biostatistics Research Center.

Seeman, E. D., & O’Hara, M. (2006). Customer relationship management in higher education.
Campus-Wide Information Systems, 23(1), 24–34.
https://doi.org/10.1108/10650740610639714.

Shafeek, H., Gutub, S. A., & Miski, A. G. (2014). Industrial Engineering Curriculum
Restructuring. International Journal of Scientific & Engineering Research, 5(9), 434–
446.

Shier, R. (2004). Statistics: The Mann-Whitney U test. Mathematics Learning Support Centre.
Recuperado em 07 nov. 2017, de
http://www.lboro.ac.uk/media/wwwlboroacuk/content/mlsc/downloads/2.3_mann_whi
tney.pdf.

Siegel, S. (1956). Nonparametric statistics/or the behavioral sciences. New York: McGraw-
Hill.

Silva, E. L., & Menezes, E. M. (2005). Metodologia da pesquisa e elaboração de dissertação


(4 ed.). Florianópolis, SC: UFSC.

Sousa, F. R., Silva, D. M., Mello, J. A. V. B., & Ribeiro Mello, A. J. (2013). Caminhos
formacionais na Engenharia de Produção: uma análise do conteúdo das provas
específicas do ENADE nos anos 2005, 2008 e 2011. Revista Produção e Engenharia,
4(1), 365–373. https://doi.org/10.18407/issn.1983-9952.2013.v4.n1.p365-373.

Página 116 de 155


Souza, V. C. (2017). Qualidade na educação superior: uma visão operacional do conceito.
Avaliação: Revista da Avaliação da Educação Superior (Campinas), 22(2), 332–357.
https://doi.org/10.1590/s1414-40772017000200004.

Spiegel, M. R., Stephens, L. J. (2009). Estatística (4 ed.). Porto Alegre, RS: Bookman.

Sturm, C. H., Schrippe, P., Medeiros, F. S. B., Koschek, J. F., & Weise, A. D. (2015).
Mapeamento e análise de desempenho da graduação e da pós-graduação em
Engenharia de Produção no Brasil. Gestão & Produção, 22(1), 149–163.
https://doi.org/10.1590/0104-530x956-13.

Torgersen, P. E., & Taylor, R. E. (1976). Industrial Engineering in Higher Education. A I I E


Transactions, 8(4), 397–404. http://doi.org/10.1080/05695557608975100.

Ulewicz, R. (2017). The role of stakeholders in quality assurance in higher education. Human
Resources Management & Ergonomics, 11(1), 93–107.

Verhine, R. E. (2010). O novo alfabeto do SINAES: reflexões sobre IDD, CPC e IGC. In A.
Dalben, J. Diniz, L. Leal, & L. Santos (Eds.), Convergências e Tensões no Campo da
Formação e Trabalho Docente (632–650). Belo Horizonte, MG: Autêntica.

Verhine, R. E., & Freitas, A. A. S. M. (2012). A avaliação da educação superior: modalidades


e tendências no cenário internacional. Revista Ensino Superior (Unicamp), 7(3), 16–
39.

Verhine, R. E., Dantas, L. M. V., & Soares, J. F. (2006). Do Provão ao ENADE: uma análise
comparativa dos exames nacionais utilizados no Ensino Superior Brasileiro. Ensaio:
Avaliação e Políticas Públicas em Educação, 14(52), 291–310.
https://doi.org/10.1590/s0104-40362006000300002.

Vlãsceanu, L., Grünberg, L., & Pârlea, D. (2007). Quality assurance and accreditation: a
glossary of basic terms and definitions. Bucharest: UNESCO.

Voss, R., Gruber, T., & Szmigin, I. (2007). Service quality in higher education: The role of
student expectations. Journal of Business Research, 60(9), 949–959.
https://doi.org/10.1016/j.jbusres.2007.01.020.

Watson, D. (2012). Who runs our universities? Perspectives: Policy and Practice in Higher
Education, 16(2), 41–45. https://doi.org/10.1080/13603108.2011.652987.

Weise, A. D., & Trierweiller, A. C. (2010). Comparação do Ensino de Engenharia de


Produção no Brasil e na Alemanha. Revista de Ensino de Engenharia, 29(1), 29–39.
https://doi.org/10.15552/2236-0158/abenge.v29n1p29-39.

Whitley, E., & Ball, J. (2002). Statistics review: Nonparametric methods. Critical Care, 6(6),
509–513. https://doi.org/10.1186/cc1820.

Wrasse, C. L., Pasa, C. C. M. U., & Pissidônio, R. (2014). Matriz curricular do curso de
engenharia de produção e sua influência no desempenho do ENADE 2011. In Anais do
XIV Colóquio Internacional de Gestão Universitária (p. 14). Santa Catarina.

Página 117 de 155


Zabadi, A. M. A. (2013). Implementing Total Quality Management (TQM) on the Higher
Education Institutions – A Conceptual Model. Journal of Finance & Economics, 1(1),
42–60.

Zainko, M. A. S. (2008). Avaliação da educação superior no Brasil: processo de construção


histórica. Avaliação: Revista da Avaliação da Educação Superior (Campinas), 13(3),
827–831. https://doi.org/10.1590/s1414-40772008000300012.

Página 118 de 155


Apêndice A___________________________
Estatísticas descritivas das respostas do
Questionário do Estudante

A Tabela A.1 apresenta as estatísticas descritivas das respostas do QE.

Tabela A.1 – Estatísticas descritivas para todas as respostas do QE.


Item N ME DP 1º Q MD 3º Q MT Min. Max. AMP Ass. Curt. EP Var. CV
i27 15582 5,26633 0,92933 5 6 6 5,4126 1 6 5 -1,3819 2,0910 0,0074 0,8637 0,1765
i28 15442 5,22296 0,99891 5 6 6 5,3909 1 6 5 -1,4425 2,1371 0,0080 0,9978 0,1913
i29 15612 4,97707 1,15051 4 5 6 5,1637 1 6 5 -1,1535 0,9613 0,0092 1,3237 0,2312
i30 15614 4,93070 1,21534 4 5 6 5,1234 1 6 5 -1,1314 0,7542 0,0097 1,4770 0,2465
i31 15590 5,21911 1,03643 5 6 6 5,4072 1 6 5 -1,5143 2,2262 0,0083 1,0742 0,1986
i32 15631 5,38756 0,93075 5 6 6 5,5746 1 6 5 -1,7966 3,4436 0,0074 0,8663 0,1728
i33 15634 5,35935 0,92946 5 6 6 5,5391 1 6 5 -1,7561 3,4480 0,0074 0,8639 0,1734
i34 15577 5,27605 0,98287 5 6 6 5,4533 1 6 5 -1,5784 2,6315 0,0079 0,9660 0,1863
i35 15616 5,25512 0,99617 5 6 6 5,4324 1 6 5 -1,5496 2,5041 0,0080 0,9924 0,1896
i36 15627 5,23312 0,94315 5 5 6 5,3816 1 6 5 -1,3885 2,1631 0,0075 0,8895 0,1802
i37 15620 4,85346 1,23321 4 5 6 5,0399 1 6 5 -1,1041 0,7839 0,0099 1,5208 0,2541
i38 15617 4,89838 1,14675 4 5 6 5,0643 1 6 5 -1,0230 0,6921 0,0092 1,3150 0,2341
i39 15572 5,04354 1,09736 4 5 6 5,2236 1 6 5 -1,1880 1,1149 0,0088 1,2042 0,2176
i40 15200 4,67836 1,33353 4 5 6 4,8634 1 6 5 -0,9474 0,2659 0,0108 1,7783 0,2850
i41 15595 4,77390 1,41763 4 5 6 5,0103 1 6 5 -1,0743 0,2485 0,0114 2,0097 0,2970
i42 15646 5,23309 1,01295 5 6 6 5,4126 1 6 5 -1,5032 2,2625 0,0081 1,0261 0,1936
i43 15407 4,78646 1,39586 4 5 6 5,0181 1 6 5 -1,1026 0,3889 0,0112 1,9484 0,2916
i44 15332 4,71302 1,43898 4 5 6 4,9479 1 6 5 -1,0265 0,1559 0,0116 2,0707 0,3053
i45 15506 4,83909 1,32506 4 5 6 5,0492 1 6 5 -1,0960 0,4591 0,0106 1,7558 0,2738
i46 14188 4,42261 1,55775 3 5 6 4,6133 1 6 5 -0,7314 -0,5266 0,0131 2,4266 0,3522
i47 15609 4,77205 1,29688 4 5 6 4,9616 1 6 5 -1,0125 0,3731 0,0104 1,6819 0,2718
i48 15571 4,49849 1,44287 4 5 6 4,6804 1 6 5 -0,7801 -0,2712 0,0116 2,0819 0,3207
i49 15618 5,03758 1,09628 4 5 6 5,2179 1 6 5 -1,2165 1,2425 0,0088 1,2018 0,2176
i50 14706 5,25690 1,10464 5 6 6 5,4805 1 6 5 -1,7891 3,1739 0,0091 1,2202 0,2101
i51 14764 5,34191 0,98040 5 6 6 5,5331 1 6 5 -1,8453 3,8217 0,0081 0,9612 0,1835
i52 14373 4,31295 1,75302 3 5 6 4,5161 1 6 5 -0,7033 -0,8518 0,0146 3,0731 0,4065
i53 14134 4,14476 1,88124 2 5 6 4,3059 1 6 5 -0,5630 -1,1814 0,0158 3,5391 0,4539
i54 15465 5,07359 1,30159 5 6 6 5,3384 1 6 5 -1,5144 1,6257 0,0105 1,6941 0,2565
i55 15583 5,07316 1,08041 5 5 6 5,2511 1 6 5 -1,2857 1,5254 0,0087 1,1673 0,2130
i56 15555 4,87637 1,27597 4 5 6 5,0818 1 6 5 -1,1377 0,6701 0,0102 1,6281 0,2617
i57 15645 5,05964 1,06613 5 5 6 5,2298 1 6 5 -1,2059 1,2594 0,0085 1,1366 0,2107
i58 15632 5,29171 1,01715 5 6 6 5,4881 1 6 5 -1,6422 2,6160 0,0081 1,0346 0,1922
i59 15582 4,95110 1,28976 4 5 6 5,1827 1 6 5 -1,3110 1,1110 0,0103 1,6635 0,2605
i60 15408 4,74241 1,41267 4 5 6 4,9725 1 6 5 -1,0449 0,2235 0,0114 1,9956 0,2979
i61 15645 4,90866 1,28542 4 5 6 5,1255 1 6 5 -1,2173 0,8607 0,0103 1,6523 0,2619
i62 15507 4,75379 1,40474 4 5 6 4,9858 1 6 5 -1,0797 0,3262 0,0113 1,9733 0,2955
i63 15475 4,73512 1,40328 4 5 6 4,9620 1 6 5 -1,0485 0,2613 0,0113 1,9692 0,2964
i64 15569 5,13315 1,13743 5 6 6 5,3519 1 6 5 -1,4431 1,7159 0,0091 1,2937 0,2216
i65 14635 4,81777 1,49357 4 5 6 5,0956 1 6 5 -1,2309 0,4947 0,0123 2,2308 0,3100
i66 15410 5,06606 1,14146 5 5 6 5,2735 1 6 5 -1,3211 1,4099 0,0092 1,3029 0,2253
i67 15238 4,54239 1,52875 4 5 6 4,7501 1 6 5 -0,8434 -0,3452 0,0124 2,3371 0,3366
i68 15583 4,94885 1,36508 4 5 6 5,2054 1 6 5 -1,3169 0,8905 0,0109 1,8634 0,2758
Notas: N = número de respostas válidas; ME = média; DP = desvio-padrão; MD = mediana; Q = quartil; MT = média truncada; AMP =
amplitude; Ass. = assimetria; Curt. = curtose; EP = erro padrão; Var. = variância; CV = coeficiente de variação.

Página 119 de 155


A Tabela A.2 apresenta as estatísticas descritivas das respostas do QE para os cursos das
IES privadas.

Tabela A.2 – Estatísticas descritivas para as respostas do QE: IES privadas.


Item N ME DP 1º Q MD 3º Q MT Min. Max. AMP Ass. Curt. EP Var. CV
i27 12283 5,356 0,881 5 6 6 5,51 1 6 5 -1,54 2,71 0,01 0,777 0,165
i28 12176 5,300 0,962 5 6 6 5,47 1 6 5 -1,58 2,73 0,01 0,925 0,181
i29 12305 5,108 1,074 5 5 6 5,29 1 6 5 -1,28 1,40 0,01 1,153 0,210
i30 12306 5,076 1,133 4 5 6 5,28 1 6 5 -1,30 1,37 0,01 1,283 0,223
i31 12297 5,337 0,952 5 6 6 5,52 1 6 5 -1,69 3,04 0,01 0,907 0,178
i32 12318 5,418 0,913 5 6 6 5,61 1 6 5 -1,86 3,76 0,01 0,833 0,168
i33 12329 5,412 0,888 5 6 6 5,59 1 6 5 -1,83 3,81 0,01 0,788 0,164
i34 12280 5,338 0,938 5 6 6 5,51 1 6 5 -1,66 3,05 0,01 0,879 0,176
i35 12312 5,305 0,967 5 6 6 5,48 1 6 5 -1,62 2,82 0,01 0,936 0,182
i36 12318 5,312 0,891 5 6 6 5,46 1 6 5 -1,44 2,33 0,01 0,794 0,168
i37 12312 5,021 1,131 4 5 6 5,21 1 6 5 -1,25 1,37 0,01 1,278 0,225
i38 12313 5,051 1,072 4 5 6 5,22 1 6 5 -1,17 1,19 0,01 1,149 0,212
i39 12269 5,134 1,062 5 5 6 5,31 1 6 5 -1,29 1,41 0,01 1,128 0,207
i40 12046 4,826 1,269 4 5 6 5,02 1 6 5 -1,08 0,67 0,01 1,610 0,263
i41 12304 4,860 1,397 4 5 6 5,11 1 6 5 -1,19 0,53 0,01 1,953 0,288
i42 12332 5,277 0,989 5 6 6 5,46 1 6 5 -1,57 2,54 0,01 0,978 0,187
i43 12121 4,774 1,419 4 5 6 5,01 1 6 5 -1,10 0,35 0,01 2,012 0,297
i44 12054 4,705 1,467 4 5 6 4,94 1 6 5 -1,03 0,13 0,01 2,152 0,312
i45 12216 4,870 1,334 4 5 6 5,09 1 6 5 -1,15 0,56 0,01 1,780 0,274
i46 11170 4,429 1,589 3 5 6 4,63 1 6 5 -0,75 -0,55 0,02 2,526 0,359
i47 12304 4,921 1,227 4 5 6 5,12 1 6 5 -1,16 0,81 0,01 1,505 0,249
i48 12275 4,678 1,375 4 5 6 4,88 1 6 5 -0,94 0,12 0,01 1,891 0,294
i49 12307 5,148 1,037 5 5 6 5,32 1 6 5 -1,32 1,60 0,01 1,076 0,201
i50 11704 5,282 1,093 5 6 6 5,51 1 6 5 -1,84 3,37 0,01 1,195 0,207
i51 11821 5,408 0,926 5 6 6 5,60 1 6 5 -1,95 4,39 0,01 0,858 0,171
i52 11214 4,273 1,791 3 5 6 4,47 1 6 5 -0,67 -0,94 0,02 3,209 0,419
i53 10913 3,959 1,940 2 4 6 4,07 1 6 5 -0,40 -1,38 0,02 3,764 0,490
i54 12201 5,236 1,165 5 6 6 5,49 1 6 5 -1,75 2,71 0,01 1,358 0,223
i55 12308 5,209 1,001 5 5,5 6 5,38 1 6 5 -1,44 2,16 0,01 1,003 0,192
i56 12246 4,944 1,273 4 5 6 5,16 1 6 5 -1,23 0,87 0,01 1,621 0,258
i57 12332 5,182 1,005 5 5 6 5,35 1 6 5 -1,34 1,72 0,01 1,009 0,194
i58 12316 5,365 0,970 5 6 6 5,56 1 6 5 -1,79 3,32 0,01 0,941 0,181
i59 12293 5,077 1,231 5 6 6 5,32 1 6 5 -1,50 1,79 0,01 1,515 0,242
i60 12114 4,818 1,416 4 5 6 5,06 1 6 5 -1,16 0,46 0,01 2,006 0,294
i61 12329 5,040 1,223 4 5 6 5,27 1 6 5 -1,38 1,40 0,01 1,495 0,243
i62 12253 4,926 1,325 4 5 6 5,16 1 6 5 -1,28 0,95 0,01 1,755 0,269
i63 12235 4,917 1,317 4 5 6 5,15 1 6 5 -1,26 0,90 0,01 1,736 0,268
i64 12292 5,292 1,035 5 6 6 5,50 1 6 5 -1,71 2,90 0,01 1,071 0,196
i65 11642 5,021 1,348 4 6 6 5,29 1 6 5 -1,48 1,45 0,01 1,817 0,268
i66 12181 5,172 1,076 5 6 6 5,37 1 6 5 -1,46 1,98 0,01 1,159 0,208
i67 12002 4,652 1,504 4 5 6 4,88 1 6 5 -0,96 -0,10 0,01 2,262 0,323
i68 12284 5,190 1,179 5 6 6 5,44 1 6 5 -1,63 2,24 0,01 1,389 0,227
Notas: N = número de respostas válidas; ME = média; DP = desvio-padrão; MD = mediana; Q = quartil; MT = média truncada; AMP =
amplitude; Ass. = assimetria; Curt. = curtose; EP = erro padrão; Var. = variância; CV = coeficiente de variação.

Página 120 de 155


A Tabela A.3 apresenta as estatísticas descritivas das respostas do QE para os cursos das
IES públicas.

Tabela A.3 – Estatísticas descritivas para as respostas do QE: IES públicas.


Item N ME DP 1º Q MD 3º Q MT Min. Max. AMP Ass. Curt. EP Var. CV
i27 3299 4,931 1,023 4 5 6 5,06 1 6 5 -0,95 0,92 0,02 1,046 0,207
i28 3266 4,935 1,080 4 5 6 5,09 1 6 5 -1,05 0,91 0,02 1,166 0,219
i29 3307 4,492 1,288 4 5 6 4,63 1 6 5 -0,74 -0,04 0,02 1,660 0,287
i30 3308 4,388 1,351 4 5 5 4,52 1 6 5 -0,62 -0,36 0,02 1,826 0,308
i31 3293 4,777 1,205 4 5 6 4,94 1 6 5 -0,99 0,55 0,02 1,453 0,252
i32 3313 5,273 0,986 5 6 6 5,46 1 6 5 -1,58 2,53 0,02 0,973 0,187
i33 3305 5,162 1,048 5 5 6 5,35 1 6 5 -1,48 2,26 0,02 1,099 0,203
i34 3297 5,045 1,106 5 5 6 5,24 1 6 5 -1,28 1,43 0,02 1,222 0,219
i35 3304 5,071 1,078 5 5 6 5,25 1 6 5 -1,31 1,62 0,02 1,161 0,213
i36 3309 4,938 1,066 4 5 6 5,09 1 6 5 -1,14 1,39 0,02 1,136 0,216
i37 3308 4,229 1,388 3 4 5 4,35 1 6 5 -0,60 -0,37 0,02 1,928 0,328
i38 3304 4,329 1,234 4 4 5 4,43 1 6 5 -0,59 -0,14 0,02 1,523 0,285
i39 3303 4,706 1,159 4 5 6 4,84 1 6 5 -0,90 0,52 0,02 1,343 0,246
i40 3154 4,114 1,421 3 4 5 4,22 1 6 5 -0,53 -0,50 0,03 2,020 0,346
i41 3291 4,452 1,446 4 5 6 4,62 1 6 5 -0,74 -0,38 0,03 2,091 0,325
i42 3314 5,072 1,083 5 5 6 5,25 1 6 5 -1,28 1,47 0,02 1,172 0,213
i43 3286 4,833 1,308 4 5 6 5,04 1 6 5 -1,08 0,45 0,02 1,710 0,271
i44 3278 4,743 1,330 4 5 6 4,93 1 6 5 -0,96 0,17 0,02 1,770 0,280
i45 3290 4,724 1,284 4 5 6 4,9 1 6 5 -0,91 0,14 0,02 1,649 0,272
i46 3018 4,399 1,434 3 5 6 4,55 1 6 5 -0,65 -0,46 0,03 2,057 0,326
i47 3305 4,217 1,397 3 4 5 4,33 1 6 5 -0,57 -0,43 0,02 1,951 0,331
i48 3296 3,828 1,491 3 4 5 3,89 1 6 5 -0,30 -0,85 0,03 2,224 0,390
i49 3311 4,626 1,207 4 5 6 4,77 1 6 5 -0,88 0,38 0,02 1,456 0,261
i50 3002 5,160 1,143 5 6 6 5,38 1 6 5 -1,62 2,53 0,02 1,307 0,222
i51 2943 5,077 1,135 5 5 6 5,28 1 6 5 -1,47 2,11 0,02 1,289 0,224
i52 3159 4,456 1,601 3 5 6 4,66 1 6 5 -0,79 -0,54 0,03 2,564 0,359
i53 3221 4,776 1,504 4 5 6 5,03 1 6 5 -1,12 0,18 0,03 2,262 0,315
i54 3264 4,465 1,575 4 5 6 4,67 1 6 5 -0,83 -0,42 0,03 2,481 0,353
i55 3275 4,563 1,207 4 5 5 4,69 1 6 5 -0,83 0,33 0,02 1,456 0,264
i56 3309 4,628 1,256 4 5 6 4,78 1 6 5 -0,89 0,28 0,02 1,577 0,271
i57 3313 4,604 1,161 4 5 5 4,72 1 6 5 -0,82 0,40 0,02 1,347 0,252
i58 3316 5,020 1,136 4 5 6 5,21 1 6 5 -1,21 1,05 0,02 1,290 0,226
i59 3289 4,481 1,392 4 5 6 4,65 1 6 5 -0,81 -0,13 0,02 1,938 0,311
i60 3294 4,466 1,363 4 5 6 4,62 1 6 5 -0,71 -0,31 0,02 1,859 0,305
i61 3316 4,419 1,390 4 5 5 4,58 1 6 5 -0,77 -0,17 0,02 1,932 0,315
i62 3254 4,106 1,505 3 4 5 4,23 1 6 5 -0,53 -0,69 0,03 2,266 0,367
i63 3240 4,049 1,502 3 4 5 4,16 1 6 5 -0,48 -0,72 0,03 2,256 0,371
i64 3277 4,537 1,296 4 5 6 4,69 1 6 5 -0,78 -0,07 0,02 1,680 0,286
i65 2993 4,026 1,748 3 4 6 4,16 1 6 5 -0,48 -1,10 0,03 3,054 0,434
i66 3229 4,667 1,283 4 5 6 4,83 1 6 5 -0,89 0,15 0,02 1,647 0,275
i67 3236 4,135 1,551 3 4 5 4,26 1 6 5 -0,48 -0,83 0,03 2,407 0,375
i68 3299 4,052 1,616 3 4 5 4,18 1 6 5 -0,45 -0,96 0,03 2,611 0,399
Notas: N = número de respostas válidas; ME = média; DP = desvio-padrão; MD = mediana; Q = quartil; MT = média
truncada; AMP = amplitude; Ass. = assimetria; Curt. = curtose; EP = erro padrão; Var. = variância; CV = coeficiente de
variação.

Página 121 de 155


Apêndice B___________________________
Resultados dos testes de normalidade

A Tabela B.1 apresenta os resultados dos testes de normalidade de Kolmogorov-Smirnov


com correção de Lilliefors e do teste de Cramér-von Mises para as respostas dos estudantes
das IES privadas. A rejeição da hipótese nula (H0) implica na não normalidade dos dados.

Tabela B.1 – Resultado dos testes de normalidade para as respostas do QE para as IES privadas.
Teste de kolmogorov- Lilliefors
Teste de Cramér-von Mises Decisão
Item Smirnov (correção)
quanto a H0
N D Sig. Sig W Sig
i27 12283 0,3297 0,0000 0,0000 232,1500 0,0000 Rejeita
i28 12176 0,3184 0,0000 0,0000 220,7200 0,0000 Rejeita
i29 12305 0,2673 0,0000 0,0000 161,7900 0,0000 Rejeita
i30 12306 0,2689 0,0000 0,0000 165,0100 0,0000 Rejeita
i31 12297 0,3297 0,0000 0,0000 243,7800 0,0000 Rejeita
i32 12318 0,3600 0,0000 0,0000 294,9700 0,0000 Rejeita
i33 12329 0,3488 0,0000 0,0000 273,9700 0,0000 Rejeita
i34 12280 0,3279 0,0000 0,0000 238,2400 0,0000 Rejeita
i35 12312 0,3193 0,0000 0,0000 227,4500 0,0000 Rejeita
i36 12318 0,3090 0,0000 0,0000 207,0900 0,0000 Rejeita
i37 12312 0,2438 0,0000 0,0000 143,4700 0,0000 Rejeita
i38 12313 0,2470 0,0000 0,0000 141,1700 0,0000 Rejeita
i39 12269 0,2764 0,0000 0,0000 170,1200 0,0000 Rejeita
i40 12046 0,2185 0,0000 0,0000 114,0200 0,0000 Rejeita
i41 12304 0,2558 0,0000 0,0000 161,1800 0,0000 Rejeita
i42 12332 0,3117 0,0000 0,0000 218,5400 0,0000 Rejeita
i43 12121 0,2322 0,0000 0,0000 135,2900 0,0000 Rejeita
i44 12054 0,2251 0,0000 0,0000 127,3300 0,0000 Rejeita
i45 12216 0,2448 0,0000 0,0000 145,5300 0,0000 Rejeita
i46 11170 0,1965 0,0000 0,0000 85,8950 0,0000 Rejeita
i47 12304 0,2318 0,0000 0,0000 135,7500 0,0000 Rejeita
i48 12275 0,2120 0,0000 0,0000 103,7600 0,0000 Rejeita
i49 12307 0,2719 0,0000 0,0000 168,6900 0,0000 Rejeita
i50 11704 0,3311 0,0000 0,0000 248,6000 0,0000 Rejeita
i51 11821 0,3538 0,0000 0,0000 274,9800 0,0000 Rejeita
i52 11214 0,2088 0,0000 0,0000 102,8600 0,0000 Rejeita
i53 10913 0,1988 0,0000 0,0000 92,8760 0,0000 Rejeita
i54 12201 0,3342 0,0000 0,0000 264,7800 0,0000 Rejeita
i55 12308 0,2852 0,0000 0,0000 184,7700 0,0000 Rejeita
i56 12246 0,2518 0,0000 0,0000 153,5900 0,0000 Rejeita
i57 12332 0,2772 0,0000 0,0000 175,2100 0,0000 Rejeita
i58 12316 0,3474 0,0000 0,0000 275,6500 0,0000 Rejeita
i59 12293 0,2788 0,0000 0,0000 195,2100 0,0000 Rejeita
i60 12114 0,2447 0,0000 0,0000 148,6400 0,0000 Rejeita
i61 12329 0,2692 0,0000 0,0000 177,5300 0,0000 Rejeita
i62 12253 0,2527 0,0000 0,0000 161,4300 0,0000 Rejeita
i63 12235 0,2483 0,0000 0,0000 156,1000 0,0000 Rejeita
i64 12292 0,3273 0,0000 0,0000 246,5600 0,0000 Rejeita
i65 11642 0,2873 0,0000 0,0000 200,1400 0,0000 Rejeita
i66 12181 0,2880 0,0000 0,0000 188,4400 0,0000 Rejeita
i67 12002 0,2248 0,0000 0,0000 122,3600 0,0000 Rejeita
i68 12284 0,3161 0,0000 0,0000 241,0100 0,0000 Rejeita

Página 122 de 155


A Tabela B.2 apresenta os resultados dos testes de normalidade de Kolmogorov-Smirnov
com correção de Lilliefors e do teste de Cramér-von Mises para as respostas dos estudantes
das IES privadas. A rejeição da hipótese nula (H0) implica na não normalidade dos dados.

Tabela B.2 – Resultado dos testes de normalidade para as respostas do QE para as IES públicas.
Teste de kolmogorov- Lilliefors
Teste de Cramér-von Mises Decisão
Item Smirnov (correção)
quanto a H0
N D Sig. Sig W Sig
i27 3299 0,2327 0,0000 0,0000 30,5570 0,0000 Rejeita
i28 3266 0,2371 0,0000 0,0000 31,6110 0,0000 Rejeita
i29 3307 0,2077 0,0000 0,0000 20,9240 0,0000 Rejeita
i30 3308 0,1933 0,0000 0,0000 18,3500 0,0000 Rejeita
i31 3293 0,2368 0,0000 0,0000 28,3850 0,0000 Rejeita
i32 3313 0,3061 0,0000 0,0000 57,8750 0,0000 Rejeita
i33 3305 0,2675 0,0000 0,0000 47,5920 0,0000 Rejeita
i34 3297 0,2397 0,0000 0,0000 39,9950 0,0000 Rejeita
i35 3304 0,2408 0,0000 0,0000 40,7540 0,0000 Rejeita
i36 3309 0,2468 0,0000 0,0000 32,9170 0,0000 Rejeita
i37 3308 0,1863 0,0000 0,0000 17,7650 0,0000 Rejeita
i38 3304 0,1979 0,0000 0,0000 19,9520 0,0000 Rejeita
i39 3303 0,2379 0,0000 0,0000 26,5800 0,0000 Rejeita
i40 3154 0,1800 0,0000 0,0000 15,6730 0,0000 Rejeita
i41 3291 0,2152 0,0000 0,0000 22,3910 0,0000 Rejeita
i42 3314 0,2486 0,0000 0,0000 40,7630 0,0000 Rejeita
i43 3286 0,2293 0,0000 0,0000 34,7350 0,0000 Rejeita
i44 3278 0,2199 0,0000 0,0000 29,7630 0,0000 Rejeita
i45 3290 0,2214 0,0000 0,0000 27,2090 0,0000 Rejeita
i46 3018 0,1946 0,0000 0,0000 17,7230 0,0000 Rejeita
i47 3305 0,1878 0,0000 0,0000 17,0660 0,0000 Rejeita
i48 3296 0,1660 0,0000 0,0000 13,5400 0,0000 Rejeita
i49 3311 0,2390 0,0000 0,0000 25,9170 0,0000 Rejeita
i50 3002 0,2910 0,0000 0,0000 49,3970 0,0000 Rejeita
i51 2943 0,2526 0,0000 0,0000 39,0520 0,0000 Rejeita
i52 3159 0,2141 0,0000 0,0000 27,1060 0,0000 Rejeita
i53 3221 0,2542 0,0000 0,0000 43,5390 0,0000 Rejeita
i54 3264 0,2169 0,0000 0,0000 27,1710 0,0000 Rejeita
i55 3275 0,2314 0,0000 0,0000 24,4310 0,0000 Rejeita
i56 3309 0,2301 0,0000 0,0000 24,8310 0,0000 Rejeita
i57 3313 0,2367 0,0000 0,0000 25,4990 0,0000 Rejeita
i58 3316 0,2450 0,0000 0,0000 39,6950 0,0000 Rejeita
i59 3289 0,2198 0,0000 0,0000 22,7790 0,0000 Rejeita
i60 3294 0,2089 0,0000 0,0000 20,9610 0,0000 Rejeita
i61 3316 0,2229 0,0000 0,0000 22,3640 0,0000 Rejeita
i62 3254 0,1908 0,0000 0,0000 16,9060 0,0000 Rejeita
i63 3240 0,1781 0,0000 0,0000 15,3960 0,0000 Rejeita
i64 3277 0,2257 0,0000 0,0000 22,9770 0,0000 Rejeita
i65 2993 0,1988 0,0000 0,0000 18,6290 0,0000 Rejeita
i66 3229 0,2275 0,0000 0,0000 25,2120 0,0000 Rejeita
i67 3236 0,1821 0,0000 0,0000 16,1910 0,0000 Rejeita
i68 3299 0,1868 0,0000 0,0000 16,8130 0,0000 Rejeita

A Tabela B.3 apresenta os resultados dos testes de normalidade de Kolmogorov-Smirnov


com correção de Lilliefors e do teste de Cramér-von Mises para os conceitos obtidos pelos
cursos após o ENADE 2014.

Página 123 de 155


Tabela B.3 – Resultado dos testes de normalidade para os conceitos contínuos do ENADE 2014.
Teste de Kolmogorov- Lilliefors
Teste de Cramér-von Mises Decisão
Item Smirnov (correção)
quanto a H0
N D Sig. Sig W Sig
Conceitos
ENADE 2014 346 0.0987 < 0,01 < 0,01 0.69396 < 0,01 Rejeita
(contínuos)

Página 124 de 155


Apêndice C___________________________
Descrição dos testes estatísticos

A verificação de diferenças entre grupos que compõem um conjunto de dados é uma das
aplicações da inferência estatística (Navak & Hazra, 2011). Considerando os resultados dos
testes de normalidade e a escala de mensuração dos dados (ordinal), optou-se por utilizar os
testes estatísticos de KW e de MW, os quais serão pormenorizados nas seções seguintes.

C.1. TESTE DE KRUSKAL-WALLIS

O teste não paramétrico de KW é equivalente ao teste paramétrico de análise de variância


com 1 fator (ANOVA) e visa comparar dados provenientes de três ou mais grupos
independentes, permitindo generalizações (Spiegel & Stephens, 2009; Navak & Hazra, 2011).
De acordo com Mangiafico (2016), se as medidas de variabilidade dos valores para cada
grupo forem similares, o teste de KW compara as medianas dos grupos. Caso contrário, o
teste verifica apenas se há diferença sistemática nos valores dos grupos comprados.
Quando significativo, os resultados do teste de KW indicam que há diferença entre pelo
menos duas medianas no grupo de k medianas populacionais (Castro & Souza, 2012). Após a
verificação de similaridade dos valores de assimetria e curtose entre os três grupos analisados,
as hipóteses testadas por meio da aplicação desse teste foram (McDonald, 2014):

H0 = Os grupos possuem rankings médios iguais;


H1 = Os grupos possuem rankings médios diferentes.

O resultado do teste de KW indica se há diferenças entre os grupos, mas não especifica


quais grupos (pares) são diferentes entre si. Para tanto, após a aplicação do teste de KW, se
confirmada a rejeição da hipótese nula, deve-se aplicar um pós-teste, que compara os pares e
especifica as diferenças.
Assim como em Carvalho (2015), o pós-teste utilizado foi o teste de Conover-Iman, por
apresentar robustez superior ao pós-teste de Dunn, comumente utilizado (Pohlert, 2014).
Entre a gama de métodos de ajuste para o valor de significância (Bonferroni, Šidák, Holm,

Página 125 de 155


Holm-Šidák, Hochberg, Benjamini-Hochberg, or Benjamini-Yekutieli), utilizou-se o método
de Holm. Para Aickin e Gensler (1996), o método de Holm apresenta uma maior exatidão em
relação aos outros métodos, principalmente ao Bonferroni.
A operacionalização do teste não paramétrico de KW consiste na utilização de valores
numéricos transformados em postos e agrupados de forma global em um só conjunto de
dados. Desse modo, a comparação dos grupos é feita por meio da comparação da média dos
postos (posto médio) e não dos próprios valores do conjunto de dados (Hackbarth Neto &
Stein, 2003). Nesses termos, a comparação dos grupos considera o ranking médio (posto
médio), calculado a partir do script disponível no Apêndice E.

C.2. TESTE DE MANN-WHITNEY

Em contraste com o teste não paramétrico de KW, o teste de MW é utilizado para comprar
dados provenientes de apenas dois grupos distintos. O teste de MW é equivalente ao teste “t”,
para amostras independentes (Nachar, 2008). Ao contrário do teste “t”, que testa a igualdade
das médias, o teste de MW testa a igualdade das medianas (Shier, 2004). A única exigência do
teste de MW é a de que as observações sejam medidas em escala ordinal ou numérica.
As hipóteses testadas com a aplicação do teste de MW foram (McDonald, 2014):

H0 = Os grupos possuem rankings médios iguais;


H1 = Os grupos possuem rankings médios diferentes.

Assim como o teste de KW, o teste de MW se baseia na ordenação e comparação dos


grupos por meio da média dos postos. Logo, a comparação dos grupos também considera o
ranking médio (posto médio) dos valores após a ordenação global do conjunto de dados.
Para avaliação dos resultados, além do nível de significância, utilizou-se o cálculo do
tamanho do efeito para o teste de MW, proposto por Fritz, Morris e Richler (2012). Estes
autores afirmam que a estatística “Z” obtida no teste de MW pode ser utilizada para calcular o
ponto de correlação bisserial (r, Eq. 1) e, posteriormente, o valor do tamanho do efeito de
Cohen (d, Eq. 2).

𝑍
𝑟= (Eq. 1)
√𝑁

Página 126 de 155


2𝑟
𝑑 = √1−𝑟2 (Eq. 2)

Onde:
r = ponto de correlação bisserial;
Z = estatística do teste de MW;
N = número de observações;
d = estatística do teste de Cohen.

De acordo com Cohen (1988) e Becker (2000), o valor de “d” representa o tamanho do
efeito e pode ser classificado como pequeno (d = 0,2), médio (d = 0,5) ou alto (d = 0,8). Os
intervalos entre essas faixas de efeitos são avaliados de acordo com a proximidade em relação
a cada grau do tamanho do efeito.
O tamanho do efeito permite o aprofundamento da análise do nível de significância
visando uma interpretação mais generalista, permitindo a interpretação do nível se
significância sem considerar a influência do tamanho da amostra e sendo útil na determinação
da importância prática do efeito, da contribuição dos fatores e do poder de uma análise (Fritz,
Morris, & Richler, 2012).

Página 127 de 155


Apêndice D___________________________
Algoritmos implementados no software R

Este apêndice apresentam os scripts utilizados para execução dos testes estatísticos no
software “R”.

D.1. TESTES DE NORMALIDADE

#Instalação e execução dos packages necessários:


install.packages("nortest")
library(nortest)

#Seleção da Base de Dados


database = read.csv2(file.choose())

#Eliminação das linhas com respostas inválidas ("Não se aplica" ou "Não sei Responder")
q = data.frame(database[,2])#
qc = data.frame(q[complete.cases(q),1])
colnames(qc)[1] <- "qe_i"

##Testes de Normalidade

#Kolmogorov-Smirnov
ks.test(qc$qe_i, "pnorm", mean(qc$qe_i), sd(qc$qe_i), alternative = "two.sided")

#Kolmogorov-Smirnov com correção de Lilliefors


lillie.test(qc$qe_i)

# Cramér-von Mises
cvm.test(qc$qe_i)

D.2. TESTE DE KRUSKAL-WALLIS

#Instalação e execução dos packages necessários:


install.packages("FSA")
library(FSA)
install.packages("conover.test")

Página 128 de 155


library(conover.test)
install.packages("psych")
library(psych)

#Seleção da Base de Dados


database = read.csv2(file.choose())

#Seleção das colunas a serem comparadas


q = database[,c(3,7)]

#Eliminação das linhas com respostas inválidas ("Não se aplica" ou "Não sei Responder")
qc = data.frame(q[complete.cases(q),])
colnames(qc)[1] <- "qe_i" #renomeia a coluna de cada item (generalização do código)

#Teste de Kruskal-Wallis
kruskal.test(qc$qe_i ~ qc$Região)

#Comparação dos Pares (Teste de Conover-Iman)


conover.test(qc$qe_i, qc$Região, method = "holm", kw=TRUE, label=TRUE,
wrap=FALSE, table=TRUE, list=TRUE, rmc=TRUE, alpha=0.05)

D.3. TESTE DE MANN-WHITNEY

#Teste 1

#Selecao da Base de Dados

database = read.csv2(file.choose())

#Privada = 1 e Publica= 2 (CAT_ADM)

#Selecao das colunas a serem comparadas

q = database[,c(2,4)]

#Eliminacao das linhas com respostas invalidas ("Nao se aplica" ou "Nao sei Responder")

qc = data.frame(q[complete.cases(q),])

#db = subset(qc, Classe == "Excelente") #Seleção dos cursos de acordo com a classe

colnames(qc)[1] <- "qe_i" #renomeia a coluna de cada item (generalizacao do codigo)

wilcox.test(qc$qe_i~qc$CAT_ADM, alt = "two.sided", correct = TRUE, exact =TRUE,


paired = FALSE, conf.int=TRUE)

Página 129 de 155


#Teste 2 (Cálculo do valor de Z)

install.packages("coin")
library(coin)

#Selecao da Base de Dados


database = read.csv2(file.choose())

#Privada = 1 e Publica= 2 (CAT_ADM)

#Seleção das colunas a serem comparadas


q = database[,c(3,6)]

#Eliminacao das linhas com respostas invalidas ("Nao se aplica" ou "Nao sei Responder")
qc = data.frame(q[complete.cases(q),])

PUB = subset(qc, CAT_ADM == "Pública") #Seleção dos cursos de acordo com a classe
PRI = subset(qc, CAT_ADM == "Privada")

colnames(PUB)[1] = "qe_x" #renomeia a coluna de cada item (generalização do código)


colnames(PRI)[1] = "qe_y"

x = as.vector(PUB$qe_x)
y = as.vector(PRI$qe_y)

WXT <- data.frame( vals = c(x,y), group = rep( c('PUB','PRI'), c( length(x), length(y) ) ) )

wilcox_test( vals ~ group, data=WXT)

D.4. CÁLCULO DOS RANKINGS MÉDIOS

#Seleção da Base de Dados


database = read.csv2(file.choose())

#Seleção das colunas a serem comparadas


q = database[,c(3,7)]

#Eliminação das linhas com respostas inválidas ("Não se aplica" ou "Não sei Responder")
qc = data.frame(q[complete.cases(q),])
colnames(qc)[1] <- "qe_i" #renomeia a coluna de cada item (generalização do código)

#Calculo dos rankings médios


dados <- qc$qe_i
names(dados) <- qc$Região

RM <- function(vector) {

Página 130 de 155


ma <- matrix(, ncol=3, nrow= 0)
r <- rank(vector, na.last = NA)
to <- 0
for(n in unique(names(r))){
# calculo do ranking medio por grupo
g <- r[names(r) == n]
gt <- length(g)
rm <- sum(g)/gt
to <- to + gt
ma <- rbind(ma, c(n, gt, rm))
}
colnames(ma) <- c("Groupo","N","Ranking medio")
ma <- rbind(ma, c("Total", to, ""))
as.data.frame(ma)
}

# Calculos e Resultados
out <- RM(dados)
print(out, row.names= FALSE)

Página 131 de 155


Apêndice E___________________________
Gráficos de frequência das respostas do
Questionário do Estudante

Este apêndice apresenta os histogramas de frequência com as respostas do QE classificadas


de acordo com as categorias do Conceito ENADE (excelentes, satisfatórios e insatisfatórios).

Figura E.1 – Distribuição das respostas do QE para o item “i27”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.2 – Distribuição das respostas do QE para o item “i28”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 132 de 155


Figura E.3 – Distribuição das respostas do QE para o item “i29” : (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.4 – Distribuição das respostas do QE para o item “i30”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.5 – Distribuição das respostas do QE para o item “i31”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 133 de 155


Figura E.6 – Distribuição das respostas do QE para o item “i32”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.7 – Distribuição das respostas do QE para o item “i33”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.8 – Distribuição das respostas do QE para o item “i34”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 134 de 155


Figura E.9 – Distribuição das respostas do QE para o item “i35”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.10 – Distribuição das respostas do QE para o item “i36”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.11 – Distribuição das respostas do QE para o item “i37”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 135 de 155


Figura E.12 – Distribuição das respostas do QE para o item “i38”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.13 – Distribuição das respostas do QE para o item “i39”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.14 – Distribuição das respostas do QE para o item “i40”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 136 de 155


Figura E.15 – Distribuição das respostas do QE para o item “i41”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.16 – Distribuição das respostas do QE para o item “i42”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.17 – Distribuição das respostas do QE para o item “i43”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 137 de 155


Figura E.18 – Distribuição das respostas do QE para o item “i44”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.19 – Distribuição das respostas do QE para o item “i45”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.20 – Distribuição das respostas do QE para o item “i46”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 138 de 155


Figura E.21 – Distribuição das respostas do QE para o item “i47”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.22 – Distribuição das respostas do QE para o item “i48”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.23 – Distribuição das respostas do QE para o item “i49”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 139 de 155


Figura E.24 – Distribuição das respostas do QE para o item “i50”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.25 – Distribuição das respostas do QE para o item “i51”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.26 – Distribuição das respostas do QE para o item “i52”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 140 de 155


Figura E.27 – Distribuição das respostas do QE para o item “i53”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.28 – Distribuição das respostas do QE para o item “i54”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.29 – Distribuição das respostas do QE para o item “i55”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 141 de 155


Figura E.30 – Distribuição das respostas do QE para o item “i56”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.31 – Distribuição das respostas do QE para o item “i57”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.32 – Distribuição das respostas do QE para o item “i58”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 142 de 155


Figura E.33 – Distribuição das respostas do QE para o item “i59”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.34 – Distribuição das respostas do QE para o item “i60”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.35 – Distribuição das respostas do QE para o item “i61”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 143 de 155


Figura E.36 – Distribuição das respostas do QE para o item “i62”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.37 – Distribuição das respostas do QE para o item “i63”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.38 – Distribuição das respostas do QE para o item “i64”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 144 de 155


Figura E.39 – Distribuição das respostas do QE para o item “i65”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.40 – Distribuição das respostas do QE para o item “i66”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Figura E.41 – Distribuição das respostas do QE para o item “i67”: (a) IES públicas e (b) IES privadas.
80 80
Frequências das respostas por grupo (%)

Frequências das respostas por grupo (%)

70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 145 de 155


Figura E.42 – Distribuição das respostas do QE para o item “i68”: (a) IES públicas e (b) IES privadas.

Frequências das respostas por grupo (%) 80 80

Frequências das respostas por grupo (%)


70 70

60 60

50 50

40 40

30 30

20 20

10 10

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Escala de avaliação Escala de avaliação

Excelente Insatisfatório Satisfatório Excelente Insatisfatório Satisfatório

(a) (b)

Página 146 de 155


Apêndice F___________________________
Produções Científicas

Durante o período do mestrado, o autor publicou sete artigos, sendo dois em eventos
internacionais e cinco em eventos nacionais:

i. MELO, F. G.; KALID, R.; EMBIRUCU, M. Learning outcomes and educational quality
assessment for Industrial Engineering undergraduate programs in Brazil. In: 7th Research in
Engineering Education Symposium - REES, 2017, Bogotá - CO. Proceedings..., 2017.

ii. MELO, F. G.; KALID, R.; EMBIRUCU, M. O Conceito ENADE no âmbito das pesquisas
acadêmicas sobre os cursos de engenharia de produção. In: XXXVII Encontro Nacional de
Engenharia de Produção - ENEGEP, 2017, Joinville - SC. Anais..., 2017.

iii. MORAES, A. S.; MELO, F. G.; DELGADO, D. B. M. Avaliação do ensino de competências


transversais nos cursos de engenharia de produção no Brasil. In: Congresso Internacional de
Desenvolvimento da Engenharia Industrial, 2017, Joinville. Anais..., 2017.

iv. MORAES, A. S. ; DELGADO, D. B. M. ; MELO, F. G. Ensino de competências transversais


nos cursos de engenharia no Brasil: um estudo comparativo a partir do Conceito ENADE. In:
XLV Congresso Brasileiro de Educação em Engenharia - COBENGE, 2017, Joinville - SC.
Anais..., 2017.

v. MOCOCK, J.; MELO, F. G.; RABBANI, E. R. K. Avaliação do ensino da sustentabilidade


nos melhores cursos de engenharia civil e engenharia de produção do Nordeste. In: XLV
Congresso Brasileiro de Educação em Engenharia - COBENGE, 2017, Joinville - SC. Anais...,
2017.

vi. MELO, F. G. O ensino da competência de comunicação nos cursos de engenharia no Brasil.


In: XLV Congresso Brasileiro de Educação em Engenharia - COBENGE, 2017, Joinville -
SC. Anais..., 2017.

vii. MELO, F. G.; ARAÚJO, I. DA S.; ARAUJO, L.; BARROS, M.; NETTO, A. O. Avaliação
do curso de engenharia de produção da UFAL/Campus do Sertão a partir da percepção dos
estudantes. In: XXXVII Encontro Nacional de Engenharia de Produção - ENEGEP, 2017,
Joinville - SC. Anais..., 2017.

Além disso, foi submetido um artigo para o periódico Educação em Revista (ISSN 0102-
4698), intitulado “Quantidade e qualidade do ensino de Engenharia de Produção no Brasil” e
baseado no Capítulo 5 desta dissertação.

Página 147 de 155


Anexo A______________________________
Questionário do Estudante 2014

Conforme apresentado no Capítulo 4, o QE é elaborado e aplicado pelo MEC e INEP.


Neste anexo, o questionário é transcrito tal como aplicado aos estudantes antes da realização
do ENADE.

“QUESTIONÁRIO DO ESTUDANTE

Caro (a) estudante,

Este questionário constitui um instrumento importante para compor o perfil socioeconômico e


acadêmico dos participantes do ENADE e uma oportunidade para você avaliar diversos
aspectos do seu curso e formação.

Sua contribuição é extremamente relevante para melhor conhecermos como se constrói a


qualidade da educação superior no país. As respostas às questões serão analisadas em
conjunto, preservando o sigilo da identidade dos participantes.

Para responder, basta clicar sobre a alternativa desejada. No final de cada página, ao
pressionar um dos botões “Próximo” ou “Anterior”, o sistema gravará a resposta no banco de
dados, que poderá ser modificado a qualquer tempo. O questionário será enviado ao Inep
apenas quando, na última página, for acionado o botão "Finalizar”, indicando o
preenchimento total do questionário. Ao final, será possível visualizar seu local e horário da
prova.

Agradecemos a sua colaboração!

1. Qual o seu estado civil?


A ( ) Solteiro(a).
B ( ) Casado(a).
C ( ) Separado(a) judicialmente/divorciado(a).
D ( ) Viúvo(a).
E ( ) Outro.

2. Como você se considera?


A ( ) Branco(a).
B ( ) Negro(a).
C ( ) Pardo(a)/mulato(a).
D ( ) Amarelo(a) (de origem oriental).
E ( ) Indígena ou de origem indígena.

Página 148 de 155


3. Qual a sua nacionalidade?
A ( ) Brasileira.
B ( ) Brasileira naturalizada.
C ( ) Estrangeira.

4. Até que etapa de escolarização seu pai concluiu?


A ( ) Nenhuma.
B ( ) Ensino Fundamental: 1º ao 5º ano (1ª a 4ª série).
C ( ) Ensino Fundamental: 6º ao 9º ano (5ª a 8ª série).
D ( ) Ensino Médio.
E ( ) Ensino Superior - Graduação.
F ( ) Pós-graduação.

5. Até que etapa de escolarização sua mãe concluiu?


A ( ) Nenhuma.
B ( ) Ensino fundamental: 1º ao 5º ano (1ª a 4ª série).
C ( ) Ensino fundamental: 6º ao 9º ano (5ª a 8ª série).
D ( ) Ensino médio.
E ( ) Ensino Superior - Graduação.
F ( ) Pós-graduação.

6. Onde e com quem você mora atualmente?


A ( ) Em casa ou apartamento, sozinho.
B ( ) Em casa ou apartamento, com pais e/ou parentes.
C ( ) Em casa ou apartamento, com cônjuge e/ou filhos.
D ( ) Em casa ou apartamento, com outras pessoas (incluindo república).
E ( ) Em alojamento universitário da própria instituição.
F ( ) Em outros tipos de habitação individual ou coletiva (hotel, hospedaria, pensão ou outro).

7. Quantas pessoas da sua família moram com você? Considere seus pais, irmãos, cônjuge,
filhos e outros parentes que moram na mesma casa com você.
A ( ) Nenhuma. D ( ) Três. G ( ) Seis.
B ( ) Uma. E ( ) Quatro. H ( ) Sete ou mais.
C ( ) Duas. F ( ) Cinco.

8. Qual a renda total de sua família, incluindo seus rendimentos?


A ( ) Até 1,5 salário mínimo (até R$ 1.086,00).
B ( ) De 1,5 a 3 salários mínimos (R$ 1.086,01 a R$ 2.172,00).
C ( ) De 3 a 4,5 salários mínimos (R$ 2.172,01 a R$ 3.258,00).
D ( ) De 4,5 a 6 salários mínimos (R$ 3.258,01 a R$ 4.344,00).
E ( ) De 6 a 10 salários mínimos (R$ 4.344,01 a R$ 7.240,00).
F ( ) De 10 a 30 salários mínimos (R$ 7.240,01 a R$ 21.720,00).
G ( ) Acima de 30 salários mínimos (mais de R$ 21.720,01).

9. Qual alternativa a seguir melhor descreve sua situação financeira (incluindo bolsas)?
A ( ) Não tenho renda e meus gastos são financiados por programas governamentais.
B ( ) Não tenho renda e meus gastos são financiados pela minha família ou por outras pessoas.
C ( ) Tenho renda, mas recebo ajuda da família ou de outras pessoas para financiar meus
gastos.
D ( ) Tenho renda e não preciso de ajuda para financiar meus gastos.

Página 149 de 155


E ( ) Tenho renda e contribuo com o sustento da família.
F ( ) Sou o principal responsável pelo sustento da família.

10. Qual alternativa a seguir melhor descreve sua situação de trabalho (exceto estágio ou
bolsas)?
A ( ) Não estou trabalhando.
B ( ) Trabalho eventualmente.
C ( ) Trabalho até 20 horas semanais.
D ( ) Trabalho de 21 a 39 horas semanais.
E ( ) Trabalho 40 horas semanais ou mais.

11. Que tipo de bolsa de estudos ou financiamento do curso você recebeu para custear todas
ou a maior parte das mensalidades? No caso de haver mais de uma opção, marcar apenas a
bolsa de maior duração.
A ( ) Nenhum, pois meu curso é gratuito.
B ( ) Nenhum, embora meu curso não seja gratuito.
C ( ) ProUni integral.
D ( ) ProUni parcial, apenas.
E ( ) FIES, apenas.
F ( ) ProUni Parcial e FIES.
G ( ) Bolsa oferecida por governo estadual, distrital ou municipal.
H ( ) Bolsa oferecida pela própria instituição.
I ( ) Bolsa oferecida por outra entidade (empresa, ONG, outra).
J ( ) Financiamento oferecido pela própria instituição.
K ( ) Financiamento bancário.

12. Ao longo da sua trajetória acadêmica, você recebeu algum tipo de auxílio permanência?
No caso de haver mais de uma opção, marcar apenas a bolsa de maior duração.
A ( ) Nenhum.
B ( ) Auxílio moradia.
C ( ) Auxílio alimentação.
D ( ) Auxílio moradia e alimentação.
E ( ) Auxílio Permanência.
F ( ) Outro tipo de auxílio.

13. Ao longo da sua trajetória acadêmica, você recebeu algum tipo de bolsa acadêmica? No
caso de haver mais de uma opção, marcar apenas a bolsa de maior duração.
A ( ) Nenhum.
B ( ) Bolsa de iniciação científica.
C ( ) Bolsa de extensão.
D ( ) Bolsa de monitoria/tutoria.
E ( ) Bolsa PET.
F ( ) Outro tipo de bolsa acadêmica.

14. Durante o curso de graduação você participou de programas e/ou atividades curriculares
no exterior?
A ( ) Não participei.
B ( ) Sim, Programa Ciência sem Fronteiras.
C ( ) Sim, programa de intercâmbio financiado pelo Governo Federal (Marca; Brafitec; PLI;
outro).

Página 150 de 155


D ( ) Sim, programa de intercâmbio financiado pelo Governo Estadual.
E ( ) Sim, programa de intercâmbio da minha instituição.
F ( ) Sim, outro intercâmbio não institucional.

15. Seu ingresso no curso de graduação se deu por meio de políticas de ação afirmativa ou
inclusão social?
A ( ) Não.
B ( ) Sim, por critério étnico-racial.
C ( ) Sim, por critério de renda.
D ( ) Sim, por ter estudado em escola pública ou particular com bolsa de estudos.
E ( ) Sim, por sistema que combina dois ou mais critérios anteriores.
F ( ) Sim, por sistema diferente dos anteriores.

16. Em que unidade da Federação você concluiu o ensino médio?


( ) AC ( ) MG ( ) RO
( ) AL ( ) MS ( ) RR
( ) AM ( ) MT ( ) RS
( ) AP ( ) PA ( ) SC
( ) BA ( ) PB ( ) SE
( ) CE ( ) PE ( ) SP
( ) DF ( ) PI ( ) TO
( ) ES ( ) PR ( ) Não se aplica
( ) GO ( ) RJ
( ) MA ( ) RN

17. Em que tipo de escola você cursou o ensino médio?


A ( ) Todo em escola pública.
B ( ) Todo em escola privada (particular).
C ( ) Todo no exterior.
D ( ) A maior parte em escola pública.
E ( ) A maior parte em escola privada (particular).
F ( ) Parte no Brasil e parte no exterior.

18. Qual modalidade de ensino médio você concluiu?


A ( ) Ensino médio tradicional.
B ( ) Profissionalizante técnico (eletrônica, contabilidade, agrícola, outro).
C ( ) Profissionalizante magistério (Curso Normal).
D ( ) Educação de Jovens e Adultos (EJA) e/ou Supletivo.
E ( ) Outra modalidade.

19. Quem lhe deu maior incentivo para cursar a graduação?


A ( ) Ninguém.
B ( ) Pais.
C ( ) Outros membros da família que não os pais.
D ( ) Professores.
E ( ) Líder ou representante religioso.
F ( ) Colegas/Amigos.
G ( ) Outras pessoas.

Página 151 de 155


20. Algum dos grupos abaixo foi determinante para você enfrentar dificuldades durante seu
curso superior e concluí-lo?
A ( ) Não tive dificuldade.
B ( ) Não recebi apoio para enfrentar dificuldades.
C ( ) Pais.
D ( ) Avós.
E ( ) Irmãos, primos ou tios.
F ( ) Líder ou representante religioso.
G ( ) Colegas de curso ou amigos.
H ( ) Professores do curso.
I ( ) Profissionais do serviço de apoio ao estudante da IES.
J ( ) Colegas de trabalho.
K ( ) Outro grupo.

21. Alguém em sua família concluiu um curso superior?


A ( ) Sim.
B ( ) Não.

22. Excetuando-se os livros indicados na bibliografia do seu curso, quantos livros você leu
neste ano?
A ( ) Nenhum.
B ( ) Um ou dois.
C ( ) De três a cinco.
D ( ) De seis a oito.
E ( ) Mais de oito.

23. Quantas horas por semana, aproximadamente, você dedicou aos estudos, excetuando as
horas de aula?
A ( ) Nenhuma, apenas assisto às aulas.
B ( ) De uma a três.
C ( ) De quatro a sete.
D ( ) De oito a doze.
E ( ) Mais de doze.

24. Você teve oportunidade de aprendizado de idioma estrangeiro na Instituição?


A ( ) Sim, somente na modalidade presencial.
B ( ) Sim, somente na modalidade semipresencial.
C ( ) Sim, parte na modalidade presencial e parte na modalidade semipresencial.
D ( ) Sim, na modalidade a distância.
E ( ) Não.

25. Qual o principal motivo para você ter escolhido este curso?
A ( ) Inserção no mercado de trabalho.
B ( ) Influência familiar.
C ( ) Valorização profissional.
D ( ) Prestígio Social.
E ( ) Vocação.
F ( ) Oferecido na modalidade a distância.
G ( ) Baixa concorrência para ingresso.
H ( ) Outro motivo.

Página 152 de 155


26. Qual a principal razão para você ter escolhido a sua instituição de educação superior?
A ( ) Gratuidade.
B ( ) Preço da mensalidade.
C ( ) Proximidade da minha residência.
D ( ) Proximidade do meu trabalho.
E ( ) Facilidade de acesso.
F ( ) Qualidade/reputação.
G ( ) Foi a única onde tive aprovação.
H ( ) Possibilidade de ter bolsa de estudo.
I ( ) Outro motivo.

A seguir, leia cuidadosamente cada assertiva e indique seu grau de concordância com cada
uma delas, segundo a escala que varia de 1 (discordância total) a 6 (concordância total). Caso
você julgue não ter elementos para avaliar a assertiva, assinale a opção “Não sei responder” e,
quando considerar não pertinente ao seu curso, assinale “Não se aplica”.

27. As disciplinas cursadas contribuíram para sua formação integral, como cidadão e
profissional.

28. Os conteúdos abordados nas disciplinas do curso favoreceram sua atuação em estágios ou
em atividades de iniciação profissional.

29. As metodologias de ensino utilizadas no curso desafiaram você a aprofundar


conhecimentos e desenvolver competências reflexivas e críticas.

30. O curso propiciou experiências de aprendizagem inovadoras.

31. O curso contribuiu para o desenvolvimento da sua consciência ética para o exercício
profissional.

32. No curso você teve oportunidade de aprender a trabalhar em equipe.

33. O curso possibilitou aumentar sua capacidade de reflexão e argumentação.

34. O curso promoveu o desenvolvimento da sua capacidade de pensar criticamente, analisar e


refletir sobre soluções para problemas da sociedade.

35. O curso contribuiu para você ampliar sua capacidade de comunicação nas formas oral e
escrita.

36. O curso contribuiu para o desenvolvimento da sua capacidade de aprender e atualizar-se


permanentemente.

37. As relações professor-aluno ao longo do curso estimularam você a estudar e aprender.

38. Os planos de ensino apresentados pelos professores contribuíram para o desenvolvimento


das atividades acadêmicas e para seus estudos.

Página 153 de 155


39. As referências bibliográficas indicadas pelos professores nos planos de ensino
contribuíram para seus estudos e aprendizagens.

40. Foram oferecidas oportunidades para os estudantes superarem dificuldades relacionadas


ao processo de formação.

41. A coordenação do curso esteve disponível para orientação acadêmica dos estudantes.

42. O curso exigiu de você organização e dedicação frequente aos estudos.

43. Foram oferecidas oportunidades para os estudantes participarem de programas, projetos


ou atividades de extensão universitária.

44. Foram oferecidas oportunidades para os estudantes participarem de projetos de iniciação


científica e de atividades que estimularam a investigação acadêmica.

45. O curso ofereceu condições para os estudantes participarem de eventos internos e/ou
externos à instituição.

46. A instituição ofereceu oportunidades para os estudantes atuarem como representantes em


órgãos colegiados.

47. O curso favoreceu a articulação do conhecimento teórico com atividades práticas.

48. As atividades práticas foram suficientes para relacionar os conteúdos do curso com a
prática, contribuindo para sua formação profissional.

49. O curso propiciou acesso a conhecimentos atualizados e/ou contemporâneos em sua área
de formação.

50. O estágio supervisionado proporcionou experiências diversificadas para a sua formação.

51. As atividades realizadas durante seu trabalho de conclusão de curso contribuíram para
qualificar sua formação profissional.

52. Foram oferecidas oportunidades para os estudantes realizarem intercâmbios e/ou estágios
no país.

53. Foram oferecidas oportunidades para os estudantes realizarem intercâmbios e/ou estágios
fora do país.

54. Os estudantes participaram de avaliações periódicas do curso (disciplinas, atuação dos


professores, infraestrutura).

55. As avaliações da aprendizagem realizadas durante o curso foram compatíveis com os


conteúdos ou temas trabalhados pelos professores.

56. Os professores apresentaram disponibilidade para atender os estudantes fora do horário


das aulas.

Página 154 de 155


57. Os professores demonstraram domínio dos conteúdos abordados nas disciplinas.

58. Os professores utilizaram tecnologias da informação e comunicação (TICs) como


estratégia de ensino (projetor multimídia, laboratório de informática, ambiente virtual de
aprendizagem).

59. A instituição dispôs de quantidade suficiente de funcionários para o apoio administrativo e


acadêmico.

60. O curso disponibilizou monitores ou tutores para auxiliar os estudantes.

61. As condições de infraestrutura das salas de aula foram adequadas.

62. Os equipamentos e materiais disponíveis para as aulas práticas foram adequados para a
quantidade de estudantes.

63. Os ambientes e equipamentos destinados às aulas práticas foram adequados ao curso.

64. A biblioteca dispôs das referências bibliográficas que os estudantes necessitaram.

65. A instituição contou com biblioteca virtual ou conferiu acesso a obras disponíveis em
acervos virtuais.

66. As atividades acadêmicas desenvolvidas dentro e fora da sala de aula possibilitaram


reflexão, convivência e respeito à diversidade.

67. A instituição promoveu atividades de cultura, de lazer e de interação social.

68. A instituição dispôs de refeitório, cantina e banheiros em condições adequadas que


atenderam as necessidades dos seus usuários.”

Página 155 de 155

Vous aimerez peut-être aussi