Académique Documents
Professionnel Documents
Culture Documents
Alumnos/as:
Francisco Crespo Molero
Cristina Garca Lpez
Mara Carmen Rodrguez Soto
Mara Jess Rubio Martnez
INTRODUCCIN
La reflexin sobre los distintos modelos nos ha facilitado conocerlos mejor y profundizar
en sus puntos bsicos y en su desarrollo.
Para la elaboracin del documento, se han utilizando las nuevas tecnologas de la
informacin y la comunicacin, mediante la creacin de un documento virtual en google docs
que nos ha permitido trabajar en lnea y en tiempo real de manera cooperativa. Esto ha
facilitado la cohesin y el trabajo en equipo en las circunstancias que nos ocupa, la realizacin
de un mster online.
TYLER
(modelo por
objetivos)
FUNCIONES
DE LA
EVALUACIN
STUFFLEBEAM
(modelo CIPP)
SCRIVEN
STAKE
(modelo de evaluacin
respondiente)
PREZ JUSTE
(Modelos complejos)
-Evaluacin basada en
objetivos.
-Proceso mediante el
cual se proporciona
informacin til que
sirva de gua para la
toma de decisiones y
ayude a comprender
los fenmenos
implicados.
-Diseo funcional
Examen sistemtico de
los acontecimientos
que ocurren durante el
proceso de aplicacin
de un programa y de
las consecuencias
(resultados) que se
derivan del mismo.
-Planificacin
estructurada
-Proceso mediante el
cual se proporciona
informacin til y
descriptiva acerca del
valor y mrito de las
metas, la planificacin,
la realizacin y el
impacto de un objeto
determinado, que sirva
de gua para la toma de
decisiones, solucionar
problemas de
responsabilidad y
promover la
comprensin de los
fenmenos implicados
-Proceso sistemtico de
recogida de informacin
rigurosa (valiosa, vlida y
fiable) orientado a valorar la
calidad y logros de un
programa como base para la
posterior toma de decisiones
de mejora.
-Evaluacin como
valoracin para la toma de
decisiones: tiene en cuenta
tanto los procesos como los
resultados (inicial, durante
el proceso y final).
-Establecimiento de planes
de mejora de forma
continuada.
-Sumativa: Determinar
la congruencia entre
los objetivos
propuestos y los
logros conseguidos
(eficacia)
-Formativa: Ayudar a
la mejora del programa
y a la de otros
programas con similar
propsito y
caractersticas.
-Formativa y sumativa
para maximizar la
utilizacin de los
resultados de evaluacin
-Formativa: Tomar
decisiones
-Acreditacin institucional
-Mejora del funcionamiento
interno de una organizacin.
- Formativa y sumativa
OBJETIVO
DE LA
EVALUACIN
CONCEPTO
EVALUATIVO
CRONBACH
PARA QUIN
-Para toda la
comunidad
-Tcnico o experto
externo.
-Tcnico o experto
externo.
- Mediador entre
poltica y diseo de
programas.
-Especialista al servicio
de la organizacin y de
los miembros del
programa. Trabajo junto
con el personal que
aplica los programas
para evaluar resultados
(escalas de valoracin,
pruebas de logro o
rendimiento,)
- Estudios analticos en
profundidad.
- Ms adecuado para
programas amplios, ms
estructurados que
afectan a la institucin
educativa y no tanto a
un aula concreta (pe. la
atencin a la
diversidad).
CARACTERSTICAS
DEL
EVALUADOR
MBITIOS Y
CONTEXTOS MS
ADECUADOS PARA
APLICAR
FASES
PRINCIPALES
DE LA
APLICACIN
METODOLOGA
EVALUATIVA
1. Especificar metas y
objetivos del
programa.
2. Delimitacin de
estos objetivos de
modo jerrquico (de
mayor a menor
concrecin)
3. Seleccionar o
elaborar instrumentos
adecuados para medir
las situaciones o
condiciones del
programa en que se
produce o no la
consecucin de dichos
objetivos.
4. Recopilar la
informacin necesaria
sobre la consecucin o
no de los objetivos.
5. Anlisis
comparativo de lo
logrado, que se deduce
de la informacin
recopilada y de lo que
quera lograr
(objetivos/metas
establecidas
previamente).
-Elementos bsicos:
UTOS
1. Unidades que son
sometidas a
evaluacin, individuos
o grupos participantes.
2. Tratamiento del
programa de
evaluacin.
3. Operaciones del
evaluador para la
recogida y anlisis de
datos o la elaboracin
de conclusiones.
4. Situaciones:
contexto social en el
que el estudio tiene
lugar (clima social,
econmico, poltico,...)
FASES:
1. Provisional: estudio
piloto del programa a
pequea escala.
2. Sper-realizacin: se
reelabora el programa
para probar su xito.
3. Prototpico: se aplica
el programa bajo las
condiciones ms
prximas a la realidad.
4. Operacin del
programa: el programa
se aplica.
-Metodologa
cuantitativa aunque
admite instrumentos
de tipo cualitativo.
-Metodologa diversa
para cada tipo de
evaluacin. Mixta.
-Fases:
1. Anlisis del contexto
(necesidades de los
usuarios).
2. Anlisis del proceso
(formativa).
3. Anlisis del producto
(sumativa).
-Meta-evaluacin.
1. Determinacin de los
criterios del mrito del
programa.
2. Determinacin de las
normas sobre el mrito.
3. La medida o evaluacin
de la realizacin.
-Perspectivista, mltiple:
Mltiples perspectivas
para obtener un retrato
ms amplio y completo de
la realidad (evitando
distorsiones y prejuicios).
-Diversa, mixta.
-Metodologas
cuantitativas y cualitativas
- Mltiple.
Complementariedad
metodolgica
- Resultados finales
del programa o
producto.
-Medida de
consecucin de los
objetivos previstos.
-Estudios de procesos,
actitudes y logros.
- Procesos de E/A
- Actitudes del
alumnado y
profesorado.
- Resultados de los
alumnos.
MTODOS,
INSTRUMENTOS Y
TCNICAS
- Escalas de medida,
test de rendimiento o
de ejecucin,
cuestionarios.
-Variados, diversos.
-Se utilizan
instrumentos y tcnicas
como las escalas de
valoracin, test de logro
o rendimiento,
entrevistas,
cuestionarios, etc.
-Lgica probativa:
1. Determinar objeto que va
a ser evaluado.
2. Establecimiento e normas
y criterios de mrito y
calidad de los programas.
3. Resumir los resultados en
un juicio evaluativo.
-Listas de claves de control
de la evaluacin.
-Observacin entrevista,
anlisis de informes,...
- Variados: Observacin
entrevista, pruebas,
cuestionarios, etc.
TIPO DE INFORME
DE RESULTADOS
-Descriptivo
-Narrativo
-Frecuente y para
proporcionar una gua
para la mejora del
programa.
-Descriptivo
-El informe final se realiza
despus de la entrega de un
borrador para que sea
revisado y criticado (metaevaluacin). Puede incluir
recomendaciones sobre el
uso o destino de la
evaluacin y posibilidades
de generalizacin a otras
personas, programas y
situaciones.
-Fotogrfico, narrativo
(citas literales, ilustraciones,
metforas,), holista e
informal. Se presentan
informes al inicio y durante
la evaluacin como medida
para ir redefiniendo los
temas propuestos o cambiar
las prioridades de la
indagacin, si fuera
necesario.
-Descriptivo
POSIBLE
GENERALIZACIN
- Ninguna, se centra
en el anlisis de
objetivos, slo evala
el programa.
-Naturalista.
-Tres niveles de
concrecingeneralizacin: teora
de los UTOS.
- Naturalista, experiencia
vicaria: Los participantes
pueden elaborar sus propios
juicios de valor, leyendo el
informe descriptivo que
realiza el evaluador;
Tambin comparten la toma
de decisiones para la
realizacin de los cambios
para la mejora necesarios.
TIPO DE
INFORMACIN A
RECOGER
UTILIDAD DE LOS
HALLAZGOS
-Para la formacin de
la sociedad.
- La funcin poltica
de la evaluacin: las
instituciones polticas
aprenden de la
experiencia evaluativa
y la utilizan para
promocionar y/o
reforzar sus proyectos
polticos.
CRITERIOS PARA
JUZGAR
EVALUACIONES
-Los objetivos se
convierten en los
criterios: los fines
antes que los medios.
-Validez externa.
- Objetivos bien
definidos mejor que
en la comparacin
con otros grupos o
cursos (evaluacin
con referencia a
criterio).
CONTRIBUCIONES
-Diseos funcionales
y criterios de validez
interna y externa del
autor.
-Incluye la variable
proceso.
-Se introduce la
evaluacin de contextos,
procesos y tambin del
diseo.
-Listas de claves de
control para la evaluacin
(LCE) .
- Formas estandarizadas
para recoger y comunicar
la informacin evaluativa
sobre productos educativos
(procesos educativos,
contenidos, posibilidad de
transferencia, eficacia).
-El contrato en la toma de
decisiones.
- Mejora del producto:
beneficio para todos.
-Gran contribucin a la
teora de programas y a la
defensa de la
complementariedad
metodolgica y tcnica en
la evaluacin de
programas.
DEBILIDADES
-Gran complejidad en el
anlisis, muy centrado
en criterios de validez.
- Aparente subjetividad y
dificultad para representar
los intereses de forma
equilibrada.
-Hacer generalizaciones an
cuando sus informes son
muy accesibles.
-Dificultad en distinguir lo
que es descripcin de lo que
es anlisis.
- Gran cantidad de
indicadores (74 distribuidos
en los tres momentos de
evaluacin), lo que supone
que:
1.Si no se cuenta con
personal bien preparado,
ste se ver incapacitado
para aplicarlos durante la
evaluacin.
2.Si no se conoce el
programa a implementar
ser difcil predecir
situaciones que favorezcan
su concrecin en la etapa
inicial y de proceso;
3. Tambin se puede fallar
al escoger la metodologa
(diseos y tcnicas) en el
momento final o de
presentacin de resultados
por lo que, estos puede que
no sean muestras de la
realidad que se pretende
mostrar y se tenga que
volver al punto de partida.