Vous êtes sur la page 1sur 10

ES POSIBLE CREAR UN METODO HOLSTICO PARA LA EVALUACIN DE UN

PROGRAMA?
MARROQUN NARVEZ, ALEXANDER (CARIBBEAN INTERNATIONAL UNIVERSITY
MAESTRIA EN EDUCACION A DISTANCIA E LERNING)
RESUMEN:
En este artculo vamos a abordar cuatro modelos que se plantean en el campo de la
evaluacin virtual; los de Tyler, Stake, Stufflebeam, Scriven y Prez Juste. Analizando
los elementos comunes en todos ellos y creando un modelo holstico que permita
incluir elementos que no se expongan y que sean de utilidad para la construccin de
un modelo de evaluacin en ambientes virtuales de aprendizaje. De esta manera se
podr generar mejoras continuas en los procesos de enseanza y aprendizaje que
determine las falencias y virtudes de las plataformas virtuales de enseanza y dar
mayor confiabilidad a todos los actores del sistema.
ABSTRACT:
In this article we will address four models arising in the field of virtual evaluation; those
of Tyler, Stake, Stufflebeam , Scriven and Prez Juste . Analyzing the common
elements in all of them and creating a holistic model to include elements that are not
exposed and are useful for the construction of an evaluation model in virtual learning
environments. This way you can generate continuous improvements in teaching and
learning processes that determine the flaws and virtues of virtual learning platforms
and provide greater reliability to all actors in the system .
INTRODUCCIN:
Hay dos grandes aspectos de la evaluacin en el campo de la educacin y que
permiten valorar los avances en los conocimientos y competencias de los estudiantes,
la cual se denomina evaluacin sumativa, pero que va de la mano con otro proceso de
evaluacin que es el de evaluacin formativa (Woollfolk, 2006: Ruhe y Zumbo,
2009). Estos dos elementos son piedra angular en cualquier proceso de medicin de
aptitudes y actitudes en el estudiante.
No obstante, el resultado esperado en un proceso educativo es el aprendizaje,
caracterizado por un cambio permanente en el conocimiento y conducta de las
personas (Woolfolk, 2006); de esta manera genera unas situaciones de control en los
procesos de aprendizaje, confrontndolas con los resultados que se esperan. Es
importante en el momento de evaluar tener en cuenta el objeto de evaluacin como el
proceso y el ente evaluador. Donde se deben tener en cuenta factores de niveles y
estndares de contenidos.
A raz de esto, una evaluacin efectiva se caracteriza por la validez del mtodo es
decir ser sustentada por dos o ms especialistas; determinando as la confiabilidad de
las pruebas, determinada por la consistencia de las pruebas con un sistema riguroso y
confiable y a prueba de engaos por parte de los estudiantes.
En sntesis la construccin de un modelo que sea adecuado y nos aproxime a una
evaluacin coherente y que brinde confiabilidad, adaptabilidad y ajuste constante,
pues nada en nuestro medio puede ser esttico y ms la educacin; a partir de los
modelos brindados por Tyler, Stake, Stufflebeam, Scriven y Prez Juste.

METODOLOGA:
Hacer el anlisis de los distintos modelos antes mencionados y efectuar el
planteamiento de un modelo holstico previo anlisis de cada uno. Para tal efecto se
van a trabajar cinco modelos de evaluacin de todos los aspectos en los ambientes
virtuales y de educacin a distancia. Para tal fin se integraran los elementos que hacen
parte de estos modelos y seleccionar los elementos que puedan brindar uno que
integre lo mejor de cada uno y nos d como resultado un modelo de calidad.
Para tal fin se han seleccionado cinco modelos en los cuales vamos a comparar y
extraer lo ms adecuado para generar un elemento comn; descartando los elementos
que se repitan y extrayendo lo novedoso y similar en todos. A continuacin mostramos
un cuadro con las caractersticas de los modelos. Guindonos hacia una evaluacin
efectiva que se caracteriza por la validez del mtodo es decir ser sustentada por dos o
ms especialistas; determinando as la confiabilidad de las pruebas, determinada por
la consistencia de las pruebas con un sistema riguroso y confiable y a prueba de
engaos por parte de los estudiantes. Puede verificar correctamente conocimientos
intiles o de corta duracin, con lo que pierde su valor y no cumple sus propsitos
(Woollfolk, 2006).
La evaluacin en ambientes virtuales de aprendizaje:
Existen diferentes formas para caracterizar un ambiente virtual. De manera general, un
ambiente virtual es el modelo generado y operado en una computadora, que simula o
reproduce un entorno real, en sus aspectos ms importantes, de acuerdo a la finalidad
de su utilizacin (Britannica Online, 2009).
En el campo de la educacin, los ambientes virtuales facilitan la comunicacin de
informacin textual, auditiva y visual, as como su registro temporal o permanente, de
manera sincrnica, o en perfecta correspondencia temporal. Y asincrnica, o sin
correspondencia temporal, para a apoyar el aprendizaje a distancia o en lnea. Entre
las ventajas de este enfoque se identifica a los siguientes autores (James, McInnis y
Devlin, 2002).
En la siguiente tabla hacemos un compilado con las metodologas de evaluacin ms
importantes que hay sobre el tema para concluir con mtodo holstico de evaluacin.

CINCO METODOLOGAS EXPUESTAS


Modelo clsico
de
TYLER; Dado el proceso lineal lgico del modelo propuesto por Tyler las
evaluacin
fases a desarrollar en su propuesta evaluativa se concretan en las
orientada
al siguientes:
logro.
- Establecer metas y objetivos generales.
- Ordenar los objetivos segn diversas clasificaciones.
- Definir estos objetivos en trminos conductuales.

- Buscar situaciones en las que los objetivos se realizan.


- Seleccionar las tcnicas apropiadas de medida.
- Recopilar los datos de la prctica.
- Comparar los datos con los objetivos conductuales fijados.

Modelo
de
STAKE;
la
evaluacin
centrada en el
cliente:

Los principios bsicos que sustentan la propuesta de evaluacin de


Stake son los siguientes:
- Igualdad: en la valoracin de la accin de diferentes centros
educativos.
- Ubicuidad: debe analizarlo todo en su globalidad.
- Diversidad: consenso
situaciones propuestas.

explicativo

dentro

de

las

diferentes

- Utilidad: prestar ayuda a la comunidad escolar.


- Redundancia: gran cantidad de datos sobre el programa.
- Ambigedad: defiende la especificidad frente a la simplificacin.
- Generalizacin: aplicabilidad de los estudios a otros casos y
construccin o reformulacin de teoras.
La estructura funcional operativa de la evaluacin centrada en el
cliente viene recogida en la obra de Stufflebeam y Shinkfield (1989,
p.262). Se le denomina la evaluacin del reloj por su carcter cclico
siguiendo el movimiento de las agujas y dado que contempla doce
pasos:
1. Identificar el alcance del programa.
2. Panorama de las actividades del programa.
3. Descubrir los propsitos e intereses.
4. Conceptualizar las cuestiones y problemas.
5. Identificar los datos necesarios para investigar los problemas.
6. Seleccionar observadores, jueces e instrumentos si los hay.
7. Observar los antecedentes, las transacciones y los resultados

propuestos.
8. Desarrollar temas, preparar descripciones y estudiar casos
concretos.
9. Validacin: confirmacin, bsqueda de evidencias para la no
confirmacin.
10. Esquema para uso de la audiencia.
11. Reunir los informes formales, si los hay.
12. Hablar con los clientes, el personal del programa y las audiencias.

Modelo
de
STUFFLEBEAM;
evaluacin
orientada a la
decisin

en el perfeccionamiento de los sistemas, tal y como se recoge en la


propuesta del cuadro tomado de (Stufflebeam y Shinkfield 1989, p.
192)
1. Operaciones regulares del sistema (incluyen distintas actividades
evaluativas).
2. Evaluaciones peridicas del contexto, de ello se derivar la
justificacin de un cambio, si la opcin es negativa retomamos el
punto 1. Si la opcin es positiva definimos el problema y formulamos
los objetivos. Si existe una solucin satisfactoria aplquese y vuelva al
punto de partida. Si no la hay pasamos al punto 3.
3. Evaluacin de entrada, nos valora las estrategias encontradas, si
no son adecuadas retomamos el punto 2. En cambio, si son
prometedoras debemos avanzar en su desarrollo y comprobacin,
mediante la propuesta de realizacin de un proyecto especial.
4. Evaluacin del proceso y del producto, se centrar en valorar los
rendimientos del sistema, si stos son satisfactorios se debe aplicar
la solucin propuesta. En caso contrario, debemos plantearnos si el
proyecto merece un nuevo intento, lo que nos lleva a retomar la parte
final del punto 3; o bien, al fracaso de la operacin inicial planteada.
Del anlisis de dicha propuesta y circunscrita la explicacin a un
contexto de reforma o cambio institucional nos ofrece la siguiente
aportacin, siguiendo las directrices emanadas de la formulacin del
modelo:
a. La evaluacin debe formar parte de todo programa regular de
cualquier institucin educativa y no circunscribirse en exclusiva a una
actividad especializada relacionada con proyectos de innovacin o

renovacin.
b. La evaluacin desempea un papel de suma importancia tanto en
lo que se refiere a la estimulacin de los sujetos implicados en la
misma como en lo relativo a la planificacin de cambios.
c. El empleo de cada uno de los cuatro tipos de evaluacin
propuestos en el modelo CIPP es necesario cuando nos permitan
obtener una mayor informacin, es decir actan como partes del gran
marco evaluativo de cada institucin, siendo su funcin bsica el
analizar aspectos marginales de suma importancia para el proyecto.
d. La implementacin de nuevos programas en el marco educativo
debe prever el empleo de la evaluacin, una vez que hayan sido
aceptados por la comunidad.
e. La informacin suministrada adems de resolver problemas de tipo
institucional proporciona una base cientfica para juzgar si las
decisiones sobre el fracaso o el xito de un programa especial se
toman desde posiciones debidamente justificables.
f. Las decisiones del equipo evaluador acerca del principio,
mantenimiento, aplicacin o final de los programas educativos o
relativas a su perfeccionamiento son el reflejo de las fuerzas
dinmicas que van ms all de la esfera prxima de estudio e
influencia directa del evaluador.
En consecuencia podemos afirmar que el modelo CIPP nos
proporciona diferentes tipos de decisiones que nos ayudan a crear
las estrategias evaluativas apropiadas, entre ellas destacan:
- Decisiones de realizacin: sobre la puesta en marcha del programa
(recursos, apoyos humanos).
- Decisiones de reciclaje: continuar o no con el programa, unirlo a
otro, buscar recursos nuevos.
- Decisiones de planificacin: seleccin de metas valiosas para el
programa y los sujetos implicados.
- Decisiones de estructura: medios necesarios para alcanzar esas
metas.

Modelo
SCRIVEN:

de
la

La lista de control de indicadores de Scriven que ha tenido diversas


actualizaciones en los ltimos aos se concreta en los puntos

evaluacin
siguientes:
orientada hacia
el consumidor
1. Descripcin: qu es lo que se va a evaluar.
2. Clientes: quin encarga la evaluacin.
3. Antecedentes y contexto: del objeto evaluado y de la evaluacin en
s misma.
4. Recursos: disponibles para su uso por los colectivos implicados.
5. Funciones: que hace el evaluando.
6. Sistema de distribucin: qu se consigue y cmo se alcanza.
7. El consumidor: quin est utilizando o recibiendo los efectos.
8. Las necesidades y los valores: de la poblacin afectada real o
potencialmente.
9. Normas: previamente validadas, de mrito o valor a aplicar.
10. Procesos: limitaciones de costes, beneficios de las operaciones
normales.
11. Resultados: efectos producidos.
12. Generalizacin: a otras personas, lugares, tiempos o versiones.
13. Costes: econmicos, psicolgicos,
repeticiones. Directos, indirectos.

personales.

Inicial,

14. Comparaciones: con otras opciones alternativas.


15. Significado: sntesis de todo lo anterior.
16. Recomendaciones: sean o no requeridas y puedan llevarse a
cabo o no en situaciones reales.
17. El informe: cuidar el vocabulario, la extensin, el diseo, tiempo,
localizacin, personal, presentacin.
18. La meta-evaluacin: debe realizarse antes de la realizacin y la
difusin del informe.

Modelo
de
PREZ JUSTE:
evaluacin

De forma esquemtica los puntos propuestos por Prez Juste (1994)

integral
integrada

e
en su modelo son los siguientes:
1. Momento inicial (el programa en s mismo): que comprende tres
dimensiones:
- Calidad intrnseca del programa:
* Contenido del programa.
* Calidad tcnica.
* Evaluabilidad.
- Adecuacin al contexto:
* Respuesta a necesidades y carencias.
* Priorizacin.
- Adecuacin a la situacin de partida:
*Viabilidad

2. Momento procesual (el programa en su desarrollo): comprende


dos dimensiones:
- Ejecucin:
* Actividades.
* Secuencias.
* Tiempo.
* Flexibilidad.
- Marco:
* Clima.
*Coherencia.

3. Momento final (el programa en sus resultados): comprende tres


dimensiones:
- Medida y logros:
* Constatacin.
* Contraste.

- Valoracin:
* Criterios.
* Referencias.
- Continuidad:
* Decisiones.
* Incorporacin de las mejoras.
*Plan de seguimiento.

Como podemos notar hay mltiples elementos comunes en cada modelo, pero
tambin elementos nicos y que pueden brindar apoyo al momento de la evaluacin
de procesos y de los elementos que participan en los entornos virtuales de
aprendizaje.
RESULTADOS:
Despus de hacer un cotejo con los trabajos de la tabla anterior; se ha determinado
extraer un modelo holstico de evaluacin; para este fin se ha seleccionado la
informacin y compactado para dar a la luz el siguiente modelo que gracias a la
investigacin, integra elementos comunes y tambin otros que no lo son para dar
como resultado el siguiente modelo.

Modelo holstico integrado de evaluacin

Mediante un anlisis de los datos y estructurando un modelo con lo mejor y comn en


todos los modelos se determinaron los siguientes elementos como los ms adecuados
en el proceso de evaluacin holstica que se plantea.
1. Descripcin del programa (Antecedentes y supuestos)
2. Establecer metas y objetivos.
3. Ordenar esta informacin
4. Buscar las situaciones en las que los objetivos se realizan
5. Seleccionar tcnicas adecuadas de medida.
6. Efectuar la evaluacin sumativa y/o formativa (auto-co-hetero evaluacin)
7.Recopilar datos de la prctica
8.Comparar datos con los objetivos conductuales planteados
9. Identificar problemas

10. Reciclar es decir unirlo con otro y buscar recursos nuevos.


11. Planificacin para un plazo definido (corto mediano o largo)

CONCLUSIONES:
Los modelos analizados tienen elementos comunes y por tanto dan cuenta de que el
proceso de evaluacin es estndar en su mayora. De tal manera esta similitud ha
dado facilidad en la construccin del modelo holstico.
Este modelo no solo puede ser til en el campo educativo virtual, sino puede ser
piedra angular de otros modelos en distintas disciplinas que requieran de la evaluacin
de procesos y personas, para mejorar sus resultados.
Aunque este modelo es el resultado de trabajos anteriores; puede dar luz a una
investigacin de mayor profundidad y replantear todo lo expuesto hasta ahora.

AGRADECIMIENTOS:
Al profesor Lcido Mora quien nos ha dado luces para efectuar los procesos en el
curso.
REFERENCIAS:

ABARCA PONCE, M.P.: La evaluacin de programas educativos. Ed.


Escuela Espaola. Madrid, 1989.
ADAMS, G.S.: Medicin y evaluacin en Educacin, Psicologa y
"Guidance". Ed. Herder. Barcelona, 1983.
ANGUERA, M.T.: Metodologa de la observacin en las Ciencias
Humanas. Ed. Ctedra. Barcelona, 1985.
BLOOM, B. y otros.: Evaluacin del aprendizaje. Ed. Troquel. Buenos
Aires, 1981.
CABRERA, F.A. y ESPIN, J.V.: Medicin y evaluacin educativa. Ed. PPU.
Barcelona, 1986.
CARDONA, J. (Coord.): Metodologa innovadora de evaluacin de centros
educativos. Ed. Sanz y Torres. Madrid, 1994.
COHEN, L. y MANION, L.: Mtodos de investigacin educativa. Ed. La
Muralla. Madrid, 1990.

COOK, T.D. y REICHARDT, Ch.S.: Mtodos cualitativos y cuantitativos


en investigacin evaluativa. Ed. Morata. Madrid, 1986.
CORONA, R. y otros.: Manual de tcnicas de evaluacin y ajuste de
informacin estadstica. Ed. Fondo de Cultura Econmica. Mxico, 1982.
CRONBACH, L.J.: Designing evaluations of educational and social
programs. Ed. Jossey-Bass. San Francisco. USA, 1982.
DE KETELE, J.M.: Observar para educar. Ed. Visor. Madrid, 1984.
DE LANDSHEERE, G.: Diccionario de la evaluacin y de la investigacin.
Ed. Oikos-tau. Barcelona, 1985.
DELORME, Ch.: De la animacin pedaggica a la investigacin-accin.
Ed. Narcea. Madrid, 1985.
DEMO, P.: Investigacin participante. Ed. Kapelusz. Buenos Aires, 1985.
DENDALUCE, I. (Coord.): Aspectos metodolgicos de la investigacin
educativa. Ed. Narcea. Madrid, 1988.
EBEL, R.L.: Fundamentos de la medicin educacional. Ed. Guadalupe.
Buenos Aires, 1977.
----- La investigacin-accin en el aula. Ed. Generalitat Valenciana.
Valencia, 1986.

Vous aimerez peut-être aussi