Académique Documents
Professionnel Documents
Culture Documents
'
_~-:7".....-:''''7J
>
~~
...
b",
'&.
"
J/- -
': ,""~;;~:i,
.~
..
i:.
;'
".
-,.'
~~:
lo ~
;;:.,
f
. ,'~ ...
, J
::."
.... ,....
,,~
...,'.
"
~ w- '"" ~
'';';;
t~
.'.,'
~
l'
."
"
'
...
,',
!I."~-
,i
,'.
\:
\~
..
".
.a..
'j., ""
1,
o
~'('
,,'
. t
.~
I~~
I -
\~
;.~
... .~
".
'
'.
'
..
~:.
...~.
'.
'-~,;,
; ~ '""1.
; : ~~.~
..~:.'.':~~.
~;.~-t;~~,~:.
,.,.
"
",.1
,~".i
~.
'il:-5-',
'o
(:
-c.
c.
'0
c'
e
.c'
o
"c!
o
e
e
e
c.
'c-
'oe
e
o
e
o
e
e)
o
c'
e,
c~
e
e
c.
'0
~C
f":0
Daniel L. Stufflebeam
Anthony J. Shinkfield
Evaluacin sistemtica
Ttulos publicados:
La micropoltica de la escuela
escuela primaria
G. Kirk, El currculum bsico
M. Warnock, Unapoltica comn de educacin
P. Freire y D. Macedo, Alfabetizacin
M'w.Apple, Maestros y textos.
H.A..Giroux, Los profesores como intelectuales
P. Freire, La naturaleza poltica de la educacin
P. Langford, El desarrollo del pensamiento conceptual en la
escuela secundaria
21. A. Garton y C. Pratt, Aprendizaje y proceso de alfabetizacin
22. L.B. Resnick y W.W. Ford, La enseanza de las matemticas
.y sus fundamentos psicolgicos
23. C.a. Cazden, El discurso en el aula
24. C. Watkins y P. Wagner, La disciplina escolar
25. V. Lewis, Desarrollo y dficit
26. O.C.D.E., Escuelas y calidad de enseanza
27. S.S. Stodolsky, La importancia del contenido de la enseanza
28. D.A. Schiin, La formacin de profesionales reflexivos
29. C. Rogers y P, Kutnick, Psicologa social de la escuela primaria
30. J.D. Wilsan, Cmo valorar la calidad de la enseanza
14.
15.
16.
17.
18.
19.
20.
',:1'.
".o',;
:.
Ediciones Paids
Barcelona.
I
_.~.'-_
..
_'
"
'.
t,':
: :';.~.;:~.-:.:
'J:'~1,:\L
~
Ministerio
de Educacin
Y Ciencia
t)
.')
,j
Ttulo original:
Publicado
Systematic eva1uation
SUMARIO
DordrechtlBoston
')
')
')
:J
de Ferran Cartes
')
,')
:)
e)
)
J
,:)
13
I:J
Introduccin a la evaluacin
17
Objetivos .
Qu es la evaluacin?
Mtodos
Normas
La historia
18
()
2: reimpresin, 1993
Quedan rigurosamente prohibidas, sin la autorizacin escrita de los titulares del
'Copyright", bajo las sanciones establecidas en las leyes. la reproduccin total o parcial de esta obra po~cualquier medio o procedimiento, comprendidos la reprografa y
. el tratamiento informtico. y la distribucin de ejemplares de ella mediante alquiler o
. prstamo pblicos.
ISBN 84-7509-445-7
Depsito legal B-9.532/l993
N.I.P.O. 176-87-169-7 .
Impreso en Nova-Grafik, S.A.,
Puigcerda, 127 - 08019 Barcelona
I
Impreso
JL~..",~. .- ..~--,:-f._"""""
19
25
26
32
':)
:)
,,)
El perodo pre-tyleriano, 33
La poca tyleriana, 34
.
La poca de la inocencia, 35
La poca del realismo, 36
La poca' del profesionalismo, 40
2.
,:)
~)
~.
43
53
65
Objetivos.
..
.
Conceptualizaciones' alternatIvas de la evaiuacin
Pseudoevaluaciones
66
66
67
::)
Investigaciones encubiertas, ~8 . , .
Estudios basados en las relacIOnespublIcas, 69
59
60
61
O
,.)
:J
O
~
(1
\('
C.
e-
("
ee
....
"Las verdaderas
Estudios
Estudios
Estudios
Estudios
e
(
e
e
(
3.
'.c
(
:
c'
e
eval~aciones
il
91
Objetivos "
La intencin del m.todo tyleriano
92
93
(.
(;
La evaluacin y la administracin
'c
(,
5,
96
:~
,~
98
t: "
~-,
4.
102
106
109
109
111
Objetivos .
.
.
.
Aspectos conceptuales de la evaluacin
112
113
(".
,,(,>,----,.,---,~"-------'~~-~,~~~~~~-~-"~~"-"<~,.~--------~~
119
del programa
124
(.
J
76
78
84
88
88
".
72
Conclusin
.
Test de conocimientos sobre la unidad 2
Ejercicios prcticos
.
Preguntas 'sin respuesta
Referencias bibliogrficas
70
de orientacin de la decisin 72
centrados en el cliente 74 '
polticos, 74 .
,
basados en el consumidor, 75
G.'
t;;
Sumario
.C
("
sistemtica
'f!
Evaluacin
Cuasievaluaciones
'c
1
I
128
137
Objetivos .
Introduccin a los problemas ms importantes
138
139
135
136
de una
145
156
:) \
()
10
Evaluacin sistemtica
Sumarlo
El propsito
de la evaluacin
159
t
\
168
171
172
8.
175
176
176
177
11
181
293
\)
Objetivos
Intencin del modelo de contraposicin
294
295
\)
193
235
240
241
9,
299
'~)
;)
1)
()
301
r)
1,)
304
()
308
\)
313
- Objetivos .
La evaluacin tradicional:
semillas de duda
311
311
315
316
243
251
()
/)
,,)
e')
el modelo judicial
'")
1)
190
()
()
265
270
285
290
290
186
'J
Observaciones generales
Test de conocimientos sobre la unidad 7
Ejercicios prcticos
Preguntas sin respuesta
ReferenCias bibliogrficas
162
~)
e)
e)
,)
319
320
,)
,)
323
,)
:)
,')
~:>
(.J
O
()
()
t
(
12
Evaluacin sistemtica
326
327
(
(
.M'N':~-'f "::
?~
T~st
conocimientos sobre la unidad 9
EJerCICIos prcticos
.
.
Preguntas sin respuesta
Referencias bibliogrficas
(
(
(
325
la.
(
(
(
(
(
(
(
(
(
(
(
(
(
(
t
(.
(
329
339
Objetivos.
.
.
.
La definicin de evaluacin .
Critica de otras tendencias
Evaluacin formativa y sum~tiv~
:
.
.
Evaluac~~n ~ma:eul' contra evaluacin profesi;nal
EvaluaclOn mtnnseca y evaluacin final
La evaluacin sin metas
Valoracin de las necesidad~s
.
La lista de control de indicadores de la evaluacin
La metaevaluacin
Ideologas evaluati~as'
.
.
ideologa
!deologa
Ideologa
ideologa
341
Unas palabras para el lector
343
343
344
345
346
346
347
347
348
352
352
separatista 353
positivista: 354
administrativa 354
relativista, 356
La profesionalizacin de la evaluacin
Test de conocimientos sobre la unidad
Ejercicios prcticos
.
Preguntas sin respuesta
Referencias bibliogrficas
:.
334
338
La
La
La
La
UNIV~~:,,~~-,i:_,:
'jf j\ e lit r 1,;;)
356
la
357
370
372
373
Indice de autores
Indice analtico
375
377
t.
\
"\ ==-~~"~~~
..-
.-
~.~-----
------------
--
----
1II
')
')
14
Evaluacin sistemtica
15
ficar los logros realizados en cada objetivo en una escala que vaya de ~inguno
a algunos, muchos o muchsimos. Pue~e c~talogar l~s preg~ntas qu~ ~un necesitan respuesta y las tcnicas y expenenc1as que aun preCIsa a~qulrlr. Puede
hacer otra lista de los efectos inesperados que haya cr~ldo expen~entar en sus
conocimientos, tcnicas y actitudes, como consecuenCIa del ~studlO del ma:e:
ial los cuales quiz sean positivos, al tratarse de nuevas 1deas, pero qUlza
~a~bin negativos, puesto que pueden haber contribu~do. a. aumenta; la. confusin. Le sugerimos que intente elaborar algunos eJerC1C10Spor. Sl m1smo,
con el fin de valorar los logros que, potencialmente, le haya podIdo prop~rcionar el estudio de las unidades. Si lo hace, por favor, mndenos. una copla,
que, sin duda, puede sernas de utilidad en el futuro, cuando reVIsemos este
libro. Finalmente, le recomendemos que haga planes. ;oncretos con el fin de
poner a prueba sus nuevas ideas acerca de la evaluaclOn, ya sea cr~ando evaluaciones, evaluando evaluaciones o dirigiendo un grupo que reahce evaluaciones.
Puede usted mismo comprobar que cada unidad contiene material destinado a ayudarle en la evaluacin de su propio trabajo. Este material est
estrechamente relacionado con los objetivos de la unidad e incluye preguntas
con respuestas alternativas cuya solucin puede comprobar usted mismo, ejercicios prcticos con las respuestas correspondientes y preguntas destinadas a
la discusin. Le animamos a trabajar con todo este material. Este esfuerzo
no slo le proporcionar informacin adicional acerca del alcance de su dominio del material ledo, sino que tambin le ayudar a reforzar su comprensin de los contenidos de la unidad y su capacidad de aplicar el mtodo
correspondiente.
Adems de trabajar con los ejercicios de evaluacin que le proporcionamos, le sugerimos que tambin realice una cierta autovaloracin comprobando
la consecucin de los objetivos que previamente se haba fijado. Puede hacer
una lista de los avances que crea haber hecho en cada objetivo. Puede clasi-
')
}
')
)
)
')
)
)
)
)
)
)
)
)
~,~:?t~~.
"""..
:v""'~~~';l~s
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
------
-_
_------~---
..
,J
('
.j
r
r:
.,.l~
,r
.i~
e
(!
e
e
:;,~ ;
INTRODUCCION
A LA EVALUACION
.~
';';.
I
jl
'j.
e
e
e
(
.
La evaluacin es una de las actividades fundamentales de los serviCiOS
profesionales ms solventes. Los clientes de estos profesionales merecen una
asistencia que satisfaga sus necesidades, que sea de una alta calidad, moderna
y eficiente. Para que los profesionales se responsabilicen de satisfacer estos
niveles, la sociedad debe someter regularmente a evaluacin a los propios
servicios profesionales. Una parte del trabajo evaluativo, la que consiste en
la regulacin y proteccin del inters pblico, debe, obviamente, ser dirigida
por organismos independientes, como agencias gubernamentales y juntas acreditadas. Pero, fundamentalmente, las evaluaciones rns importantes de los servicios profesionales estn realizadas (o encargadas) por los propios profe-
.,,(
(
(
(
(
(
sionales.
, Para mantener sus servicios al da y asegurarse de que, efectivamente,
satisfacen las necesidades de sus clientes, los profesionales deben recabar continuamente informacin oportuna sobre el trabajo evaluativo. Este proceso
incluye estudiar las necesidades de sus clientes, evaluar los mtodos que proponen o utilizan otros, seguir muy de cerca el desarrollo del servicio, valorar
los' resultados a corto y largo plazo y buscar modos de que los servicios sean
cada vez ms eficientes y efectivos. La primera pregunta que todo grupo evaluativo exterior debe plantear es si el profesional realiza peridicamente un
programa de autoeva1uacin que responde oportunamente, con las correspondientes pruebas y evidencias, a estas cuestiones.
Desafortunadamente,
el alcance de las evaluaciones que realizan los servicios profesionales -por
medio de los propios profesionales y sus agentes
acreditadosha sido, tradicionalmente, y en el mejor de los casos, desigual,
y, en general, pobre. Algunos distritos escolares grandes y agencias gubernamentales mantienen sistemas de evaluacin competentes y realizados por un
personal adecuado, y los evaluadores de agencia han, sabido ayudar a las orga-
(
(
(.
(.
,
(,
t
~
"
~/
\...
~.
~
,__~'~-~~~,.~-ccr-=~~_~
__
__,
")
J
18
Evaluacin sistemtica
Introduccin
1.
2.
3.
5.
a la evaluacin
")
19
d e identificar
.,
um'd
Definir la eva 1uaClOn,
ta 1 como se presenta en esta
d mi
ina ,
1 base lgica que se ha proporcionado para esta. e c .
I~entificar varios mtodos de evaluacin alternatlvo:~a
roaramar evaluaIdentificar los dos princip~les. grlupos de n~~~:: ~orm~s del Joint Comciones y caracterizar los pnnclpa es rasgos
J
)
')
mittee.
b' 1
.
perodos principales expuestos en esta
Identificar y descri lr os cmco
1
"
evalua1
l'
, d e la teora y a practlca
unidad para caracterizar a evo UClon
')
)
Como en todas las unidades, al final de sta encontrar ~~as~;r~~sdp~e~;:~
. ..
L
. o que los haga y que campa
guntas y eJerclclos. e sugenm s
.
d'
ta con sus colegas
.
ndientes
Luego examme ) lSCU
con las so 1UClOnescorrespo
.
d
1
d s los objetivos estu.
t Aunque pue a a canzar te o
las preguntas sm respues a.
.
nidad le recomendamos
diando slo el material que se proporClOna en esta u t diados consultando la
que ample sus conocimientos sobre los conc~ptos es u
bibliografa que se facilita al final de cada umdad.
)
)
)
)
Qu es la evaluacin?
Esta primera unidad, concebida como un panorama de la evaluacin, proporciona una amplia definicin de este concepto y pasa revista al desarrollo
de la evaluacin, especialmente desde 1930. Muestra cmo ha evolucionado
el trmino evaluacin, en lo que se refiere a la profundidad y amplitud de los
significados que se le han atribuido. Las muchas definiciones y funciones que
se le han aplicado a la evaluacin, dependiendo de los cambios en el contexto
poltico y social, tambin son descritas aqu. A la vez, se descubren ciertas
novedades metodolgicas clave y ciertas funciones que se han asociado con
el trabajo evaluativo. Finalmente, se discuten los esfuerzos que se han realizado recientemente para profesionalizar el trabajo evaluativo, especialmente
a travs del desarrollo de criterios profesionales. En general, la intencin de
esta unidad es familiarizar al lector con la evaluacin entendida como un
campo de estudio y una prctica que puede diferenciarse de otros afines, tales
como la investigacin, la planificacin y la administracin.
. u es la evaluacin?
S han dado muchas respuestas a la pregunta. . (q
.
e
,
'1 en aspectos menores, otras mantlenen
Mientras algunas ~e ellas var:an so o 1
d finiciones identifican esencialdiferencias sustanClales. Por ejemplo, a gunas el'
. l'o'n o las encues.,
t
como a mvestlgac
mente la evaluaclOn con otros concep os
. 'n de otras materias. Una
tas, mientras otros distinguen cla~ame~te ~a ~va~a~~ce mucho tiempo, afirma
definicin importante, y que se Vlene .an. o es e
ientras ue otras
que la evaluacin sup~ne ~?mpa~ar ob]e.tlvos Yl::~~lt:d~~, :tudio c~binado
exigen u~a con~ePt~al;~ac~~o::s
~~~:~
)
)
)
)
)
)
)
ta~ad:rda~a~~3e_~1:0n
slAe~de~~s
dSi{:r~~~~:'d
m20~r~; .~~iO~:al~~c~:li~;se~ce:~apda~:t~: l~~
um a es.,
'l' .
todo lo que
estos modelos y definiciones. Esencialmente, ese ana lSlS exa~ldnad
d fi .. ,
damos en esta um a .
se ha argumentado contra Ia e mClon lque
d'
omnmente el diccionario
ue;ce cd l Joint Committee on
Esta definicin es consecuente con o
de una manera ms especfica, es la que a a opta o e "
l
l~~andards for Educational Evaluation. La definicin es ,l~ slgdUlente:b.ateva ua
.
,.
d l
o el mento e un o le o.
cin es el enjuiciamiento slstematlco e a va la
. r
l evaluacin
Esta definicin se centra en el trmino valor e lmp lca .~ue a
'd
. ..
D d 1
to en que la evaluaclOn, en un sentl o
siempre supone JU1C10. es e e m?~en
inforfnacin'segura
ptimo, emplea procedimientos ob]et1:?s para obtener una.,.
1 deni:re imparcial, ya est ligada a la valoraclOn. En efecto, su meta ese~cla
Objetivos
Esta unidad se propone cinco objetivos de aprendizaje. Cuando haya estudiado a fondo el captulo, usted debera ser capaz de realizar los siguientes
objetivos:
1,
)
)-
. ~-
"
o",.
L;~'
~__ ":"===::-===========~~~
es
o,,
_o_~~ __ .~
'\.
. J
.. , __
;.,)
s.:;.: )
l_"
.t
(
(
(
(
(
(
f
(
(
{
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
'{-
20
Evaluacin sistemtica
minar el valor de algo que est siendo enjuiciado. De acuerdo con esta definicin, si un estudio no informa de cun buena o mala es una cosa, no se trata
de una evaluacin.
Algunos autores se han mostrado contrarios a esta posicin. Creen que
esta orientacin valorativa conduce a interpretaciones radicales y subjetivas
que conceden un poder inmerecido a los evaluadores e impiden el progreso.
Afirman, por as decirlo, que la belleza reside en los ojos del observadot>~
y que las valoraciones de un grupo no deben tener precedencia sobre las de
otro a la hora de determinar si algo es bueno o malo. Tambin afirman que
la evaluacin es, demasiado a menudo, una fuerza negativa y, en general, mala
psicologa. Pero sus argumentos slo nos convencen de que la mayora de las
evaluaciones no son determinantes y de que es difcil hacerlas bien; quizs
existen muchas evaluaciones distintas, y posiblemente contradictorias en apariencia, de un obreto dado, dependiendo de la posicin valorativa que se adopta. Pero, inevitablemente, la valoracin debe desempear un papel. Y si sirve
al progreso y se utiliza para identificar los. puntos dbiles y los fuertes, y para
tender hacia una mejora, puede ser una fuerza positiva. Como puede verse,
la evaluacin es una empresa compleja.
Creemos que este aspecto de la complejidad no debe ser interpretado en
el sentido de que estas evaluaciones slo deben ser consideradas como procesos
mentales que se producen de un modo natural, conducindonos as hacia una
gran variedad de interpretaciones sobre el valor de algo. Al contrario: significa que hay que poner mucho cuidado no slo cuando se recopile la informacin, que debe ser de calidad, sino tambin cuando se clarifique y proporcione una base lgica que justifique las perspectivas de valoracin utilizadas
para interpretar los resultados.
I
I
Introdccln
a la evaluacin
21
.,
S CRlVEN (1981) ya ha indicado dlas trascend evaluaclOn
_
nuestro concepto e
. 11
1 importante papel que esempenan
dentales diferencias q~e hay ent~e e d~s ~ ~. Por ejemplo, un programa pa.ra
a la hora de determmar. el ~a or dr groducir profesores que enseen Hlsformar a profesores de Hlstona, pod
p
e se pueda confiar en ellos?
,
toria a otros de un mo d o e f ec t"IVo y e manera qu
debe hacer? Si lo hace, sera
h 'b'
1
ue se supone que
d
En general, ara len o q
'l'd
Por eJ'emplo si la socieda ya no
.
d que no sea va I o.
,
d
meritono, pero pue e d H'
i porque ya tiene ms de los que pu~ e
necesita ms profesores
e Istor a
y bueno _y quiz sea mejor
. , d e1 proemplear, entonces aunque e.1 programa l'sea mu nivel de expanSlOn
'd
ontmuar con e mismo
A
que otros parecI OS-, c .
d
tar sus escasos recursos.
unque
.
,
1
mejor
manera
e
gas
grama qUlza no sea a
'l'd
d
bemos
indicar
que
un
progra.,
ede no ser va I o, e
f
un programa mentono
pu puede ser va'l'd
..
I o. P u ede que no sea bueno armar
ma que no sea mentor~o n~
exista una gran escasez de ellos.
.
malos profesores de ~lstor.l~ aun~ue u bases de valoracin deben ser temdas
Hasta aqu, esta dlscuslon so re q
.
do tres importantes fuentes
en c~enta a la hora de evaluar algo, ha proporClOna
de criterios:
1.
2.
3.
ten an en cuenta los tres aspectos cuanEn general, recomend~~os que s~eem~s necesario considerar dos aspect~s
do se realice una evaluaclOn. Pero c
.. pueda ser de mucha call. d 1
'd d Aunque un serVICIO
ms: la viabiltda .Y a equl a...
de distintos grupos de clientes y se cendad atienda los dderentes obJeuvos.
. , f lle en lo que se refiere a los
qUlza a
tre 'en u n rea que de verdad lo 'dnecesite,
d
valores de la viabilidad y la eqUl a.,
de los que necesita o pue.
d
nsuma mas recursos
1
Por ejemplo, pue e que ca
l' .
En cualquiera de los dos casos, e
de causar infinidad de problemas po Idu.cfios'den esas reas para hacerlo ms
. ..
debe ser mo I ca o
programa, en prmClplO,
l"
d 1 ervicio debera mencionar esto
viable. Obviamente, una buena eva u~:lOn re qSueel servicio sea ms sencillo,
.
r una so lUCl0n pa a
.
y, en su caso, proporClOna
d
d ms apropiado y sea polucamente
'1'
l'
los recursos e un mo o
..
l' bl
uUlce
uempo
y
d es , en princlplO, ap lca e a
viable. eEste
argumento
en favor dI'e a vla bTd
11 a
todas las sociedades.
encionar aqu la equidad, est
La ltima base valorativa que vamos ~ dmd democrticas. Se exigen las
l.
d con las SOClea es
predominantemente re aClOna a
1
d
reclama la libertad para tomismas oportunidades para todo e ~un.? Y/:de resultar incompleta si no
dos. En los Estados Unidos, .u~a e~al~~cl~~be Uestar pensado y ser asequible
tiene en cuenta que un S~Vl~lO p~bd d Es importante indicar que nuestro
para todos los miembros e la. so~e a.
ficiente decir que los servicios pconcepto de equidad es comp eJo. o es su
~
22
Evaluaci.1] sistemtica
blicos educativos deben poder ser requeridos y usados por todo el mundo.
Como ha dicho KELLAGHAN (1982), para que exista verdaderamente la igualdad deben existir siete indicios de equidad:
l.
Introduccin
a la evaluacin
23
')
)
or el contrario, la audiencia incluye promotores o consumidores que. ya estn
p
'd os con el"
1 desarrollo o el uso de un programa determInado,
es
comprometl
d 1
.
la evaluacin se centre intensamente en la evo UClon e programa
~m~
. 1
.
ara intentar mejorarlo. A veces sucede, sin embargo, mc u.so SI un grupo .es
~otalmente devoto de cierto servicio o producto, que, al conSIderar ot~as OPC,IOnes, obtiene mejores resultados de su proveedor o encuentra una a ternatlva
.
d
E~ general, creemos que la evaluacin debe se~ ~omparatIva ant.es e que
empif'ce el proceso o antes de suscribirse a un serVICIO,no compara~lVa duran
t el 'proceso (para que permita concentrarse en 10 que resulte mejor para e
d:sarrollo del servicio), y peridicamente comparativa d.espus del pr~~~so y/o
la utilizacin continuada, para que el camino quede abIerto ante POSI es mam~m
yores avances.
.,
.
o no de'1'
Hablando en general que una evaluacIOn deba S, comparatIva
, consegUIr
. de esa eva 1uaclOD,
. , en c.ua~to a su utI 1de de 10 que se quiera
pe~ ,
r fiere Nosotros consideramos tres utilizaciones pnnCIpales: perfeczaClOn se e
.
T
.,
fi re
cionamiento, recapitulacin y ejemplificacin. La primera. utI IzaCIon se r.e. e
a la informacin que se proporciona para asegurar la calIdad de un terVlCIo ~
para mejorarla. Hay que prestar mucha atencin a la naturaleza y as neceSId des de los consumidores y a la relacin existente entre el proceso y los
a
'
resultados.
En este punto, , los evalua d ores d eb enan
estar mu y end contacto
d ..
con el personal del programa y servir com~ guas para ~as tomas e eCISIOnes. El plan de evaluacin necesita ser f1exl~le y receptlv~. Cuando .ra meta
principal es mejorar algo, la evaluaci~n debena parecerse mas al estudIO de un
caso que a un experimento comparativo.
.,
.
La segunda' funcin ms importante de la evaluacIOn :s hacer recapItulaciones o informes sumarios. Se trata de anlisis retrospectIvos acerca d~ ~royectos ya terminados, programas ya hechos o productos ya aca~ados. La In ormacin no va dirigida al personal encargado de su des.a;rollo, smo a l~s patrocinadmes y consumidores. Debe incluir una valora.cIOn de la efica~la. de l~
invertido siendo tambin importantes las comparaCIOnes con los mas lmpo tantes c;mpetidores. La informacin que :: deriva de estos profun~os .estudios y de las encuestas comparativas es ml.</ interesante para la audIenCIa en
este tipo de situaciones.
,,
1
La tercera utilizacin es la ejemplificacin. Bsicame~te, la eva~uacIOn y a
investigacin son actividades distintas. La primera se dedIca a consl~erar todos
los criterios que se utilizan en la determinaci~n de un. valor, mIe~tras que
la segunda se limita ms bien al estudio de CIertas vanabl.es. que tienen ~n
inters terico. Las evaluaciones suelen utilizar mtodos subJetIvo~ y no, est~n
tan estrechamente controladas ni sujetas a manipulacin como las mvest,IgacIOnes. No obstante, los resultados obtenidos, ~n un cierto per~do .~e tlemp~~
evaluando servicios pueden facilitar informaCIn que luego sera utIhza~a pa
crear y ensayar una teora. Y, sin duda, los resultados de las evaluaCIOnes a
')
'>
')
')
')
')
")
')
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
')
)
)
)
t
f
24
Introduccin
:r
(
(
(
(
Evaluacin sistemtica
(
(
(
(
(
(
(
(
(
(
(
(
,
(
(
(
(
(
(
'-
:i
__
..
_.-
__
__
Y.,.
a la evaluacin
25
Mtodos
Un aspecto que diferencia la evaluacin sistemtica de la evaluacin informal es, sin lugar a dudas, el rea metodolgica, Cuando pasamos de las eva.
luaciones realizadas con juicios rpidos e intuitivos a las que suponen una
rigurosa recopilacin de resultados que deben ser considerados de un modo
efectivo, debemos necesariamente enfrentarnos a las complejas reas de la
epistemologa, las reglas empricas, las ciencias informativas, los proyectos de
investigacin, las valoraciones, las estadsticas, la comunicacin, etc. Muchos
principios, instrumentos y estrategias de estas reas son importantes para
la evaluacin sistemtica, El evaluador bien preparado debe dominar convenientemente todas las tcnicas de estas reas y mantenerse informado acerca
de los avances tecnolgicos que puedan resuItarle tiles, Estos evaluadores,
que pueden convertirse en pioneros y contribuir al desarrollo de su profesin,
suelen aumentar las crticas de los mtodos ya existentes y la aparicin de otros
nuevos.
A lo largo de los aos, muchos evaluadores han escogido, e incluso defendido, la utilizacin exclusiva de unas pocas tcnicas, Algunos han equiparado
la evaluacin a sus mtodos favoritos, como el diseo experimental, las pruebas estandarizadas o las visitas personales, Otros han atacado duramente la
estrechez de miras respecto de la adecuacin de los mtodos y, en algunos
casos, han abogado por sustituir su tcnica favorita, como por ejemplo el estudio de un caso. Nosotros creemos que ambas posiciones son inencaces, inadecuadas y, a veces, parciales,
A cambio, recomendamos un mtodo eclctico. As, creemos que los evaluadores deberan conocer un amplio espectro de tcnicas adecuadas y saber
cmo aplicarlas en los distintos c~ntextos evaluativos, De este modo, podran
valorar, en cada situacin, qu tcnicas son potencialmente aplicables y cules
pueden servir de un modo ms encaz a los propsitos particulares de la evaluacin en cuestin,
Entre las reas tcnicas que, segn creemos, deben conocer a fondo los
evaluadores profesionales se encuentran las siguientes: las entrevistas, los
informes preliminares, el anlisis de contenidos, la observacin, el anlisis poltico, el anlisis econmico, el examen investigativo, los informes tcnicos,
el estudio del caso, la evaluacin sin metas, la escucha de opiniones contrapuestas, las asociaciones de defensa, las listas de control, la elaboracin de
pruebas, el anlisis estadstico, el diseo de la investigacin, el anlisis sistemtico, la teorizacin y la administracin del proyecto. Es recomendable consultar las fuentes de informacin general que, acerca de estas reas tcnicas,
pueden encontrarse en SCRIVEN(1974); ANDERsoN,BALL y MURPHY (1974);
BRINKERHOFFy otros (1983) y SMITH (1981a y 1981b),
J
26
Evaluacin sistemtica
Normas
Una de las caractersticas de las prcticas profesionales es que sus miembros deben cumplir exigentes normas referentes al trabajo y al servicio que
realizan. Por 10 general, estas normas ya vienen formuladas por los miembros
de la profesin, y, en algunos casos, por el gobierno. Ejemplos tpicos de
ello son las normas existentes en las reas de la ley, la medicina y la contabilidad, con el fin de asesorar y valorar la prctica en cuestin, y, en algunos
casos, llegar a conclusiones acerca de ciertos procedimientos ilegales. Hasta
muy recientemente, los evaluadores de programas no disponan de normas
explcitas para la evaluacin, pero esta situacin est cambiando.
Recientemente, se han publicado dos conjuntos de normas para las evaluaciones. Uno consiste en un grupo de treinta normas formuladas por el Joint
Committee on Standards for Educational Evaluation. El otro es una serie de
cincuenta y cinco normas formuladas por la Evaluation Research Society (ERS).
Aqu vamos a centrarnos en el primero por unas razones determinadas.
Cuidadosas comparaciones realizadas por investigadores independientes han
demostrado que casi todo lo que aparece en las normas de la ERS es examinado con mayor profundidad en las Normas del Joint Committee. Es ms, la
primera serie ha sido elaborada por un comit cuyos diecisiete miembros han
sido nombrados por doce organizaciones profesionales que abarcan un total
de alrededor de dos millones de miembros, mientras que las normas de la ERS
han sido elaboradas por un grupo de alrededor de dos mil miembros. Otra
diferencia clave es que las Normas del Joint Committee incluyen tanto al
cliente como al que realiza los servicios evaluativos.
El texto Standards for Evaluations of Educational Programs, Projects, and
Material (Joint Committee, 1981) fue elaborado en un perodo de cinco aos.
Este comit est formado por alrededor de doscientas personas relacionadas
con la prctica profesional de la evaluacin, que realizan la labor de crear,
valorar y clarificar principios ampliamente compartidos con el fin de que sirvan
como base para evaluaciones sobre programas educativos. El resultado son las
treinta normas resumidas en la tabla 1-1. Es particularmente notable el continuo proceso que llevan a cabo reexaminando y revisando las normas. En esencia, el Joint Committee concluye afirmando que las treinta normas son necesarias y suficientes para asegurar que las evaluaciones sean tiles, factibles,
precisas y vlidas. Se aconseja al lector que estudie en profundidad ese libro
de Normas.
En general, las Normas del Joint Committee aconsejan que los evalu dores
y los clientes cooperen entre s para que las evaluaciones puedan cumplir
estas cuatro condiciones principales:
1I
J
Introduccin
1.
2.
3.
4.
a la evaluacin
27
Una evaluacin debe ser til. Debe estar dirigida a aquellas personas y
grupos que estn relacionados con la tarea de realizar aquello que se est
evaluando o que sean sus ms directos responsables. ~ebe ayudarles a
identificar y examinar lo bueno y lo malo de este objeto. ;oebe pon.er
muchsimo nfasis en plantearles las cuestiones de mayor lmportanCla.
Debe proporcionarles informes claros de una manera o~rtuna. Y, en general, debe facilitar no slo informaciones acerca de vlrtudes y defectos,
sino tambin soluciones para mejorarlo todo.
.
Debe ser factible. Debe emplear procedimientos evaluatlvos ~ue p~~dan
ser utilizados sin demasiados problemas. Debe tomar en conslderaclOn y
aplicar controles razonables sobre aquellas .f~erzas polticas q~e. ~uedan,
de alguna manera, inmiscuirse en la evoluclOn. Y deben ser dmgldas de
un modo eficiente.
Debe ser tica. Debe estar basada en comprar: :sos explcitos que ase~ure?
la necesaria cooperacin, la proteccin de los c:erechos de las par~es lmplicadas y la honradez de los resultados. Adems, debe proporcl~nar un
informe equitativo que revele todas las virtudes y d.efectos del obJet~.,
Debe ser exacta. Debe describir con claridad el objeto en su evoluclOn y
en su contexto. Debe revelar las virtudes y defectos del plan .de eval~acin, de los procedimientos y de las conclu~iones. ?ebe estar l~bre de lilfluencias. Y debe proporcionar unas concluslOnes vahdas y fidedlgnas.
J
')
J
')
')
')
")
"')
")
)
)
)
)
)
)
)
TABLA
1-1.
of Educational
)
)
Al
Normas de utilidad
Descripcin de la audiencia
La audiencia relacionada con la evaluacin o afectada por ella debe ser descrita con el fin de que todas sus necesidades puedan ser satisfechas.
A2
Las normas de utilidad estn concebidas para asegurar que una evaluacin
proporcione las informaciones prcticas que necesita una audiencia determinada. Estas normas son:
)
)
Las personas que dirigen la evaluacin deben ser honradas y a la vez competentes para poder llevarla a cabo, con el fin de que sus concluslOnes
alcancen el mximo de credibilidad y aceptacin.
.)
(
)
)
('
e
c.
e
e
28
A3
e
e
A4
e
A5
(\
A6
Difusin
Al
La evaluacin debe ser planificada y dirigida conociendo las distintas posturas de los diferentes grupos de inters, con el fin de obtener su coopercin, y para qu~ cualquier posible intento, por parte de alguno de estos
grupos, de abrevia!' las operaciones evaluativas o de influir en los resultados o utilizarlos, pueda ser prevenido o contrarrestado.
B3
,,
,.
(..
t.,
~
~
1-0
informacin
como para
Normas de honradez
Las normas de honradez estn concebidas para asegurar que una evaluacin
sea realizada legal y ticamente, y, a la vez, con el debido respeto por el
bienest'ar de todos los que intervienen en ella, as como de aquellos que
estn interesados en las conclusiones.
Cl
Obligacin. formal
Las obligaciones de las partes formales de
hacer, cmo hacerlo, quin debe hacerlo y
en un compromiso escrito, con el fin de que
cumplir todas las condiciones del compromiso
del informe
C2
El conflicto de intereses
El conflicto de intereses, frecuentemente
inevitable,
debe ser afrontado
abierta y honestamente,
con el fin de que no interfiera en el proceso eva-
(.
(.
(.
del informe
Oportunidad
29
valorativa
(
(
(
Interpretacin
B2
(
(
:,C
(
a la evaluacin
Evaluacin sistemtica
La ~nformacin recopilada debe tener el suficiente alcance y haber sido se17cclOnada de tal man7ra como para incluir en s misma las cuestiones per~Inentes acerca ~el objeto de la evaluacin y responder a las necesidades e
Intereses de audiencias concretas.
que animen
Procedimientos
prcticos
Los pr~c~dimientos evaluativos deben ser prcticos, para que los problemas
sean mInlmos y pueda obtenerse la informacin necesaria.
Informes
completos
y claros
Los informes orales o escritos de una evaluacin deben ser francos, directos
y honestos en la revelacin de las conclusiones pertinentes, incluyendo las
Normas de viabilidad
Las nor~as de viabilidad estn concebidas para asegurar que una evaluacin
sea realIsta, prudente, diplomtica y moderada. Son stas:'
,
Bl
C3
limitaciones
C4
de la evaluacin.
a saber
Las partes formales de una evaluacin deben respetar y asegurar el derecho del pblico a saber, dentro de los lmites de unos principios y estatutos
determinados,
como por ejemplo la seguridad del pblico y el derecho a
la in timidad.
30
Evaluacin
C5
sistemtIca
Introduccin
D4
Relaciones humanas
D5
Informacin equilibrada
D6
Responsabilidad fiscal
D?
La cuota del evaluador y los gastos efectuados deben reflejar los procedimientos econ6micos del trabajo y, por otra parte, ser prudentes y ticamente responsables.
Normas de precisi6n
D8
D9
D2
Dl0
Conclusiones justificadas
Las conclusiones a las que se llegue en una evaluacin deben ser explcitamente justificadas, para que las audiencias puedan valorarlas.,
D3
La informacin cualitativa de una evaluacin debe ser adecuada y sistemticamente analizada con el fin de asegurar que las interpretaciones sean
fidedignas.
La informaci6n cuantitativa de una evaluaci6n debe ser adecuada y sistemticamente analizada con el fin de asegurar que las interpretaciones sean
fidedignas.
Determinar la exactitud
Los datos recopilados, sistematizados y finalmente presentados. en una evaluaci6n deben ser revisados y corregidos, con el fin de que los resultados
de la evaluacin no sean inexactos.
Las normas de precisin estn concebidas para asegurar que una eva1uaci6n
revele y transmita una informaci6n tcnicamente exacta acerca de las caractersticas del objeto que est siendo estudiado, para poder determinar
. su. valor. o su mrito. Estas normas son:
D1
Determinar la validez
Los instrumentos y procedimientos para la recopilacin de informaci6n deben ser escogidos o creados y luego utilizados de manera que aseguren que
la informaci6n obtenida es lo suficientemente exacta para ser utilizada de, bidamente.
La evaluacin debe ser completa y honrada en la presentaci6n de las virtudes y defectos del objeto de la investigaci6n, para que las virtudes puedan
ser mejoradas y los problemas solucionados.
C8
31
Las fuentes de informaci)1 deben ser descritas con todo detalle, para que
.pueda valorarse si la informaci6n es suficiente.
Las evaluaciones deben ser preparadas y dirigidas de tal manera que sean
respetados y protegidos los derechos y el bienestar de los seres humanos.
C6
a la evaluacin
Dll
FUENTE: The ]oint Comittee on Standards for Educational Evaluation, McGraw-Hill, 1981.
c)
,)
O
!:J
o
O
~)
(
(
{
32
Las Normas del Joint Committee pueden aplicarse en cualquier etapa del
proceso evaluativo: deben ser tenidas en cuenta, por ejemplo, a la hora de
decidir si hay que realizar la evaluacin o no, a la hora de planear la evaluacin y llevarla a cabo, al presentar los resultados y al aplicar las conclusiones.
Por lo tanto, la utilizacin de las Normas no slo sirve para controlar la
calidad de un informe ya terminado, sino tambin como asesoramiento durante la realizacin de la evaluacin. Un segundo punto que hay que tener en
cuenta es que las distintas normas son ms o menos importantes en cada
etapa de la evaluacin. As, quienes utilicen las normas deben estudiarlas y
analizarlas comparativamente con el fin de poder aplicarlas juiciosamente en
cada una de las etapas de la evaluacin. El resumen de las treinta normas
presentado en la tabla 1-1 es un punto de partida, pero recomendamos al
lector que consiga y estudie el texto completo.
El trabajo erel Joint Committee se ha basado en dos premisas bsicas: que
la evaluacin es una actividad humana tan esencial como inevitable, y que la
evaluacin solvente debe proporcionar una comprensin ms amplia y una
mejora de la educacin. Adems, el comit se gui por la creencia de que una
serie de normas concienzudamente elaboradas puede desempear un papel vital
a la hora de mejorar la prctica de la evaluacin educativa. En otras palabras:
un papel metaevaluativo.
Otro punto trascendental con respecto a las Normas del Joint Committee
es que se trata de un documento vivo. Un comit permanente, formado por
doce organizaciones y respaldado por el Centro de Evaluacin de la Universidad de Western Michigan, controla la utilizacin de las normas y carga con la
responsabilidad de ponerlas al da y perfeccionarlas peridicamente. El comit
anima a los usuarios para que les proporcionen informacin basada en crticas
y, especialmente, en los usos ms actuales de las normas.
(
(
(
(
(
(
(
(
(
{
(
(
(
(
(
(
(
Evaluacin sistemtica
(
(
La historia
(
(
(
(
(
(
Ninguna introduccin a la evaluacin entendida como una prctica profesional estar completa si no se presta la debida atencin a 'la evolucin histrica del tema. Cualquier profesin, para poder satisfacer las necesidades de
sus clientes, debe evolucionar de acuerdo con los cambios de las necesidades
sociales y teniendo en cuenta todos los avances tericos y tcnicos. A menos
que los miembros de una profesin elaboren y sostengan una perspectiva
histrica sobre su trabajo, probablemente seguirn teniendo siempre una concepcin limitada de su funcin social, sin poder estimular la innovacin ni
(
(
(
,-4
1. Este apartado
sobre la historia de la evaluacin
est basado en un anlisis de
George Madaus y Daniel Srufflebeam, que aparece resumido en George MADAUS, Michael
SCRIVEN y Daniel STUFFLEBEAM, Evaluation Models, Boston: Kluwer-Nijhoff,
1983,
Introduccin
a la evaluacin
33
contribuir a ella. Se dice a menudo que los que no conocen su propia historia
estn condenados a repetirla. Nosotros facilitaremos nicamente un breve esbozo histrico con el fin de informar al lector sobre los acontecimientos ms
significativos ocurridos en el campo de la evaluacin.
Nuestro anlisis histrico se basa en un trabajo clave de Ralph \'/. Tyler
(vase unidad 3), que a menudo es considerado el padre de la evaluacin educativa. Utilizando sus contribuciones iniciales como principal punto de referencia, hemos establecido cinco perodos bsicos: 1) el perodo pre-Tyler, que
abarca hasta 1930; 2) la poca tyleriana, que va desde 1930 hasta 1945; 3) la
poca de la inocencia, desde 1946 hasta 1957; 4) la poca del realismo,
que cubre el perodo 1958-1972; y 5) la poca del profesionalismo, que incluye la evolucin experimentada desde 1973 hasta el presente.
El perodo pre-tyleriano
La evaluacin sistemtica no era desconocida antes de 1930, pero tampoco
era un movimiento reconocible. El hecho de evaluar individuos y programas
apareci, como mnimo, en el ao 2000 a.c., cuando algunos oficiales chinos
dirigieron unas investigaciones de los servicios civiles, y en el siglo v a.c.,
cuando Scrates y otros maestros griegos utilizaron cuestionarios evaluativos
como parte de su metodologa didctica. En el siglo XIX, en Inglaterra, se
utilizaron comisiones reales para evaluar los servicios pblicos. En 1845, en
los Estados Unidos, Horace Mann dirigi una evaluacin, basada en tests de
rendimiento, para saber si las escuelas de Bastan educaban bien a sus estudiantes. Entre 1887 y 1898, Joseph Rice estudi los conocimientos en ortografa de 33 000 estudiantes de un amplio sector escolar y sac la conclusin
de que la gran insistencia en la enseanza de la ortografa, que entonces estaba
en boga, no haba producido avances sustanciales en el aprendizaje. Este estudio est generalmente reconocido como la primera evaluacin formal sobre
un programa educativo realizado en Amrica. Tambin en los ltimos aos
del siglo pasado, empez a crearse el movimiento para la acreditacin de instituciones educativas y programas en los Estados Unidos; desde entonces, el
proceso de acreditacin se ha convertido en uno de los principales medios
para evaluar los servicios educativos. Una aproximacin an mayor a la evaluacin se produjo, en los primeros aos de este siglo, con la aparicin de
los tests estandarizados. Este acontecimiento formaba parte de un gran esfuerzo que pretenda que la educacin fuera ms eficiente para que un mayor
nmero de estudiantes pudiera utilizar los recursos entonces disponibles en
las escuelas.
. El breve resumen anterior viene a confirmar que la evaluacin sistemtica
tIene una larga historia. Mientras que slo muy recientemente se ha llegado
a considerar la evaluacin como una prctica profesional, buena parte del tra-
')
!"""'
l'
')
')
34
La poca tyleriana
I
I
a la evaluacin
35
')
que ayud a Tyler a difundir, ensayar y demostrar su concepcin de la evaluacin educacional de una manera inmediata.
A travs de este programa de mbito nacional, Tyler pudo publicar lo que
l vea como un mtodo que tena claras ventajas sobre los dems. Desde el
momento en que la evaluacin tyleriana inclua comparaciones internas entre
los resultados y los objetivos, ya no necesitaba recurrir a costosas y problemticas comparaciones entre grupos de control y grupos experimentales. El mtodo se centra en determinar el grado de xito, por lo que se opone a mtodos
indirectos que determinan factores como la calidad de la enseanza, el nmero
de libros que hay en la biblioteca, los materiales y la participacin de la comunidad. y adems, las evaluaciones tvlerianas no se ven demasiado afectadas
por la fiabilidad de las diferencias e~tre las puntuaciones individuales de los
alumnos ya que generalmente cubren una franja ms amplia de variables
exgenas que las cubiertas por los test: tipificados. Todos estos argumentos
fueron bien recibidos por el sector de la educacin americana, y a mediados
de los aos 40 Ralph Tyler ya haba conseguido la categora suficiente como
para ejercer una gran influencia sobre el panorama educacional en los prximos
veinticinco aos.
.,
Evaluacin sistemtica
I~
Introduccin
'l
')
')
)
)
')
)
')
)
)
)
La poca de la inocencia
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
.)
\
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
{
(
(
(
36
Evaluacin sistemtica
(
(
(
{
(
.{
Introduccin
a la evaluacin
37
hacer las evaluaciones a su antojo, y que los futuros progresos de las metodologas evaluativas deberan estar relacionados con conceptos como utilidad y
relevancia. Su violento despertar, en este perodo, marc el final de una era
de complacencia y ayud a emprender profundos cambios, guiados por el inters pblico y dependiendo del dinero de los contribuyentes para su financiacin, 10 cual condujo a que la evaluacin se convirtiera en una industria y en
una profesin.
Como consecuencia del lanzamiento, por parte de la Unin Sovitica, del
Sputnik 1 en 1957, el gobierno federal respondi promulgando la National
Defense Education Act de 1958. Entre otras cosas, esta acta proporcion nuevos programas educativos en matemticas, ciencias e idiomas, y cre servicios
asesores y programas de encuestas en los distritos escolares. Aparecieron, as,
un cierto nmero de nuevos proyectos nacionales para el desarrollo de currculos, especialmente en las reas de ciencias y matemticas. Finalmente, se asignaron fondos para evaluar estos programas.
Los cuatro mtodos evaluativos expuestos hasta aqu estaban ya representados en las evaluaciones que se realizaron en este perodo. Primero, el mtodo Tyler fue usado para definir los objetivos de los nuevos currculos y
para valorar el grado en que estos objetivos quedaban, ms tarde, alcanzados.
Segundo, los nuevos tests estandarizados a nivel nacional sirvieron para reflejar mejor los objetivos y los contenidos de los nuevos currculos. Tercero, el
mtodo del criterio profesional fue usado 'para valorar las propuestas y verificar peridicamente los resultados. Finalmente, muchos evaluadores se comprometieron a evaluar los resultados del desarrollo del currculo a travs de pruebas concretas.
A principios de los aos 60, algunos de los ms importantes evaluadores
educacionales se dieron cuenta de que su trabajo y sus conclusiones no ayudaban demasiado a los que elaboraban currculos, y no respondan a las preguntas sobre los programas que planteaban aquellos que necesitaban comprobar
su grado de efectividad. La flor y nata de la comunidad evaluativa educacional particip en estos esfuerzos para evaluar los nuevos currculos; estaban
adecuadamente financiados y aplicaban cuidadosamente la tecnologa que haba
ido desarrollndose durante la pasada dcada o incluso antes. A pesar de todo
esto, empezaron a darse cuenta de que sus esfuerzos no tenan xito.
Esta valoracin negativa qued perfectamente reflejada en un histrico artculo de CRONBACH (1963: vase unidad 5). Examinando los esfuerzos evaluativos del pasado reciente, critic duramente los conceptos en los que se
haban basado las evaluaciones por su falta de relevancia y utilidad, y acon~
sej a los evaluadores que abandonaran sus inclinaciones de entonces y se
dedicaran a hacer evaluaciones basadas en comparaciones de los resultados
obtenidos en tests tipificados, realizados por grupos experimentales y de control. Cronbach recomend a los evaluadores que reconceptualizaran la evaluacin no como si se tratara de una carrera de caballos entre programas compe-
")
38
Introduccin
Evaluacin
a la evaluacin
39
sistemtica
dades y valorar los avances de los mnos menos favorecidos, cuyo desarrollo
educativo se encontraba muy por detrs del de sus compaeros de clase media.
Adems, dichos tests eran relativamente inadecuados para discernir las diferencias entre escuelas y/o programas, principalmente a causa de sus propiedades psicomtricas y el alcance de sus contenidos. En lugar de determinar los
resultados directamente relacionados con una escuela o un programa en concreto, estos tests determinaban, en el mejor de los casos, el grado de aprendizaje, centrndose casi en los mismos rasgos que los tests de aptitudes (KELLAGHAN,MADAUSY AIRASIAN,1980).
La utilizacin de tests estandarizados plante otro problema: un mtodo
de evaluacin como ste se opona a los preceptos del mtodo tyleriano. Desde
el momento en que Tyler reconoca y enfatizaba las diferencias entre los objetivos de un lugar u otro, a este modelo le resultara difcil adaptar a todo
el mbito nacional sus programas de tc:sts estandarizados. Para ser comercialmente viables, estos programas regularizados deban olvidar ciertos objetivos
bastante extendidos e importantes para ciertos lugares, en favor de otros
que eran importantes para la mayora de los distritos. Es ms, haba una
escasez de informacin acerca de las necesidades y niveles de xito de los
nios menos afortunados, 10 cual limitaba a los profesores a la hora de fijar
objetivos de comportamiento que fueran significativos para este grupo de
alumnos.
Los intentos de aislar los efectos del artculo 1 a travs de la utilizacin
de planes establecidos por grupos de controlo experimentales fallaron, debido,
principalmente, a la incapacidad de cumplir los requisitos de estos planes.
y las inspecciones in situ realizadas por expertos '-aunque fueron muy utilizadas por responsables gubernamentalesno resultaron aceptables como primera estrategia evaluativa porque se consider que este mtodo estaba falto de
la objetividad y el rigor estip~lados en la legislacin de la ESEA. Cuando
se informaba de que no se haba llegado a ninguna conclusin, 10 cual ocurra
frecuentemente, se daba muy poca informacin acerca de los procedimientos
empleados y, a menudo, no se proporcionaban datos sobre cmo se haban
llevado a cabo. Frecuenteme:te, el nfasis puesto en las puntuaciones de los
tests desviaba la atencin de~ examen de los procedimientos o de su ejecucin.
Como resultado de la creciente inquietud producida por los esfuerzos realizados en las evaluaciones con resultados siempre negativos, el Phi Delta
Kappa cre el National Study Committee on Evaluation (STUFFLEBEAM
y otros,
1971). Tras examinar el panorama, este comit concluy que la evaluacin educacional era vctima de una grave enfermedad y recomend el desarrollo de
nuevas teoras y mtodos de evaluacin, as como nuevos programas para preparar a los propios evaluadores. Al mismo tiempo, empezaron a aparecer nuevas conceptualizaciones sobre la evaluacin. PROVUS(1971), HAMMOND
(1967),
ErsNER (1967) y METFESSEL Y MrcHAEL (1967) propusieron una reforma
del modelo Tyler. GLASER(1963), TYLER (1967) y POPHAM(1971) recomen-
)
')
)
)
)
')
')
')
')
)
')
)
)
)
)
)
)
)
)
,)
)
)
)
)
)
t )
)
f
)
)
)
j
1
,
(
(
f
(
(
(
(
(
(
{
(
40
Evaluacin sistemtica
daron los tests basados en criterios como una alternativa a los tests basados en
normas. COOK(1966) pidi la utilizacin del mtodo de anlisis sistemtico
para la evaluacin de programas. SCRIVEN(1967), STUFFLEBEAM(1967, 1971)
Y STAKE(1967) crearon nuevos modelos de evaluacin que se alejaban radicalmente de los mtodos anteriores. Estas conceptualizaciones reconocan la
necesidad de evaluar las metas, examinar las inversiones, y analizar el perfeccionamiento y la prestacin de los servicios, as como determinar los resultados
que se desean (o no se desean) obtener del programa. Tambin insistieron en
la necesidad de enjuiciar el mrito o el valor del objeto de la evaluacin. Los
ltimos aos de la dcada de los 60 y los primeros de la de los 70 vibraron
con las descripciones, discusiones y debates acerca de cmo deba ser concebida la evaluacin. Las unidades que siguen tratan en profundidad los mtodos
alternativos ql.!e empezaron a tomar forma en este perodo.
(
(
(
(
(
(
(
(
(
(
{
(
(
l
(
(
(
,(
l
.j
Introduccin
a la evaluacin
41
')
42
Evaluacin
sistemtica
Introduccin
a la evaluacin
')
43
")
,
")
')
')
~ ')
)
)
')
~)
)
)
)
)
)
)
)
f )
)
)
El cliente de la evaluacIn
Cualquier evaluacin de utilidad implica la plena participacin de un
cliente. Esto es cierto tanto si el estudio est dirigido por una persona para
servir a sus propios propsitos como si 10 est por muchas. El cliente es la
persona o grupo que utilizar los resultados para algn propsito, como la
seleccin o el perfeccionamiento de un programa. El grupo de los clientes
incluye tanto a quien haya encargado la evaluacin, en primer lugar, como a
.)
/)
)
1)
)
)
.' )
1
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
44
Evaluacin sistemtica
todos aquellos que esperan los resultados para hacer uso de ellos. De una
forma u otra, el tiempo y los recursos requeridos para una evaluacin son proporcionados por el cliente o por una o ms personas pertenecientes a un grupo
de clientes. Los clientes son, tambin, el origen crucial de las cuestiones planteadas y de los criterios empleados para interpretar los resultados; tambin
tienen la responsabilidad primordial de aplicar las conclusiones; y, a menudo,
una evaluacin no puede realizarse si el cliente no lo dispone todo con mucho
cuidado y trata de asegurar de que existir una plena cooperacin entre todos
los que intervienen en el trabajo.
Puede encontrarse una gran variedad de clientes en las organizaciones educativas, sociales y de la salud. Esto incluye, por ejemplo, inspectores de distritos escolares, administradores hospitalarios y directores de agencias; directores de colegios, presidentes de departamento y administradores de becas; y
maestros, psiclogos y mdicos. Si la evaluacin consiste en contribuir al mximo a la hora de proporcionar servicios meritorios y vlidos a la gente;debern
intervenir y aprovecharse toda esta serie de clientes. Adems, creemos que
deben estar activamente comprometidos en el encargo y la planificacin de las
evaluaciones, con el fin de obtener la informacin que necesitan para hacer
bien sus trabajos. Por lo tanto, para satisfacer estas expectativas, deben estar
adecuadamente preparados, tanto como todas aquellas personas que van a
realizar los otros once papeles. Queremos subrayar que, quiz, la misin ms
importante de los programas de preparacin para una evaluacin -tanto
para
antes del servicio como para su realizacines ensear a los clientes de la
evaluacin a cumplir con sus responsabilidades. Si no tienen un concepto sl~do de la eval~aci?: probablemente no intervendrn en ella, se mostrarn paSIVOS,no sabran uultzarla para conseguir sus propsitos y/o considerarn que
los resultados tienen poco inters. En cambio, los clientes entendidos pueden
ayuda~ a asegur~r que la evaluacin sea un instrumento til y poderoso para
garantIzar la cahdad de los servicios profesionales.
El diseador de la evaluacin
(
(
(
(
(
{
t
-.4
Introduccin
a la evaluacin
45
El coordinador
(
(
de la evaluacin
')
')
46
Evaluacin sistemtIca
Introduccin
deb~n posee: o adquirir conocimientos bsicos sobre la planificacin de eval~aclOnes.. F1~almente, creemos que las ms importantes instituciones educat:vas, samtanas y sociales, deben a menudo dirigir sus esfuerzos hacia la creacin de grupos administrativos competentes.
a la evaluacin
47
ser necesario supervisar y anotar los resultados de unas entrevistas; crear, proporcionar y utilizar instrumentos para una recopilacin de datos estructurada;
analizar tanto la informacin cuantitativa como la cualitativa; y realizar presentaciones audiovisuales de los resultados.
En las evaluaciones a pequea escala, un simple evaluador puede, a menudo, hacer todas estas tareas sin asistencia especializada. El agente evaluador
est obligado a coordinar y realizar todos los trabajos que sean necesarios, as
como a dominar todas las tcnicas especializadas que se requieran. Este tipo
de agente necesita una amplia preparacin que le introduzca en las ms importantes de estas especialidades. A menudo, esta persona debe ser capaz de coordinar la asistencia de los especialistas cualificados.
De todas maneras, es inevitable que los estdios a gran escala contraten
especialistas para llevar a cabo estas tareas con el fin de que los asistentes
puedan concentrar sus esfuerzos en su propio campo de trabajo: los clientes
y los respondentes. Este gnpo de expertos puede incluir especialistas en la
elaboracin de pruebas, especialistas en muestreos, especialistas en el procesamiento de datos, estadsticos, especialistas en el estudio de casos y redactores tcnicos.
Asistentes de la evaluacin
. Frecuentemente, uno.?e los papeles ms importantes -a menudo independle~;e:de la eva~uaC1on es el del asistente. Este papel supone contactos
p.enodlcos con lo~ ~hentes, revisiones de los documentos del programa, inspecclO~es de la~ aCtlvldades del programa, hacer entrevistas y recoger otro tipo
de 1DfOrmaC1o.n~sacerca de las partes, redactar informes y asumir la principal responsaQlhdad a la hora de presentar los informes. A veces el asistente
es el encargado de realizar la planificacin del estudio comple~o. En otro
casos, l o ella tiene una responsabilidad 'menor. Pero siempre estar encar~
gado de c~labo~~r con el personal del programa y de cooperar en la realizacin
de la plamficaclOn del estudio.
Para deserr:pear el papel de asistente se requieren tanto habilidad tcnica como capaCIdad para las relaciones humanas. Adems, las personas asigna~as a este puest~ deben poseer o ser capaces de desarrollar una gran credibilidad ante los chentes y ante todos aquellos que participan en la realizacin
del programa.
')
')
')
')
')
')
')
')
\
')
")
I
)
)
)
)
Especialistas en informacin
)
Un papel tcnico que hemos escogido para dedicarle una atencin especial es el del especialista en informacin. Y 10 hemos hecho porque ese papel
supone una continua necesidad de informacin relacionada con otras evaluaciones y no con problemas tcnicos determinados. El especialista en informacin es especialmente importante en las agencias que disponen de departamentos de evaluacin. Las evaluaciones dirigidas desde estos departamentos deben
tomar en consideracin el panorama institucional. y su contexto histrico, examinar los descubrimientos del pasado y de la actualidad para determinar las
tendencias y evitar una innecesaria pluralidad de esfuerzos en 10 que se refiere
a la recopilacin de datos. Es necesario, como mnimo, un buen sistema para
ordenar y archiva' los informes de manera que la informacin que contienen
pueda ser fcilmente consultada en futuras evaluaciones. Adems, muchas agencias se beneficiaran de una recopilacin regular de informacin que las ayudara a estar totalmente al corriente de entradas de datos, procesos y producciones, as corno de la actitud de sus componentes hacia los servicios de la
agencia.
El desempeo del papel de especialista en informacin requiere que el evaluador, o uno o ms miembros del equipo de evaluacin, conozca bien las
ciencias informativas. Eso supone conocimientos y tcnicas en reas como la
. comunicacin, los sistemas de informacin, el proceso de datos, la contabilidad
financiera y la planificacin de gran alcance. Las personas que piensan espe-
Responderites de la evaluacin
. Se tra~a de un papel al que demasiado a menudo no se le concede mucha
ImportanCIa. Son las personas que rellenan los formularios, responden a los
tests, contestan a las ent~evistas y permiten que les observen en su trabajo.
En muchos casos, la cahdad de la informacin obtenida depende casi por
co~pleto de su bu~na .voluntad para cooperar y dar lo mejor de s mismos.
Es Improbable que reahcen cualesquiera de estas tareas si no estn informados
acerc~ de s~ papel Y, convencidos de la importancia del estudio. Como consecuen~la, qUIenes estan al frente de las evaluaciones deben hacer un esfuerzo
espeCial para asegurar que el estudio servir de algo a estos colaboradores tal
Y como ocurre con ~os clientes. Tambin deben cuidar que las actividades 'que
promuevan les motiven Y preparen para responder apropiadamente.
Especialistas en ayuda tcnica
, ~a mayor pa~te de las evaluaciones suponen una cierta cantidad de trabajo
tecDlCOque reqUIere la ayuda de expertos especializados. Por ejemplo, puede
)
)
\
)
)
.)
I )
.)
)
)
)
')
)
,)
)
j'
')
'J.
t
(
48
cializarse en evaluacin deben adquirir un dominio general de las especialidades de la informacin, mientras que un cierto tipo de trabajo correspondiente a esta rea resulta importante incluso para las evaluaciones ms sencillas.
Adems, los departamentos de evaluacin deben, a menudo, asignar una o ms
personas para el cumplimiento de esta importante funcin.
{
{
(
Evaluacin sistemtica
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
l
(
(
(
(
(
(
Especia/istas
en comunicacin
'J
Introduccin
a la evaluacin
49
:1
Preparador de /a evaluacin
A lo largo del anlisis precedente, nos hemos ido refiriendo a la necesidad
de una buena preparacin por parte de aquellos que participan en una evaluacin. Estas necesidades incluyen tanto la orientacin hacia unos planes de
evaluacin especficos como el desarrollo de unas tcnicas y conocimientos
ms generalizados, y, ms concretamente, los conocimientos que se adquieren
\~
Introduccin a la evaluacin
50
51
Evaluacin sistemtica
Jefe de la
agencia
---------
Clientes
y responden tes
de la evaluacin
---------
Coordinador
de la evaluacin
Planificador
de la evaluacin
,,
,,
Asistentes
de la evaluacin
Especialistas
en ayuda
tcnica
FIGURA
1-1.
l
Especialista
en informacin
Esquema
Especialista
en comunicacin
organizativo
examinando una prctica determinada. Adems, la necesidad de una preparacin corresponde tanto a los especialistas como a los clientes y a los respondentes.
La evaluacin, como cualquier otra profesin, debe asegurarse de que los
que participan en ella disfruten de una amplia gama de slidas oportunidades
para prepararse bien. Esto incluye programas de preparacin especializada que
culminan en una titulacin; cursos auxiliares que estn concebidos para asesorar a todos aquellos que se estn preparando para una serie de funciones profesionales -como
por ejemplo supervisores, asistentes sociales, profesores y
mdicos- sobre la evaluacin de sus propios servicios profesionales; continuas
oportunidades educativas para evaluadores y especialistas, y sesiones orientativas sobre estudios especficamente evaluativos destinados a clientes y respondentes. Este tipo de preparacin debe presentar un contenido actual que resulte
vlido para los problemas concretos que debern enfrentar los aprendices. Sin
duda, la preparacin es un papel crucial para mantener y hacer progresar la
calidad de los servicios evaluativos.
Investigador
evaluativo
La misin de cualquier profesin es servir a sus clientes de la mejor manera posible, y la realizacin de este imperativo se ve siempre limitada por el
estado actual de los conocimientos acerca de la especialidad. Por lo tanto, todas
las profesiones deben tener un carcter investigativo. Los profesionales deben
J,
I
")
)
')
)
)
)
)
)
)
)
)
)
)
Promotor de la evaluacin
Se trata de otro de los papeles vitales de la evaluacin. Tiene como base
la funcin de ayudar colectivamente a los evaluadores a alcanzar y mantener
el status de Ui ,a profesin. El significado de este papel puede encontrarse en
la definicin de un diccionario que afirma que una profesin es un oficio que
requiere un conocimiento especializado y, a menudo, una preparacin larga
e intensiva, incluyendo el dominio de tcnicas y mtodos, as corno tambin
de las nociones cientficas, histricas y eruditas en las que se basan estas tcnicas y mtodos, manteniendo, mediante la organizacin o la coordinacin
de conceptos, altos niveles de ejecucin y xito, y sometiendo a sus miembros
a un estudio continuo y a una concepcin del trabajo en la que lo que ms
impOrta es el ofrecimiento de un servicio pblico.
La especialidad de la evaluacin est empezando ya a presentar las caractersticas de una profesin, tal y como se promulgan en esta definicin. Ya
)
)
)
)
)
)
)
j
)
)
)
EJ
(
(
f
f
(
(
(
{
(
(
{
(
(
(
(
(
52
Evaluacin sistemtica
(
(
(
(
(
(
(
{
(
t
(
(
{
<(
(
l
t
1_
El metaevaluador
El ltimo papel que querernos subrayar, el del metaevaluador, requiere
mucha astucia y penetracin. Est relacionado con las funciones de evaluar
evaluaciones, pero tambin supone enjuiciar el valor y el mrito de todo lo que
representa y hace la profesin: servicios de evaluacin, utilizacin de las evaluaciones, preparacin de la evaluacin, investigacin evaluativa y desarrollo
organizativo. La metaevaluacin utiliza las normas aceptadas de la profesin
y trata de asegurar que son cumplidas. Tambin se ocupa de examinar las propias normas con el fin de decidir en qu sentido deben ser revisadas.
De una manera u otra, la metaevaluacin necesita incorporarse a cada una
de las actividades de la profesin. A veces se trata de una actividad de autoasesoramiento, corno cuando los evaluadores, los preparadores, los investigadores o los funcionarios de sociedades evaluativas examinan sus planes, la ejecucin de su trabajo o los resultados, comparndolos con las normas de la
profesin. En otros casos supone contratar a un agente independiente para que
valore los servicios. El objetivo de la metaevaluacin es asegurar la calidad de
los servicios evaluativos, evitar o enfrentarse a las prcticas ilegales o a los
servicios que no son de inters pblico, sealar el camino para el perfeccionamiento de la profesin y promover una mayor comprensin de la empresa
evaluativa. Desde luego, todos los evaluadores profesionales deben mantener
al da sus conocimientos de las normas de la profesin, incorporarlas a su tra-
,.-"".T
..~ .
!
;,~
"'
Introduccin
a la evaluacin
53
.
tar dispuestos a actuar corno metaevaluadores de los trabajos de otros
b aJo, es
h
dI'
profesionales y actuar profesionalment?, a la ora e e~a uar e mtentar me.
las contribuciones que la evaluaclOn hace a la SOCIedad.
Jorar
1
l"
.
Con este breve comentario sobre a metaeva uaClon~,termmamos nu.estro
s
papeles
que
se
desempean
en
una
evaluaclOn.
Hemos
anahzado
repaso de lo
"
minuciosamente, hasta cierto punto, la funcion del evaluador profe~lOnal y
h mos echado un vistazo a las divisiones que presenta. Creernos que, sm duda,
e
ello ha contribuido a apoyar la idea de que la evaluacin es a menudo
to dotrabajOo de equipo. Pero sacar la conclusin d e que 1as eva l'uaClOnes neceun
,
fl'
.,
1
sitan de los esfuerzos de un equipo sena una a sa mterpretaclOn: por e
trario la evaluacin debe ser una parte necesariamente integrante de las
can
,
f'
{
funciones de todo profesional. Nuestra conclusin es que estas unClOnes o
papel) son tan difciles corno importantes. Y la conclusin ms obvia y. f.undamental es que todos los profesionales deben desarrollar sus responsabIlIdades evaluativas, puedan o no conseguir la ayuda de un equipo y aunque tengan
que desempear ellos solos todas las funciones de la evaluacin.
Ya daramos un gran paso en la direccin adecuada si consiguiramos una
mayor facilidad para conceptualizar los problemas evaluativos y los mtodos
adecuados para solucionarlos. El resto de este libro ha sido pensado para llevar
a cabo este proceso. Presenta y examina en profundidad varias conceptualizaciones alternativas de la evaluacin.
Puede comprobar que cada unidad finaliza con tres tipos distintos de cuestiones o ejercicios; cada uno de ellos, a su manera, pretende saber cul es su
grado de comprensin de la unidad. Se encontrar con preguntas que presentan mltiples respuestas para que escoja una, y con explicaciones que aclaran
cules de las respuestas alternativas son correctas y cules no. Tanto las preguntas como las respuestas deben permitirle saber si usted ha alcanzado un
nivel satisfactorio en relacin con los objetivos que se propona la unidad en
lo que a conocimientos se refiere. En cada caso, rodee con un crculo la letra
que, segn usted, representa la mejor respuesta y luego valore su eleccin
comparndola con la solucin que le proporcionarnos y con la subsiguiente
interpretacin de las respuestas alternativas.
Cuando haya respondido a todas las preguntas sobre conocimientos, se le
" pedir que revise su trabajo y aumente su comprensin de la unidad, o bien
que continu con los otros ejercicios. Entonces deber enfrentarse a algu-
')
!
54
Introduccin
Evaluacin sistemtica
PREGUNTA
1. Cul de las respuestas que vienen a continuacin refleja lo
que esta unidad ha considerado como los fundamentos esenciales que deben
ser considerados para determinar el valor de un objeto que se est evaluando?
b)
e)
d)
a)
b)
d)
.,c~,;:_
b)
e)
. :,"
cinco funda-;~
"-~~
b)
Es incorrecta porque la subjetividad del evaluador puede dar una incli- ...
:.L.~,.~
...j.~.~
..~..
nacin inadecuada al estudio, mientras que si tma como gua los crite- .,
rios sugeridos no quedar ignorado ningn fundamento principal.
'~l
e)
PREGUNTA
2.
deben ser
a)
b)
e)
d)
Es incorrecta porque tant~ la fa~e. no comparativa como la fase comparativa postoperativa han sIdo om1tldas..
.
. .
. Es incorrecta porque la fase. no compa:~tlva ha sIdo o.m1tlda.
E 'correcta porque cualqmer evaluaClon es comparauva, no comparati:alUo ambas cosas, dependiendo de las necesidades informativas de los
clientes y/o la audiencia de la evaluacin.
")
"
,
)
)
")
1
)
);
)
)
PREGUNTA
Respuestas incorrectas
Es incorrecta porque es incompleta.
Es incorrecta porque la unidad identifica especficamente
mentas.
55
Respuestas incorrectas
Respuesta correcta: Debe usted haber sealado la d. Las distintas expectativas de los clientes, el mrito del objeto (o servicio) en cuestin, la necesidad que se tenga de l, la viabilidad (incluso poltica) del objeto y la equidad o igualdad de oportunidades para que todos puedan tener acceso al objeto, deben ser las normas por que se debe guiar el evaluador.
a)
nos ejercicios prcticos. La unidad concluye con unas Preguntas sin respuesta
y con la recomendacin de unas lecturas complementarias.
.
a)
a la evaluacin
';.I~
i
')f;t
'~i
E:!t
Ji
\i
d)
)
)
)
)
)
)
)
)
)
)
)
)
)
Respuesta correcta. Debe usted haberosealado la d. Esta unidad recomienda, a la vez, el empleo de un acercamiento eclctico a la evaluacin y la
necesidad de nuevas estrategias e instrumentos evaluativos.
)
)
)
)
)
t
(
56
Respuestas incorrectas
-(
(
a)
b)
e)
(
{
Evaluacin sistemtica
Introduccin
PREGUNTA
4.
poca tyleriana?
57
d)
a la evaluacin
(,
a)
b)
e)
(
(
d)
Respuesta correcta. Debe usted haber sealado la b. Es lo ms destacable de la filosofa de Tyler y del mtodo prctico de evaluacin.
Respuestas incorrectas
d)
e)
d)
Es incorrecta porque los tests estandarizados se desarrollaron en el perodo pre-tyleriano (a principios de este siglo).
Aunque esto no es incorrecto, se trata de una descripcin muy pobre de
la alternativa de Tyler a las concepciones ms tempranas de la evaluacin.
Incorrecta; de hecho, por el contrario, las evaluaciones internas han demostrado ser menos costosas porque no requieren los servicios de un
especialista en evaluacin.
b)
e)
d)
(
(
(
a)
''-
'f
PREGUNTA
6. Cul de las siguientes afirmaciones se corresponde ms
con el desarrollo de la evaluacin durante la poca del realismo (1958-1972)?
a)
a)
(
(
Respuestas incorrectas
tt
Desde 1965, se invirtieron billones de dlares en programas cuyo objetivo era la igualdad y la mejora de las oportunidades en cuestiones de
servicios sanitarios, sociales y educativos.
El artculo 1 del Acta de la Educacin Elemental y Secundaria de 1965
tena como objetivo proporcionar una educacin compensatoria a los
nios atrasados. Las adecuadas metodologas evolutivas utilizadas en estos programas tuvieron, afortunadamente, xito.
El nfasis puesto en las puntuaciones de los tests hizo que la atencin
se dirigiera hacia los propios programas.
Las duras crticas de CRONBACH (1963), que afirmaron que los mtodos
f: 'aluativos
de entonces carecan de relevancia, y que la evaluacin deba
c;nvertirse en un proceso de recogida y elaboracin de informaciones
que sirvieron como gua para la realizacin de un currculo, fueron muy
oportunas.
)
'1
58
Evaluacin sistemtica
Introduccin
Respuestas incorrectas
Respuestas
e)
b)
e)
a)
b)
e)
d)
b)
Los evaluadores han realizado un significativo progreso hacia el establecimiento de la evaluacin como prctica formal especializada.
De un modo creciente, la evaluacin se fue considerando slo como una
aspirante a la categora de profesin. Esta rea laboral dej de ser til
en la dcada de los sesenta: el pblico la fue dejando a un lado y ya
no recibi ms ayudas econmicas.
En el rea de la metodologa, los evaluadores han llegado casi a un completo acuerdo mediante el cual las evaluaciones deben emplear mtodos
naturalistas y evitar la utilizacin de mtodos cuantitativos.
En respuesta al mayor desarrollo metodolgico de la pasada dcada, se
han realizado minuciosos cambios y reformas en la prctica evaluativa.
Respuesta correcta. Debe usted haber sealado la a. Los evidentes sntomas de profesionalizacin de la evaluacin que se dan en 1983 incluyen
la aparicin de publicaciones peridicas, de numerosos libros y monografas
sobre el tema, de organizaciones profesionales que se dedican a la evaluacin,
de normas profesionales para la prctica, de un programa concreto destinado
a la titulacin, y un accmento de la investigacin y el desarrollo de temas
sobre evaluacin.
59
')
incorrectas
')
a)
a la evaluacin
d)
.,
')
i
)
)
)
)
)
)
Ejercicio prctico
Este apartado consiste en un ejercicio que pretende ayudarle a valorar
si ha comprendido bien cmo pueden aplicarse en la prctica los principales
contenidos de la unidad. Le sugerimos que anote su respuesta en una hoja de
papel aparte y luego la compare con la respuesta-ejemplo que sigue.
EJERCICIO 1. Suponga que el director del Departamento de Bienestar
de una gran ciudad le contrata para discutir los planes de evaluacin de sus
programas que le ha facilitado la agencia. Suponga adems que el director de
la agencia ha asumido el concepto de auto-evaluacin, de acuerdo con el
cual todos los miembros del personal de la agencia son responsables de evaluar su propio trabajo. El jefe advierte tambin que no se han utilizado los
servicios de un departamento de evaluacin, ni los de unos especialistas (ya
sea durante todo el trabajo o parte de l), ni se ha pagado de una manera
especial el trabajo evaluativo. En lugar de eso, ha recordado a los 95 miembros del personal que son responsables de evaluar su propio trabajo y les ha
enseado un mtodo evaluativo, con el fin de que sus esfuerzos lleguen a
buen puerto. El director cree que este tipo de actividad evaluativa puede ser
de utilidad para convencer a la legislatura estatal de que incremente sus ayudas a la agencia.
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
,)
f
f
I Evaluacin sistemtica
f
f
60
a)
b)
(
(
(
(
e)
(
(
(
d)
Referencias bibliogrficas
4.
5.
(
(
Este apartado contiene preguntas destinadas a ayudarle a calibrar y profundizar su comprensin de los asuntos tratados en esta unidad. No se proporcionan respuestas a las preguntas. Le sugerimos que intente dar respuestas
a estas preguntas siguiendo ciertos pasos, como revisar la unidad, consultar
las fuentes bibliogrficas adecuadas, incluyendo las que se consignan al final
de la unidad, y discutiendo las preguntas con sus alumnos o colegas.
(
(
l
{
(
(
1.
2.
AMERICANPSYCHOLOGICAL
AssocIATION. 1974. Standards for educational and
psychological tests, Washington, D.C., Autor.
ANDERSON,
S.; BALL,S.; Y MURPHY, R. y colaboradores. 1974. Encyclopedia of
educational evaluation, San Francisco, Jossey-Bass.
BLOOM,B. S.; ENGLEHART,M. D.r FURST,E. J.; HILL, W. H.; y KRATHWOHL,
(
(
61
Referencias bibliogrficas
La definicin de evaluacin que hemos dado en esta unidad, es igualmente defendible desde el punto de vista de escuelas filosficas distintas,
como el pragmatismo, el existencialismo o el positivismo lgico?
Teniendo en cuenta que esta unidad recomienda un enfoque eclctico a
la hora de escoger los mtodos que se usarn en un trabajo evaluativo,
existe alguna investigacin cuyas conclusiones se refieran a la conveniencia o inconveniencia de elegir eclcticamente mtodos de especialidades
afines --como la investigacin educativa, la investigacin psicolgica, la
contabilidad y la planificacin ciudadana-,
contribuyendo as a recomen-
(
(
7
')
")
62
Evaluacin
sistemtica
Referencias
bibliogrficas
63
-.1914. Scientific management in education, Nueva York, Hinds Noble and Eldredge.
ROT~, J. 1977. Needs and the needs assessment process, Evaluation News, 5, gmas 15-17.
p
SCRIVEN, M. S,. 1967. The methodology of evaluation. En Perspectives of curriculum evaluatlOn (AERA Monograph Series on Curriculum Evaluation, n. 1), Chicago, Rand McNaliy.
-. 1;n4. P rose and cons about goal-free evaluation, Evaluation Comment, 3, pgmas 1-4 .
-.1975. Evaluation bias and its control. Occasional Paper Series, n. 4, Universidad de Western Michigan. Centro de Evaluacin.
SMITH, E. R. Y TYLER, R. W. 1942. Appraising and,recording student progress
Nueva York, Harper.
'
SMIT ~, N. 1. 1981a. Metaphors for evaluation: Sources of new methods, Beverl
HI,lS, Sage.
y
-. 198 lb. New techniques for evaluation, Beverly Hills, Sage.
STAKE, R. E. 1967. The counrenance of educational evaluation Teachers College
Record, 68, pgs. 523-540.
'
-.197.5. Program .eval~ation, particularly .re~ponsive evaluation. Occasional Paper
Senes n. 5, UnIversIdad de Western Mlchlgan, Centro de Evaluacin.
-.1:)78.
5T8he case-study method in social inquiry, Educational Researcher, 7, pgmas -.
-. ~etting standards fer educational evaluators, Evaluation News n. 2, 2 (1981)
pags. 148-152.
'
STUFFLEBEAM,D. 1. The use and abuse of evaluation in Title IlI Theory Into
Practice, 6 (1967), pgs. 126-133.
'
-. 1978. Metaevaluation:
An overview, Evaluation and the Health Professions 1
(2), pgs. 146-163.
'
STUFFLEBEAM,D. L., Y otros. 1971. Educational evaluation and decision making
ltasca, lli., Peacock.
'
SUR~Z, T. 1980. N~eds assessments for technical assistance: A conceptual overVlew and companson of three strategies. Tesis doctoral indita. Universidad de
Western Michigan.
TYLER, R. W. 1967. Changing coneepts of educational evaluation. En R. E. Stake
(comp.), Perspectives of curriculum evaluation (vol. 1), Nueva York, Rand
MeNaliy.
WEBS~ER,. W. J. 1975. The organization and functions of research and evaluation
umts m a large urban school district, The Dalias lndependent School District
Dalias.
'
')
")
')
")
')
')
)
)
')
)
)
)
)
)
)
)
)
)
}
)
)
)
)
)
)
)
)
)
)
)
)
)
~!
"
:~
.~
A7rs
')
'1
66
Evaluacin sistemtica
Objetivos
Esta unidad est pensada para ayudarle a alcanzar los siguientes objetivos:
1.
2.
3.
Cuando haya estudiado el ncleo de esta unidad, se encontrar con preguntas y ejercicios que podr calificar _usted mismo, incluyendo respuestas
que reflejen parcialmente los objetivos expuestos arriba. Le recomendamos que
realice estos ejercicios evaluativos para que pueda valorar su grado de conocimiento respecto al material de esta unidad. Al nnal de ella aparecen tambin unas preguntas sin' respuesta y ciertas lecturas recomendadas, que se
proponen servirle de gua en sus estudios posteriores acerca de los conceptos
tratados en la unidad.
Mtodos
alternativos
de evaluacin
67
)
')
)
')
')
j
)
)
'J
)
, )
)
)
)
)
)
)
)
)
)
)
')
)
:)
)
Pseudoevaluaciones
Se dice que los mentirosos imaginan cosas y que las imaginaciones mienten. Del mismo modo, los charlatanes y los manipuladores utilizan a menudo
la evaluacin de una manera inadecuada para lograr sus objetivos. Puede que
tecopilen la informacin rigurosamente, pero no revelan las verdaderas con.
clusiones, o lo hacen de un modo selectivo, o incluso las falsifican, engaando
)
)
)
)
)
.)
....
~
(
Mtodos
f
f
68
Evaluacin sistemtica
(
{
Investigaciones
(
(
(
(
(
,1
(
(
(
{
(
(
{
<.
(
(
(
(
(
(
(
(
(
(
{
~
encubiertas
alternativos
de evaluacin
69
nera, un asesor especial mantena al da todo 10 anotado; slo exista una copia
y el director la guardaba bajo llave en su mesa de trabajo. El hecho es que la
continuada investigacin encubierta y la revelacin selectiva de informacin
llevadas a cabo por el director no eran, en absoluto, un caso de verdadera
evaluacin, porque no incluan revelaciones totales y abiertas. Desde nuestro
punto de vista, se trataba de un ejemplo de pseudoevaluacin.
pblicas
) 1
.,,
,
"'\
70
Evaluacin
Mtodos
sistemtica
alternativos
de evaluacin
71
dores tienen que estar alertas, ms de lo que suelen estarlo, ante este tipo de
conflictos potenciales; de otra manera, pueden convertirse en cmplices inconscientes de un proceso de engao a travs de la evaluacin.
Cuasievaluaciones
Los estudios cuasievaluativos aparecen especificados porque existe la evidencia de que a veces pueden ser utilizados para enjuiciar el valor o el mrito
de un objeto, mientras que en otros casos su alcance es demasiado estrecho
o slo tangencial a las cuestiones del mrito y el valor. Lo ms importante es
que estos estudios empiezan con un problema concreto y luego buscan la metodologa apropiada para solucionar ese problema. Que la informacin obtenida
sea suficiente para apoyar un juicio sobre el valor de algo es, definitivamente,
una cuestin secundaria. Los estudios cuasievaluativos poseen otros usos muy
legtimos, aparte de su relacin con la evaluacin. As, la principal cautela
que hay que adoptar ante estos tipos de estudios es no considerarlos equivalentes a la evaluacin.
Dos unidades de este libro hablan de los modelos de estudio cuasievaluativos: la unidad 3, sobre la tradicin tyleriana, y la unidad 4, sobre el mtodo
cientfico de Suchman. En esta unidad, analizaremos estas formas de cuasievaluacin: la primera entra en la categora de la cuasievaluacin que hemos
denominado estudios basados en objetivos, mientras que la de Suchman se
basa sobre todo en la experimentacin. Otros ejemplos de mtodos cuasievaluativos, descritos por STUFFLEBEAMy WEBSTER (l980), son los estudios de
responsabilidad, los programas de pruebas y los sistemas de informacin administrativa.
')
')
1
'\
)
J
")
f
)
)
)
)
)
)
)
)
)
)
)
)
, )
)
)
)
)
)
)
1 )
)
.~
J.
f
'f
(
(
(
t
(
(
(
(
(
(
(
(
(
(
(
72
Evaluacin sistemtica
(
(
(
La mayora de las unidades de este libro estn dedicadas a estudiar modelos que hemos denominado evaluaciones verdaderas. Oponindose a las pseudoevaluaciones subrayan la necesidad de evitar los estudios tendenciosos, y,
en contraste con las cuasievaluaciones, recomiendan la realizacin de investigaciones de conjunto basadas en cuestiones de valor y mrito.
.'(
1i
I
Mtodos
alternativos
de evaluacin
73
74
Mtodos
Evaluacin sistemtica
de evaluacin
"
')
75
')
alternativos
~.
")
')
")
I
)
)
)
)
(
)
)
)
)
)
)
)
)
~n este tipo de e.studios, el evaluador es el inteligente sustituto del cons~lmldor. Los ~r~amzadores previos son los valores y necesidades de la soCIedad. El.rroposltO de ~n estudio basado en el consumidor es juzgar los valo~es relatIVOS de .tos bIenes y :"ervicios alternativos y, como consecuencia,
a}uda~ a los cont~l~uyentes y clIentes a saber elegir en sus adquisiciones de
esos bIenes y serVICIOS.
1 L~s problemas planteados por este tipo de estudios estn relacionados con
~ ~ocledad, con los que forman parte de los servicios institucionales y espe~~::ente con ~as premisas del evaluado~. Su principal pregunta es: cul de
1
uc~os objetos de consumo alternatIvos es mejor comprar dado su coste
nec~sldade~ del grupo consumidor y los valores de la sociedad en general?
OSIm~t,odos mcluyen listas de control, la valoracin de las necesidades la
cva
de los obJ'eti vos, 1a p 1am'ficaCIOn
. ,. expenmenta1 y cuasiexperimenta1
'
1 uaCl0n
T'
:~~a lSISdel modus operandi y ~1 anlisis de los costes (SCRIVEN)1974): Otr~
do popular para el consumIdor externo e independiente consiste en re-
Estudios polticos
Consideramos el estudio poltico como el tercer gran modelo de evaluacin verdadera. Hemos clasificado as este mtodo porque sirve para identificar y valorar los mritos de varias polticas que compiten en una sociedad
o segmento social. El organizador previo de un estudio poltico es una determInada cuestin poltica, como por ejemplo, cul es el mejor o, al menos, el
mtodo ms efectivo de satisfacer las directrices federales en lo que a igualdadde oportunidades educativas se refiere? El propsito de un estudio poltico
es, por 10 general, describir y valorar los costos y beneficios potenciales de
)
')
)
)
)
)
)
)
)
)
(
~,
)
)
;:;
'b
,)
"'f',
(
t"
(
(
(
(
(
(
(
(
(
{
76
(
(
(
(
(
(
t
.(,
77
alerta y resistencia ante los modelos que supongan algn tipo de subterfugio
(las pseudoevaluaciones).
Los evaluadores deben tener particularmente en cuenta que quiz se encuentren con dificultades considerables si su concepcin del estudio que estn
llevando a cabo difiere de la de sus clientes o audiencias. Con frecuencia, los
clLeptes desean un estudio polticamente ventajoso (pseudoevaluacin), mientras que los evaluadores prefieren realizar estudios basados en cuestiones concretas (cuasievaluacin), puesto que ello les permite aplicar la metodologa
para la que se han preparado. Adems, los consumidores de los servicios que
se estn valorando desean, por lo general, estudios basados en los valores
(verdadera evaluacin), que les ayuden a determinar la vala relativa de los
distintos bienes y servicios o juzgar el mrito y el valor de un programa u objeto dados. Si los evaluadores ignoran este tipo de posibles conflictos, la evaluacin, probablemente, estar condenada al fracaso desde el ?rincipio. La
moral debe ser lo primero en un estudio, y los evaluadores deben atender
tanto a lo que ellos piensan, como a lo que piensan los clientes y la audiencia. Es ms, los evaluadores deben avisar a las partes implicadas de los posibles conflictos que pueden producirse en lo que se refiere a los propsitos
y la realizacin del estudio, y llegar, desde un primer momento, a un acuerdo
comn. Las alternativas presentadas pueden ser, perfectamente, tanto un estudio cuasievaluativo destinado a valorar cuestiones concretas, como una verdadera evaluacin destinada a buscar cualquier evidencia que pueda ayudar al
cliente y a la audiencia a enjuiciar el valor de un objeto.
De cualquier manera, no es creble que los estudios inspirados y controlados polticamente sean apropiados para la evaluacin de la salud, el bienestar
y la educacin. Indudablemente, pueden ser necesarios en la administracin
y en las relaciones pblicas, pero no deben ser confundidos con -o sustituidos
por- la evaluacin. Finalmente, es imprescindible recordar que ningn tipo
de estudio es siempre el mejor a la hora de evaluar algo. Otra cuestin que
se desprende del examen de los diversos tipos de estudio presentados en este
libro es que tienen, a la vez, virtudes y defectos. En general, los defectos de
los estudios orientados polticamente es que son fcik; de manipular por personas sin escrpulos; y esto puede contribuir a que la mdiencia llegue a falsas
conclusiones al desarrollar una opinin particular sobre el valor de un programa que acaba siendo infundada y quiz falsa. El principal problema de los
estudios basados en cuestiones concretas es que, a menudo, plantean preguntas de un alcance ms limitado que el que en realidad sera necesario para un
verdadero enjuiciamiento del valor. De todos modos, tambin resulta notable
que estos tipos de estudios sean frecuentemente superiores, en la eficiencia
de la metodologa y la adecuacin tcnica de la informacin empleada, a 10s
verdaderos estudios evaluativos. Finalmente, los estudios basados en valores
realizan una tarea muy ambiciosa. Por ello es virtualmente imposible enjuiciar
el verdadero valor de cualquier objeto. Un logro completo requerira omnis-
(
(
I Evaluacin sistemtica
Conclusin
Esto completa nuestra revisin de los que consideramos los tres principales acercamientos a la evaluacin. Los diversos tipos de estudio descritos en
este libro estn contenidos en el comentario de estos enfoques. Insistimos en
que ninguno de estos tres mtodos se corresponde con la pseudoevaluacin.
En resumen, las ideas y procedimientos evaluativos que TYLER (unidad 3) y
sus seguidores, METFESSELY MICHAEL (unidad 3), y HAMMOND
y SUCHMAN
(unidad 4), proponen ms adelante, son ejemplos de cuasi evaluacin. Los recomendados por CRONBACH(unidad 5), STUFFLEBEAM(unidad 6), STAKE
(unidad 7), OWENS (unidad 8) y SCRIVEN (unidad 10) se corresponden con
nuestra descripcin de la verdadera evaluacin. Mud'lOS de los procedimientos
evaluativos recomendados por \'q eiss -particularmente
los que se refieren a
las relaciones polticas e interpersonalescoinciden casi totalmente con nuestro concepto de evaluacin verdadera. En trminos generales, creemos que los
autores que recomiendan un mtodo holstico de evaluacin, como MAcDoNALDy STAKE(unidad 9), defienden tambin ejemplos de verdadera evaluacin,
con tal que la ausencia de la credibilidad externa sea reconocida.
Como se afirma al principio de esta unidad, un anlisis de estos modelos
de estudio tiene importantes implicaciones tanto para el que los practica como
para el que estudia la evaluacin resultante. Ambos necesitan fortalece_o su
capacidad de valorar y aplicar planes de evaluacin, modelos, etctera,:ue
aparecen en la literatura evaluativa. Este estudio no slo debe describir planes
alternativos que uno puede escoger o adoptar, sino que tambin debe incrementar la sensibilidad a la hora de localizar las virtudes, los defectos y las
diferencias entre los diversos esquemas. y debe aumentar la capacidad de
pz
Ai
')
78
Mtodos
Evaluacin sistemtica
alternativos
de evaluacin
'1
79
")
Respuestas incorrectas
a)
b)
Test de conocimientos sobre la unidad 2
e)
')
')
')
)
)
)
.}
e)
d)
PREGUNTA1. Cul de las siguientes caractersticas de la evaluacin coincide mejor con el modo en que la hemos definido en esta unidad?
no corresponde a las
Respuestas incorrectas
a)
e)
d)
)
, }
)
)
,
)
)
)
)
)
)
)
,)
,
)
)
J
)
,)
)
')
,)
)
Jz
f
(
80
Evaluacin sistemtica
no se corresponde con
c)
(
(
a)
b)
de evaluacin
81
Mtodos alternativos
c)
Plantea una amplia gama de cuestiones acerca del valor y el mrito del
objeto de inters.
Est pensado para responder algunas preguntas concretas planteadas antes
de empezar la bsqueda de informacin.
La informacin obtenida puede o no puede ser suficiente para apoyar con
pruebas el presunto valor del objeto de inters.
Existen usos legtimos de los resultados de ciertos estudios.
d)
d)
(
(
Respuesta correcta. Debe usted haber seleccionado la d. La experimentacin es un mtodo utilizado a veces en la verdadera evaluacin, pero por lo
general se utiliza junto con otras tcnicas, como la revisin de documentos,
la inspeccin, el estudio de casos, las visitas y las audi:iones. La experimentacin, ciertamente, no es la tcnica ms utilizada en las v.;:rdaderas evaluaciones.
Es ~s, no hay ninguna tcnica que se utilice ms que otra en este mtodo,
porque la eleccin de tcnicas es casi siempre pragmtica y eclctica.
Respuestas incorrectas
Respuestas incorrectas
(
(
PREGUNTAS
5 a 16. De la lista de modelos de estudio que facilitamos ms
abajo, seleccione la que mejor se puede aplicar a cada descripcin proporcionada en los nmeros 5-16. En el espacio que aparece a la izquierda de cada
descripcin escriba la letra correspondiente al modelo de estudio seleccionado.
Puede utilizar una respuesta ms de una vez.
b)
(
(
<.
c)
(
(
,
(
d)
(
(
\
(
,
(
(
(
(
1(
a)
b)
A.
B.
Investigacin encubierta.
Estudio basado en las relaciones pblicas.
'1
82
C.
D.
E.
F.
G.
H.
I Evaluacin sistemtica
Estudio
Estudio
Estudio
Estudio
Estudio
Estudio
5.
6.
7.
8.
9.
--
10.
- 11.
12.
13.
14.
15.
16.
Las cuestiones que sirven de gua estn asociadas con las necesidades que deben satisfacerse, los mritos relativos de cada uno de
los modos en que las necesidades pueden ser expuestas, la idoneidad del programa de realizacin y el alcance y calidad de los resultados.
Este modelo de estudio valora los productos y servicios desde el
punto de vista de quienes van a beneficiarse de la utilizacin de
esos productos y servicios.
Este modelo de estudio est pensado para ayudar a los clientes a
obtener una informacin exacta que puedan controlar y seleccionar para alcanzar sus objetivos.
Este modelo de estudio ha monopolizado los esfuerzos realizados
para sistematizar la evaluacin.
Los principales problemas de este modelo de estudio consisten en
que, a menudo, no es operativo a la hora de construir teoras y
en que ofrece una gama muy estrecha de informacin.
Este tipo de estudio se centra en donde se encuentra la accin
y en las cuestiones o problemas planteados por el producto o servicio que se evala, vistos desde la perspectiva de vatios clientes.
Este' modelo de estudio podra conocerse por creacin de imagen.
Este modelo de estudio est ejemplificado por un estudio que ha
sido pensado para identificar y valorar dos o ms propuestas legales referentes a la salud de los ms necesitados.
Este modelo de estudio fue bsicamente desarrollado por Tyler.
Este modelo de estudio ha sido recomendado por Scriven y Nader.
Robert Stake es el principal representante d este tipo de estudio.
Cronbach y Stu1ebeam han recomendado este modelo de estudio.
7.
8.
9.
10.
11.
12.
13.
14.
.
'
Respuestas correctas. Debe usted haber respondido como sigue, por las razones expuestas:
E
5.
6.
.t,
15.
16.
"'l
83
")
")
")
')
1
)
.)
)
)
)
\
)
)
)
)
)
)
)
)
)
)
)
)
)
,)
)
)
)
)
)
)
L)
84
I Evaluacin sistemtica
As, evaluaremos su trabajo inicial tal como sigue: 15-16, excdente; 13-14,
muy bien; 10-12, bien; 7-9, regular; y 0-6, mal.
Cuando haya obtenido una estimacin aproximada de su trabajo inicial, le
recomendamos que dirija su atencin hacia las cuestiones que ha errado. Le
sugerimos que relea cada una de estas cuestiones y su respuesta 'correcta, y
luego revise el material del te]fto con el fin de mejorar su comprensin de
los conceptos que incluye. '
Modelos
de estudio
Estudios
orientados
hacia las
decisiones
Estudios
basados en
los objetivos
Estudios
orientados
hacia el
conStlmidor
I../1' 'VI''v/(\...
;~;~~.~~:Tt.
':',"
EJercicios prcticos
85
Estudios
centrados en
el cliente
es' juzgado por los
que, forlIlan parte
de l y por los
que son expertos
en e! rea en la
que se incluye e!
programa?
(1 ..
'C)
Mtodos ms
comunes
Este apartado contiene ejercicios prcticos que han sido pensados para
ayudarle a saber si ha comprendido usted nuestra presentacin y anlisis de
las conceptualizaciones alternativas de la evaluacin. Cada una de las cuestiones
va seguida de una respuesta-muestra o' de una lista de puntos importantes
que usted ha debido incluir en su ,respuesta. La revisin de estas respuestas
le ayudarn a valorar las suyas.
'
Modelos
de estlldio
Organizadores
previos
Propsito
Procedencia de
las cuestiones
Cuestiones
principales
Estudios
basados en
los objetivos
Estudios
orientados
hacia el
~onsumidor
Cronbach y
Stufflebeam
Pioneros
.Comparacin
de los datos de
trabajo con los
objetivos
Modelos
de estudio
Estudio~
centrados en
el cliente
Objetivos
Proporcionar los
conocimientos
suficientes y una
base valorativa
para tomar y
justificar
.
decisiones
La sociedad en
general, los
consumidores
y e! evaluador
Estudios
basados en
los objetivos
Estlldios
orientados
hacia
el consumidor
Estudios
centrados en
el cliente
Organizadores
previos
Objetivos
Situaciones
decisivas
Necesidades y
valores sociales
Cuestiones y
problemas
localizados
Propsito
Relacionar los
resultados con
los objetivos
Proporcionar los
cOl,ocimientos
sukientes y una
base valorativa
para tomar y
justificar
decisiones
Juzgar
los mritos
relativos de
bienes y
servicios
alternativos
Facilitar la
comprensin de
las actividades
y su valoracin
,en una teora
determinada y
desde distintas
perspectivas
La sociedad
en general, los
consumidores
y e! evaluador
La comunidad y
los grupos de
clientes en zonas
locales, y los
expertos
Procedencia de . Planificadores
y directivos
las cuestiones
de! programa
Cul es la
historia de un
programa y cmo
Estudios
orientados
hacia las
decisiones
);1
11
;~------------------------------------------
86
Evaluacin
Mtodos
Modelos
de estudio
Cuestiones
principales
Mtodos
comunes
Pioneros
sistemtica
Estudios
basados en
los objetivos
Qu
estudiantes
alcanzan sus
objetivos?
ms
Comparacin
entre los datos
de trabajo y
los objetivos
Tyler
Estudios
orientados
hacia las
decisiones
Como debe ser
planificada,
ejecutada
y
reciclada una
empresa
determinada
para
que promueva el
crecimiento
humano yel
desarrollo
a un
coste razonable?
Inspecciones,
valoracin de las
necesidades,
grupos de
recomendacin,
observaciones
y
. planificacin
experimental
Cronbach y
Stufflebeam
Estudios
orientados
hacia el
consumidor
Estudios
centrados en
el cliente
Cul de los
diversos
objetos de
consumo
alternativos
representa la
mejor compra
que' pueda
hacerse, dados
sus costes, las
necesidades
de los
consumidores
y los valores
de la sociedad
en general?
Cul es la
historia de u~
programa y cmo
es juzgado por
quienes estn
implicados en l
y por los que son
expertos en el
rea en la que se
incluye el
programa?
Listas de
control,
valoracin
de las
necesidades,
evaluacin
sin metas,
planificacin
experimental
y anlisis
del coste
Estudio de casos,
informes
contrapuestos,
sociodrama y
evaluacin
respondente
Scriven
Stake
EJERCIC~O2. Haga una lista de los que usted cree que son los principales
defectos y vIrtudes del mtodo evaluativo experiment.tl.
Ejemplo de respuesta al ejercicio 2. De acuerdo con la pOSlClon adoptada
en esta unidad, su respuesta debe ser aproximadamente como sigue:
a)
Virtudes.
1. Valora las relaciones causales.
2. Proporciona una informacin exacta y objetiva.
3. Produce datos que pueden utilizarse en el anlisis.
4. Da. como resultado informes precisos y objetivos.
5. EVIta la manipulacin poltica.
b)
alternativos
de evaluacin
87
Defectos.
1. No armoniza con las necesidades informativas de las audiencias.
2. No produce una informacin oportuna.
3. Ofrece una visin reducida del valor de un objeto.
4. A menudo no documenta ni valora la realizacin de un programa.
5. A menudo se gua por planes de procedimientos poco prcticos.
EJERCICIO 3. Haga una lista de los que usted considere como principales
defectos y virtudes de la estrategia evaluativa centrada en el cliente.
Ejemplo de respuesta al ejercicio 3. De acuerdo con la posicin adoptada
en esta unidad, su respuesta debe ser aproximadamente como sigue:
a)
Virtudes.
1. Proporciona informacin continua.
2. Sirve a mltiples audiencias.
3. Es flexible y aguda.
4. Promueve la autoevaluacin.
5. Facilita una efectiva comunicacin de los resultados.
6. Toma en consideracin el contexto.
7. Valora los procesos.
8. Valora los resultados propuestos y los conseguidos .
9. Valora los efectos secundarios.
10. Proporciona una informacin de amplio alcance.
11. Valora los defectos y las virtudes.
12. Ofrece juicios procedentes de distintas fuentes.
13. Pone nfasis en la validez.
14. Pone nfasis en la descripcin completa.
15. Pone nfasis en la comunicacin clara.
16. Es aplicable a pequeas instituciones.
h)
Defectos.
1. Depende de la cooperacin de las audiencias.
2. Puede dejar de lado la evaluacin completa.
3. No viene avalada por mtodos completamente desarrollados y vlidos.
4. A menudo produce informacin de exactitud cuestionable.
5. La objetividad de la evaluacin es a menudo dudosa.
6. Permite la utilizacin de evaluadores tendenciosos o poco preparados.
7. A menudo condu.ce a resultados equvocos o contradictorios.
8. A veces es vulnerable a la manipulacin poltica.
f
(
88
Evaluacin sistemtica
f
Preguntas sin respuesta
f
(
{
(
(
(
(
Este apartado
final incluye cuatro preguntas
concebidas
para ayudar a
reflexionar crticamente
sobre los contenidos
de esta unidad. No se proporcionan las respuestas.
En su lugar, le sugerimos
que lea y piense cada una de
ellas y, si es posible, las discuta con sus alumnos o colegas. Adems, puede
que estas 'preguntas le resulten tiles como gua para un futuro estudio de las
lecturas propuestas
al final de la unidad.
1.
2.
(
(
(
(
3.
(
(
(
4.
Es importante
que los evaluadores distingan entre pseudoevaluacin,
sievaluacin
y verdadera
evaluacin?
Si es as, por qu? Si no,
(
(
(
(
(
(
(
(
l
(
4
(
cuapor
qu no?
Referencias bibliogrficas
ALKIN, M. C. 1969. Evaluation theory development, Evaluation Comment, 2, pginas 2-7.
ANnERSON,S.; BALL, S.; MURPHY, R. y colaboradores. 1973. Encyclopedia o/ educational evaluation, San Francisco, Jossey-Bass, pg. 142.
BLooM, B. S.; ENGLEHART, M. D.; FURsT, E. J.; HILL, \Yl. H.; Y KRATHWOHL,
D. R. 1956. Taxonomy o/ educational objectives. Handbook 1: Cognitive domain, Nueva York, David McKay (trad. cast.: Clasificacin de las metas educativas. Tomo I: Taxonoma de los objetos, Alcoy, Marfil, 1979).
CAMPBELL, D. T. Y STANLEY, J. C. 1963. Experimental
and quasi-experimental
designs for research on teaching. En N. L. GAGE (comp.), Handbook o/ research
on training, Chicago, Rand McNally.
CLARK, K. Dark ghetto, Nueva York, Harper and Row, 1963.
COLEMAN, ]. S.; CAMPBELL, E. Q.; HOBsoN, c.]. MCPARTLAND,J.; MOOK, A.
M.; \YlEINFELD, F. D.; Y YORK, R. L. 1966. Equality o/ educational opportunity, \Ylashington, D.C. Oficina de Educacin, Departamento
de Salud, Educacin y Bienestar de los EE.UU.
CoOK, D. L. 1966. Program evaluation and review techniques, applications in education, U. S. O//ice o/ Education Cooperative Monograph, 17 (OE-12024).
89
'-
bibliogrficas
FIsHER, R. L. 1951. The design o/ experiments (6.' ed.), Nueva York, Hafner.
GLASS, G. V. y MAQUIRE, T. O. 1968. Analysis of time-scires quasi-experiments.
(Informe n. 6-8329 de la Oficina de Educacin de los EE.UU.) Boulder, CoL,
Laboratorio de Investigacin Educativa, Universidad de Colorado.
GUBA, E. G. 1978.. Toward a methodology Of naturalis~ic inquiry in educational
evaluation. CSE Monograph Series in Evaluation, Los Angeles, Calif., Center
for the Study of Evaluation.
HAMMOND,R. L. 1972. Evaluation ,'1' the local level (ciclostilado), Tucson, Ariz.,
EPIC Evaluation Center.
JENCKS, c.; SMITH, M.; AnAND, H.; B., MJ.; COHEN, D.; GINTIS, H.; HEYNES,
B.; Y MICHELSON, S. 1nequality: A reassessment of the effect of family and
schooling in America, Nueva York, Basic Books, 1972.
KAPLAN,A. 1964. The conduct o/ inquiry, San Francisco, Chandler.
LESSINGER,L. M. 1970. Every kid a winner: Accountability
in education, Nueva
York, Simon & Schuster.
LINQUIST,E. F. 1953. Design and analysis o/ experiments in psychology and education, Boston, Houghton Mifflin.
McDoNALD, B. 1975. Evaluation and the control of education. En D. TAWNEY
(comp.), Evaluation: The state o/ the art, Londres, Schools Council.
METFESSEL, N. S. Y MICHAEL, \Yl. B. 1967. A paradigm involving multiple criterion measures for the evaluation of the effectiveness of school programs,
Educational and Psychological jvleasurement, 27, pgs. 931-943.
OWENS, T. 1971. Application of adversary proceedings to educational evaluation
and decision making. Texto presentado en el congreso anual de la American
Educational Research Association, Nueva York.
POPHAM, \Yl. ]. 1969. Objectives and instruction. En R. STAKE (comp.), 1nstructional objectives. AERA Monograph Series on Curriculum Evaluation (vol. 3).
Chicago, Rand McNall:-PROVUS,M. N. 1971. Disc.?pancy evaluation, Berkeley, McCutcheon.
REINH ARD, D. L. Methodology Development for Input Evaluation Using Input
Evaluation Using Advocate and Design Teams. Tesis Doctoral de Filosofa, Universidad del Estado de Ohio, 1972.
RIPPEY, R. M. (comp.). Studies in Transactional Evaluation, Berkeley, McCutcheon,
1973.
(
(
Referencias
bs
I
90
II
Evaluacin sistemtica
")
"')
')
')
')
.')
')
'1
,.._ 'l~ \ ~"
~\\(~1~
[.'-
"
)
')
)
)
.,i,
1
Off
1
1
j
I
hn
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
,)
)
,)
,
f
f
('
t
(
(
(
(
f
(
'T
92
I Evaluacin sistemtica
La tradicin tyleriana
3.
(
(
(
(
(
(
(
(
(
En esta unidad, presentamos los principales aspect~s del m~todo evaluativo tyleriano. Tambin reseamos brevemente el trabajO de Mlchael y. Metfessel, seguidores del modelo concebido por Tyler. Cuando h~y~ termll1ado
el ncleo de esta unidad, se le pedir que haga un test de conoClmlent~s sobre
la tarea tyleriana, comparando sus respuestas con las que l~ propo.rclonamos
nosotros, y un ejercicio prctico, en el que deber hacer 10 rr:1smo. ~I~al~ente,
la unidad termina con la discusin de los temas (y sus pOSibles utIlizacIOnes)
en las Preguntas sin respuesta y con una lista de lecturas recomendadas.
(
(
Objetivos
Los objetivos de esta unidad son los siguientes:
(
(
1.
l
(
(
2.
(
(
L....
93
(
(
J
J
94
La tradicin
Evaluacin sistemtica
')
95
alcance del cambio. Antes de que esto suceda deben ser determinadas con claridad y definidas las metas y objetivos. Dicho en trminos de comportamiento, deben comprobarse los objetivos despus de que se hayan establecido
las condiciones apropiadas para su comprobacin.
Tyler no diferenciaba entre metas y objetivos en su estrategia. De sus
escritos puede colegirse, de cualquier forma, que las metas de un programa
eran ideales por los que haba que luchar, mientras que los objetivos eran
submetas que podan ser expresadas como entidades mensurables.
tyleriana
.)
'l
'l
,'l
')
)
, )
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
\
)
)
'Ft
(
96
(
(
(
(
(
(
(
Evaluacin sistemtica
(
(
(
(
(
(
(
<.
(
(
(
(
(
(
(
,,
(
'l
l
La tradicin
Limitaciones
tyleriana
97
tcnicas
El rendimiento
En su definicin de evaluacin, Tyler puso un nfasis especial en los objetivos relacionados con el rendimiento, e, invariablemente, con el rendimiento
de los estudiantes. Aunque, como hemos afirmado ms arriba, el modelo tyIeriano dio su promesa terica de atender tanto a los procedimientos educativos
como a los estudiantes, los evaluadores se sintieron obligados a evaluarlo
todo atendiendo a los efectos producidos en los estudiantes. Esto ocurra
incluso cuando el objeto real de la evaluacin era un diseo para un nuevo
edificio o un procedimiento administrativo renovador. Todo tenda a ser contemplado desde el punto de vista de los estudiantes y de sus cambios en el
tendimiento (el cual, si era positivo, se llamaba logro). As, tomando el
ejemplo expuesto anteriormente, la cuestin que deba ser respondida era
si la estructura del nuevo edificio, o el procedimiento administrativo, iban
1
1
98
La tradicin tyleriana
I Evaluacin sistemtica
El procedimiento
')
")
")
1.
2.
3.
4.
5.
6.
Metfessel y Michael: una am.pliacin del mtodo tyleriano
METFESSELY MrcHAEL (1967) crean, al igual que Tyler, que la valoracin de los resultados poda hacer ms perfectas las decisiones educativas.
Como apndice a una interesante publicacin (1967), Metfessel y Michael
hicieron una lista de los mltiples criterios de valoracin que podan ser utilizados para la evaluacin de programas. Especificando toda la gama de posibles criterios para la valoracin de los resultados, Metfessel y Michael van
bastante ms all que Tyler. Sin embargo, su paradigma evaluativo es bsicamente similar al mtodo tyleriano.
evaluativo
evaluativos
tivas.
Demasiado a menudo, la eleccin de objetivos queda restringida a los objetivos de rendimiento, que son ms fciles de cuantificar y especificar. Importantes actividades que no se definen operacionalmente, como la apreciacin,
el juicio y la reflexin -ms difciles de cuantificar-,
fueron rara vez incluidas como objetivos especficos de la evaluacin de un currculo. Era difcil
poner a los estudiantes en u'na situacin en la que estas ltimas actividades
pudieran manifestarse de un modo valorable. Con esta dificultad a la hora de
especificar el rendimiento y precisar la cuantificacin, dificultad que incluso
poda ser imposibilidad, con la poca concrecin que poda alcanzarse respecto
a estos elementos del programa, la evaluacin tenda a convertirse en algo
desequilibrado y, por 10 tanto, incompleto.
99
')
7.
I
8.
Implicar a todos los miembros de la comunidad escolar como participantes o ayudantes de la evaluacin.
r::acer una lista coherente de todas las metas y objetivos especficos, claslficados en un orden jerrquico, desde los resultados ms especficamente
deseados hasta los ms generales, a) poniendo primero las metas que
ms a~p~iamente abarcan las intenciones tericas del programa; b) luego
los obJetIVOS especficos en trminos operacionales, para permitir una
valoracin objetiva siempre que sea posible; y e) desarrollando finalmente
criterios de enjuiciamiento que permitan la definicin de los resultados
ms significantes y relevantes, el establecimiento de prioridades realistas
en trminos de necesidad social, de la facilidad del alumno, de la retroalimentacin alumno-maestro y de la disponibilidad de personal y de recursos materiales.
Traducir los objetivos especficos de rendimiento a una forma inteligible
que pueda ponerse en prctica para facilitar el aprendizaje en el ambiente
escolar.
Seleccionar o crear una variedad de instrumentos que suministren valores
de los que se pueda colegir la efectividad de los programas a la hora de
conseguir los objetivos que se haban propuesto.
Llevar a cabo observaciones peridicas, a travs de la utilizacin de instrumentos variados, para calibrar el alcance del cambio en el rendimiento
que resulta vlido respecto a los objetivos seleccionados.
Analizar los datos proporcionados por la valoracin del cambio a travs
de la utilizacin de mtodos estadsticos apropiados.
Interpretar los datos relativos a los objetivos especficos segn ciertas normas ~e enjuiciamiento y ciertos valores que se consideren apropiados para
los n}veles a los que se desee llegar en el trabajo; de esta manera, se
podra llegar a conclusiones que proporcionen informacin acerca de la
direccin de la evolucin, el progreso de los estudiantes y la efectividad
de todo el programa.
H. acer :ecomen daClones
.
que proporcionen una base para futuros perfecclO.na~Il1entos,modificaciones y revisiones de toda la gama de metas y
objetivos especficos con el propsito de mejorar el programa; proporcio-
I
')
')
)
)
')
.)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
r'.
(
,(
100
Evaluacin sistemtica
La tradicin
nar continua informacin, basada en recomendaciones, a todos los individuos implicados en el programa; y prepararse para cuando vuelva a
recomenzar el ciclo del proceso evaluativo, una vez que los resultados
ya hayan sido presentados a las audiencias correspondientes,
(
(
(
El paradigma tambin proporciona detalles acerca de los individuos que
deberan ser los principales responsables de la evaluacin en cada una de las
etapas sucesivas del proceso, Estas responsabilidades, en forma de funciones
de asistente, vienen indicadas con la letra L para el personal no experto.
([ay persormel), la P para el personal profesional (professional stal! personnel) y la $ para los estudiantes (students), Cuando ms de uno de estos
grupos tiene alguna responsabilidad en alguna etapa del proceso evaluativo,
deben designarse los que actuarn como agentes secundarios o indirectos.
Por ejemplo, mientras los tres grupos se reparten la responsabilidad en la
primera etapa, slo los profesionales estn implicados en la sexta y estos mismos profesionales tienen la responsabilidad principal en la octava, donde los
no expertos y los estudiantes desempean papeles secundarios y de asistentes.
Metfessel y Michael tambin insistan en que las decisiones que supusieran algn tipo de enjuiciamiento deban incluirse en todas las fases del proceso evaluativo, puesto que los que participan en cada etapa deben estar
preparados para reajustes en sus actividades segn la cantidad y el carcter
de la informacin que vayan recibiendo.
Adems, Metfessel y Michael afirmaban que los evaluadores deban saber
que las valoraciones podan indicar falsos progresos o falsos retrasos relacionados con 10 siguiente:
(
(
(
(
(
,'(
(
(
(
(
(
(
(
(
1.
(
2.
(
3.
4.
(
(
(
(
~
..
i'
1.
2,
3.
101
4,
criterios
(.
basadas en mltiples
,
crticas representan una excelente contribucin a la creacin de instruclOnes
..
.
dI'
orque incluye una hsta de las dlVersas fuentes y tIpos e va oraClOnes
mentaS, P
1 d 1 d'
l'as para alcanzar una comprensin acabada y comp eta e os 1versos
~M
tos de un programa escolar. Dicho de otra manera, aunque Met f esse1 y
~rce~ael no fueran, en principio, ms all del mtodo tyleriano, ampliaron el
alcance de los juicios s~bre un ?rogra~a..
..
.
El apndice proporclOnaba Clnco d1menslOnes prmc1pales (valoraclOnes. baen
criterios) para la evaluacin de programas escolares. En cada eJemsadas
d'
. d'
aparecan
valoraciones que, si se aplicaban a un programa, po 1an m 1car
1
po,
"d
1
1
h
b'
si un aspecto del programa habla permanec1 o ta cua o a la cam b'lad o,
comparndolo con los objetivos ~specficos pe~sados para el programa. Estos
cinco tipos de indicadores, con ejemplos sufiClentes para comprobar las valoraciones que se aplicaban a cada uno, eran presentados as:
Experiencias dentro y fuera del ambiente escolar que caen fuera de las
intenciones de los objetivos especficos de rendimiento.
Diferencias no identificadas, resultado de los efectos de profesores y dems personal bsico de la escuela (a menudo capaces de motivar por naturaleza).
Incorrecciones en diversos aspectos de la recopilacin de datos y el anlisis.
Errores en la planificacin investigativa y en la metodologa estadstica.
tyleriana
5.
.)
J
102
Evaluaci6n
sistemtica
La tradicl6n
tyleriana
')
103
")
Respuestas incorrectas
")
b)
El apndice sugera que una amplia variedad de no expertos y de profesionales, individualmente o en grupo, poda estar implicada en la evaluacin,
definiendo las valoraciones y las audiencias para el informe final. Metfessel
y Michael subrayaron la necesidad de un modelo coherente que incluyera una
gran gama de metas y objetivos, as como tambin una serie de indicadores
del nivel que se haba alcanzado con xito.
e)
d)
)
)
)
)
\
)
2. Cul de las siguientes afirmaciones describe mejor la posicin de Tyler acerca de los tipos de evidencias admisibles en una evaluacin
educacional?
PREGUNTA
a)
b)
En esta seCClOnse proporcionan preguntas objetivas y sus correspondientes respuestas, correctas e incorrectas. El propsito de la seccin es determinar si ha alcanzado usted un dominio suficiente de los objetivos intelectuales
del mtodo evaluativo tyleriano. El test puede hacerlo todo usted mismo;
rodee con un crculo la letra que usted considere la mejor respuesta. Luego
comprela con las respuestas que vienen a continuacin. Cuando haya terminado todas las preguntas, se le ensear a valorar su trabajo.
a)
b)
c)
d)
1.
El proceso mediante el cual se determina hasta qu punto han sido alcanzadas las metas propuestas.
El proceso mediante el cual se definen, se obtiene y se proporciona informacin til para juzgar decisiones alternativas.
El proceso mediante el cual se describen los antecedentes, se controla el
propio proceso, se valoran los resultados y se interpreta toda la informacin.
La valoracin del mrito.
)
)
PREGUNTA
c)
d)
Slo son admisibles los tests que pretenden ser vlidos y exactos.
Los tests son la evidencia ms til, pero deben ser adecuadamente complementados con entrevistas y datos de observacin.
Cualquier evidencia vlida sobre el comportamiento o el rendimiento
proporciona un mtodo evaluativo apropiado.
Ninguna.
)
)
)
)
)
)
)
)
Respuestas incorrectas
)
)
)
)
,)
3. El mtodo evaluativo tyleriano intenta disponer de ventaJas sobre otros mtodos previos, ya que:
. PREGUNTA
a)
)
)
)
J..
)
.)
,
(
f
(
104
c)
d)
(
(
(
(
(
,{
(
-s
en valoract'
. que proporClOnan los tests.
como las
Permanece libre de normas para la valoracin de los objetivos alcanzad
Tiene en cuenta el conocimiento de las intenciones del programa, toJs,
sus metas y objetivos de comportamiento y los procedimientos que has
que poner en prctica para llevarlo a cabo con xito.
ay
(
(.
(
(
l
(
(
(
l
l
105
b)
el
este mtodo.
.
.. ,
Es incorrecta porque esta afirmacin es contrar1~ a. la 0pWlOn de Tyler
segn la cual esta clarificacin de las metas (u obJeuvos) puede ser resul.
d)
tado de la retroalimentacin.
.
.,
Es incorrecta porque Tyler consideraba que, con la modlficaclOn de los
objetivos, poda producirse la revisin correspondiente de los planes eva.
luativos.
PREGUNTA5.
b)
e)
Aunque en la prctica el mtodo Tyler tiende a centrarse en el estudiante, en teora cualquier aspecto de la educacin puede ser el tema de
estudio.
Incorrecta: vea la respuesta correcta.
Es incorrecta porque la definicin de los objetivos tambin implica cri.
terios para valorar los resultados alcanzados.
a)
b)
e)
d)
(
(
el modelo tyleriano?
a)
(
(
tyleriana
Respuestas incorrectas
Respuestas incorrectas
(
(
La tradicin
Evaluacin sistemtica
(
(
mejor la
e)
Es incorrecta porque Ty ler consideraba que su mtodo era til para que
el personal profesional pudiera evaluar programas federales.
Es incorrecta porque la revisin de metas y objetivos es una utilizacin
posible del mtodo tyleriano.
Es incorrecto porque la gua y el apoyo del aprendizaje escolar era una
de las principales utilizaciones a las que Tyler deseaba aplicar su modelo.
PREGUNTA6. Cul de las siguientes afirmaciones describe mejor la serie de etapas sugeridas por Metfessel y Michael para una buena ejecucin de
un estudio evaluativo?
-').
~
106
a)
b)
e)
d)
~:;;;:y';~,;;~;':~;:~:ni~~:m~~t~:
:~;~o~~ ~:~,u~:d::o~~;::
...~l
I
b) Es incorrecta a causa del nfasis que pone sobre la evaluacin como estra-
d)
tyleriana
Ejercicios prcticos
")
)
"
')
)
)
')
')
a)
1.
2.
f
3.
4.
Debe destacarse el deseo general de perfeccionar el currculo u objeto como resultado de la evaluacin.
En la evaluacin de currculos, el perfeccionamiento del aprendizaje
del estudiante (que incluye el tratamiento de sus puntos ms dbi.
les) es un resultado importante, relacionado con la modificacin de
los objetivos de aprendizaje.
La revisin de las metas y objetivos puede ser resultado de la retroalimentacin; Tyler vea la evaluacin como un proceso recurrente.
El estudio puede proporcionar informacin til para los directivos
de la institucin educacional a la que corresponde el programa o
proyecto.
)
)
)
)
)
.)
)
especificado por Tyler (el nfasis variar segn el rea que se est investigando):
1.
2.
3.
4.
5.
')
107
,}
Respuestas incorrectas
e)
La tradicin
6.
7.
.)
I )
.)
)
)
,)
.)
)
f)
)
)
)
1)
108
,...... ..'..'
;-:~'"
f
'f
8.
~~
'(
e
(
,(
a)
b)
'(
(
c)
1<
d)
:(
(
e)
a)
b)
(
(
,(
(
r-P
Tyler afirmaba que una evaluacin es el proceso mediante el cual se determina hasta qu punto los objetivos educativos han sido realmente alcanzados mediante el programa de currculos y enseanza_ Qu deficiencias
percibe usted en un mtodo como ste? Qu sugiere para perfeccionarlo?
3. El apndice de Metfessel y Michael, resulta vlido como gua para la
valoracin de tcnicas? Discuta los procedimientos que pueden adoptarse
para utilizar ciertas valoraciones crticas en cada una de las cinco categoras, con el fin de servir de ayuda a la evaluacin del logro de los objetivos del programa.
4.
Tests estandarizados de rendimiento y de aptitudes; autoinventarios estandarizados que proporcionen medidas de las actitudes; escalas de valor
estandarizadas para juzgar la calidad de los productos.
Tcnica de las frases incompletas; cuestionarios; valoraciones de la percepcin del autoconcepto (diferencial semntico, por ejemplo); valoraciones autoevaluativas.
d)
Frecuencia de la asistencia a actividades relacionadas con la escuela; entrevistas con el personal de la escuela, requeridas por los padres o por iniciativa del propio personal; frecuencia de la demanda de informacin y de
las respuestas de los padres a las cartas o informes.
2.
Indicadores del comportamiento de la comunidad con relacin a la evaluacin de los programas -escolares.
109
En este apartado se proporcionan cuatro preguntas a las que no se da ninguna respuesta. Las preguntas p~ed~n. ser utilizadas como temas para una
discusin de grupo o para tareas IndIVIduales. Cada pregunta puede ser respondida en dos niveles: primero, respecto al material contenido en es~a unida~,
y segundo, respecto a referencias ms amplias relacionadas con la 11sta de 11bros y artculos que cierra la unidad.
1.
c)
e)
,!
(
(
Referencias bibliogrficas
:(
-------.
:'l"'/
................
I Evaluacin sistemtica
Tyler propona que cada profesor utilizara su propio mtodo para la evaluacin de currculos. Piensa usted tambin as? (En su respuesta, puede
usted citar puntos en los que el profesor puede necesitar Ia ayuda de
otros.)
Referencias bibliogrficas
D. R. 1965. Stating objectives appropriately for program, for curriculum, and for instructional materials development, Journal o/ Teacher Education, 12, pgs. 83-92.
KRATHWOHL,
N. S. y MrcHAEL,
W. B. 1967. A paradigm involving multiple criterion measures for the evaluation of the effectiveness of school programs, Educational and Psychological Measurement, 27, pgs. 931-943.
MICHAEL,
W. B. y METFESSEL, N. S. 1967. A paradigm for developing valid measurable objectives in the evaluarion of educational programs in colleges and
universities, Educational and Psychological Measurement, 27, pgs. 373-383.
METFESSEL,
I
I
~L
'--,~
1')
110
Evaluacin sistemtica
'.)
SMITH, E. R. Y TYLER, R. W. 1942. Appraising and recording student progress,
Nueva York, Harper & Row.
STUFFLEBEAM,D. L.; FOLEY, W. J.; GEPHART, W. J.; GUBA, E. G.; HAMMoND,
R. L.; MERRIMAN, H. O. y PROVUS, M. M. 1971. Educational evaluation and
decision making in education, Itasca, IlI., Peacock.
TYLER, 1. 1. Y KLEIN, M. F. 1967. Recommendatons
for currculum and instruetional materials, Los Angeles, Universidad de California, Los Angeles (ciclostilado).
.
TYLER, R. W. 942. General statement on evaluation, Joumal o/ Educational Research, 35, pgs. 492-501.
-. 1950. Basic principles o/ curriculum and instruction, Chicago, University of
Chicago Press.
-. 1953. Sorne persistent questions on the defining of objectives. En C. M. LINDVALL (comp.), De/ining educational objectives, Pittsburgh, University of Pittsburgh Press.
-.1956.
The objeetives and plans for a national assessment of educational progress, ]oumal o/ Educational Measurement, 3, pgs. 1-10.
TYLER, R.; GAGNE, R; y SCRIVEN, M. 1967. Perspectives of curriculum evalua. tion, Chieago, 'Rand MeNally.
WORTHEN, B.R. y SANDERS,]. R. 1973. Educational evaluation: Theory and practice, Worthington; Ohio, Charles A. Jones.
.")
')
,<)
..
')
,)
')
')
,)
',,")
:)
J
Edward Such111-an,cientfico investigador que, crea firmemente en la necesidad de basar principalmente las conclusiones en evidencias cientficas, consideraba que la evaluacin deba disponer de la lgica del mtodo cientfico.
Su trabajo y sus obras) que se deSarrollaron en la dcada de los sesenta, insistan, de cualquier forma, en la necesidad de mejorar los programas con relacin
a su prctica. Por esta razn) sugera criterios especficos para perfeccionar el
xito de los programas. Sus estudios en el campo de las ciencias sociales, particularmente los referidos a la salud pblica) le hicieron reconocer que la evaluacin cientfica tiene algunas limitaciones prcticas. Adems) afirmaba que
los investigadores evluativos) al exponer las consecuencias cleseadas y las no
deseadas) deban tener en cuenta algunos v~lores rlevantes) espe~ialmenle los
que estaban en. conflicto.
.
La contribucin de Suchman a la especialidad, Evaluative Research: PrincipIes and Practice in Public Service and Social Action Programs (1967), dejaba claro que l consideraba que un evaluador debe utilizar todo tipo de tcnicas investigativas que sean tiles y apropiadas a las circunstancias y necesidades de un estudio evaluativo determinado.
Aunque Suchman crea que el estudio ideal deba coincidir con el modelo
experimental clsico) tambin afirmaba que) en realidad, los p'1'Oyectosin vestigativos de evaluacin utilizan comnmente alguna variacin o adaptacin
de este modelo. En un sentido amplio, la formulacin de los objetivos y la
planificacin de un estudio investigativo de evaluacin depender de quin
dirija el estudio y de la utilizacin anticipada que se haga de los resultados de)
los mismos.
Edward SUCHMAN <:rea que la evaluacin, como todas
deba basarse en la lgica del mtodo cientfico. Pensaba
las investigaciones,
que un evaluador
~)
.)
t)
/J
)
,)
l)
,)
.)
f)
(J
)
,)
)
cJ
()
C)
()
r-J
(:J
,
(
112
I Evaluacin sistemtica
Suchman
f
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
Como ya se ha afirmado, Suchman considera que la evaluacin es un proceso cientfico. De acuerdo con esta postura, no crea que la especialidad
evaluativa tuviera una metodologa distinta de la del mtodo cientfico. Por
lo tanto, conceptualiz la investigacin evaluativa como la primera y prin. Gipal investigacin, que debe acercarse cuanto le sea posible a las normas comnmente aceptadas de la metodologa investigativa. Los mismos procedimientos que se utilizaban para descubrir el conocimiento podan ser utilizados
para evaluar el nivel de xito obtenido en la aplicacin de este conocimiento.
Suchman defenda firmemente la concepcin de que, adoptando el mtodo
cientfico, un evaluador conseguir resultados ms objetivos y de una exactitud
y validez fcilmente discernibles.
Suchman afirmaba que la investigacin bsica tena un propsito diferente
al de la investigacin evaluativa. La investigacin bsica es el descubrimiento
del conocimiento; la accin administrativa no es una consecuencia necesaria.
En cambio, la investigacin evaluativa es investigacin aplicada, y su propsito es determinar hasta qu punto un programa especfico ha conseguido el
resultado deseado. Los resultados siempre sern utilizados por el administrador para tomar decisiones acerca del futuro del programa. Conservando en la
mente el papel dominante del criterio administrativo a la hora de determinar
la validez del estudio llevado a cabo, el evaluador necesita estar continuamente al tanto de la potencial utilidad de los resultados.
Este nfasis en la necesidad de la utilidad de los resultados puede convertirse, en opinin de Suchman, en un problema acucian te para el evaluador.
A causa de la fuerza de los intereses creados, el administrador del programa
intentar controlar la evaluacin, por 10 menos hasta el punto de definir los
objetivos del programa que va a ser evaluado. An mucho ms que el investigador bsico, el evaluador puede perder el control de la situacin investigativa: As, no son los conceptos investigativos, por s mismos, los que dificultan
Objetivos
Los objetivos de esta unidad son caracterizar los que Suchman consideraba
los tres aspectos principales de la evaluacin:
1.
Aspectos conceptuales, que incluyen los propsitos y princir 'os de la evaluacin, los valores y el proceso evaluativo, las suposiciones de cara a los
estudios evaluativos, los tipos de evaluacin y las categoras de la evaluacin.
2.
El aspecto metodolgico, que incluye un enfrentamiento entre la investigacin evaluativa y la no evaluativa, aproximaciones metodolgicas a la
evaluacin, variaciones en la planificacin investigativa de la evaluacin,
principios de la planificacin investigativa de la evaluacin y valoracin
de los efectos (subrayando la exactitud y la validez).
El aspecto administrativo, que incluye la ciencia evaluativa y administrativa, la administracin de los estudios evaluativos (algunas reas pro-
(
(
(
(
(
(
3.
(
(
,
(
*ES
113
(
(
')
!""""'""'".
)
114
Evaluacin
Suchman
sistemtica
y principios
de la evaluacin
,.
I
lb
y el mtodo
cientfico
de evaluacin
115
)
')
')
.,
')
I
I
')
')
)
')
)
)
)
Una precondicin de cualquier estudio evaluativo, segn Suchman, es la
presencia de alguna actividad cuyos objetivos tengan algn tipo de valor. Define el valor como cualquier aspecto de una situacin, actividad u objeto que
tenga un inters particular, como ser bueno, malo, deseable, indeseable o cosas
por el estilo. Los valores, por lo tanto, pueden estar construidos como modos
de organizar la actividad humana basados en principios que determinan tanto
las metas como el perfeccionamiento de los programas, as como el medio de
alcanzar esas metas.
Suchman consideraba que el proceso evaluativo parte de, y regresa a, la
formacin de los valores, tal como muestra la figura 4-1.
~
Valorar el efecto
-------',Eleccin
de esta operacin
)
)
)
,)
)
)
(
)
)
de la meta (objetivos)
/valoracin
I
. .
de a meta (cntenos)
,)
Identificacin de las actividades
que conduzcan a la meta
(planificacindel programa)
()
I )
FIGURA4-1.
El proceso evaluativo
)
)
)
'"\(
,..-
..
i
116
~
~
I
"
.(
.~
(
(
\,
"
"
~ )~.;
(,
(
(
{
a
~
t
(
~
~
~
~
(
.~
.~
~
~
I~
.~
.,
Evaluacin sistemtica
Las presuposiciones
117
.,
el cambio en reconocible? Antes de responder a estas pre.
convertltan
1
.
. d
al dor debe ser capaz de diagnosticar a presenCla o ausenCIa e
al
guntas, el ev ua
ocial y su correspondiente sistema de vares,
y d e d efini r 1as
toblema s
.
d
di .,
un P . dicativas del progreso en la mejora e esa con ClOno
lIletas 10
pone seis preguntas que deben ser respondidas cuando se forSuchman pro
, .
l'
1
'
.
b' tivos de un programa con proposItos eva uatlvos y, c aro esta,
lIlulen los o Je
.
di
la planificacin del propIO estu o:
sigt1S
6.
trados o dispersos)?
.,
,
'Cmo
es el objetivo que debe ser alcanzado (por ejemplo, cooperaClOn
<:
voluntaria o sanciones obligatorias)?
--
J
,
118
Evaluacin sistemtica
"
Tipos de evaluacin
"
2.
;.
\)
119
~
I
')
~
~
~
I
)
')
")
')
)
)
)
)
)
)
)
)
no evaluativa
?)
)
)
)
)
)
)
)
,
)
)
mui:
~"",
....
-" .,' ..
f ."".,~.~"'"
~'
~;':'''''-
.':.."-'C'"
~
(
(
120
I Evaluacin sistemtica
121
(
(
(
(
(
(
(
(.
(
1"
(
(
(
(
(
(
(
l
(
(
Aproximaciones
metodolgicas
a la evaluacin
Las diferencias existentes entre los estudios evaluativos y los no evaluativos, segn Suchman, se reflejan en la forma que toma la exposicin del problema. Mientras la investigacin pura (investigacin no evaluativa) pregunta
si A est relacionado con B y comprueba esta relacin experimentalmente (bajo
condiciones controladas), la investigacin aplicada (investigacin evaluativa)
pregunta si A intenta efectivamente cambiar B y procura responder a esta
pregunta empricamente, manipulando A y valorando su efecto sobre B. En
la investigacin no evaluativa, es muy importante el anlisis del proceso
mediante el cual A se relaciona con B, pero en la investigacin evaluativa
tiene relativamente poca importancia el hecho de comprender por qu A
produce B. Los lectores deben advertir que, al hacer esta afirmacin, Suchman se opone a un punto de vista que expondremos dentro de poco: el que
afirma que la evaluacin debe poner el nfasis en el proceso que se desarrolla
entre el inicio del programa y sus conclusiones.
Las diferencias, adems, entre la investigacin evaluativa y la no evaluati.
va no son absolutas, pero puede decirse que existen siempre. Suchman pensaba que un evaluador debe, por lo tanto, atender tanto como le sea posible en
la prctica a las reglas de la investigacin cientfica, pero el evaluador debe
exponer y justificar dnde y cundo estas reglas deben adaptarse a la realidad.
De cualquier forma, puede argirse que, si A es falsamente interpretado
como causa de B, puede desarrollarse un costoso programa basado en A, slo
para descubrir que no se produce el efecto deseado debido a un cambio en
la verdadera causa, que puede estar mnimamente relacionada con A. Such.
r
roan
11
l'"
dI
debe incluir un anlisis del proceso que s.e desarro a en:re e .1ll1C~~e proconclusiones Este mtodo eXIge un plan de lllvestIgaclOn evaluagrama y sus
'.
.
el'd
. que se convierta en <<unaparte mtegrante del propIO programa enten 1 o
tlva
.,
d
1
servicio. Una evaluacin continua es un reconOC1m1ento e que a opecomo
h
..d' .
b' t
. , de un programa est dominada por muc as con 1C10nescam 1an es,
raClOn
1
d 1 d ..
d
d 1
. 1 endo fuerzas que estn ms all del contro
e a m1mstra or e pro~~
.
d
ero tambin la informacin que va llegando contllluamente, que pue e
grama, P
bIT
.
. fl' tanto sobre los ob]'etivos del programa como so re e proceso. emenmU1r
1
..
dI
do esto presente, un evaluador debe ser indulgente. co~, as contmgenc~a: e
desarrollo 'y pensar, al disear el plan, en la recopdaclOn de datos adiclOnales, si de verdad son necesarios.
evaluativa
Suchman afirmaba que la investigacin evaluativa no tena un~ ~e~odolo, propia' al tratarse de una investigacin, se atiene a los prtnC1p10S del
gla
,
bl P 1
ili'
.ed d de
mtodo cientfico tanto como le es posi e. or o tant?, ut z~ u~a var.I ~
nocidos
planes
de
investigacin
y
las
correspond1entes
tecmcas
CIentficas
recO
, .
para la recopilacin y el anlisis de datos. La pregu~ta ~as l~p~r:ante que
debe responderse (como ya previ Suchman) no es Sl la lllves~lgaclOn evaluativa es cientfica sino hasta qu punto la investigacin evaluatIva puede hacer
el mejor uso po~ible de los planes y tcnicas de investigacin disponibles.
Dando mucha importancia a la relacin entre las causas y efectos de un
programa, por una parte, y la plani~cacin por otra, Suchman propuso un
modelo que demuestra que la secuenCIa de causas ~r,opuesta. p.ara una evaluacin se convierte en uno ms de los campos de aCClOny actIVIdades que con.
ducen a las conclusiones. El diagrama de la figura 4-2 muestra ese mod:lo:
un sistema abierto, un modelo naturalista y multicausal, que se opone al Slstema cerrado de la investigacin no evaluativa.
:'~
~::::::
Acontecimientos
que influyen
Variable
independiente
Precondiciones
~::~
I-p-ro-g-ram-a-A-]
~
,
./
~b
FIGURA
4.2.
b, ::/
"
Variable
dependiente
Consecuencias
::
I--E-fec-t-o-B-I---..
~c"
c,
122
Evaluacin sistemtica
Principios
de planificacin
de la investigacin
evaluativa
Suchman hizo una lista de principios que deben ser observados al trazar
el plan de un estudio evaluativo. Los principales son stos:
'!
La valoracin
de los efectos
. De acuerdo con .Suchman, la. valoracin de los efectos de un programa re- ;'
qUIere que se especIfiquen las cuatro principales categoras de variables:
123
)
i
)
)
)
~
..)
I
1
i
J)
-_._-----..._-~'"~..
~:
fe
124
(,
,
~-
t
y
2.
3.
4.
5.
(
f.
6.
7.
Evaluacin sistemtica
"f~
("
(
(
~
~
~
(
)
,
~
t'
l.'
~
.
125
126
Evaluacin
sistemtica
de l (<<submarino). Dado
petuarse a s mismas, debe
una evaluacin podran ser
de debilitar el poder de la
sente problema tuviera una
Suchman
"
evaluativos:
Una evaluacin es una forma de actividad social que abarca varias rela .
ciones interpersonales altamente significativas, que se dan entre los investiga.
dores, el personal del programa y los sujetos. El evaluador no puede eludir
estas interrelaciones. Adems de los aspectos normativos de la investigacin,
un evaluador trata con problemas muy relacionados con los intereses creados.
Por lo tanto, atendiendo ms al xito o al fracaso que al objetivo escolar, las
recomendaciones del evaluador pueden determinar la continuacin o el cambio
de un programa. La precisin del juicio del evaluador puede muy bien depen.
der de la calidad de las actividades complementarias del evaluador y el personal
ms importante del estudio.
Si las relaciones entre los papeles del evaluador y del administrador se
deterioran, pueden abordarse varias estrategias para mejorarlas. Suchman proporciona algunas sugerencias:
1.
2.
3.
y el mtodo
cientfico
de evaluacin
127
1)
)
)
)
i
1)
I
i)
,)
,
)
)
f '
L
f
,
(
128
Evaluacin sistemtica
,
(
(n
:,t
{
,,
Test de conocimientos
sobre la unidad 4
Este test de conocimientos contiene dos partes. Las preguntas que se responden con un verdadero o un falso valoran si ha comprendido usted
bien la premisa bsica del mtodo evaluativo de Suchman. Cuando haya decidido si una afirmacin es verdadera o falsa, deber usted responder otra pregunta
basada en su respuesta. Compare su contestacin con la respuesta correcta.
La segunda parte de este test de conocimientos consiste en dos preguntas
con mltiples respuestas posibles. Una vez ms, cada pregunta va seguida de
la respuesta correcta y de las razones que la apoyan.
Cuando haya respondido a todas las preguntas de ambas partes, le sugerimos que repase y perfeccione su trabajo, utilizando las indicaciones que
aparecen despus de las preguntas.
129
Falso
I,
PREGUNTA1. El principal objetivo de Suchman era hacer obvia la necesidad de una re evaluacin crtica del papel y la metodologa de la investigacin
evaluativa en las reas del servicio pblico y la accin social.
Verdadero
Falso
PREGUNTA3. Suchman consideraba que debe existir una relacin muy estrecha entre la evaluacin y la planificacin y el desarrollo de un programa.
La investigacin pura conduce hacia un mayor conocimiento de los procesos
bsicos, mientras que la investigacin evaluativa conduce a un mayor conocimiento de los procesos aplicados y las estrategias permitiendo as la realizacin
de cambios racionales.
Si es verdad, qu tienen que ver las conclusiones de Suchman con la relacin entre la investigacin evaluativa y los principios bsicos de la metodologa investigativa? Si es falso, cul es el principal objetivo de Suchman al
escribir acerca de la investigacin evaluativa?
"
li:'
1
~
ti~.
,~
Respuesta correcta. La afirmacin es verdadera. Suchman insista constantemente en que la investigacin evaluativa debe asumir los principios de la
metodologa investigativa. La investigacin evaluativa debe, por lo tanto, ser
un proceso cientfico en el que cada esfuerzo debe estar destinado a controlar tanto la subjetividad del evaluador y de los participantes como la influencia de variables externas. Finalmente, el significado de los resultados evaluativos estar determinado por las mismas normas cientficas utilizadas para
juzgar la investigacin no evaluativa.
Verdadero
Falso
Si es verdad, diga cules son los requisitos bsicos necesarios (en opinin
de Suchman) para llevar a cabo una investigacin evaluativa que pueda sugerir
propuestas precisas para el desarrollo de un programa. Si es falso, diga si
Suchman vea algn tipo de relacin entre la evaluacin y el desarrollo y/o
perfeccionamiento de un programa.
Respuesta correcta. La afirmacin es verdadera. Suchman conceba la investigacin evaluativa como algo que proporcionaba la informacin bsica necesaria para planificar y replanificar los programas de accin. De ah que la
evaluacin, en algn sentido, deba hacer algo ms que juzgar el xito o el fracaso de un programa; debe tambin incluir el entendimiento y la redefinicin.
Para conseguir estos fines, Suchman afirmaba que la' investigacin evaluativa
deba ser cada vez ms cientfica, que tanto los objetivos del programa como
sus presuposiciones deban ser totalmente comprendidos antes de empezar el
---------- ....
')
,
"
130
Evaluacin sistemtica
Suchman y el mtodo cientffico de evaluacin
Falso
Falso
: ..,
I
131
1
~
\)
Si es verdad, cul es el significado, en opinin de Suchman, de los valores con respecto a los estudios evaluativos? Si es falso, cul es la definicin
de valor de Suchman, y qu importancia tiene la comprensin del trmino
en la realizacin de una evaluacin?
Verdadero
)
PREGUNTA6. Dado que la investigacin evall}ativa es particularmente concreta en comparacin con la investigacin bsica, que es ms abstracta, pueden
formularse preguntas significativas acerca del significado de la recopilacin de
datos en cada tipo de estudio. La investigacin evaluativa subraya el concepto
subyacente corno la principal variable de inters; los datos del estudio deben
ser 'capaces de representar este concepto de una manera exacta y vlida. La
investigacin bsica, por su parte, subraya que las indicaciones que pueden
observarse y valorarse son los fenmenos de inters.
Verdadero
Falso
Falso
)
'. )
'.
)
,
)
)
)
)
)
------~_
132
Evaluacin sistemtica
Suchman y el mtodo cientfico de evaluacin
Si es verdad, diga cules son los procedimientos bsico.s qu: deben seguir~e
para aplicar el modelo experimental clsico. Si ~s falso, ~lga Sl Suchman crela
que eran factibles adaptaciones del plan expenmental ldeal.
Respuesta correcta. La anrmacin es ~alsa. ~uc~:na~ consideraba que. el .
modelo experimental clsico es un tipo de mveStlgaclOn ldeal cuyas adap:aclOnes deben derivarse de las circunstancias particulares de cada caso. AS1, no
slo hay uno sino muchos modelos experiment~les, porque ~o hay un modo
mejor que otro de planincar los estudios evaluatlVos. Co~o eJempl~s de adaptaciones del modelo experimental clsico, Suchman menClona los metodos cuasiexperimentales de Campbell.
Falso
).
..
l,-.:
Falso
133
PREGUNTA10. Suchman opinaba que, a menudo, las decisiones del programa deban tomarse bajo presiones administrativas. Como consecuencia, si
un evaluador desea dirigir un estudio que ponga las bases para una toma de
decisiones, no puede ignorar que debe tener en cuenta la poltica y las presiones administrativas. Todo ello debe formar parte del plan de investigacin.
Verdadero
Falso
--~
1i
')
134
Evaluacin sistemtica
b)
c)
d)
Respuestas incorrectas
a)
b)
c)
a)
b)
e)
Suchman afirmaba que si los resultados de la evaluacin tienden a disminuir el poder de la organizacin, el estudio debe ser considerado beneficioso porque los cambios que se produzcan reforzarn esa debilidad.
El evaluador es un juez del xito o el fracaso y determina la continuacin
o cambio de un programa.
La investigacin est sujeta a las limitaciones sociales que impone la organizacin en la que trabaja el evaluador.
~
I
")
~
~
Respuestas incorrectas
a)
b)
d)
:1
I~
a)
[135
Es recomendable que
relea aquellas preguntas que le hayan resultado difciles o confusas, y las utilice
como base para repasar las correspondientes secciones de la unidad.
INTERPRETACIN
DE SU COMPRENSIN DE LA UNIDAD,
')
')
1)
,)
)
)
)
)
)
)
,~
1.
')
)
)
)
i
')
,
Ji
J
\)
)
)
f.
f.
136
Referencias bibliogrficas
Evaluacin sistemtica
t
f
t
I
f(".
'"
f
f
.
t
"
",
f.
tI
lr
,,
l
138
Objetivos
Los objetivos de este captulo son los siguientes:
2.
3.
4.
,"}
")
Evaluacin sistemtica
1.
, I
-------_ ...
Facilitar el conocimiento de algunos de los problemas generales concernientes a la planificacin de evaluaciones, teniendo en cuenta una planificacin previsora y flexible, la utilidad de la evaluacin, los mtodos alternativos de evaluacin, el acuerdo en la planificacin de los elementos y
el equilibrio en la investigacin evaluativa (resumen).
Presentar el concepto que tiene Cronbach acerca de los elementos de una
investigacin evaluativa; en particular, las unidades, los tratamientos y
las operaciones de observacin; UTOS: el campo de la investigacin; definicin de los elementos de uto y UTO; y *UTOS: el campo de la aplicacin.
El conocimiento de varios modos de identificar las cuestiones evaluativas
teniendo en cuenta la fase divergente y la fase convergente.
Destacar la importancia de la comunicacin respecto a la utilidad de los
resultados, la comunicacin directa y la extrapolacin de los resultados.
5.
139
"}
Investigar el concepto de Cronbach acerca de las perspectivas de la evaluacin, que incluye la flexibilidad de la planificacin, la relacin entre
evaluacin y poltica (limitaciones) y otras consideraciones.
~
~
~
~
Una planificacin
previsora
y flexible
')
()
)
)
)
)
)
)
.~
'.
)
i
)
,
J
I
'1
1
...)
I
.{
)
140
I Evaluacin sistemtica
_ e/ara, porque debe ser comprendida por todos aquellos que la utilicen;
_
_
_
La evaluacin til
Las planificaciones se realizan basndose en ciertas concepciones acerca
de lo que una buena evaluacin es o hace. La mejor planificacin es aquella
que promete aumentar el beneficio social de la evaluacin; la eleccin entre
las planificaciones alternativas se realiza atendiendo a cmo pueden influ!
las evaluaciones en los asuntos sociales. Las instituciones sociales aprenden
de la experiencia, as como de los clientes y de los distritos electorales. La
evaluacin, en palabras de Cronbach, est concebida para acelerar el proceso
de aprendizaje, mediante la comunicacin de lo que, de otra forma, no se
comprendera o se entendera equivocadamente.
Para ser til, una evaluacin debe tener como ncleo las actividades
cientficas, puesto que si las observaciones presentadas no son realistas o la
interpretacin no se basa en un buen razonamiento, la evaluacin no tendr
mucho valor. Por otra parte, un estudio tcnicamente admirable puede quedarse corto si el evaluador no atiende a lo que piensan los individuos polticac
mente ms relevantes de la comunidad, como los clientes, el personal del programa, los burcratas y los ciudadanos interesados.
Como resultado del mtodo cientfico, el trabajo de los evaluadores puede
provocar intuiciones en otros; as, los evaluadores son educadores cuyo nivel:
de xito debe ser juzgado, por lo menos en parte, segn el xito que alcancen:"
en el terreno de la comunicacin. Cronbach cree que este aprendizaje empieza"
cuando el evaluador se rene con miembros polticamente formados de la cO:,
munidad para resolver sus dudas. Contina con cada contacto que el evalua-"
dar mantiene con los que participan en el programa o con otros individuos.
relevantes. El informe final es slo uno de los medios de instruccin de que
dispone el evaluador: el trabajo didctico reside tanto en el planteamiento de.;
los problemas como en la formulacin de sus soluciones. Especialmente en 10"
que se refiere a los problemas relativos al valor, la responsabilidad del evalua-'i;
dar (como educador) es ayudar a los dems a saber solucionar los problemas"
y determinar las acciones ms apropiadas para la consecucin de los objetivos.";,
_ exacta, porque los diversos observadores que utilicen el mismo procedimiento deben contemplarlo de la misma manera;
vlida, porque debe incluir los conceptos y las valoraciones estrechamente
relacionados con la realidad;
amplia, porque debe proponer las principales alternativas polticas que tienen ms probabilidades de alcanzar las metas de la organizacin o proponer nuevas metas.
Si 10 que se comunica acerca de una evaluacin es su resultado mas lIDportante, las siguientes preguntas deben ser planteadas cuando la evaluacin
haya terminado:
142
--------_~I~
~
Evaluacin sistemtica
i
I
Enfoques evaluativos
enfrentados
I
.'
143
~
~
de la planificacin
~
~
~
~
~
1
')
')
)
)
)
)
)
)
)
)
i
,)
)
)
)
I
.)
'~
.)
)
)
i
~)
.,
"
:f
(~
.~
ff
!.
~.
,
4.
4
(
,(
I(
1.
i
'.l~-
El equilibrio
en la planificacin
evaluativa:
resumen
145
Lo dicho en la seccin anterior indica que algunos evaluadores, en la planificacin y la prctica de su estudio, pueden llegar a utilizar tanto el mtodo
cientfico como el humanstico. Por otra parte, otros insisten en que slo hay
que aplicar un estilo en cada estudio.
Aquellos que estn a favor de los tests sumativos formales tambin son
partidarios de la objetividad en la observacin y el anlisis. Por el contrario,
los que prefieren el estudio de casos concretos son tambin partidarios de la
interpretacin impresionista. El primer grupo insiste en el carcter fijo de la hiptesis que est siendo examinada, mientras que los segundos destacan la creciente calidad de las cuestiones investigativas. Cuando el investigador no puede
especificar adecuadamente en la planificacin las variables ms significativas, el
estudio se desarrolla en un contexto de descubrimientos. El descubrimiento
proviene de los datos recopilados, que se interpretan a la luz de la experiencia
previa del investigador (directa o procedente de otros). Las planificaciones
ms frreas, por otra parte, son convenientes si las variables pueden ser claramente definidas y las hiptesis claramente formuladas. La principal misin de
una planificacin frrea, en la ciencia bsica, es proporcionar una base objetiva,
reproducible e incuestionable para la prediccin de una teora.
Cronbach afirma que no se plantea necesariamente conflicto entre el control experimental y la utilizacin de informacin cualitativa o interpretacin
subjetiva, o la exploracin libre de prejuicios y la produccin de evidencias
objetivas. Esto quiere decir que incluso un experimento formal puede incorporar entrevistas de los operadores del programa y los clientes de una manera
indefinida y, por ltimo, apUcar codificaciones ciegas para obtener datos mecanizados compatibles. Por otra parte, los datos cuantitativos y muy estructurados pueden ser utilizados para la construccin de hiptesis en estudios de
casos concretos. Algunos autores, adems, dejan claro que ellos pueden como
binar una planificacin frrea con una interpretacin subjetiva. Scriven, en
concreto, propone que los evaluadores informen si el tratamiento es bueno
.0 malo, para que as incluyan sus propios valores en el juego. Por su parte,
los observadores naturalistas pueden inyectar objetividad en su est1,ldio documentndolo con ancdotas y tambin utilizando observadores adicionales que
se centren en aspectos concretos del programa que se est evaluando.
Al disear y llevar a cabo una evaluacin, el evaluador avezado debe
decir cules son sus preferencias en cuanto a la metodologa que se debe emplear para facilitar la resolucin de un problema poltico concreto en un momento determinado, y debe fortalecer su estudio en algunos aspectos y mano
tenerlo flexible en otros. Segn parece, incluso el ms firme partidario de alguno de los estilos de investigacin evaluativa est preparado para abordar el
estilo opuesto para seguirlo en ciertas tareas.
Unidades, tratamientos
y operaciones
de observacin
Cronbach presenta una teora en la que puede basarse cualquier recomendacin referente a la planificacin. El concepto abstracto caracteriza la muestra, el dominio estricto en que esa muestra resulta significativa, el dominio
afectado por las decisiones tomadas por la comunidad y las relaciones entre
estos tres aspectos. Los tres conceptos abstractos son unidades, tratamientos
y operaciones de observacin. As, un evaluador debe atender a 10 siguiente:
1.
2.
3.
------_
146
Evaluacin sistemtica
a la clase para que recoja algn tipo de impresiones. Estas son las operaciones de observacin.
')
...,
147
quier escuela que se esfuerce por ofrecer a los estudiantes una metodologa de
aprendizaje individualizada; otro estudio puede definir un tipo especial de
metodologa de aprendizaje individualizada y centrar su atencin slo en los
ejemplos de un modelo de actividad. Es importante destacar que cuando cambia
la definicin, tambin cambia la cuestin que est siendo investigada directamente.
Cronbach insiste en que la planificacin ideal define un UTa, y luego los
planes para seleccionar un uto que lo represente. Si la planificacin es lgica
y se lleva a cabo estrictamente, pueden legtimamente inferirse de los resultados de uto los probables resultados de UTO.
Los elementos u, t y o son casuales. El evaluador piensa en u como en la
muestra de una poblacin y controla el muestreo hasta donde le resulta posible. El evaluador define la recopilacin de unidades de inters -la
poblacin, U- y disea cuidadosamente una muestra representativa. El informe
acerca de las observaciones de un caso concreto, o, se toma como representacin de todos los dems casos; idealmente (si no lo impiden los costos) deberan disponerse de datos de cada o en O. Un punto de vista similar se aplica
a t y T, puesto que el tratamiento designado define un tipo de realizaciones
que interesan al investigador, y las realizaciones son una muestra de todo el
dominio. Lo cierto es que, por lo general, U, T y O, en una evaluacin,
dependen del muestreo y de los peligros que ste esconde. Un evaluador, al
planificar un estudio, debe tener siempre presente que el carcter y las variaciones de las respuestas pueden contribuir a la formacin de generalizaciones
inexactas resultantes de los datos recopilados, quiz cuidadosamente, durante
el proceso de muestreo.
__",
No es inusual el concepto de una poblacin U no homognea de la que se
extraen los datos. En UTOS, Cronbach ampla este concepto. Afirma que
en la investigacin ms social, t y o se conciben como fijos, mientras que no
ocurre lo mismo en la evaluacin de un programa. El intrprete de los datos
generaliza, quizs inconscientemente, sobre la realizacin de los tratamientos
i~ual que sobre las escuelas o los estudiantes. De un modo similar, el procedImiento de observacin que se emplea es uno ms entre las muchas realizaciones posibles de un plan. La S de UTOS representa un marco de accin
(setting: S) que debe ser considerado fijo. Segn esta convencin, cada estudio tiene slo un marco de accin (aunque las unidades estn relacionadas con
sectores distintos de este marco).
J
')
')
')
')
')
')
')
)
)
)
)
)
)
)
)
)
)
,
I )
)
)
)
)
I
Definiciones
de los elementos
de
uta y UTa
')
i
)
. La unidad es la entidad independiente ms pequea sobre la que la influenCIa del tratamiento es totalmente operativa. La unidad puede ser concebida
como un sistema. Es lo suficientemente completa y autnoma como para
J
,)
----------
..
148
;EW~ii..;.
Evaluacin sistemtica
Planificacin evaluativa segn Cronbach
149
dio del diseo de una evaluacioo el ideal es designar procedimientos tan claros
que otro investigador sea capaz de recopilar datos comparables. Lamentablemente, sta no es la prctica normal.
En las ciencias naturales, Cronbach afirma que los procedimientos suelen
ser tan regularizados que la distincin entre la clase O y el ejemplo o tiene
muv poca importancia. Por el contrario, las valoraciones del comportamiento
no pueden ser demasiado regularizadas. El nfasis puesto comnmente en la
definicin operacional consiste en designar una clase ms homognea de
procedimientos. De esto se sigue que la o designada para formar parte de esa
clase debe concordar con ella. Aquellos que utilizan el informe evaluativo, de
cualquier forma, estn a menudo ms interesados en una estructura ms ampliamente definida. Ms que escoger un solo procedimiento para aplicar a todos
los sujetos, el evaluador debe representar los intereses del cliente definiendo
un dominio de las diversas actividades asociadas con el concepto que se est
investigando. Por ejemplo, ms que afirmar que debe valorarse la comprensin de la lectura, puede ser preferible designar unas cuantas formas distintas
de comprender la lectura; todos estas tareas acaban siendo elementos de O.
Cronbach subraya que la clase ti debe ser designada con mucho ms cuidado que U y T, puesto que una definicin vaga de las variables que deben
ser valoradas es insuficiente y posiblemente conduzca a errores.
se re-
:r
--==)
o
")
. ,...,.<-,:'. '
-\
.1
150
Evaluacin sistemtica
fiere a la designacin de una U". Cronbach afirma que una diferencia de r~sultados producto de una operacin de laboratorio puede no darse en las SItuaciones cotidianas de una escuela, o que una diferencia producto de una muestra
nacional representativa puede no coincidir con los dis~ritos escolares ~s pudientes o ms aislados. La cuestin es que U y U" difieren y que la Importancia de sus diferencias ser ms acusada cuando se tomen acciones que
afecten a U".
Si la O original es limitada, las audiencias pueden interesarse en ~* y
recibir una satisfaccin mayor con la definicin ms concreta que proporcIOna.
Por ejemplo, un curso de matemticas puede apare~tar tener xito cuan~~ O
se limita slo a las lecciones explicadas. De cualquIer forma, algunos cntlcos
pueden argir muy bien que los que han aprobado ese curso. no se defienden
bien en la resolucin de problemas. Entonces puede muy bIen ser adoptada
una determinada valoracin de O" que solucione las cuestiones adicionales
del curso.
Como ya se ha mencionado al principio, la audiencia de la evaluac~n e.st~
muy interesada en si debe o no adoptarse el experimental T del estudIO onglnal. A medida que el estudio avanza, las discusiones acerca de l sugieren
variaciones para mejorar el plan original. Cada una de estas variaciones se convierte en un T*. Cronbach facilita un interesante ejemplo de este fenmeno:
Cuando se volvi por primera vez a la educacin compensatoria, algunos
centraron su atencin en que UTO deba utilizarse para recopilar los datos.
Unos propusieron un cambio del tratamiento: Est muy bien informar negativamente sobre el "Head Start" (T); pero acaso ello no demuestra que
el tratamiento compensatorio necesita prolongarse ms (Ji')? En consecuencia el "Follow Through" fue preparado como un T* (y evaluado ms tarde
directamente)*
Es interesante advertir que el dominio del tratamiento puede cambiar
cuando las consideraciones se desplazan de UTaS a UTOS* -incluso
cuando la designacin operacional de T permanece inalterala-.
Si U se convierte
en U* o S en S* la frecuencia de las realizaciones cambia porque la manera
en que se realiza ~n tratamiento depende de los marcos loc~les .Y de los i~plicados as como de otros factores como los ambientes orgamzatlvos o SOCIales.
As, S* puede ser un aspecto significativo de *UTOS cuando cambia la poblacin.
.
Quienes interpretan los resultados de una evaluacin a menudo se preguntan esto: qu diferencia implica el paso de UTOS a *UTOS? Posiblemente,
el cambio no tiene muchas consecuencias ya sea porque el fenmeno que se
"
151
est estudiando es impermeable al cambio social o porque el cambio es demasiado pequeo como para representar un problema. Adems, si una cuestin
se investiga directamente puede presentarse con la forma de un parmetro de
un UTaS para proceder a su estimacin. Cronbach afirma que el parmetro
puede ser un medio, un coeficiente de regresin o una proporcin de casos
de una categora. Cuando las cuestiones no se investigan directamente, pueden
presentarse bajo la forma de un parmetro de *UTO del que se busca una
estimacin. Por ejemplo, el responsable de un programa puede desear conocer
el valor de un indicador concreto de la motivacin de un estudiante (0*)
si unas reglas concretas acerca de la educacin multicultural (un T*) se han
promulgado para todos los distritos escolares de un estado (U").
"UTaS, el dominio de aplicacin, es un aspecto central y bsico de la
planificacin de cualquier evaluacin, que consiste en ofrecer informacin especfica y necesaria a las audiencias.
")
.~
')
~
~
)
~~
)
)
)
"
)
1
)
I
Cronbach afirma:
)
Los problemas de una investigacin provienen principalmente de las incertidumbres de los miembros de la comunidad que debe tomar las decisiones,
o de los desacuerdos entre esos miembros, cada uno de los cuales est convencido de que su solucin es la buena. Identificar los problemas ms importantes es un primer paso en la planificacin de una evaluacin; el segundo
es una distribucin apropiada del trabajo.
El evaluador, segn Cronbach, no es un agente libre para escoger los problemas que deb.en investigarse, porque el patrocinador puede querer respuestas para determlnadas preguntas y no para otras. Y hay ms. Un administrador
puede no querer ajustarse a un esquema experimental por muchas razones o
quiz los informantes no estn muy dispuestos a suministrar datos. Por o~ra
p~rte, .l~s comunicaciones entre el evaluador y el patrocinador antes de la plan~ficaclOnpue.den hacer que el segundo acepte sugerencias para ampliar el abanICOde cuestIOnes.
Se han d~scrito dos fa~es de planificacin: la fase divergente, en la que
se.hace una h~ta .de las pOSibles cuestiones, y la fase convergente, en la que se
aSIgnan las pnondades entre ellas. En la prctica, ambas actividades se desar~ol1ansimultneamente. Parece sensato que una agencia proponga a un patrocmador una evaluacin que, antes de abordar un plan operacional, siga los
p.ro~esos de planificacin divergente y convergente. Los intercambios y negocla~l~~es consiguientes entre el evaluador y el patrocinador conducirn a una
reVlSlOnde la lista de cuestiones. El proceso de rectificacin continuar inevitablemente incluso cuando el trabajo en s haya empezado.
)
I
,~)
.)
,)
.)
-(
:~
..(
.,-~
-(
1
-1
(~
'f
1
152 I
Evaluacin sistemtica
I
I
La fase divergente
Esta fase infunde conciencia al evaluador y al patrocinador acerca de toda
la gama de cuestiones posibles que deben ser tenidas en cuenta, por lo menos
brevemente, en una investigacin.
ORIGEN DE LAS CUESTIONES. Mientras planifica lo que los individuos o
grupos plantean como cuestiones importantes para el estudio, el evaluador
debe pensar en atender una amplia variedad de informadores. Como consecuencia, las omisiones sern resultado de las elecciones informativas y no ~e
la visin restringida del patrocinador, el administrador o quien tenga la pnncipal responsabilidad.
Cronbach afirma que el evaluador se ocupa de producir algo -informacin- que tenga valor para los consumidores y por lo que estn dispuestos
a pagar. As, la decisin acerca de qu producto hay que lanzar es de carcter econmico y en ella intervienen todos los aspectos de la oferta y la demanda.
El evaluador tiene ciertas ventajas sobre el patrocinador a la hora de enfrentarse a las cuestiones que deben resolverse:
Est libre de prejuicios.
El evaluador puede estar en mejor posicin que el patrocinador para recopilar y apreciar las cuestiones ms actuales de los crculos polticos y no
polticos.
Gracias al conocimiento de otras investigaciones, el evaluador puede reconocer los desafos y las contrainterpretaciones a las que est sujeto el estudio, y as sugerir controles especficos necesarios 'para reforzar la razonabilidad de sus respuestas.
El evaluador conoce la situacin de su profesin y puede informar al patrocinador (o al administrador) sobre cmo una cuestin determinada puede
responderse adecuadamente sin salirse del presupuesto.
De cualquier manera, al final, es la estimacin del patrocinador acerca de
la relevancia poltica y administrativa de las cuestiones la que sirve de gua al
evaluador. Lo cierto es que el patrocinador no debe tomar solo este tipo de
decisiones.
,
l
TRATAMIENTO
y PROCESOS. En el rea de los serVlClOSsociales, el lugar
que ocupa la evaluacin no debe estar sujeto a modificaciones que sirvan a los
propsitos del estudio. En otros casos, los servicios estn abiertos a la manipulacin; los tratamientos deben ser adecuados para proporcionar una comprobacin directa de una propuesta renovadora. En cualquier caso, como afirma
153
------.">
]
")
154
Evaluacin sistemtica
La fase convergente
!;
La fase convergente insiste en la necesidad de que sea una amplia diversidad de individuos y grupos la que formule las cuestiones. Algunas cuestiones deben plantearse por razones prcticas. Cronbach afirma que existen, por
10 menos, tres razones para reducir la serie de variables tratadas sistemticamente en una evaluacin:
1.
2.
3.
155
La fase divergente, por 10 tanto, designa qu es 10 que posiblemente puede tener valor para una investigacin. La fase convergente se dedica a decidir
qu resulta ms aceptable de 10 incompleto. El evaluador puede invertir su
tiempo y su trabajo en el estudio de una cuestin concreta (o de un plan para
hacerla) cuando existan las siguientes condiciones:
acerca de la respuesta.
Una probable abundancia de informacin.
Un bajo coste de la investigacin.
Un alto grado de influencia, por su parte, sobre la eleccin de la informacin (el trmino influencia se comenta ms abajo).
')
)
,
")
~
I
,~
(
: ')
)
)
.)
,)
)
)
Cuando ya se ha realizado una primera lista de cuestiones, debe plantearse en trminos de U, T yO, que resulten significativos para los que participan en la toma de decisiones. Adems, la lista debe contener cuestiones
acerca de las condiciones artificiales que arrojan una luz indirecta sobre problemas prcticos. En el proceso convergente, de cualquier manera, algunas de
estas cuestiones resultan escogidas para convertirse en UTO del estudio, tras
haber sido examinados detenidamente.
INFLUENCIA. Cronbach define la influencia como el peso de una determinada incertidumbre en el proceso de toma de decisiones. Al planificar
una evaluacin que deba ejercer alguna influencia en el futuro, un evaluador,
junto con el patrocinador o el administrador, puede necesitar saber qu tipo
de informaciones influyentes pueden aparecer sobre un problema concreto.
Cuando el estudio haya terminado, puede juzgarse la influencia que ha ejercido sobre la comunidad la evidencia presentada en el informe. Un problema
al que la comunidad entera le concede mucha atencin ejercer mucha influencia. Tambin puede ejercer influencia si resulta signficativo para un sector
interesado o para un grupo no comprometido cuyo apoyo u oposicin puede
ser crucial. Un problema que influye en muchas decisiones, como en las de
ir-o-no-ir, tiene ms influencia que otro cuya resolucin slo afecte a detalles menores del plan.
.
La influencia, por 10 tanto, tiene dos aspectos: la importancia del problema o eleccin sobre los que se basa la evidencia, y el peso que la evidencia
debe resistir. El evaluador debe tener en cuenta cunta influencia puede ejercer
cada una de las soluciones posibles de un problema.
,)
.)
)
,)
\f
I~
()
:)
)
~j
,)
..J
I
()
i
,.J
')
'J
()
-----------~"S...
156
Evaluacin sistemtica
lo-,
2.
3.
.~
4.
Si una cuestin tiene mucha influencia y es causa de una gran incertidumbre merece un esfuerzo que elimine esa incertidumbre.
Si la influencia es poca y la incertidumbre mucha, el esfuerzo est justificado.
Si la influencia es mucha y poca la incertidumbre previa, debe ser recopilada informacin incidental.
Si la influencia es poca y la incertidumbre tambin poca, el investigador
no debe hacer ms que mantener abiertos los canales para recibir informacin incidental.
Planificacin de la comunicacin
r.
157
muchos problemas y programas sociales que exigen su atencin. Son muy pocas las personas que leen en profundidad un informe evaluativo sobre una
cuestin pblica. Adems, muy pocos pueden comprender toda la slida serie
de procedimientos y anlisis tcnicos.
La cuestin ms importante es que la tarea informativa del evaluador es
diferente de la que aborda comnmente el cientfico. El cientfico se dirige a
una audiencia selecta que comparte su lenguaje y su estructura mental. El evaluador, por el contrario, habla a audiencias numerosas y dispersas, muchas
de las cuales reciben slo informaciones secundarias y suavizadas. El evaluador que cree que una audiencia ha malinterpretado un informe se encuentra
con que es muy difcil, e incluso imposible, replicar de algn modo.
Cronbach plantea dos preguntas:
1.
2.
La comunicacin directa
El evaluador debe considerar la posibilidad de incrementar la comunicacin directa. Esta comunicacin puede ser comparativamente informal a causa
de la audiencia que debe abarcar y porque su conocimiento pblico debe ser
tan oportuno como sea posible. El evaluador afirma que quizs el informe ms
impactan te es la conversacin informal, ya sea en la oficina del legislador o
alrededor de la mesa de conferencias.
El evaluador, segn Cronbach, desempea un papel muy parecido al del
periodista que investiga asuntos de inters pblico, juzga qu es lo que merece
la atencin pblica y lo presenta de una forma que atraiga la atencin. Las
personas que forman parte del equipo evaluativo tienen una rica experiencia
y u~a oportunidad razonable de intercambiar puntos de vista con el equipo y
los mformadores. Gozan, pues, de una buena posicin para llevar a cabo la
tare.a infor:ua.tiva tanto en un sentido periodstico como investigativo. Si el
eqUIpo se lImIta a s mismo a la realizacin de informes formales, deja a otros
la difusin de su mensaje.
Los evaluadores sospechan comprensiblemente de las limitaciones de sus
i?formes. Esta clase de tensin se resuelve nicamente cuando el sistema poltICOaclara el papel que deben desempear las evaluaciones. En la concepcin
de Cronbach, se sirve mejor al inters pblico mediante acuerdos institucionale~ .que permiten a los evaluadores hablar directamente con todos los que
partICIpan en las decisiones acerca de los programas. Es importante, por 10
t~t?, que por lo menos algunos miembros del equipo evaluativo dominen las
tecncas de la comunicacin informal. Cronbach est de acuerdo con Stake,
----']
')
)
158
Evaluacin sistemtica
159
I~
Sugerir que el evaluador debe llevar la interpretacin tan lejos como le sea
posible, ~on. la convenient.e precaucin, ratifica lo acertado de conservar apuntes descnptIvos comparativamente ricos. Cronbach subraya el valor de revalorar peridicamente la planificacin del estudio, con el fin de prestar la debida
atencin a las sorpresas y problemas consiguientes. Es conveniente dilucidar
los resultados intermedios involuntarios que pueden afectar al futuro del programa antes de continuar las operaciones investigativas acerca de ese programa.
~
')
\
~
~
.~
,)
El pronstico de la evaluacin
'-'::'~fo'.'r.i:o .
'1,.-,;'.
'+-.......-"
'':'!'~-J.~''''-.,~
~IN"":'
tJr:!\I:;:
'.,'.
f.4Cl.",,'
.')
~!o
')
inevita-
')
)
)
)
)
)
~
,)
( )
()
,)
,
r"
"
160
('
Evaluacin sistemtica
Planificacin evaluativa segn Cronbach
La razonable aspiracin del evaluador es producir informacin que la observacin menos sistemtica del programa no puede producir, o informacin que
sea ms verosmil, y por lo tanto ms influyente, que la de los informes si.
milares producto de observaciones menos sistemticas. Una investigacin limitada intenta hacer esto ofreciendo buena informacin acerca de unas pocas
cuestiones importantes; para conseguir el mismo objetivo, una investigacin
ms amplia produce una informacin ms extensa pero de alguna manera
menos segura. La eleccin de una u otra opcin debe basarse en consideraciones acerca de la influencia de las decisiones.
(
('
t
(
,1 .
f
"
1
(
1,
,
(
f
(
,
()-
"
1]
f
'1'
:
.
Otras consideraciones
Cronbach considera que la evaluacin tendr una gran trascendencia
cuando las planificaciones y estudios pongan el nfasis en el valor de los xitos
y fracasos, ms que en la simple valoracin de los objetivos. Son necesarias
nuevas intuiciones, y, por 10 tanto, el investigador no debe limitarse a las
cuestiones que identifique de antemano, aunque sean importantes. Es tambin
muy importante para el evaluador no retrasar el informe hasta que haya solucionado todos los problemas que deba dilucidar. Por el contrario, el evaluador puede necesitar acudir a la comunidad que toma las decisiones antes de
que el tratamiento haya seguido todo su curso. Esta es una razn por la que
la estructuracin, la planificacin, la observacin y la interpretacin (destinada
a quienes toman las decisiones) deben discurrir ms simultneamente que
sucesivamente.
161
Por razones similares, Cronbach sugiere que el plan evaluativo debe permitir que el personal tenga tiempo para la reflexin en cada etapa del trabajo.
Esta reflexin debe impedir, por ejemplo, que la labor se centre prematuramente en delicados. ~ complicados problemas sociales. Y puede ofrecer a quie.
nes toman las declslOnes buenos consejos que de otro modo no seran po.
sibles.
Cronbach cree que una descripcin que favorezca un estilo concreto de
evaluacin o ponga el nfasis en ciertos controles, es de una aplicabilidad
limitada. Segn est~ teora, los evaluadores deben acudir a los juicios prcticos acerca de cuestlones sustanciales y polticas, as como metodolgicas. No
deben emitir juic~os sin asesoramiento; deben aliarse con los patrocinadores,
los colegas profeSIonales o las partes polticamente interesadas:
El evaluador que utilice este sistema de localizar y sopesar adecuadamente
las cuestiones. :valuativas necesita una gran preparacin, ms amplia de la
que .sue1e recIbIr. Las teoras polticas, filosficas y organizativas pueden ser
tan Importantes, a la hora de planificar una evaluacin potencialmente influyente, como el conocimiento de las estadsticas y de la llamada teora del
desarrollo del nio.
Como .~ntes y~ ~icieron Stufflebeam y Stakes, Cronbach afirma que cuando
la evaluaclOn se dIvIde entre los miembros de un equipo, el equipo debe trabajar .como una sola uni~ad si desea que aparezcan las intuiciones. Aunque
los mlem~ros de un eq~lpo deben conocer a fondo los aspectos principales
del estudl.o; los que estan en el centro del proyecto deben asumir la mayor
res~onsablJdad a la hora de establecer las prioridades, interpretar las obser~aCl~nes y recopilar experiencias de primera mano de los clientes y otros
ImplIcados. De esta manera, el equipo, considerado como un todo, se situar
en la pe~spectiva. correcta e interpretar adecuadamente los datos computados
y. otras mformaclOnes .. Es necesari?, pues, que algunos miembros del equipo
dl~pongan de observaCIones de pnmera mano y las comuniquen a los otros
mIembros.
. Fina~mente, Cr~nbach afirma que la evaluacin puede resultar peligrosa
SI la socIedad restnnge los programas que los evaluadores condenan y ponen
e.n marcha. aquell~s que recomiendan. Los evaluadores prestan un s:rvicio valIoso y satlsfactono, descubriendo hechos y relaciones que a los observadores
~asuales. les pasan por alto. Cronbach cree que los evaluadores tendrn una
InfluenCIa mayor en los aos venideros, con el perfeccionamiento de su arte
y con la progresiva confianza de la sociedad en los estudios sistemticos que
ofrecen para proporcionar informacin.
------_ ...
)
")
162
~
Evaluacin .sistemtica
a)
b)
e)
Este test de conocimientos contiene nueve preguntas con muchas respuestas para escoger una. El propsito de estas preguntas es determinar si ha
alcanzado el conocimiento suficiente de los objetivos de conocimiento de la
unidad. En cada caso, rodee con un crculo la letra que usted considere que
incluye la respuesta o respuestas ms razonables. Luego debe compararla con
la solucin que le proporcionemos despus de cada pregunta. Cuando haya
contestado a las nueve preguntas, le recomendamos que valore su trabajo y
utilice esta valoracin como base de un estudio ms profundo de la unidad.
d)
a)
b)
e)
d)
1.
Respuestas incorrectas
d)
Es incorrecta porque Cronbach cree que una evaluacin debe ser considerada un modo de aclarar problemas complejos y puede utilizar diversos mtodos para recopilar la informacin (algunas se oponen a los mtodos normales).
Es incorrecta porque a veces las consideraciones polticas pueden ser ms
influyentes que la informacin que se desprende del estudio, y muy frecuentemente contribuyen a mantener el status qua.
Es incorrecta porque Cronbach subraya la necesidad de u~a planificacin
cuidadosamente elaborada; sin embargo, hay que hacer concesiones a la
flexibilidad de los procedimientos una vez haya empezado la investigacin.
PREGUNTA
debe hacerse
2.
Cronbach
")
)
~
)
')
')
b)
e)
b)
segn Cronbach
Respuestas incorrectas
a)
evaluativa
a)
PREGUNTA
163
Planificacin
)
)
)
i
)
)
)
)
)
PREGUNTA 3.
Si las comunicaciones de la evaluacin son su producto
ms vlido, cul de las siguientes preguntas no debe ser planteada ante la
evaluacin ya terminada?
a)
b)
e)
d)
)
)
;
)
)
i.)
I
-(
f
.?
~
)
,
(
f
f
(
(
(
(
(
(
(
(
(
(
(
164
a)
Respuestas incorrectas
a)
(
(
(
(
(
(
t
l
t
(
(
,
(.
Evaluacin sistemtica
PREGUNTA
tJ)
b)
e)
d)
b)
e)
d)
Respuesta correcta. Debe usted haber sealado la a. Si UTO es el universo de las observaciones admisibles, abarcar u, t y o cuidadosamente defi.
nidas y seleccionadas.
Respuestas incorrectas
b)
c)
PREGUNTA
5. Con qu dos de estas afirmaciones estaran de acuerdo
tanto los evaluadores humansticos como los conductistas cientficos?
Los servicios e instituciones sociales deben ser evaluados porque rara vez
desempean sus funciones tan bien como podran.
El evaluador debe concebir situaciones controladas que le sirvan para
sus experimentos.
Los tests sumativos son esenciales.
Las evaluaciones deben ser empricas.
165
d)
a)
PREGUNTA
7. Aunque un evaluador considera que 10 que dice la gente
es una parte de la situacin que debe investigar, cul de las siguientes fuentes, segn Cronbach, define mejor las cuestiones que debe plantear el estudio?
a)
b)
c)
d)
')
')
')
166
Evaluacin sistemtica
incorrectas
b)
d)
particular o a la desviacin.
.
Es incorrecta porque el evaluador debe buscar cuestlOnes (en la etapa
de la planificacin) procedentes de la gente del lugar; aunque su misin es
generar cuestiones, se excedera en su autoridad profesional si todas las
cuestiones del estudio fueran de su invencin.
a)
e)
d)
"I
d)
')
')
')
')
')
')
')
)
')
PREGUNTA
9.
Segn Cronbach,
sobre todo de
a)
b)
e)
d)
PREGUNTA
8. Cul de las siguientes afirmaciones es ms coherente con
la definicin cronbachiana del papel del evaluador durante la fase divergente
de recopilacin de cuestiones?
167
Respuestas incorrectas
)
)
)
)
)
)
)
)
)
)
)
)
)
b)
e)
d)
)
)
)
)
)
)
)
)
)
)
,
(
f
(
(
(
(
('
168
(
(
(i
<'
(
(
(
(
(
(
~
{
(
(
b)
169
Ejercicios prcticos
2.
3.
4.
5.
e)
a)
b)
e)
d)
dades cientficas.
El evaluador como educador.
La naturaleza de la mejor informacin.
Cuestiones que deben responderse al final del estudio, incluyendo las
alternativas que debe tener en cuenta la comunidad que toma las deci.
e)
siones.
Nueva comprensin de los problemas (contribucin
sico de un rea de problemas).
al entendimiento
4.
5.
d)
2.
3.
La respuesta al ejercicio 1 debe incluir lo siguiente:
a)
4.
5.
cientficas:
b.
10 que los evaluadores aprenden debe entrar a formar parte del peno
EJERCICIO 1. Escriba un ensayo titulado La evaluacin til. Su respuesta debe incluir principalmente estos elementos:
(
(
3.
biles.
('
Evaluacin sistemtica
(.
t
t
(
1.
2.
e)
()
170
Evaluacin sistemtica
1.
2.
3.
EJERCICIO 2.
nes investigativas:
1.
2.
3.
2.
3.
4.
5.
La fase divergente:
1.
2.
3.
4.
5.
resultados:
e)
y procesos:
')
6.
b)
La fase divergente:
1.
2.
")
")
\")
')
d)
e)
a)
Escriba un ensayo titulado Identificacin de las cuestiola fase divergente. En su respuesta, incluya estos aspectos
171
'}
3.
principales:
a)
b)
e)
d)
e)
')
)
)
')
'>
)
)
)
)
)
)
)
)
)
)
)
)
)
En este apartado se proporcionan cinco preguntas, pero no se facilita ninguna respuesta.
Las preguntas pueden ser utilizadas como temas para debates de grupo
o como tareas individuales. Usted quiz prenera obtener intuiciones ms profundas acerca del pensamiento de Cronbach sobre la planincacin evaluativa
leyendo el texto completo u otros libros recomendados en la seccin bibliogrfica. De cualquier manera, las cuestiones pueden responderse basndose en
el material contenido en esta unidad y a 10 largo del libro.
)
)
)
)
)
)
'1 .
172
Referencias
Evaluacin
sistemtica
(
(
1.
(
(
2.
(
(
3.
4.
(
(
(
(
(
5.
(
(
Referencias bibliogrficas
(
(
,
(
t
(
(
,,--
,,
CAMPBELL,
D. T. 1957. Factors relevant to the validity of experiments in social
settings. Psychological Bulletin, 54, pgs. 297-312.
_. 1973. The social scientist as methodological servant of the experimenting society, Policy Studies Journal, 2, pgs. 72.75.
-.1975. Assessing the impact of planned social change. En G. M. LYONDS
(comp.),
Social research and public policies, Hanover, N. H., Public Affairs Center, Dartmouth College.
CRONBACH,1. J. 1963. Course improvement through evaluation, Teachers College
Record, 64, pgs. 672-683.
-.1982. Designing evaluations o/ educational and social programs, San Francisco,
Jossey-Bass.
CRONBAC
H, 1. J., Y otros. 1976. Research on classrooms and schools: Formulation of questions, design, and analysis. Publicacin no peridica, Stanford Evaluation Consortium, Universidad de Stanford, Calif.
CRONBACH,1. J., Y colaboradores. 1980. Toward re/orm o/ program evaluation,
San Francisco, Jossey-Bass.
HOUSE,E. R. 1976. Justice in evaluaton. En G. C. GLASS(comp.), Evaluation
studies review annual, vol, 1. Beverly Hills, Calif., Sage, pgs. 75.99.
bibliogrficas
173
,)
()
)
STUFFLEBEAM: LA EVALUACION ORIENTADA
HACIA EL PERFECCIONAMIENTO
l
o)
")
'J
:)
;)
,)
,)
)
0)
,)
Esta unidad afirma que las evaluaciones deben' tender hacia el perfeccionamiento, presentar informes responsables y promover el aumento de la comprensin de los fenmenos que se investigan; tambin afirma que el primero
de estos propsitos es el ms importante. El mdulo explica el mdelo evaluativo CIPP describiendo su desarrollo, contrastndolo con otros mtodos, caracterizando el papel que desempea en el perfeccionamiento de los programas,
explicando sus principales conceptos Y esbozando los requisitos de una planificacin evaluativa slida. Finalmente, subraya la importancia de someter a
evaluacin el propio trabajo evaluativo a travs de la metaevaluacin.
El propsito ms importante de la. evaluacin no es demostrar sino perfeccionar ... No podemos estar seguros de que nuestras metas son valiosas si
no las comparamos con las necesidades de la gente a la. que presuntamente
sirven.
La unidad presenta una orientacin perfeccionista para la evaluacin de
un programa. Dado que el contexto histrico es til para comprender cualquier conceptualizacin de una prctica profesional especializada y que yo soy
consciente de que mis antecedentes profesionales y mis experiencias influyen
en gran manera sobre mis propios puntos de vista, he personalizado la presentacin. He trazado el desarrollo del modelo CIPP, lo he contrastado con
otros mtodos, he caracterizado sus sistemas y su orientacin hacia el perfeccionamiento del programa y he descrito los cuatro tipos principales de evaluacin. Tambin he expuesto mi punto de vista acerca de lo que interviene en
la planificacin de evaluaciones concretas y, para concluir, hablo sobre la metaevaluacin.
Al trabajar en esta unidad, le sugiero que estudie sus objetivos con el fin
de descubrir lo que puede aprender de ella; luego lea el material, realice el
:)
rO)
;J
:)
,)
f)
()
~
1)
,)
i)
:J
':)
~)
:)
()
,:)
!)
()
()
f
(
(
(
(
176
Evaluacin sistemtica
Objetivos
(,
1.
2.
3.
(
"
4.
~
(
5.
6.
7.
(
{
(
8.
9.
10.
11.
12.
13.
(
(
177
')
")
178
Evaluacin
Stufflebeam:
sistemtica
,
'locho
proyectos a
,
d
Intentaron determmar SI os,
'fi
1
bJ'etivos de comportamiento
e
, d d b' os ldentl car os o
, d
Segn este meto o, e 1m
II 1 l'nstrumentos apropia os para va'
r o desarro ar os
, d 1
cada proyecto, seleCClOna
l'
ti 'nstrumentos despues e a ense, d 1
d' te ap lCar es os
,
d 1
lorar el trabajo e estu lan
d 1 t di ante con los objetIVOs e proyecanza y luego comparar el tra ajad el eS u l' ica de la evaluacin tyleriana
d verse
e a base og
d
'
1
to, Se trata, como pue e
, " 1 '1 r de la teora evaluativa e ucaClOna
'd
d
3)
que
ha
sido
el
prmClpa
~l
a
(
unl a,
d
d 30 anos
americana durante aIrede or e
"t
do no era adecuado para evacon que este me o
d'
Pronto nos encontramos
S
los educadores saban o po lan
C 1 b s uponer que
d
luar los proyectos e o um u,
,
d los estudiantes producto de aque'
1 omportamlento
e
'd
1
fcilmente d etermmar e c
,
Los ob' etivos originales contenl os en as
llos proyectos, no era nada reahslta,
Jroporcionaban datos tiles acerca
,
t
eran genera es y no p
, ,
1
1
Pnmeras propues as
'D
h ho los obJetlvos por o genera,
,
'
d 1 estudIantes,
e ec ,
,
'd
del funclOnamlento e os .'
administradores que han tem o poca o
son determinados por especlahstasd~
y lo que es ms, el personal del
"
esos estu lantes,
h
ninguna expenencla con
d'
1 cuando el proyecto ya a empet
de
acuer
o,
mc
uso
h
d
proyecto pue d e no es ar
'fi
deben ser adoptados, A ora pue o
"d
b' tivos especl cos que.
d
1
zado acerca e os o Je
d'
tiempo preclOso mtentan o
,
II
nosotros per Irnos un
, bl
decir que tanto e os como,
d de los estudiantes eran muy var:a es y ~o
hacer esto, porque las neceslda. es.
or ue ningn grupo comun de obJehaban sido objeto de un estudlO ds~n,o,y p ,q les y necesidades de desarrollo,
, d
t
sus IstlDtos mve
, ,
tivos podla ar respues a a
1 hecho de que eXlstlan tests
"
l'
do con esto era e
,
1
Un problema teCnlCOre aClOna
d 1
'y
a los niveles funclOna es
1 modelos e enguaJe
b
que no se adapta an a os
1d
ollo de estos tests a tiempo para
,
, t sados y e esarr
ESEA
de los estudIantes mas a ra
,
1"
d los proyectos de la
,
T d
en la eva uaClOn e
,
,
que pudIeran ser utllza os
, b'l'd d Igualmente y esto es mas serlO,
bl mas de vla I 1 a '
"
'1
d
presentaba gran es pro el'
propona proporcionar mformes so o
se
nuestro empleo ~el mtodo ty enano d
a era demasiado tarde para ayudar al
1 final de cada ano de proyecto, cuan o y
bl
a
.d
'fi
resolver sus pro emas,
.. ,
personal de~,proyecto a I entl c,ar
se hizo ostensible para m cuando vI,slte
La inutlhdad de nuestro meto o
b erv sus actividades relatlvas
1 del programa y o s
a los miembros d e1 persona
los proyectos funcionaran ya
b encontrarme con que
d
al proyecto, Y o espera a
d d
herencia pero no vi nada e eso.
'erto
gra
o
e
co,
,
en escuelas y au 1as con Cl
f' ,
tendl'da entre los profesores, que no
,
"
gran con USlOnex
h b'
En camblO, eXlstla una
d b'
h r Muchos de ellos no a lan
,
a que e lan ace,
, II
saban que es lo que se supon
supuestamente, deblan evar,?
tenido la oportunidad de lee\ lashP~~~:~:~~~ ~~~~ban en desacuerdo con ellas o".~~
a cabo, Y muchos de los que as a
d - ues que las actividades acerca ,
f d'd
No era sorpren ente, p
, .
se sentlan con un lOS.
.
1 , las y que estas actlVIde un proyecto determinado no funclOnaran en as au ,
b'
'f
'1
'1
1
la evaluacin
del perfeccionamiento
179
dades tuvieran muy poco que ver con las que se describan en las preguntas
originales, Cuando hube considerado esta situacin, los datos acerca de los
resultados que mis colaboradores y yo habamos planeado recopilar, parecan
tener muy poca importancia.
Mi conclusin fue que los educadores necesitaban una definicin de evaluacin ms amplia que la que se limitaba a determinar si los objetivos haban
sido alcanzados, La definicin que necesitaban deba proponer evaluaciones que
fueran capaces de ayudar a administrar y perfeccionar los programas, Crea
que lo mejor para realizar este ideal poda ser proporcionar a los dire~tivos
de las escuelas, a los directores de proyectos y al personal de la escuela, mformacin que pudieran utilizar para decidir y llevar a cabo los cambios que
resultaban necesarios en los proyectos, Como alternativa a la definicin tyleriana propuse, en una reunin de la ESEA y en un artculo periodstico, que
la evaluacin fuera redefinida como un proceso mediante el cual se proporcionara informacin til para la toma de decisiones (STUFFLEBEAM,1966),
Esta propuesta recibi un extendido apoyo, especialmente del Departamento
de Educacin, de muchos distritos escolares y de agencias de investigacin y
desarrollo, as como de muchos administradores educativos.
Puesto que pensaba que la evaluacin deba proporcionar la informacin
que necesitaban quienes tomaban las decisiones, pareca apropiado identificar
los principales tipos de decisiones que deban afrontar, y luego crear las adecuadas estrategias evaluativas. Basndose en la experiencia de los proyectos
ESEA para Columbus, las decisiones de inters ms inmediato parecan ser
las relacionadas con la realizacin de la planificacin de proyectos, esto es, cmo
interesar a los profesores en la realizacin de los proyectos, cmo distribuir
los recursos, cmo asignar y remodelar las ayudas, cmo obtener y mantener
el apoyo de la comunidad, cmo proyectar el necesario transporte de los
estudiantes, cmo adaptar los materiales didcticos y cmo promover la comunicacin entre todos los que participan en el proyecto, Para poner en marcha todas estas decisiones de realizacin, ense a mis colaboradores cmo
deban observar e involucrarse en las actividades del personal del proyecto
de una manera continuada y presentando, al menos una vez cada dos semanas,
un informe sobre los resultados del proceso a ese mismo personal, con el fin
de que pudieran detectarse, destacarse o solucionarse los problemas operacionales, El otro tipo de decisin, especialmente con vistas al ciclo anual de subvenciones del gobierno, inclua aparentemente decisiones relacionadas con la
continuacin o finalizacin de un proyecto, segn aumentaran o decrecieran
los fondos, relacionando el proyecto con otro nuevo, institucionalizndolo, etc,
Llam a esto decisiones de reciclaje y suger que deban ser apoyadas con informacin acerca de lo que el proyecto ya haba producido. De acuerdo con esto,
mis colaboradores y yo continuamos trabajando con el personal del proyecto
para clarificar qu indicios acerca de los resultados del programa resultaran
adecuados, y desarrollamos y llevamos a cabo unos pocos tests de trabajo espe-
}
)
')
)
)
')
')
')
)
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
-.J
)
)
)
.. ;b'S:lI.'
180
--,.,..
_.
------
181
Evaluacin sistemtica
Al llegar a dI'
este punto ya esta b a termlDada
'
(la evaluacin
la estructura bsica del CIPP
e contexto como ayuda para 1 d"
., d 1
evaluacin de entrada como a d
d f a eS1gnaClon e as metas, la
,, d
yu a para ar arma a las pr
1
al
CIar. el proceso como gua de
1'"
opuestas, a ev ua"
.
su reailZacIOn y la evaluaci d 1
d
1
serVICIOde las decisiones de recicla'e) How d
'
n e pro uc~o a
del Centro de Evaluacin en
ll)"
ar Mernman, que era estudIante
'
aque a epoca y que despus
. .,
1
rector
del
nuevo
Departament
dEl
',
se convlttlo en e
Ut
)
'l
182
Evaluacin sistemtica
parado.
f i
,
l
\
,1
. . .,
D ef mClOn.
orientacin metodolgica.
Toma de decisiones. El comit conceba la evaluacin como algo tot~l:nen2.
te relacionado con la toma de decisiones, pero pensaba que las declSlones
que deban tomarse en cuanto a los cambios no ~:taba~ muy claras. Adems el comit consideraba necesario una concepClOn mas clara del proceso
meeiante la cual los evaluadores pudieran enfrentarse y resI><?ndera los
problemas de decisin y a los consiguientes requisitos informatIvos.
Valores. El comit crea que muchas evaluaciones reflej.~ban errn~amente
3.
una orientacin que no atenda a los valores. Tamblen denuncIaron la
escasez de buena literatura sobre temas cruciales acerca de .cmo r~co~ocer
y tratar con mltiples perspectivas de valor, cmo co~segUlr l?,s cnten~~ e
instrumentos apropiados y cmo asignar valores a la mformaclon obtem a.
Niveles.
El comit crea que los evaluadores haban fracasado p~r ~om4.
pleto al no reconocer que las distintas audiencias pres:nta?,an dlstmtos
requisitos informativos en sus distintos n~v~les de orgamza.clO~. Una evaluacin concebida para satisfacer los requlSltos de una audIencIa concreta
-por
ejemplo, el personal de un proyecto escolar-:- p~ede que. no sea
apropiada para satisfacer los requisitos de otras audIencIas; por ejemplo,
183
')
)
')
)
'\
)
')
)
')
)
")
)
)
)
)
La evaluacin es el proceso de identificar, obtener y proporcionar informacin til y descriptiva acerca del valor y el mrito de las metas, la planificaci~n, la realizacin y el impacto de un objeto determinado, con el fin de
serVIr de gua para la toma de decisiones, solucionar los problemas de responsabilidad y promover la comprensin de los fenmenos implicados.
)
)
)
)
Esta definicin resume los conceptos clave del modelo CIPP. Postula tres
p.ropsitos evaluativos: servir de gua para la toma de decisiones, proporClOnar datos para la responsabilidad y promover la comprensin de los fenmenos implicados (lo cual coincide con la orientacin de perfeccionamiento
del modelo, puesto que el primero de estos propsitos es tambin el ms
importante). Presenta la evaluacin no como una prueba sino como un proceso, y afirma que este proceso incluye las tres etapas de identificar, obtener
y proporcionar informacin (de ah que los evaluadores deban tener una buena
preparacin en las reas tcnicas y de comunicaciones). Tanto la informacin
til (para emitir juicios) como la descriptiva son consideradas adecuadas para
va~orar y ayudar a perfeccionar el objeto de inters. Los aspectos clave del
objeto que, segn la definicin, deben ser valorados incluyen sus metas su
planificacin, su realizacin y su impacto (los cuales son valorados, resp~ctivamente, median.te l.a evaluacin del contexto, de la entrada, del proceso y del
producto). El cnteno fundamental que debe ser tenido en cuenta incluye su
valor (s~ respuesta a las necesidades valoradas) y su mrito (su calidad).
El hbro que explicaba esta definicin tuvo una considerable influencia en
)
)
)
)
)
)
)
)
)
)
)
""";.,rr~r,:,...,:,...,-("'~::,
(*"'i,--f"";-,r-;:"~:""'~("""F-l.'f/::R,~,...;::-tdtAt:'f"'\ "1"\ --'f'"\-"'ri-,..c.-
-,
~e
TABLA
6-1.
Venta;asy
desventa;as
de los distintos
mtodos
tradicionales
.~
fI\~~' ~
~.
~
Q)
c:
o
o:
::1
Q)
l.
Medicin
de calificacin
Basada en normas profesionales
Estndares
procedentes
de normas
2. Juicio profesional
todas las
variables
U tiliza toda la habilidad y experiencia disponibles
No se retrasa durante el anlisis de d,atos
3, Diseo
Alta respetabilidad
cientfica
Proporciona
potencialmente
datos
experimental
sobre
las cau-
i'I '.;
en
..
3
"'-..
o'
;
ro
Q)
para
Dictados principalmente
por la oportunidad
Su fiabilidad y objetividad son cuestionables
Tanto los datos como los criterios son ambiguos
No pueden comprobar la validez
La generalizacin es muy difcil
,--~-- ~
.- ._,
4.
de norma
-~
.....,~
de evaluacin
Desventa;as
Venta;as
Mtodos
..c:
(J)
:l;
(1)
o(1)
ll>
3
iil
~
Q)
c:
o
o;
Q)
::1
o-
~
"tJ
(1)
~
(1)
o
o
o'
::1
Q)
3
O
::1
8"
t"
,.186
Evaluacin
sistemtica
)
)
Stufflebeam:
la evaluacin
del perfeccionamiento
)
187
')
sidades de los que planifican y administran los proyectos. Otra diferencia entre
ellos se refiere a las bases utilizadas por los dos mtodos para llegar a conclusiones acerca del xito de los proyectos. En el mtodo de Stake, estas conclusiones se derivan de la recopilacin y el anlisis de los juicios de todas las
IXrsonas y grupos que estn interesados en el proyecto, mientras que el mtodo CIPP atiende ms a la satisfaccin de las necesidades valoradas. Ambos
mtodos evidencian una tensin -yo creo que saludable- entre la obtencin
de un amplio concepto de un proyecto y la adaptacin de la evaluacin a la
satisfaccin de las necesidades informativas ms importantes de las audiencias.
El mtodo sumativo-formativo de Michael Scriben ofrece un contraste
muy fuerte con el mtodo CIPP y el acreditado (para una versin puesta al
da de su mtodo, vase la unidad 10). Defini la evaluacin como la determinacin sistemtica y objetiva del valor o el mrito de un objeto, y dijo que
la mejor puesta en prctica de esta definicin consista en encargar a un evaluador independiente que emitiera un juicio sobre un objeto basndose en
evidencias acumuladas producto de su comparacin con objetos similares a la
hora de satisfacer las necesidades de los consumidores. Llam a este mtodo
evaluacin sumativa y dijo que era mucho ms importante que la evaluacin
formativa, en la que un evaluador recopila y presenta datos y juicios que ayudan al desarrollo de un objeto. Segn esta base lgica, SCRIVEN(1970) denunci que el mtodo CIPP era imperfecto porque ignoraba casi totalmente el
papel fundamental de la evaluacin sumativa debido a su preocupacin por el
perfeccionamien to.
En una reunin del grupo de evaluacin May 12, Michael Scriven y yo
debatimos los mritos relativos de la orientacin perfeccionista enfrentada a la
orientacin hacia el juicio sumativo. Ms tarde, AERA puso el debate en marcha, por as decirlo, y ambos fuimos encargados de codirigir y ensear al
equipo de cuatro institutos ambulantes. Como consecuencia, NIE nos encarg
presidir los equipos que iban a disear diversos planes evaluativos para los
laboratorios regionales educativos y para centros de investigacin y desarrollo.
A travs de estos contactos, acab convencindome de que las diferencias entre
nuestros conceptos de evaluacin eran ms aparentes que reales y de que reflejaban, sobre todo, distintas perspectivas y experiencias. En mi trabajo en Columbus, una orientacin hacia un juicio de valor final y basado en conceptos exteriores haba quedado ahogada, sin servir a las necesidades del personal, que pretenda sacudir y perfeccionar sus proyectos de la ESEA. Asimismo, dado que
Scriven haba estado ampliamente implicado en grupos asesores relacionados
con diversas evaluaciones nacionales de currculos, es fcil comprender por qu
insista tanto en las evaluaciones comparativo-sumativas. Sus audiencias principales eran los potenciales compradores de estas evaluaciones, que estaban
obviamente interesados en las recomendaciones acerca de las alternativas que
mejor les convenan, y no en los datos que pudieran mejorar esas evaluaciones.
Finalmente, la compatibilidad de nuestros puntos de vista se confirm cuando
.,
')
)
')
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
')
)
)
)
(
(
(
(
(
(
(
(
{
188
'o
.<:;
':l
.~
~
':l
...~
el
...
l:l..
ClJ
"~
""...
.::
(
(
;:
"
.~
<.l
'"u
'o"
...
'"
o
ClJ
...
o.
ClJ
"":l
ClJ
"":l
':l
(
(
(
(
el
....
....
':l
::
':l
l:l..
;:
'O
.<:;
':l
;:s
~~
ClJ
"":l
...el
(
(
(
(
ClJ
189
las planificaciones de nuestros dos equipos para NIE resultaron ser muy similares, incluso habindose desarrollado independientemente (REINHARD, 1972).
Sin embargo, estas experiencias reafirmaron la necesidad de clarificar y
ampliar el modelo CIPP, para asegurarse de que satisfara las necesidades tanto
de las evaluaciones sumativas como de las comparativas. De acuerdo con esto,
escrib un artculo sobre la aplicabilidad del mtodo CIPP a la contabilidad
(SruFFLEBEAM, 1971). En este artculo, yo caracterizaba la evaluacin destinada a la toma de decisiones como formativa o proactiva por naturaleza, y la
evaluacin destinada a la responsabilidad como sumativa o retroactiva. El artculo fue escrito prinpalmente para exponer una versin del esquema presentado en la tabla 6-2. Este esquema muestra que las evaluaciones del contexto,
de entrada, del proceso y del producto pueden ser utilizadas tanto como guas
para la toma de decisiones, funcin formativa, como para suministrar informacin para la responsabilidad, funcin sumativa.
Basndose en este esquema, los evaluadores pueden planificar y realizar la
evaluacin con el fin de ayudar al personal a proyectar y llevar a cabo su programa. Dejando aparte la estrechez o amplitud de los requisitos informativos
de los que realizan el programa, pueden tambin pensar e intentar satisfacer
todas las necesidades informativas de las audiencias externas que algn da
desearn llegar a conclusiones acerca del valor y el mrito de ese trabajo de
perfeccionamiento. Adems, pueden realizar una relacin de la informacin
recopilada y evidencias sobre hasta qu punto la han utilizado como gua para
su trabajo. Aunque esta informacin puede que no responda a todas las preguntas de un evaluador sumativo externo, ayudar, sin lugar a dudas, a aclarar
algunas de ellas. Especialmente, si el mtodo CIPP se lleva hasta el final, proporcionar informacin muy til para plantear las siguientes preguntas:
1.
el
...
"-
~
<.l
...
2.
ClJ
"":l
.~
<.l
~
....
"-o
l:l..
.~
':l
>-4
l
l
.e....
(
(
Evaluacin sistemtica
-1J
<:
,..
~
<:
E-<
':
.~
...
o
3.
Qu necesidades han sido planteadas, cul es su trascendencia e importancia y hasta qu punto los objetivos del proyecto reflejan las necesidades
valoradas (planteadas por la informacin del contexto)?
Qu plan de procedimientos, de personal y de presupuesto ha sido adoptado para plantear las necesidades, qu alternativas se han considerado,
por qu se ha escogido una y no las otras, y hasta qu punto era una propuesta razonable, potencialmente exitosa y efectiva con relacin a su coste,
para satisfacer las necesidades valoradas (planteadas por la informacin de
entrada)?
....
__
.1
....
Evaluacin sistemtica
I
1
I
ji
)
:,1:
...........
!
190
..
')
191
')
pueden estar dirigidos hacia reas de inters especficas o centradas, ms generalmente, en una amplia gama de funciones de la institucin. En general, estos
estudios ayudan a la renovacin del sistema y a la promocin de un mejor y
ms eficiente servicio, al diagnosticar problemas concretos y modos de perfeccionamiento, Y comunicar los puntos fuertes y dbiles de la institucin respecto a su ciscunscripcin.
Los resultados de la evaluacin del contexto, idealmente, pueden conducir a una decisin acerca de la introduccin de algn tipo de cambio en el
sistema. Si la decisin es en sentido negativo, el personal de la institucin
debe continuar con las operaciones del programa de costumbre. Por el contrario, si se toma la decisin de cambiar, de alguna manera, la institucin, el
personal del programa debe clarificar el problema (o problemas) que debe{n)
ser resuelto{s) y formular sus objetivos. Seguidamente, deben considerar si existe alguna estrategia de solucin clara y apropiada, as como fcilmente adaptable a su situacin. Si la hay, deben adoptarla y redirigir su atencin hacia su
utilizacin y evaluacin en el programa, ya en marcha, de la institucin.
Si no aparece ninguna solucin satisfactoria, el personal, de acuerdo con el
diagrama, debe realizar una evaluacin de entrada. Una evaluacin de este
tipo debe localizar la literatura ms importante, interrogar al personal de otras
instituciones que hayan tenido xito en un problema similar, fomentar el ingenio y la creatividad del personal de la institucin y de los grupos de clientes,
y, posiblemente, contratar a expertos del exterior. Ms tarde, se encargar a
uno o ms equipos que propongan una o ms posibles estrategias de solucin.
La(s) propuesta(s) resultante(s) deben ser valoradas segn criterios como el
inters que tienen para las necesidades, problemas y objetivos establecidos, su
solvencia 'y su viabilidad.
Los resultados de la evaluacin de entrada pueden ser utilizados para decidir si ha sido hallada una estrategia de solucin lo suficientemente prometedora como para seguir adelante con su desarrollo. Si no ha ocurrido esto, el
personal debe considerar si el cambio deseado es 10 suficientemente importante para continuar la bsqueda y, si loes, debe reemprender la bsqueda de
otra estrategia de solucin. Si se ha encontrado una estrategia prometedora,
el personal debe decidir si esta estrategia puede ser justificadamente adoptada
sin comprobacin. Si la estrategia es bien conocida y el persOnal se considera
capaz de aplicarla, debe desviar su atencin a la incorporacin del cambio en
las actividades regulares que lleva a cabo, sin el apoyo de evaluacin especializada alguna.
')
")
')
)
')
)
)
')
)
)
)
)
)
)
)
).
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
(
(
192
Evaluacin sistemtica
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
FIGURA
6-1.
(
(
(
(
193
1.
(
(
La evaluacin es una parte integrante del programa regular de una institucin y no slo una actividad especializada relacionada con proyectos
de renovacin, y el perfeccionamiento del CIPP o de cualquier otro mtodo especializado es slo una parte del mosaico de la evaluacin formal
e informal de la institucin.
2. La evaluacin desempea un papel vital en la estimulacin y planificacin
de cambios.
3. La utilizacin de cada tipo de evaluacin del modo CIPP est indicada slo si es necesaria ms informacin de la que ya existe, y no por el
valor intrnseco de cada clase de evaluacin. En otras palabras, las evaluaciones del contexto, de la entrada de datos; del proceso y del producto son
slo una parte del gran marco evaluativo de cada institucin, y la funcin
ms importante de estos estudios encargados es servir a las necesidades
marginales, en lo que se refiere a la informacin evaluativa, de la institucin.
4. El desarrollo de nuevos programas debe incluir una previsin acerca de
su utilizacin prctica de la evaluacin, una vez que hayan sido aceptados
a travs de algo relacionado con la evaluacin con insercin de currculo
(en la que la evaluacin se construye mediante la realizacin de un currculo y, automticamente, proporciona una retroalimentacin til para el diagnstico, prescripcin y comprobacin de los progresos).
5. La informacin de la evaluacin no slo proporciona una gua para resolver problemas institucionales, sino que, si se realiza de cara a una revisin
pblica, tambin proporciona una base para juzgar si las decisiones acerca.
del fracaso o institucionalizacin de un proyecto especial se toman desde
posiciones justificables.
6. Las decisiones acerca del principio, mantenimiento, aplicacin o final de
los programas o de su perfeccionamiento, casi siempre reflejan fuerzas
dinmicas -racionales
e irracionalesque van ms all de la esfera de
estudio e influencia del evaluador.
'. ".....~~..~..
~
TABLA
Evaluaci6n
del contexto
6-3.
Evaluaci6n
...
<O
Evaluaci6n
Evaluaci6n
del proceso
del producto
[
e
Objetivo
Mtodo
Relacin
con
la toma de
decisiones en
el proceso de
cambio
Identificar
y valorar la capacidad
del sistema, las
estrategias
de programa
alternativas,
la planificacin
de procedimientos
para llevar a cabo las estrategias,
los presupuestos y los programas.
Identificar o pronosticar, dti- .. Recopilar descripciones y juirante el proceso, los decios acerca de los resultafeetos de la planificacin
dos y relacionarlos con los
del procedimiento o de su
objetivos y la infotmacin
realizacin,
proporcionar
proporcionada por el coninformacin
para las detexto, por la entrada de
cisiones preprogramadas
y
datos y por el proceso, e
describir y juzgar las acinterpretar
su valor y su
tividades
y aspectos del
mrito.
procedimiento.
Controlar
las limitaciones
potenciales
del procedimiento y permanecer alerta ante las que no se
esperaban,
mediante
la
obtencin de informacin
especfica de las decisiones programadas,
la descripcin del proceso real,
la continua interaccin con
el personal del proyecto y
la observacin de sus actividades.
Definir operacionalmente
y
valorar los crirerios de los
resultados,
mediante
la
recopilacin de los juicios
de los clientes y la realizacin de anlisis cualitativos y cuantitativos.
Decidir la continuacin,
finalizacin, modificaci6n
o
readaptaci6n
de la actividad del cambio. Y presentar un informe claro
de los efectos (deseados y
no deseados, positivos y
negativos ).
'o."
!J.
:J
en
en
...
ro
3
...
"',
'
'"
!?/
e
=:::
ro
oro
'3"
;ro
~
e
'"
o;
o
e;
, ~
:J
O r""'
c..
ro
t"-=.
~;.:::~~~
.~~ ;:-:"J
'C
-:n
t,~:}~
.. '
("
o
o
o'
:J
;; ~~\,p~
'"
3
.,.. '!".;7~.
t.'1
ro
~
ro
r- ~_.'.
t. ~l~;':
ro
:J
...
O(f"'..L.
,,,
v' ..-t (:.
~(-
o::rJ In
() r11 :j
_-o :.,(1
~6':r;
(l
<"
<O
C1I
:~~~
..............
. -c.,
I
Stufflebeam:
196
Evaluacin
la evaluacin
del perfeccionamiento
197
sistemtica
de
d del proceso y del producto. Estos
les de la evaluacin del contextfio"d entra a 'ac1'o'
n a sus objetivos, sus mtodos
,
d e estu d'10 son de nl os con re l
cuatro upos
y sus utilizaciones.
con su pblico con el fin de alcanzar una concepcin compartida de las virtudes
y defectos del distrito, sus necesidades y oportunidades y sus necesidades prioritarias. Puede ser utilizada para convencer a una agencia de subvenciones de
que el proyecto propuesto se refiere a un rea de urgente necesidad, o convencer a un electorado de la necesidad de aprobar unos impuestos. Puede ser
utilizada para formular objetivos referentes al desarrollo del personal y/o
la revisin del currculo. Puede ser utilizada para seleccionar escuelas concretas que necesiten una ayuda prioritaria. Desde luego, a menudo puede ser
utilizado para ayudar a los estudiantes y a sus padres o asesores a centrar su
atencin en las reas de desarrollo que requieren ms progreso. Tambin
puede ser utilizada para ayudar a decidir cmo interrumpir programas, con
la esperanza de ayudar a la institucin a ser ms fuerte hacindose ms pequea. Creo que stos son ejemplos importantes de cmo una evaluacin del
contexto puede ayudar a individuos y grupos a establecer prioridades en los
trabajos de perfeccionamiento. Tambin puede utilizarse ms tarde, cuando es
necesario valorar lo que se ha conseguido a travs de! perfeccionamiento del
proyecto. Una base para juzgar los resultados consiste en valorar si responden
adecuadamente a las necesidades identificadas durante la evaluacin del contexto. Finalmente, la evaluacin del contexto es un medio pertinente para defender la eficacia de las propias metas y prioridades.
Evaluacin de entrada
La principal orientacin de una evaluacin de entrada es ayudar a prescribir
un programa mediante e! cual se efecten los cambios necesarios. Esto lo realiza identificando y examinando crticamente los mtodos potencialmente aplicables. Es una anunciadora del xito, el fracaso y la eficacia de un cambio. Los
proyectos de cambio estn limitados por decisiones iniciales acerca de cmo
deben asignarse los recursos, y una solucin a un problema, potencialmente
efectiva, no tiene ninguna posibilidad de impacto si un grupo de planificacin
no identifica y valora, por 10 menos, sus mritos, cuando se est estructurando
su proyecto de cambio .
Esencialmente, una evaluacin de entrada debe identificar y valorar los
mtodos aplicables (incluyendo los que ya estn operando en el principal programa de inters) y ayudar a explicar y desmenuzar el que se ha' escogido
para su aplicacin o continuacin. Tambin debe buscar las barreras que limitan e! marco ambiental de los clientes, las limitaciones y los recursos potencialmente utilizables que deben tenerse en cuenta en el proceso de activacin
del programa. El propsito global de una evaluacin de entrada es ayudar
a los clientes en la consideracin de estrategias de programa alternativas en el
contexto de sus necesidades y circunstancias ambientales, as como desarrollar
un plan que sirva a sus propsitos; otra importante funcin que desempea
L
')
')
198
Evaluacin
Stufflebeam:
;,
1-
1.
'1
(l
la evaluacin
del perfeccionamiento
199
')
.,
Sistemtica
')
1
)
')
~;;'~',';/j~~::';,;::;:,;';;::'
;;:;:;:,::"~:::',u~:'l:;~,~n~,
d:ut~~:::
')
')
')
)
)
)
)
)
En esencia, una evaluacin del .
.,
realizacin de un pIan Uno d procebs? e.s una comprobacIOn continua de la
.,
.
e sus o jetlvos es pro'
'.
1
1
porCIOnar contmua InformaCIOn a los administrativos
actividades del programa siouen y a ~erson~ acerca de hasta qu punto las
un
haba planeado y utilizan lo"'s rec
ued~ nt~bol' se desarrollan tal como se
ursas lspom es de
fi '
tro
es
proporcionar
una
gUI'a
p'
d'fi
una manera e Clente,
O
ara mo 1 cal' o expl'
1 1
sea necesario puesto que no t d
1
lcar e p an tanto como
"
o os os aspectos de
1
d
nmados de antemano y algunas de las dec' ,
, ~n. p an pue en ser determs tarde, ser infructuosas Otro b"
ls;ones mlClales pueden demostrar,
,
'
o jetlvo mas es val r
' 'd'
que punto los que participan en loar
peno lcamente hasta
ar sus funciones Finalmente
e prolgrarr:~ aceptan y son capaces de desempe,
'
, una eva uaCIOndel pro
d b
'
extenso mforme del programa
1
ceso e e 'proporCIOnar un
lo con lo que se haba planific~u: re~ ~~nte se est llevando a cabo, compararcostes de su realizacin y sab
' ,es a , ecer un recuento total de los distintos
observadores como los part' ,el' como juzgan la calidad del trabajo tanto los
IClpantes
El eje central de una evaluaci~ del
proceso. Ocurre a menudo
1
Plroceso solvente es el evaluador del
que e persona de un P
f
'
ob tener una gua para su r l'
. 'd
rograma racasa al mtentar
ea IzaClOn y ocum t ' /
,
cual se debe a un fallo en 1
'
,/ d
en aCIOnpara sus actIvidades lo
/
a aSlgnacIOn e los t b'
A
'
erroneamente que los administrativos
ra aJos.
menudo, se asume
un adecuado trabajo de evaluaci
d Ylel personal pueden y deben realizar
n e proceso como parte normal de sus
)
)
)
)
)
(
)
)
)
)
)
)
)
)
.)
\
(
(
200
Evaluacin
Stufflebeam:
sistemtica
la evaluacin
del perfeccionamiento
201
(
(
(
(
(
("
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
{
t
(
t
1
del personal, el evaluador puede proyectar futuras sesiones informativas, modificar tanto como sea conveniente el plan de recopilacin de datos y actuar
en consecuencia. Debe demostrar continuamente que el propsito principal
de la evaluacin de un proceso es ayudar al personal a llevar a cabo su programa, a travs de una especie de proceso de cualificacin. A 10 largo de este
proceso interactivo, el evaluador debe preparar y archivar informes acerca de
su opinin sobre cmo est realizndose el plan del programa. Debe describir
las principales desviaciones del plan original, y debe especialmente tomar nota
de las variaciones experimentadas por el programa en lo que se refiere a las
distintas personas y subgrupos que llevan a cabo el plan. Tambin debe caracterizar la actividad de la planificacin y trazar la evaluacin del plan bsico
en el que se basa el programa.
La principal misin de la evaluacin del proceso es obtener continua informacin que pueda ayudar al personal a llevar a cabo el programa tal como
estaba planeado o, si se considera que el plan es inadecuado, modificarlo tanto
como sea necesario. Algunos administradores ven las reuniones informativas
regulares sobre la evaluacin del proceso como un medio de mantener al personal alerta y al corriente de sus responsabilidades. Los informes sobre la
evaluacin del proceso son tambin tiles para la contabilidad, puesto que las
agencias de subvenciones, las juntas polticas y los clientes desean saber, por
lo general, si se han realizado las inversiones que haban propuesto. Las evaluaciones del proceso pueden tambin ayudar a las audiencias exteriores a
saber qu se hace con un programa, por si tienen que realizar uno similar.
y una evaluacin del proceso es un fuente de informacin vital para interpretar los resultados de la evaluacin del producto, puesto que considerando la
realidad de los resultados del programa, se puede desear saber qu actividades
se han realizado para llevar a cabo el plan del programa.
Evaluacin
del producto
}
202
Evaluacin sistemtica
203
')
')
los resultados, tanto positivos como negativos. Pueden pedir a los participantes que r :esenten ejemplos concretos, como algo que hayan escrito, de cmo
ha influi~1 el proyecto en su trabajo. Pueden recurrir a observadores que
examinen el trabajo del programa y de los grupos de cotejo, y que desarrollen
y hagan efectivos tests que diferencien sus trabajos, ofreciendo as un punto
de vista sobre los pros y los contras de sus contribuciones (vase BRICKELL,
1976). Pueden identificar y examinar los resultados del programa con relacin
a un amplio inventario de resultados que han sido observados en programas
similares. Como ejemplo final, pueden organizar un juicio con jurado con
el fin de presentar y examinar todas las evidencias disponibles que reflejan
el xito o el fracaso del programa (vase WOLF, 1974).
El informe sobre los resultados de una evaluacin del producto puede
desarrollarse en distintas etapas. Los informes intermedios pueden ser presentados durante cada ciclo del programa para indicar hasta qu punto estn
siendo planteadas y satisfechas las necesidades fijadas. Los informes final-decido pueden resumir los resultados alcanzados e interpretarlos a la luz de las
necesidades pre-valoradas, el coste y los puntos del plan que se han cumplido.
Los informes subsiguientes pueden tambin presentarse para indicar si se han
conseguido algunos efectos a largo plazo. En estos informes, los resultados
deben ser analizados en su conjunto, por subgrupos e individualmente.
La utilizacin bsica de una evaluacin del producto es determinar si un
programa concreto merece prolongarse, repetirse y/o ampliarse a otros mbitos.
Tambin debe proporcionar una gua para modificar el programa con el fin de
que sirva mejor a las necesidades de todos los miembros interesados y resulte
ms efectivo con relacin a su coste. Desde luego, debe ayudar a quienes puedan
adoptar el programa en el futuro a decidir si merece una seria consideracin.
Las evaluaciones del producto tienen implicaciones psicolgicas, puesto que
al mostrar signos de evolucin y/o superioridad a los competidores, refuerzan
el trabajo tanto del personal como de los destinatarios del programa; asimismo,
pueden reducir el entusiasmo cuando los resultados son malos. La informacin
procedente de la evaluacin del producto es un componente esencial de cualquier informe de contabilidad y, cuando se evidencian logros significativos,
puede ayudar a conseguir apoyo financiero y poltico adicional por parte de
la comunidad y de las agencias de subvenciones. Cuando esta informacin
revela que no se ha avanzado mucho con relacin a los costes, la evaluacin
del producto puede ayudar a evitar la continuacin de inversiones infructuosas
en el programa. Adems, un informe sobre los resultados obtenidos, especialmente con relacin al mtodo utilizado y a los costes, puede ayudar a otros
evaluadores a decidir sobre la conveniencia de abor~ar una accin similar.
Los comentarios precedentes indican que la evaluacin del contexto, de
e~trada, del proceso y del producto desempean funciones nicas, pero tambl~ que e~is.te una relacin simbitica entre ellas. Ello demuestra que pueden
aplIcarse dlstlntos mtodos a cada tipo de evaluacin. Pero esto no est rela-
}
')
,
')
}
')
')
')
)
)
)
)
)
)
)
)
)
.)
)
)
(
)
)
)
)
)
)
)
)
')
204
Evaluacin sistemtica
205
('
(
(
f
(
El diseo de evaluaciones
Para saber cmo realizar una evaluacin -ya se trate de una evaluacin
del contexto, de entrada, del proceso o del producto (o algn tipo de combi.
nacin entre ellas)- el evaluador necesita, obviamente, planificar el trabajo
que debe hacer. Esto supone preparar los planes preliminares y luego modificarlos y explicarlos a medida que avance el estudio. Estos planes deben
incluir una amplia gama de elecciones referentes a la realizacin de la evaluacin, como por ejemplo las audiencias y cuestiones clave; si es ms apropiada
una evaluacin del contexto, de entrada, del proceso y/o del producto; el
objeto que debe ser valorado; el tiempo y lugar del estudio; el alcance y
naturaleza de los controles que deben imponerse; las comparaciones que deben
hacerse; las fuentes de informacin necesarias; los mtodos, instrumentos y
esquemas de la recopilacin de datos; las formas y procedimientos de designar,
archivar y conservar la informacin; los mtodos de anlisis e interpretacin;
las disposiciones para comunicar los resultados; y los criterios y acuerdos para
valorar los resultados de la evaluacin. Las decisiones acerca de estas actividades evaluativas son la base de la contratacin y financiacin del trabajo evaluativo, del trato con las instituciones implicadas, de la bsqueda de personal
para el estudio y de la programacin y direccin de las actividades de ese
personal.
Podemos desear que los evaluadores pongan fin a sus decisiones acerca de
la planificacin al principio, y luego las sigan fielmente. De cualquier forma,
las cualidades dinmicas e interactivas de muchas evaluaciones y la orientacin de su servicio hacen difcil, si no imposible, la proyeccin correcta y a
largo plazo de las necesidades informativas especficas. Como consecuencia, los
planes tcnicos para la recopilacin de datos y su anlisis anteriores al inicio
de un estudio, estn basados, a menudo, en presuposiciones errneas y resultan
ser, al final, inapropiados o incompletos. Un rgido seguimiento de la planificacin evaluativa original -especialmente
si se ha definido en trmino~ especficos- a menudo va en detrimento de la utilidad del estudio al dirigirlo
hacia cuestiones equivocadas, guiarlo mediante presuposiciones errneas y/o
convencer a los miembros de la audiencia de que el evaluador utiliza una
orientacin idealizada.
Por lo tanto, los evaluadores se enfrentan a un dilema. Por una parte,
necesitan disear cuidadosamente sus actividades evaluativas con el fin de realizarlas con eficiencia y aceptable rigor, as como para convencer a sus clientes
de que saben lo que estn haciendo. Por otra, necesitan un mtodo evaluativo
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
{
(
(
~
(
(
flexible y realizar una revisin y modificacin peridicas del diseo para que
la evaluacin siga respondiendo a las necesidades de las audiencias. Este dilema es especialmente problemtico para los evaluadores, puesto que los clientes, a menudo, esperan o exigen diseos tcnicos definitivos y ms tarde se
desilusionan cuando un rgido seguimiento de! diseo original proporciona
mucha informacin que no resulta til por demasiado tiempo. A menudo, los
clientes perciben que, de algn modo, los evaluadores deban haber sido ms
inteligentes al proyectar las necesidades informativas y ms habilidosos al
planear las actividades de recopilacin de datos.
Para enfrentarse a este dilema los evaluadores deben abordar el diseo
como un proceso, no como un producto, y necesitan conducir a sus clientes a
hacer lo mismo. Las metas y procedimientos evaluativos deben ser esquematizados de antemano, pero tambin analizados, revisados, ampliados y modio
ficados peridicamente. Fundamentalmente,
este proceso debe estar guiado
por un concepto justificable de lo que es una evaluacin solvente, por una
sensibilidad a los factores de! mundo real que a menudo interfieren en e!
trabajo evaluativo y por una comunicacin continua entre los evaluadores y
sus audiencias, acerca de la pertinencia y propiedad de la planificacin.
Al principio del proceso, creo que es importante escuchar e investigar.
Quines son los principales clientes? Qu piden de la evaluacin? Por
qu? Qu tipo(s) de evaluacin (del contexto, de entrada, del proceso o del
producto) puede(n) ser ms efectivo(s)? Cmo creen los clientes que debe ser
realizada la evaluacin? Qu perspectivas tienen en mente? Quines consideran que son la audiencia principal? Quin puede salir perjudicado a consecuencia de la evaluacin? Por qu? Qu cooperacin ser esencial? De qu
informacin se dispone? Cules son los antecedentes? Desde un punto de
vista realista, qu beneficios positivos pueden esperarse de la evaluacin?
Qu efectos nocivos pueden producirse, y cmo pueden ser evitados? Qu
cualificaciones se requieren para realizar el trabajo? Y as sucesivamente. Siempre que sea posible una eleccin, los evaluadores deben plantearse cuestiones
como stas antes de decidir si una evaluacin puede realizarse o si se dan las
condiciones apropiadas para hacerla.
Cuando haya asumido una decisin positiva para seguir adelante, e! evalua.
dor debe hacer un esquema global del plan. Este plan debe tener en cuenta
que el evaluador conoce e! marco de desarrollo y las necesidades concretas de
la ~valuacin, y que debe ajustarse a las normas generalmente aceptadas para
la realizacin de una evaluacin solvente. Adems, debe hablar, por lo menos
de un modo general, de toda la gama de tareas que debe realizar.
La tabla 6-4 proporciona una visin general de los puntos que deben ser
abordados en un diseo eval~ativo. Estos puntos son aplicables al desarrollar
el plan inicial o ms tarde, al revisarlo o explicarlo. Desde luego, slo sirven
como indicacin general de la informacin detallada que probablemente deber
ser proporcionada a la hora de operativizar el diseo.
T.,".
')
.';"
I
206
5tufflebeam:
Evaluacin sistemtica
')
207
')
TABLA
6-4.
Esquema de documentacin
Anlisis de la tarea
Definicin del objeto de la evaluacin
Identificacin del cliente y las audiencias
Propsto(s) de la evaluacin (perfeccionamiento del programa, responsabilidad
y/ o comprensin)
Tipo de evaluacin (del contexto, de entrada, del proceso o del producto) que
va a emplearse
Principios de una evaluacin solvente (utilidad, viabilidad, propiedad y exactitud) que deben ser observados
Plan para la obtencin de informacin
Estrategia general (examen, estudio de casos concretos, grupos asesores o
experimentos)
Presuposiciones de trabajo que sirvan de gua para la valoracin, el anlisis
y la interpretacin
Recopilacin de informacin (muestreo, instrumentalizacin y recopilacin de
datos)
Organizacin de la informacin (codificacin, archivo y conservacin)
Anlisis de la informacin (tanto cualitativa como cuantitativa)
Interpretacin de los resultados (identificacin de las normas y elaboracin
de los juicios)
Plan para el informe sobre los resultados
Preparacin de los informes
Difusin de los informes
Previsin para continuar las actividades con el fin de promover el impacto
de la evaluacin
Plan para la administracin del estudio
Resumen del programa evaluativo
Plan para satisfacer los requisitos econmicos y los del personal
Previsin para la metaevaluacin
Previsin para renovaciones peridicas de la planificacin evaluativa
Presupuestos
Memorndum de compromisos o contratos
La formulacin del diseo requiere que el cliente y los evaluadores colaboren, desde el principio, cuando deban acordar la realizacin de una tarea.
El cliente necesita identificar .el objeto, por ejemplo el programa que va a
ser evaluado, y el evaluador puede ayudar conduciendo al cliente hacia una
definicin clara y realista de los lmites en los que debe desenvolverse. El
cliente es la fuente principal para identificar los distintos grupos que tienen
un inters potencial en el estudio, pero el evaluador tambin necesita basarse
)
}
')
J
)
)
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
,
(
208
Evaluacin sistemtica
209
(
(
(
(
(
(
(
{
(
(
(
(
(
(
(
orientada a operar con los planes tcnicos y conceptuales. El evaluador necesita identificar y esquematizar las tareas evaluativas, de acuerdo con las necesidades del cliente y teniendo en cuenta las limitaciones prcticas. Es necesario identificar al personal que realizar el trabajo evaluativo y los recursos
especiales que se utilizarn (como el espacio de trabajo y las facilidades para
el proceso de datos); y el cliente necesita estar seguro de que el p~rso.nal
propuesto goza del necesario nivel de credibilidad exigido por las audienclas.
El evaluador y el cliente necesitan estar de acuerdo en el modo en qu.e se
valorarn, comparndolos con unas normas comunes, los planes evaluat~vos,
los procesos y los informes. Tambin deben estar de acuerdo en el mecamsmo
por el que peridicamente se revisa, actualiza y documenta el desarrollo del
diseo evaluativo. Necesitan proponer un presupuesto realista. Y, desde mi
punto de vista, deben resumir y formalizar sus acuerdos generales a~erca de
la forma y funcin de la evaluacin en un memorndum de compromlso o un
contrato.
El anterior comentario de la tabla 6-4 es, necesariamente, muy general, pero
indica que disear una evaluacin es un trabajo complejo e interminable. Se
recomienda una colaboracin continua entre el evaluador y el cliente, y se
destaca la importancia del desarrollo del diseo evaluativo con el fin de satisfacer las necesidades informativas que se presentan. Tambin se destaca la
necesidad de mantener la integridad profesional en el trabajo evaluativo.
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
Metaevaluacin
y normas
cI::o aos, un comit que tuve el privilegio de dirigir, representado por doce
organizaciones profesionales, desarroll estas normas (Standards).
Las metaevaluaciones que se llevan a cabo, en este pas y en otros, utilizando las Normas como criterio para los juicios, indican que los contenidos
de las Normas forman una base sustancial para la metaevaluacin. Si un evaluador (o un grupo evaluador) realiza una utilizacin sensata de las Normas,
junto con los clientes, tanto antes como despus de un estudio evaluativo, el
resultado ser una evaluacin slida y convincente. Una aplicacin as de las
Normas ayuda a asegurar que el informe final de la evaluacin ser til, viable,
exacto y vlido.
Conclusin
Michael Scriven dijo una vez que la evaluacin es una operacin tmida.
Y yo me he acordado a menudo de la advertencia bblica: No juzgues y no
sers juzgado.
Pero la evaluacin es tambin una necesaria faceta del perfeccionamiento.
No podemos mejorar nuestros programas a menos que sepamos cules son sus
puntos dbiles y fuertes y a menos de que dispongamos de mejores medios.
No podemos estar seguros de que nuestras metas son vlidas a menos que podamos compararlas con las necesidades de la gente a la que pretendemos servir.
No podemos realizar una planificacin efectiva si no conocemos bien las opciones y sus mritos relativos. Y no podemos convencer a nuestros clientes
de que hemos hecho un buen trabajo que merece un apoyo econmico continuado a menos de que les mostremos evidencias de que hemos hecho 10 que
prometimos y que ello ha producido resultados beneficiosos. Por estas y otras
razones, los servicios pblicos deben someter su trabajo a una evaluacin
competente. Debe ayudrseles a diferenciar 10 bueno de 10 malo, a marcar el
camino para el perfeccionamiento necesario, a ser responsables con sus patrocinadores y clientes, y a alcanzar una mayor comprensin de su especialidad.
Esta unidad ha insistido en la funcin perfeccionista de la evaluacin. Se
ha hablado del modelo CIPP, se ha mostrado su desarrollo, se ha contrastado
con otros mtodos, se ha demostrado cmo puede utilizarse para conducir al
perfeccionamiento y servir a las necesidades de la responsabilidad y se han
expuesto sus conceptos principales. Se ha proporcionado una gua general para
la planificacin de los estudios evaluativos. Adems, haciendo referencia al
Standards lor Evaluations 01 Educational Programs, Proiects, and Materials
(Joint Committee, 1981), la unidad ha situado el modelo CIPP dentro de 10
que parece ser un naciente consenso acerca de 10 que es una buena y beneficiosa evaluacin.
IV
"'~J
.-r'
)
')
210
Evaluacin sistemtica
211
)
... Res~uesta
correcta.
Debe usted haber seleccI'onado 1a b. Esta descrip. d
d
Clon esta e acuer o con lo que se dice en el texto.
Este test de conocimientos contiene diecisis cuestiones con mltiples respuestas posibles, para que usted elija una. El propsito de estas cuestiones es
ayudarle a saber si ha alcanzado los objetivos de conocimiento de esta unidad.
En cada cuestin, seleccione la respuesta que considere acertada. Luego compare su eleccin con la explicacin que le proporcionamos.
Cuando haya terminado de responder a todas esas cuestiones, podr calificar e interpretar (y, si se da el caso, mejorar) su trabajo global. Luego deber
intentar realizar unas cuantas cuestiones prcticas. La unidad concluye con
una serie de preguntas sin respuesta Y una lista de lecturas recomendadas.
a)
')
)
Respuestas incorrectas
')
e)
d)
)
')
)
')
')
)
PREGUNTA
.
comit
PDK 2 . e'C ua,'1 dI'e as dSlgUIentesafirmaciones
no es considerada por el
como un Slntoma e la enfermedad evaluativa?
')
b)
sus programas.
Los educadores confan mucho en la capacidad dI'
zar evaluaciones solventes.
e os expertos para re ah-
e)
.
f
d) Aunq
res g~~e:~a~~~~:~:~ on~os para eva~uar sus proyectos, los patrocinado-
la realizacin de 1
nO a~ proporclOn~do unas directrices claras para
as eva luaClOnes necesanas.
)
Respuesta
comit
PDK bcorrecta . Debe
1 us t e d h ab er sel'eCClonado la b. En realidad el
o serva que os educadore
' .
'
pertos pudieran llegar a un
d
sberan esceptIcos acerca de que los exacuer o so re qu el"
1
mucho menos dirigir estudios q
d'
d s una eva uaClOn so vente y
sus trabajos.
ue pu leran ayu ar a los educadores a realizar
)
)
)
)
Respuestas incorrectas L
sntomas mencionados po; el a;o::~u~~~
evaluativa.
a, ~
)
)
)
)
)
)
)
)
f
(
212
b)
e)
{
(
d)
(
(
sistemtica
8tufflebeam:
a)
b)
e)
Respuestas incorrectas
(
(
(
b)
c)
b)
e)
d)
PREGUNTA4. Cul de las siguientes afirmaciones, de acuerdo con el comit PDK, caracteriza mejor las limitaciones de la base lgica tyleriana enfrentndola a la evaluacin de los proyectos ESEA?
a)
(
(
(
b)
e)
d)
(
(
(
t
(
t
f
213
Los evaluadores no incluyen debidamente los datos recogidos en el micronivel de un sistema con el fin de que estos mismos datos puedan ser utilizados para ayudar en la toma de decisiones del macronivel del sistema.
Los evaluadores no determinan qu informacin es necesaria en cada nivel
del sistema antes de planificar su recopilacin de datos y las actividades
del anlisis.
Los evaluadores no controlan los niveles de inters de sus informes evaluativos.
Los evaluadores no separan adecuadamente los datos recogidos en el
macronivel de un sistema con el fin de que esos mismos datos puedan
ser utilizados para responder a cuestiones especficas en los microniveles
de ese mismo sistema.
c)
del perfeccionamiento
PREGUNTA5. Cul de las siguientes afirmaciones caracteriza mejor el problema de los niveles?
a)
a)
la evaluacin
Respuestas incorrectas
(
(
Evaluacin
(
(
d)
Yf.,:.-",;'
214
I
Evaluacin
Una evaluacin es un juicio sobre el valor o el mrito, esto es, una prueba.
El criterio bsico para determinar el xito o el fracaso de un programa
debe encontrarse en los objetivos del programa.
El principal prop6sito de la evaluacin educacional es proporcionar intuiciones acerca del proceso enseanza-aprendizaje.
El alcance de la informacin potencialmente til en una evaluacin es
c)
d)
')
8tufflebeam:
sistemtica
amplio.
d)
la evaluacin
del perfeccionamiento
215
.,
)
Respuestas incorrectas
b)
c)
d)
')
')
')
)
')
)
)
)
Respuestas incorrectas
Es incorrecta porque la definicin describe la evaluacin no como una
prueba sino como un proceso de designacin, obtencin y aplicacin de
a)
b)
c)
la informacin.
.
Es incorrecta porque la definicin exige la descripcin y el juicio de las
metas, el diseo, la realizacin y el impacto de un programa, y porque
esto implica que el criterio bsico de los juicios debe derivarse de conceptos como el valor o el mrito.
Es incorrecta porque aunque la definicin identifica la promocin de una
mayor comprensin como un propsito legtimo de la evaluacin, el comentario relacionado con esta definicin destaca repetidamente la primaca de la orientacin perfeccionista.
PREGUNTA7. Cul de las siguientes afirmaciones contrasta con ms exactitud el modelo CIPP con el mtodo evaluativo de Stake?
a)
b)
c)
a)
)
)
)
tIVOS.
b)
c)
d)
El modelo prop?:ciona un informe sobre los modelos escogidos y las bases de esa elecclOn.
El ~odelo proporciona informacin sobre si el programa debe concluir
contmuar o ser modificado.
'
~l fimodelo proporciona un ~ontrol para las actividades del programa con
e n de que puedan perfecclOnarse mientras se llevan a cabo.
l' ~~spues{a corre~ta. Debe usted haber seleccionado la b. La responsabis~~ClO~es h~ capacIdad d~ describi~ y justificar decisiones y acciones del pa~. ; a I que prop~rclOnar un mforme de los objetivos escogidos, de los
rec aza oSlY del. ~orque de todo esto sea una utilizacin de la evaluacin del
contexto a serVIClOde la responsabilizacin.
)
)
)
)
)
)
)
)
)
Respuestas incorrectas
)
)
)
)
,
f
f
216
Evaluacin
sistemtica
Stufflebeam:
e)
d)
d)
a)
b)
(
(
e)
d)
(
(
(
(
(
(
217
E.s coherente con CIPP porque Stufflebeam define la funcin perfecciomsta como algo que supone tanto la mejora de los servicios como la distribucin de los recursos entre los programas ms valiosos y meritorios.
del perfeccionamiento
la evaluacin
(
(
Los servicios evaluativos deben estar planificados con el fin de proporcionar un suministro regular de informacin til para quienes toman las decisiones en una institucin.
Las evaluaciones deben ser utilizadas principalmente para asegurar que
los programas mejoren continuamente sus servicios.
Para ser aceptadas y utilizadas, las evaluaciones deben empezar con la
presuposicin de que el programa que va a ser examinado es bsicamente
vlido o que, en el peor de los casos, necesita una mejora.
Para ayudar al perfeccionamiento de los servicios, las evaluacio~es d:ben
ayudar a quienes toman las decisiones a distribuir los recursos dIspombles
entre los programas que mejor satisfacen las necesidades de los clientes
de la institucin.
la resolucin de problemas.
b) Para asegurar que se ha satisfecho toda la gama de necesidades informativas de una institucin, todos los programas deben ser sometidos a eval~aciones del ,co.ntexto, de entrada, del proceso y del producto, segn
Clertas bases cIchcas.
e)
d)
La r~aliza~in de c~,alquier estudio evaluativo slo estar justificada si proporClona mformaclOn necesaria que vaya ms all de la ya disponible.
Los e~alua.dores deben asumir que aunque su trabajo pueda incrementar
la raclOnahdad en la toma de decisiones de una institucin la decisin
de empezar, cont~nuar y/o terminar los trabajos de perfec~ionamiento,
~epe~den necesanamente de una amplia gama de cuestiones racionales e
IrraClonales que estn ms all de su alcance y control.
Respuestas incorrectas
Respuestas incorrectas
a)
e)
d)
Es. coherent~ ca?, la concepcin de Stufflebeam porgue la figura 6-1 permite la finalIzaclOn de programas y de trabajos evaluativos sobre progra-
. Respuesta correcta Debe usted haber seleccionado la b. En su comentano de la figura 6-1, Stufflebeam destaca que las evaluaciones del contexto, de
en~rada, d.el proceso y del. producto deben realizarse slo cuando puedan contribUIr a satIsfacer las necesIdades evaluativas marginales de una institucin.
a)
(
{
(
t
(
(
b)
218
Evaluacin sistemtica
de su necesidad o de los
d)
Evaluacin
Evaluacin
Evaluacin
Evaluacin
del contexto.
de entrada.
del proceso.
del producto.
Respuesta correcta. Debe usted haber seleccionado la b. Las evaluaciones de entrada identifican y valoran los mritos relativos de los planes alternativos para llev~r a cabo cualquier tipo de cambio proyectado.
Respuestas
incorrectas
d)
')
')
5tufflebeam:
d)
a)
b)
e)
Valorar los avances en la realizacin de un programa de trabajo y explicar tambin por qu los resultados del proyecto se han producido tal como
10 han hecho.
Identificar y comparar los diversos planes para la consecucin de una
determinada serie de objetivos, y a la vez responsabilizarse de escoger
un tipo de accin entre otras posibilidades.
Reformular las metas y prioridades, y tambin seleccionar escuelas y/o
. programas de atencin prioritaria.
219
')
")
-,
}
}
)
')
Respuestas incorrectas
b)
e)
d)
')
')
')
)
)
)
PREGUNTA13. Cul de las siguientes afirmaciones es ms coherente con
las recomendaciones metodolgicas de Stufflebeam respecto a la realizacin de
evaluaciones del contexto?
a)
b)
e)
d)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
.~
.....
........
)
,' ~ r
"J
;
r- \
'"''''\
,
f
f
220
Evaluacin sistemtica
Respuestas incorrectas
a)
b)
(
(
c)
'1I
a)
b}
(
(
c}
(
(
d}
(
(
Se aplica principalmente cuando se han desarrollado las distintas soluciones de un problema concreto, reunindolas y dejndolas listas para
su utilizacin.
Proporciona un debate entre representantes de grupos histricamente antagonistas, donde stos pueden competir en una bsqueda y valoracin
de las diversas propuestas programticas.
Es una orientacin constructiva, puesto que los grupos asesores estn
encargados de crear nuevas soluciones para problemas especficos en lugar
de abordar las estrategias ya existentes o propuestas.
Los informes presentados por el grupo asesor estn sujetos a algn tipo
de valoracin independiente.
Respuesta correcta. Debe usted haber seleccionado la a. Por el contrario, esta tcnica est destinada especficamente a situaciones en las que las
estrategias ya existentes se consideren inadecuadas.
Respuestas incorrectas
b)
(
(
c)
(
(
d)
,,
221
e)
d)
La plan~cacin evaluativa supone un proceso que primero planea y luego modifica y desarrolla los procedimientos evaluativos.
Las elecciones que deben hacerse al formular una planificacin evaluativa
pueden realizarse mediante una seleccin, instrumentacin y anlisis de
muestras.
Cuando ~mpi~a a, pl.anificar una evaluacin, el evaluador debe proponer
una plam~c~Clo~ optIma, y. luego negociar slo aquellas desviaciones que
suponen limltaClOnes esencIales y concretas de tiempo y recursos.
El evaluador debe buscar desde el principio un acuerdo con el cliente
respecto de que la planificacin evaluativa, una vez determinada, debe ser
llevada a cabo de una manera tan precisa como sea posible con el fin de
asegurar que los resultados no sern interpretados ambiguamente.
e)
d)
Es incorrecta porque estas caractersticas slo cubren los aspectos tcnicos de una ~lanifi~acin evaluativa y omiten otras elecciones que Stufflebeam .consIdera Importantes, a saber, la planificacin del coste, el plan
par~ el Informe de los resultados y el plan de administracin.
Es lllcorrecta porque segn sugerencia se olvida la insistencia de Stufflebe~ en una evaluacin que responda a las necesidades de la audiencia.
Es I~~or:e:t~ porque Stufflebeam dice que seguir rgidamente una planificaClon Imclal conduce, por 10 general, a satisfacer deficientemente las
necesidades del cliente.
)
')
222
e)
d)
Evaluacin
Stufflebeam:
sistemtica
Las Normas del Joint Committee suponen prinCIplOs ampliamente compartidos acerca de lo que es un buen programa educativo.
.
Las Normas del Joint Committee se desarrollaron para clarificar cuatro
condiciones bsicas de una evaluacin solvente.
a)
b)
d)
Ejercicios prcticos
Este apartado contiene cuestiones prcticas destinadas a ayudarle a va~orar
si ha entendido las premisas y conceptos bsicos presentados en esta umdad.
Le recomendamos que responda a las cuestiones en hojas de papel separadas.
Cada una de las cuestiones va seguida de una respuesta-ejemplo o de una lista
de los puntos pertinentes que deben estar incluidos en su respuesta. Su revisin le ayudar a valorarla.
EJERCICIO 1. El concepto de evaluacin propuesto por el CIPP identifica cuatro tipos de evaluacin que se corresponden con cuatro tipos de decisiones. Lo que sigue es una breve descripcin de un hipottico trabajo de perfeccionamiento. Analice este ejemplo e identifique qu casos de evaluacin del
contexto, de entrada, del proceso y del producto pueden ayudar a formular
la evaluacin
del perfeccionamiento
223
')
')
')
')
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
J
)
)
(
("
(
f
(
(
(
(
(
{
(
(
(
224
Evaluacin sistemtica
. 1 L
rofesores se muestran de acuerdo, y con
de ms instrumentos muslc~ es. oSbP
. es modifican en consecuencia el
1"
d 1 agenCIa de su venCIOn ,
f'
,
el benep aclto e a
'l'
mplo de cmo los in armes penolan
el presupuesto. Este es so o un eje
p
y
. , 'nf1
1 realizacin del proyecto.
dicos del comlte luyen
en a
.,.
f ma que el proyecto ha tenido muel comlte In or
bo d
Al ca
e tres anos,
1
1 disponen ahora de una banda. Las
cho xito. Todas las escuelas e elmenta es se imparten a todos los estudian.
d
,.
instrumenta en grupo
.
b
leCCIones e practIca
..
. 'n de todos los estudIantes es uena.
. d 1
d La partIC1paCIO
tes a partir e cuarto gra o.
1
.
clubs de apoyo activo a las bandas.
lIs
elementa es tienen
. 1 .
Dos de as tres escue a
1
'd d
han ofrecido a impartIr eCCIOnes
. b s de a comum a se
.
y unos pocos mlem ro
Basndose en este informe, la Junta
de msica gratis como parte del ~rogr~~a'd 1 proorama y proporciona fondos
de educacin recomienda la contInuaClOn e f '"
regulares para pagar los salarios de los dos pro esores.
.
Phil Anthropy
(
(
(
(
b)
(
(
c)
(
(
(
(
,t
d)
T
ra determinar que los chicos neceLa evaluacin del.contexto se u~~l~aJea desarrollar sus intereses y capacisitados rara vez tienen oportunl al d
brimiento de que el distrito es
dades musicales. Igualmenfte, en e :s~~cas instrumentales en la escuela
especialmente pobre en o ertas d e prac
elemental.
identificar y valorar los dos plae T
La evaluacin ~e ent~ada sd utIlIza la;a
de prcticas instrumentales del
nes de perfeCCIOnamIento e as o er as
distrito.
1 "1
r determinar que deben ser dos,
La evaluacin del proceso resu ta utI Pllaa
cabo el proyecto y que se
1
os profesores que even a
y no tres, os nuev
. .,
haba asignado para la comnecesita ms dinero del que en pnnclpIO se
pra de ins:r,umentos. d
. d'
que el proyecto, en muchos aspectos
La evaluacIOn del pro ucto In Ka
.
importantes, ha tenido xito y merece contInuarse.
225
{
(
a)
El mtodo que recomendamos responde a su principal preocupacin: determinar la efectividad de sus inversiones. Adems, supone una garanta
de calidad o una orientacin perfeccionista. Nuestra principal preocupacin es asegurarnos de que los informes que elaboremos sern tiles y
utilizados.
b)
e)
d)
e)
f)
Bsicamente, valoramos su programa y cada uno de sus proyectos con relacin a las necesidades valoradas (valor) y a la calidad del trabajo y de los
resultados (mrito).
g)
Planificamos y realizamos nuestro trabajo teniendo en cuenta las razonables limitaciones de tiempo y recursos, con el fin de asegurar que nuestro
trabajo resulte tan discreto como nos sea posible.
Trabajamos con su grupo para asegurar que la evaluacin se realiza sobre
una base justa e imparcial.
h)
i)
En general, valoramos nuestros planes e informes segn su utilidad, viabilidad, propiedad y exactitud.
---_IIo..Jii1.;
)
~
226
I Evaluacin sistemtica
d
dos colaboradores han sido encargaEJERCICIO 3. Suponga que usbte. Yd t s das en su especialidad, con
.
t 11r de tra a)o e re,
1 .,
dos de orgamzar un a e
d
propone emplear la eva uaClOn
s y que uste se
alrededor de sesenta persona ,
.'
S ponga adems que se propone
. , d la expenenCla. u
1
como gua y va oraClOn e
h dispondr de 300 dlares para
d 1 CIPP
que como muc o,
1h 1
utilizar el mo e o
. y
,.
L
x eriencia tendr lugar en e ate
llevar a cabo el trabajo evaluatlvo.
a e p
durante seis semanas.
. .
que cree necesarias. Luego diga los
Haga una lista de las presuposiciones . 1
ara ser empleados en la eva,
d
.
de datos esenCla es p
.
que segun
uste , son tlpOS
d l.
del producto SegUldamente,
'
d
d
e proceso y
.
.
luacin del contexto, e entra a,
h
pi'lado para cada tipo de mfor.
1 d 1 datos que a reco
d
proporcione eJemp os e os.
d
pilacin de datos. Finalmente,
es'd
'fi
1 medlOs e esa reco
h
l' d
macin e 1 entl que os.,
1
x li ue detenidamente cmo a ana iza o
criba el plan de evaluaclOn globa y e p q
sta en ha)'as de papel separaDi ponga su respue
1 d
y presentado los resu ta os.
s ,
1
ema de la figura 6-2.
das. Quiz le resulte til, como gUla, e esqu
Requisitos generales
con relacin
a los datos
')
Hiptesis de trabajo:
')
')
1.
2.
3.
4.
5.
Medios para
la recopilacin
de datos
227
Hiptesis de trabajo
Datos que deben
ser recopilados
en esta evaluacin
6.
l
)
')
)
')
)
)
)
)
Evaluacin
del contexto
Evaluacin
de entrada
)
)
Evaluacin
del producto
I
FIGURA 6-2.
Descripcin narrativa
del plan evaluativo
que destaque espe~ialmente
el anlisis y los mformes
El personal del taller debe coordinar la evaluacin del contexto. Bsicamente, debe incorporar las cuestiones de evaluacin del contexto en forma de
aplicaciones concretas a la experiencia: deben leer y discutir cada aplicacin
como un medio de examen y revisin de sus objetivos provisionales. Adems,
deben reunirse con uno o ms representantes de la agencia de subvenciones
para obtener una mejor comprensin de las necesidades y recursos de mbito
estatal, as como reacciones crticas a sus planes. Deben telefonear y enviar
peticiones escritas a las autoridades del estado y a los distritos escolares con el
fin de obtener documentos relativos a los programas de los institutos, y deben
encargar a su ayudante graduado que lea y haga un informe sobre estos documentos, comparndolos con los objetivos del taller. Finalmente, deben ensear
al graduado a preparar un informe sobre los antecedentes, centrado en las caractersticas y necesidades generales de los participantes seleccionados, del es-
)
)
,)
)
)
)
)
)
)
)
)
)
,r~-',.
.,.-"~-~~~-~~=tJi>.,---jIf>.;,-""-~--"'--"~_-_'_"A_-'" . -..F;
H' ., '. '!"., ~::!
'o'!' ~,'~
~::J.. l,,""",:"",'-0"'
~);' ~;J';'~ f,;,J ';,;J '",-.! J,l ,A ':'
' ..' ,," ' ',"
;".
. ,
A,
,"...,
....
.....,'
~-- . _
.:'.
lA"":.J
""",
,...,.... ~
'
r"
i"!lIi:
;J:"'l~""'T:""""'"
, .. "-"""'_.--
'_
.
l\)
l\)
Requisitos generales
para los datos
Datos
Medios
00
para la recopilacin
de datos
~
Evaluacin
texto
del
con-
Necesidades
Problemas
Evaluacin
de entrada
Planes
Peticiones
y escritas (4)
III
e
o;
III
()
:J
U>
;
...
ro
3
e',.'
Ci'
D>
Oportunidades
Objetivos
1. Informes
de ln.
.~- futur
..
_
cipantes sobre sus razones para
participar
en el taller y sobre
sus experiencias con programas
de lectura
4.
propuestos
Informes pertinentes
las escuelas locales
1. Planes e informes
cias similares
alternativos
acerca de
y estatales
de experien-
por
de
de
Entrevistas
telefnicas con directores de experiencias similares (l, 3)
Reunin para discutir el plan del
personal comparndolo
con los resul tados de la entrevista telefnica
(2,3)
,,,,-",,~,,;,,,".,
~
...
....._--~:..~
..
~,
..
"
del
pro-
Realizacin
del plan, nivel
de participacin
por temas,
nivel de satisfaccin
Asistencia
3.
Valoraciones
4.
Sugerencias
y las
y participacin
del proceso
para mejoras
Reuniones
diarias con una
sentacin de los participantes
Un observador
repre(3, 4)
(1, 2, 3, 4)
Valoracin
diaria (3, 4)
Sesin
informacin
CJ)
de
diaria
....
e
( 1,
::!i
3,4)
Evaluacin
ducto
del
pro-
de la calidad de
de la experiencia
3. Aplicaciones
del conOCimIento
adquirido tras la experiencia
4.
Valoraciones
de la experiencia
ro
oro
Escalas de autovaloracin
y posteriores (1)
III
anteriores
3
)
ro
<
~
e
III
()
o;
:J
a.
~
Informe
telefnico
Valoraciones
(3)
de la experiencia
"O
(4)
ro
::.,
ro
()
()
::;.
Juicio resumido
de los representan tes de la agencia de subvenciones (4)
FIGURA
6-3.
:J
III
ro
:J
...
o
''""
CD
.~
'!~
ti
f:"
;~.;.
-----))
")
230
Evaluacin
sistemtica
Stufflebeam:
la evaluacin
del perfeccionamiento
231
")
.,
.,
)
1
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
j
)
j
)
)
)
f
f
(
(
(
(
(
(
232
(
(
Evaluacin sistemtica
4.
es su respuesta?
Guba ha afirmado que el modelo CIPP es til principalmente para los
programas de largo alcance y slo es aplicable en situaciones en las que
existe un alto nivel de labor administrativa, mucho dinero para financiar
el trabajo evaluativo y un alto nivel de perfeccin tcnica. Cmo respondera usted?
(
(
Referencias bibliogrficas
AnAMS,J. A. 1971. A study o/ the status, scope and nature o/ educational evaluation in Michigan's public K-12 school districts. Tesis doctoral indita, Universidad del Estado de Ohio.
BRICKELL,B. M. 1976. Needed: Instruments as good as our eyes. Centro de Evaluacin, Universidad de Western Michigan, Occasional Paper Series, nmero 7,
Kalamazoo, Michigan, julio.
CRONBACH,1. J., y colaboradores. 1980. Toward re/orm of program evaluation,
San Francisco, Jossey-Bass.
FINDLAY,
D. 1979. Working paper for planning an evaluation system. Indito, The
Center for Vocational and Technical Education, Universidad del Estado de
(
(
(
(
(
(
(
(
(
(
Ohio.
GUBA,E. G. 1969. The failure of educational evaluation, Educational Technology,
9, pgs. 29-38.
Joint Committee on Standard s for Educational Evaluation. 1981. St~ndards for
Evaluations o/ Educational Programs, Projects, and Materials. Nueva York,
McGraw-Bili.
NEVO,D. 1974. Evaluation priorities o/ students, teachers, and principals. Tesis
doctoral indita, Universidad del Estado de Ohio.
PATTON,M. Q. 1978. Utilization-/ocused evaluation, Bevetly Bilis/Londres, Sage
Publications.
Referencias bibliogrficas
233
REINHARD,D. 1. 1972. Meth~dology development /ar input evaluatin using advocate and deszgn teams. TeSIS doctoral indita, Universidad del Estado de Oh
ROOT,D. 1971.. The. evaluation training needs o/ superintendents o/ sehool T ?
doctoral, UmversIdad del Estado de Ohio.
s. eSIS
SANDERS,
J R. Yl SACHSE, T. P. 1977. Applied performance testing in the classj
~~~:' 92~~;~~
o/ Research and Development in Education (primavera), 10,
SCRI~N, M. 1966..The metho~ology ?f evaluation. Publicacin n. 110 de la Social
~cIdendce
pEdudcatl0Ln
fConsortlum: DIrector ejecutivo: Irving Norrissett, Universia e ur ue, a ayette, IndIana .
-. 1~70. Critique of the PDK Book, Educational Evaluation and Decision Makzng.P~esenNtadaen el congreso anual de la American Educational Research
AssocIatIon, ueva York.
-.1972. An introduction to metaevaluation. En P A TAyrOR D M C
(comp) R d'
.
. l
..
y . . OWLEY
., ea zngs zn currtcu um evaluation Dubuque Iowa W C B
STAKE'dR 1967. T~e countenance of educatio~al evaluation, T~ach~rs .Co~~;mge
.Recor,
8, 7 (abril).
STUFFLEBEAM
.
~ D " L 1966 . A d ept h stu dy of the evaluatlon
requirement Theory
1nto P ractlce, 5, n. 3, pgs. 121-133.
'
-.1969.
Evaluatian as enlightenment for decisian making. En A. WALCOTT
(comp.), Improvmg educ.ational assessment and an inventory o/ measures o/
affectlVe behavlOr, Washmgton, D.C., ASCD.
-. 19?~. The re1evance of the CIPP evaluation model for educational accountabllity, Journal o/ .Research and Development in Education (otoo).
-.1975.
Met.aevaluatlOn. Oceasional Paper Series. Kalamazoo MI' hi
de
1
' U'
'd
'
c gan Centro
eva uaClOn, nrverSI ad de Western Michigan 3.
'
STUFFLEBEAM
'.
' D .. L Y ot ros. 1971 . Ed.ueatlOnal evaluatlon
and decision making
I tasca, 111., Peacock.
'
TYLER,R . 3W, 1~42. General statement on evaluation, Journal o/ Educational Researc, h 5, pags. 492-501.
WE~ST~R,
1975. The.oranization and functions of research and evaluation
m a~ge lit an s~hool dIstncts. Texto presentado en el congreso anual de la
Amencan EducatlOnal Research Association Washington. D C
WOLF R L 1974 Th
r'
'
, .. , marzo .
. ' T' : d .
~ a?~ Icatlon of select legal concepts to educational evaluatlOn. eSIS octoral medIta, Universidad de Illinois.
6'
W'l'
-~)-
.J
')
")
")
')
")
,)
,)
)
,)
J
)
,)
,)
"
Los exigentes requisitos federales para la evaluacin que se impusieron en
la educacin americana en la dcada' de los sesenta estimularon el desarrollo
de algunos nuevos mtodos evaluativos. Uno de estos mtodos fue introducido por Robert Stake en 1967 con lo que se dio en llamar modelo de la
figura (countenance) para la evaluacin educacional, Este mtodo est construido sobre la nocin de Tyler acerca de que los evaluadores deben comparar
los resultados deseados y las observados, pero ampla el concepto de evaluacin pidiendo un examen de los antecedentes, del proceso, de las normas y
de los juicios, adems de las resultados. S,ke desarroll su filosofa de la evaluacin durante los ltimas aos sesenta y los primeras setenta, y en 1975
present su concepcin ya ampliada con el nombre de evaluacin respondente. Esta presentacin conserv el nfasis en el mtodo de la figura examinando toda figura de un programa, pero rompi totalmente con la tradicin
tyleriana al recoger datos con el fin de discutir si se haban realizado las intenciones originales. En cambio, la evaluacin r~spondente asuma que las intenciones pueden cambiar y peda una comunicacin continua entre el evaluador
y la audiencia con el fin de descubrir, in'vestigar y solucionar los problemas.
En general, Stake es el lder de una nueva escuela de evaluacin que exige
un mtodo pluralista, flexible, interactivo, holstico, subjetivo y orientado hacia el servicio.
El juicio racional de la evaluacin es una decisin que dice cunta atencin
hay que prestar a las normas de cada grupo de referencias a la hora de decidir
si se emprende alguna accin administrativa.
Agradecemos la ayuda del doctor Stake, que corrigi y clarific un borrador previo
y proporcion ejercicios de estudio. Cualquier distorsin o ambigedad, relativa a los
conceptos evaluativos, que permanezcan en esta versin son, desde luego, responsabilidad de los autores.
.
)
~
)
)
:)
,)
,:)
,)
,)
,)
,)
)
,)
'J
',)
:J
)
:,)
:.J
~)
.-....".~r~'
,
f
(
(
(
(
(
(
(
{
(
(
(
(
(
(
(
(
(
(
l
(
(
(
(
(
(
(
(
t
(
236
Evaluacin sistemtica
237
)
238
I Evaluacin sistemtica
rianos, y se dedicaban a comprobar si los proyectos patrocinados haban alcanzado sus objetivos mediante su valoracin por los tests ms adecuados. En su
texto Cauntenance, Stake recomendaba ayudar a los proyectos a satisfacer los
requisitos federales de una manera aceptable para el gobierno y til para el
personal y otros interesados. Su mtodo de la figura refleja un intento de adaptar la evaluacin tyleriana a las necesidades de la poca, y presenta un amplio
concepto de los muchos datos que pueden ser utilizados para responder a las
preguntas de los distintos clientes. Su principal propsito era ayudar al lector
a comprobar la amplia gama de datos que pueden utilizarse en una evaluacin.
Tras su publicacin en 1967, el textoCauntenance
fue muy citado en los
debates sobre evaluacin educacional. Al presentarlo, Stake no pretenda ofrecer un modelo (aunque muchos lectores pensaron que sus recomendaciones
formaban parte de uno), de ah que utilizara frecuentemente la denominacin
modelo de la figura. En cambio, intentaba proporcionar un panorama de
la evaluacin. Por figura, l entenda el rostro de la evaluacin, su imagen
total, una capa. Pensaba que los distintos modelos (u opiniones) se podan
adaptar aqu o all, y que la figura era como una red o mapa para poder
localizarlos.
Los aspectos principales atribuidos a la concepcin de Stake son los siguientes:
Las evaluaciones deben ayudar a las audiencias a observar y mejorar lo
que estn haciendo (de ah nuestra denominacin de evaluaciones centradas en el cliente).
Los evaluadores deben escribir programas con relacin tanto a los antecedentes y las operaciones como a los resultados.
Los efectos secundarios y los logros accidentales deben ser tan estudiados
como los resultados buscados.
Los evaluadores deben evitar la presentacin de conclusiones finales resumidas, pero en su lugar deben recopilar, analizar y reflejar los juicios de una
amplia gama de gente interesada en el objeto de la evaluacin.
Los experimentos y los tests regularizados son a menudo inadecuados o
insuficientes para satisfacer los propsitos de una evaluacin, y deben frecuentemente ser sustituidos o completados con una variedad de mtodos,
incluyendo los soft y los subjetivos.
A principios de la dcada de los sesenta, STAKE desarroll estos conceptos y los public (197 5b) en un texto titulado Program Evaluation, Particularly Responsive Evaluation. La evaluacin respondente, como consecuencia, sustituy a la evaluacin figura como denominacin popular del mtodo
de Stake. De todas formas, su nueva formulacin conservaba mucho de lo que
haba incluido en su artculo Cauntenance. La principal desviacin fue su gran
distanciamiento de la orientacin tyleriana, dirigida hacia los objetivos. De
239
)
)
J
')
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
\
(
240
Evaluacin
sistemtica
Stake:
el mtodo
241
~1'~US:Tr:I.-;,...,:":
!"1-'!;:''.
r",',!
evaluativo
y el cliente
(
(
Objetivos
(
(
1.
2.
3.
(
(
4.
5.
(
(
(
6.
7.
8.
(
(
9.
10.
(
(
11.
12.
(
(
13.
(
(
14.
15.
(
(
16.
17.
18.
19.
(
(
(
I
Identificar los factores clave que han influido en las concepciones evaluativas de Robert Stake.
Identificar las principales maneras en que las conceptualizaciones evaluativas de Stake se acercan y se alejan del concepto de evaluacin tyleriano.
Identificar las objeciones de Stake a las concepciones y utilizaciones tradicionales de los tests regularizados.
Definir el propsito del mtodo de la figura.
Identificar los significados y aplicaciones de los siguientes conceptos identificados con el texto Countenance: base lgica, antecedentes, operaciones, resultados, normas absolutas, normas relativas, efectos secundarios,
anlisis de la contingencia, anlisis de la congruencia y juicio.
Describir el concepto de Stake del papel del evaluador.
Analizar el concepto de Stake del papel del juicio en la evaluacin.
Identificar las presuposiciones bsicas subyacentes a la evaluacin respondente.
Identificar las caractersticas esenciales de la evaluacin responden te.
Identificar las diferencias ms importantes entre la evaluacin preordenada y la evaluacin responden te.
Identificar lo que Stake considera utilidades relativas de la evaluacin
preordenada y de la evaluacin responden te.
Examinar las opiniones de Stake acerca de cmo los evaluadores respondentes pueden distribuir su tiempo entre las tareas evaluativas, en
relacin a los evaluadores preordenados.
Identificar las recomendaciones de Stake referentes a cmo los evaluadores deben escoger los propsitos, las cuestiones y los criterios para
sus evaluaciones.
Proporcionar el punto de vista de los autores acerca de la concepcin
de Stake sobre las responsabilidades ticas y sociales del evaluador.
Presentar el punto de vista de los autores acerca de la filosofa educativa
de Stake.
Describir e ilustrar cada tarea de la evaluacin reloj.
Identificar las recomendaciones generales de Stake para la utilizacin de
la evaluacin reloj.
Presentar los comentarios del autor acerca de la orientacin epistemolgica de Stake.
Identificar e ilustrar las principales partes de la estructura sustancial de
la evaluacin responden te.
',_
La descripcin
Al considerar la descripcin como un acto bsico de la evaluacin, hace
referencia a los trabajos anteriores de Tyler y Cronbach. Los partidarios del
mtodo de Tyler han concentrado sus esfuerzos descriptivos en discernir hasta
qu punto han sido alcanzados los objetivos. Se han limitado a la utilizacin,
principalmente, de tests regularizados para recopilar sus datos. Stake critica
esta estrechez de miras y apoya la sugerencia de Cronbach acerca de que los
educadores deben ampliar su concepto de lo que significa conseguir un objetivo y de los modos de valorar esto. STAKE(1967) aconseja a los educadores
que supliquen a los especialistas en valoracin que desarrollen una metodologa que refleje la totalidad, la complejidad y la importancia de sus programas.
Ms especficamente, afirma que la tradicional preocupacin de los especialistas en valoracin educativa por la exactitud de las calificaciones de los estudiantes y el pronstico de su validez es un recurso cuestionable. En la evalUcin de currculos, la atencin prestada a las diferencias individuales entre los
estudiantes debe desplazarse hacia las contingencias de los antecedentes, las
l...
')
)
242
Evaluacin
sistemtica
8take:
El
juiciO
1 ' .,
S ake est de acuerdo con la posicin de
Al abordar el problema de JUlClO, tI l"n no tiene sentido hasta que se
de
que
una
eva
uac o
967)
SCRIVEN(1
acerca
.
lo acertado de asignar la responsa.
. .,
P otra parte cuestlona
, li
emlte un JUKlO. or
, . 1
parcialmente) a los espeCla stas en
bilidad del juicio slo (o a veces mc uso
evaluacin. "
, n l pue d e resu lt ar poco realista por una serie . de raEsta practlca, segu
'd
1
aluadores pueden convertlrse en
zones. Los educadores, intuyen o qUJ os e~tirse a cooperar en sus trabajos
nicos jueces de sus programas, pue en res adores pueden ser censurados o
'1 ., d d tos Ademas l os eva lu
,
de recopl aClOn e a.
,
que los evaluadores que actuan
. .
.
legas suyos que crean
.
cntlcados por clertos co
.
. d
bJ'etl'vos- convierten a las Clen,
1 r de mvestlga ores o
1
como Jueces --en. uga.
.,
1 om ortamiento en algo sospechoso, Iguacias sociales y a la mvestlgaclOn de c PI dores pueden sentirse cualificados
fi
e muy pocos eva ua
.
S k
mente, . ta . e arma
qu
. para una escue la o comunidad poco conoCldas.
,
1
mejor
,
d
para lscutlr que .e,s o
dil ma Stake sugiri una posicin de compromISO.
Para dar soluclOn a este
e d'
d'
debl'eran actuar como jue1
valua ores pu leran o
d ha d
Aunque du a
e que os e , de los programas que evalan, pensaba que
ces nicos o nales de la mayona
il
rocesar objetivamente las opinioeran los nicos cualificados para ~ecop ar
que las evaluaciones de progra-
el mtodo
evaluativo
y el cliente
243
')
)
Esquema para la recopilacin
de datos
.)
')
')
')
')
')
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
\
(
(
244
Evaluacin
Stake:
sistemtica
el mtodo
evaluativo
y el cliente
245
(
(
Intenciones
(lo que
pretende
la gente)
Normas
(lo que
la gente
generalmente
aprueba)
Observaciones
(lo que
percibe
la gente)
Juicios
(lo que la
gente cree que
debe ser el
programa
principal)
(
(
Base lgica
que ellos entiendan (no necesariamente en forma de objetivos de compor~lmiento). Las observaciones se refieren a qu antecedentes, transacciones y cesultados han sido observados y anotados, los cuales pueden haber sido recopilados a travs de distintas fuentes e instrumentos de recopilacin de datos.
Stake aconseja a los evaluadores que realicen una amplia bsqueda de la existencia de acontecimientos, tanto los que se haban pronosticado como los
que no.
La siguiente lista ilustra los tipos de informacin que un evaluador puede
recopilar desde la perspectiva de la matriz de descripcin de Stake:
1.
(
2.
Transacciones
3.
(
(
4.
Resultados
(
(
5.
Matriz de descripcin
Matriz de juicio
(
(
rIGURA
7-1.
FUENTE:
(
(
(
(
(
,
(
(
(
~
t
(
I
6.
)
')
246
Evaluacin sistemtica
gar las intenciones del programa. Por ejemplo, constituye el programa planificado un paso lgico en la realizacin de las intenciones bsicas? Stake tambin
observ que la base lgica es til para la eleccin de grupos de referencia que
luego pueden ser usados para identificar las normas y aprobar los juicios.
Al concluir su comentario sobre la base lgica, Stake advierte a los evaluadores que no sobrerracionalizen un programa. Deben evitar imponer su
filosofa y su lgica por encima del programa. Los evaluadores deben caracterizar cualquier base racional que encuentren, en el lenguaje del personal del
programa, y no necesariamente en el suyo. Aunque l no lo diga, nosotros
presumimos que Stake quiere llamar la atencin de los evaluadores sobre los
problemas que ellos mismos perciben en la base lgica de un programa (como
la ambigedad, la incoherencia, la ilegalidad o la inmoralidad).
Tras sus explicaciones sobre la matriz de descripcin y la base lgica, Stake
se dedica a comentar las maneras en que se puede analizar la informacin
descriptiva. Identifica el anlisis de la congruencia y el anlisis de la contingencia como los dos tipos bsicos de anlisis, representados en el paradigma
de la figura 7-2.
El anlisis de la congruencia se dedica a averiguar si los propsitos se han
cumplido. Son congruentes los antecedentes observados con los pronosticados?
Los profesores deben proporcionar las directrices del currculo? Se han alcanzado los objetivos propuestos? Existen efectos secundarios? El anlisis
de la congruencia es idntico, en esencia, a la recomendacin de Malcolm
PROVUS acerca de que los evaluadores deben buscar discrepancias entre los
propsitos y 10 que realmente sucede (1971).
Al citar el anlisis de la contingencia, Stake afirma que dado que la evaluacin es la bsqueda de relaciones que permitan el perfeccionamiento de la
educacin, la tarea del evaluador consiste en identificar los resultados contingentes a antecedentes concretos y transacciones didcticas. Ms adelante, explica que es importante investigar las contingencias existentes entre las intenciones y entre las observaciones?
Como aparece en la figura 7-2, el criterio apropiado para identificar y
valorar las contingencias entre los antecedentes propuestos y las transacciones,
y las transacciones propuestas y los resultados, es lgico. Es razonable asumir
que los antecedentes propuestos permiten el ejercicio de la enseanza propuesta? Y que esta ltima puede conducir a los resultados propuestos? Stake
advierte que, al realizar anlisis lgicos, los evaluadores deben confiar en su
experiencia previa con poblaciones y programas similares, y que pueden obtener intuiciones tiles estudiando la bibliografa de investigacin ms importan2. En su crtica del borrador previo, Stake indica que estos conceptos analticos no
resultan productivos y, por lo tanto, no deben ser recomendados. NosottoS los hemos
examinado porque pensamos que proporcionan un adecuado panorama de los mtodos
de anlisis que los evaluadores, por lo general, intentan aplicar, incluso aunque a menudo
resulten infructuosos.
8take:
247
')
Datos descriptivos
")
~
')
")
Congruencia
')
)
')
Contingencia
lgica
Contingencia
emprica
)
)
)
)
Congruencia
)
)
)
Contingencia
lgica
Contingencia
emprica
)
)
)
Congruencia
)
)
)
FIGURA
7-2.
)
)
)
)
)
)
)
)
)
~.
i
(
248
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
,
t
t
(
t
(
Evaluacin sistemtica
249
Comparacin
absoluta
Propuestas observadas
An teceden tes
Transacciones
Resultados
(Datos
descriptivos
del programa
en cuestin)
Normas
de
calidad
Comparacin
relativa
Datos
descriptivos
de otros
programas
J
U
1
C
1
O
S
FIGURA 7-3.
FUERNTE:
'
250
1.
Evaluacin
sistemtica
(y describe la
8take:
el mtodo
evaluativo
y el cliente
J
251
")
")
J
J
')
')
')
")
1.
2.
")
3.
4.
5.
')
.)
)
)
')
Finalmente, Stake mira al futuro y afirma que las evaluaciones deben ser
utilizadas para desarrollar un conocimiento bsico sobre la educacin. Urge
a los educadores a que desarrollen bancos de datos que documenten las causas
y efectos, la congruencia entre los propsitos y su consecucin, y un panorama
de juicios de todos aquellos que tengan algo que ver con los programas que
se evalan.
)
)
)
)
)
)
Evaluacin respondente
Trataremos ahora de la ampliacin que hace el propio Stake de su filosofa
evaluativa bajo la denominacin de evaluacin respondente. Esta ampliacin
apareci en el texto titulado Program Evaluation: Particularly Responsive
Evaluation, que STAKE (l975b) present en la Conference on New Trends
on Evaluation de Gotemburgo, Suecia, en 1973.
Al presentar la evaluacin respondente advierte que su atencin se centra
en la evaluacin de programas, que pueden ser estricta o libremente definidos,
grandes o pequeos, y, segn deducimos nosotros, continuos o ad hoc. Al
considerar este mtodo, pide a su audiencia que suponga que alguien ha sido
encargado de evaluar un programa y que el programa en muchas ocasiones
es algo subyacente. Subraya que pueden existir clientes especficos o audiencias que satisfacer y que, por lo general, incluyen responsables para la realizacin del programa. El evaluador, segn Stake, debe ser el responsable de
comunicar con estas audiencias especficas. Estas presuposiciones a modo de
)
)
)
)
)
(
)
)
J
)
)
)
)
-..
(
(
252 I
Evaluacin sistemtica
253
{
(
(
(
(
(
(
(
{
(
(
(
(
(
(
(
(
(
(
,,
,,
(
t
~
(
<
gua coinciden claramente con los princlplOs del texto Countenance: a saber,
que el punto en el que empieza a actuar el evaluador est situado, por lo general, despus de que el programa ya ha empezado, y que el principal papel
del evaluador es, comnmente, proporcionar informacin evaluativa til a
aquellas personas que estn operando con el programa.
Stake identifica la evaluacin respondente como una alternativa frente a
otros ocho mtodos evaluativos: 1) el modelo pre-test y post-test (preferido
por muchos investigadores); 2) el modelo acreditativo, que supone un autoestudio y la visita de expertos exteriores (les gusta a los educadores, segn
Stake, si pueden escoger los visitantes, pero no les gusta a los investigadores,
puesto que confa en informacin de segunda mano); 3) la investigacin aplicada al modelo didctico (recomendada por CRONBACH, 1963, 1980); 4) la
evaluacin orientada hacia el consumidor (recomendada por SCRIVEN, 1967,
1974); 5) la evaluacin orientada hacia la decisin (propuesta por STUFFLEBEAM,1966, 1971); 6) la metaevaluacin (introducida por SCRIVEN,1976);
7) la evaluacin sin metas (desarrollada por SCRIVEN, 1974); y 8) la evaluacin contrapuesta (recomendada por OWENS, 1973, y WOLF, 1973). Stake
consideraba que los dos primeros eran los principales modelos de la evaluacin
de un programa y decidi especficamente presentar la evaluacin respondente
como una alternativa bien definida al modelo pre-test y post-test, que l llamaba evaluacin preordenada.
Stake identificaba la evaluacin respondente como un mtodo que ya haba
sido recomendado por PARLETT y HAMILTON(1972), McDoNALD (1975),
SMITH y PAHLAND(1974) Y RIPPEY (1973). Fundamentalmente, segn l, el
mtodo subraya marcos para el desarrollo del aprendizaje, las transacciones
didcticas, los datos para los juicios, el informe holstico y la asistencia a los
educadores.
Al ampliar el mtodo, suscribi una definicin general de evaluacin que
l atribua a Scriven. De acuerdo con esta definicin, la evaluacin es un
valor observado comparado con alguna norma. Stake representaba esta definicin en la siguiente proporcin:
Toda la constelacin de valores de un programa
Evaluacin
= ---------------------
te del texto Countenance, en el que Stake afirma que las dos principales tareas
de la evaluacin son la descripcin y el juicio de un programa. Al comentar la
evaluacin responden te Stake no contempla al evaluador recopilando normas,
clasificndolas segn su importancia y reduciendo estas escalas a un juicio
global. Por el contrario, el evaluador debe hacer referencia, simplemente a las
opiniones de la gente acerca del programa y no juzgarlas, clasificarlas o sintetizarlas.
El tema dominante en la evaluacin respondente es proporcionar un servicio a personas especficas (clientes). Stake subraya que las evaluaciones probablemente no sern tiles si los evaluadores no conocen el lenguaje y los
intereses de su audiencia y si no realizan sus informes con ese lenguaje.
Evaluacin preordenada
. --_~.~
77,'
~~
TABLA
7-1.
Principales
distinciones
..
I\J
y la evaluacin respondente
Evaluacin preordenada
Evaluacin responden te
3. Contratos
4. Orientacin principal
5. Planificaciones
Preespecificadas
6. Metodologa
7. Tcnicas preferidas
Formales e infrecuentes
Informales y continuas
Distincin
~
!.'?.
e
1. .Propsito
'(5;"
(')
::J
en
j'
...
m
3
~
o'
'"
",
Sacrifica cierto grado de precisin en la valoracin para que pueda aumentar la utilidad
CJl
...
'm"
"
~
3
m,
ooo
'"
'<"
o
'<
~
(')
m
::J
...
I\J
01
01
OG~0UGGG~0UGU00uuu0uU0u000UU0~~UJ~U
256
Evaluacin
sistemtica
(
(
(
(
(
(
(
(
(
(
(
(
(
I
(
(
(
(
(
(
(
(
(
(
{
{
{
{
~
~
(
8take:
el mtodo
evaluativo
y el cliente
257
c_
'>
')
258
Evaluacin sistemtica
Tareas
Identificacin de problemas y metas
Preparacin de los instrumentos
Observacin del programa
Administracin de tests, etc.
Recopilacin de juicios
Identificacin de las necesidades del cliente
Proceso de datos formales
Preparacin de informes informales
Preparacin de informes formales
S
R b rt E 1975b Program Evaluation: Particularly Responsive Evalu~tion,
FUE~~~~Sio::~Epap~r eSerie;, n, 5, Centro de Evaluacin, Universidad de Western Michlgan;
Kalamazoo, Michigan,
259
')
'>
.,
')
')
')
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
TI
('
260
(
(
{
(
(
(
(
(
(
(
(\
(
(
(
(
(
(
(
(
(
Evaluacin sistemtica
(
(
(
(
(
(
y el cliente
261
.T.....
262
12
10
2
Panorama de las actividades
del programa
3
Descubrir los propsitos
e intereses
Validacin: confirmacin,
bsqueda de evidencias
para la no confirmacin
8
4
Conceptualizar las cuestiones
y problemas
Seleccionar observadores,
jueces e instrumentos,
si los hay
F IG URA 7-4.
')
Stake: el mtodo evaluativo y el cliente
Evaluacin sistemtica
11
')
te Nosotros creemos que concibe el reloj slo como algo heurstico, y no .com~
u~a serie de directrices tcnicas, puesto que en el artculo. nunca e.xphca 111
'1 t
tl'lizacin A riesgo de tomarnos demasiado en seno el reloJ en cues1 us ra su u.
f
1"
t . tertin y malinterpretar el pensamiento de Stake, o recemos a SlgUlen e ID
pretacin.
.
lId
1 pr
Las doce en punto: el evaluador habla con el cltente, e persona
e
0grama y las audien'Cas. Estos intercambios ocurren a men~do ~ur~nte la evaluacin y abordan una amplia gama de temas, que pueden .1llc1Ulr~I ~s necesaria una evaluacin y por qu; cules creen que son las cuestlOnes mas Importan-
263
)
)
}
)
)
")
)
')
')
")
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
,)
)
(
,
f
(
(
(
(
(
(
(
(
'(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
264
Evaluacin sistemtica
Las cinco en punto: el evaluador identifica los datos necesarios para investigar los problemas. Se trata de una derivacin ms interactiva de la conceptualizacin de los problemas, trabajando de una parte a otra, entre los datos
potenciales y los contextos de problemas. Se pretende. ase~urar que los datos ligados a los problemas ms importantes para las audIenclas v.an a ser recopilados. Ms tarde es necesario, claro est, c?mprobar la amplitud de estos
datos, y el evaluador volver al punto de pawda.
..
. .,
Las seis en punto: el evaluador plamfica las actiVldades de recoptlaclOn
de datos: traza un plan de observaciones, selecciona los observadores (si los
hay), identifica los informes que deben ser exami.nados (quiz), ~ele.c,ciona
muestras y organiza las observaciones y otras activldades de recoptlaclon de
datos.
Las siete en punto: el evaluador observa los antecedentes, las transacciones y los resultados. Nosotros creemos que el evaluador pue~~ ~xamina: tambin la base lgica del programa y recopilar las normas y UlC10Srelativos a
los antecedentes las transacciones y los resultados del programa.
Las ocho en' punto: el evaluador analiza la informacin obtenida desarrollando temas que haya localizado en esa informacin, utilizndolos para preparar descripciones del programa y quiz realizando estudios de casos concretos. Con la ayuda de los observadores, el evaluador puede desarrollar breves
narraciones, presentaciones del producto, grficas, exposiciones fotogrficas,
esquemas, un sociodrama, presentaciones audiovisuales, etctera. De acuerdo
con los procedimientos superiores en el texto Counten~nce el evalu~dor p.uede
realizar tambin anlisis pertinentes de la congruenoa entre las lntenclones
y las observaciones, as como de las contingencias entre los antecedentes, las
transacciones y los resultados.
Las nueve en punto: el evaluador comprueba la validez de los resultados
y los anlisis .. Se realizan diversos tests de la calidad de los informes. El personal del programa opina sobre la calidad de las descripciones. El evaluador
puede hacer que diferentes personas desar~o~en informes a favor y .e~ ~ontra
respecto a los mritos del programa, y qUlza someterlo t~do a. un U1C10con
jurado. Y puede alejarse de sus funciones buscando eVldenclas que contradigan sus resultados, as como su triangulacin y confirmacin.
Las diez en punto: el evaluador esquematiza la informacin con el fin de
que resulte de la mxima utilidad ?ara sus audiencias. D,ebe i.nformar:e a las
audiencias acerca de los datos reumdos y preguntarles cuales tienen mas valor
para ellos. Tambin deben obtenerse opiniones de a~toridades y otr?s ~iembros de la audiencia. Luego, el evaluador debe plamficar las comumcaClOnes,
concediendo ms importancia a la informacin ms til, con el fin de satisfacer las distintas necesidades de las diferentes audiencias.
Las once en punto: el evaluador prepara, si se los piden, los informes
formales. Puede que un informe impreso no sea necesar.io, segn los ac~erd?s
previos que se hayan realizado con el cliente y las necesldades de la audIencla.
265
El evaluador puede presentar un video de un juicio con jurado sobre el programa o el guin de un sociodrama que describa sus resultados. En general,
deben escogerse los medios de comunicacin que resulten ms accesibles para
las audiencias y que puedan intensificar la comunicacin y asegurar la fidelidad
del mensaje.
La descripcin de la etapa informativa completa nuestro comentario de la
evaluacin reloj. Sospechamos que su mensaje principal no se encuentra en
estas doce etapas, sino en su estrategia general. Stake elabor esta estrategia
en trminos de utilidad y legitimidad, comparndolos con los de la evaluacin
preordenada.
.
Observ que la explicitud no es esencial para indicar el valor y que, de
hecho, el tipo de explicitud recomendada en la evaluacin preordenada incrementa el peligro de equivocacin. Al decidir cuntas cosas y de qu forma
comunicarlas, Stake considera que 10 ms importante son los propsitos de
la audiencia. Dice que los diferentes estilos de evaluacin sirven a distintos
propsitos y admite que el evaluador puede necesitar descubrir qu es 10 que
legitima el buen nombre de la audiencia. Pero afirma que la evaluacin respondente puede ser til tanto en la evaluacin formativa (cuando el personal
necesita ayuda para controlar su programa) como en la evaluacin sumativa
(cuando las audiencias necesitan comprender las actividades del programa, sus
puntos fuertes y sus defectos, y cuando el evaluador cree que debe realizarse
una experiencia ajena). Reconoce que la evaluacin preordenada es el mtodo
preferido cuando se busca la valoracin de la consecucin de las metas, el
cumplimiento de las promesas y la comprobacin de las hiptesis. Tambin
est de acuerdo en que las valoraciones de la evaluacin preordenada son ms
objetivas y exactas. Sin embargo, Stake concluye diciendo que toda evaluacin debe ser adaptable y, obviamente, cree que la evaluacin respondente es
claramente superior en el cumplimiento de esta norma.
Observaciones generales
Para concluir esta unidad, hemos querido dar nuestra opinin general sobre las contribuciones de Robert Stake. En algunos casos, estas observaciones
son resultado del estudio de sus escritos y, en otros, se basan en encuentros
que mantuvimos con l en el pasado. Deseamos destacar que stas son nuestras impresiones personales y que pueden no coincidir con sus propios puntos
de vista acerca de su filosofa, su mtodo y sus contribuciones.
En conjunto, queremos subrayar que Stake ha sido uno de los lderes ms
atrayentes y creativos de la evaluacin. Ha llamado la atencin de los evaluadores con sus corteses ataques a algunas de sus vacas sagradas (por
ejemplo, los tests estandarizados, el diseo experimental y los contratos de
trabajo). Les proporcion nuevas estructuras para sus reflexiones acerca de la
-~.-~
,
!
266
)
8take:
Evaluacin
el mtodo
evaluativo
nicacin personal).
Stake tambin estimul a sus estudiantes -Dennis
Gooler, Steve Kernmis, Barry McGaw, Nick Smith, Peter Taylor y Bob Wolfpara que realizaran contribuciones sustanciales en el campo de la evaluacin. Ejemplos de
ello son la adaptacin de los procedimientos judiciales a la tarea de recopilar
y analizar juicios y su introduccin en la evaluacin de museo, realizada por
Wolf, o la exploracin de distintas metforas evaluativas por parte de Nick
Smith. Adems, Stake pidi a sus colegas que reflexionaran seriamente acerca
de sus responsabilidades ticas y sociales, y que no sobreestimaran la importancia de sus servicios.
El mtodo evaluativo de Stake, desde luego, est influido por su filosofa
de la educacin. Cree que la educacin es orgnica, no producida. Considera
que todo el mundo se esfuerza por superarse, aunque no necesariamente en
el campo de la educacin prescrita por el estado. Cree que la educacin formal modifica en muy poco la educacin informal, que el contexto es lo que
ms influye y que los profesores son ms una parte del contexto que verdaderos creadores de educacin. Dice que las metas de la educacin no pueden ser otras que la variacin de las aspiraciones incluidas en los ideales y
convicciones de las distintas comunidades, familias y estudiantes. Est totalmente a favor de la autonoma local en el gobierno bsico de las escuelas. Pide
regularmente al evaluador que identifique el orden de los resultados reales, y
que descubra las normas que mejor convienen a las caractersticas del programa que se est estudiando y de la comunidad circundante. Dice que son
muy pocas, si es que hay alguna, las etapas del aprendizaje que sean verdaderamente esenciales para tener xito en la vida, que el xito y el fracaso
se han sobrevalorado y que, en cualquier caso, es mejor, por lo general, no
pensar en el valor instrumental de la educacin como base para evaluarla.
Como consecuencia, afirma que el evaluador debe atender tanto a la calidad
intrnseca como a la extrnseca de las prcticas educativas. Ms concretamente,
recomienda al evaluador que advierta si las experiencias de aprendizaje tienen
un buen contenido y estn bien estructuradas, y que averige qu piensan una
serie de personas adecuadamente seleccionadas acerca de los costes y beneficios
de estas experiencias. Dice que los profesores, los padres, los estudiantes, los
directivos y los lderes de la opinin pblica son quienes emiten los juicios
267
')
')
sistemtica
y el cliente
')
')
')
)
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
1.
2.
3.
4.
5.
)
)
)
)
/
f
(
268
Evaluacin sistemtica
(
(
6.
7.
,
(
{
(
(
(
(
(
(
(
(
(
Subraya que todos los propsitos no pueden ser satisfechos mediante una
sola recopilacin de datos y que slo unas pocas cuestiones, en cualquier estudio, pueden ser objeto de la atencin principal. As, cada evaluador debe tomar su propia decisin sobre estos problemas, y ser, en este' aspecto, reduccionista y convergente.
Stake recomienda a los evaluadores que no trabajen con nociones de xito
preconcebidas. En lugar de eso, les sugiere que, en primer lugar, presten
mucha atencin al hecho de por qu ha sido encargada la evaluacin, luego
echen un vistazo a 10 que sucede en el programa y, finalmente, negocien y
escojan las cuestiones de valor y los criterios. Ms adelante comenta los requisitos de estas elecciones:
1.
2.
3.
(
(
(
(
(
,
(
(
(
t
(
,
,
(
En muchos aspectos, Stake transmite un mensaje sobre las responsabilidades sociales y ticas del evaluador. Parece aconsejar a los evaluadores que
promueven la igualdad y la justicia en la educacin, que ayuden a los menos
poderosos, que se aprovechen de los poderosos y les prohban abusar de su
poder, que pongan en evidencia a los charlatanes, que acobarden a los confiados, que animen a los inseguros y que ayuden siempre a la gente a ver las
cosas desde distintos puntos de vista. (Este plan parece inspirado en las Bienaventuranzas.) Stake recomienda tanto a los evaluadores como a los clientes
que eviten la utilizacin burocrtica, parasitaria o explotadora de las evaluaciones. Finalmente, recomienda que la evaluacin formal sea llevada a cabo
slo cuando sea necesario, porque cree que muchas evaluaciones formales no
resultan productivas y agotan en lugar de proporcionar energa, y porque piensa que la evaluacin informal es una parte integrante del comportamiento
personal e institucional y es capaz de informar y perfeccionar regularmente
la evaluacin formal.
Quizs este ltimo punto sea el que proporcione ms informacin sobre
la escptica reaccin de Stake ante las recientemente aparecidas Standards for
Evaluations of Educational Programs, Projects, and Materials Ooint Committee, 1981). Reconoce que el plan contenido en este documento es, por 10
general, coherente con su punto de vista sobre la evaluacin, segn el cual
sta debe proporcionar un servicio til a los clientes, debe emplear valora-
269
ciones mltiples, debe ejercer como censura, debe ser compatible con las condiciones del mundo real y puede emplear legtimamente distintos paradigmas
y mtodos. Por el contrario, expresa sus temores acerca de que la adopcin
de normas formales (procedimientos) por parte de los evaluadores pueda
1) tender a legitimar su servicio profesional en mayor medida que un informe
de sus logros, 2) implicar un concepto normativo y convergente de la evaluacin y, posiblemente, ahogar la creatividad en el desarrollo de la especialidad, 3) focalizar la atencin sobre aspectos metodolgicos relativamente triviales, mientras no hace ningn caso a los mayores despropsitos, y 4) pueda
fomentar las malas prcticas no especficamente condenadas en las Normas.
Por 10 visto, Stake cree que la evaluacin formalizada es inevitable en el
sistema social nor:teamericano, aunque su valor sea limitado y necesite ser perfeccionada. Aunque advierte a los educadores que sean muy cautos y selectivos
a la hora de contratar servicios evaluativos, tambin ofrece a los evaluadores
una amplia serie de ideas destinadas a ayudarlos a mejorar su servicio.
Caracterizar el trabajo y la obra de alguien a 10 largo de una dcada o
ms, es una tarea atrevida y puede que imposible. Nosotros hemos recibido
y respondido a un detallado texto del doctor Stake, respecto a un anterior
borrador de esta unidad, y creemos que este artculo es un fiel, aunque ciertamente no muy amplio, resumen de cmo contempla l su propio trabajo. De
cualquier manera, creemos que su valoracin global de la anterior versin proporciona una advertencia til para su examen y quizs una caracterizacin de
su propio mensaje mejor que la nuestra. De ah que terminemos con la valoracin que ha hecho el doctor Stake del borrador previo de esta unidad:
Han realizado ustedes un buen trabajo acerca de una difcil tarea: tratar de
dar coherencia a lo que yo he dicho. He hecho algunos comentarios y he
sugerido cambios (sin duda, muchas de las cosas que he dicho no debera
haberlas dicho nunca).
Como crtica general, quiero decir que sus esfuerzos por ser fieles al detalle
disminuyen el sentido global que se refiere al aprovechamiento de la experiencia y de la evaluacin informal ya en marcha, y que es lo que se supone
que debe ser la evaluacin respondente -en honor al contexto y al pluralismo-- no slo como ideal, sino como una limitacin para el evaluador que
b~sca la ilustr~cin. Ustedes han hecho uso de ella, pero la encuesta, por
ejemplo, comumca al lector que los relojes y las redes son ms importantes
que acomodarse a la situacin y a la historia local.
~
270
)
Evaluacin
sistemtica
Stake:
Respuestas
el mtodo
evaluativo
y el cliente
271
incorrectas
')
d)
e)
d)
Respuesta correcta. Debe usted haber seleccionado la b. Dos de los mentores de Stake fueron Tom Hastings y Lee Cronbach, que haban estudiado
con Tyler; Stake particip en CIRCE, en proyectos destinados a ayudar a que
los proyectos de currculos satisficieran los requisitos evaluativos federales
(en su mayor parte tylerianos por naturaleza) y la investigacin de Tyler influy en sus puntos de vista acerca de la valoracin.
')
')
')
')
)
PREGUNTA2. Por qu recomienda Stake a los evaluadores que pidan
a los. especialistas e~ valoracin que desarrollen una metodologa que refleje la
totahdad, la complepdad y la importancia de los programas?
')
a)
b)
e)
')
antropologa cultural, aunque actualmente est muy interesado en los estudios de casos etnogrficos. Su tesis doctoral vers sobre psicometra.
Es incorrecta porque Cronbach no recomendaba la utilizacin de evaluaciones comparativas y porque Scriven insista en que un evaluador debe
juzgar.
Es incorrecta porque Stake fue el director de la tesis doctoral de Bob
W 01 y no al revs.
b)
e)
d)
)
)
)
)
)
)
)
)
)
)
)
)
)
Respuestas
b)
e)
incorrectas
)
.'
)
)
)
)
)
.~--f
f
f
(
272
posibles reas para el desarrollo de la metodologa. ~valuativa ~e un programa, Stake urge a los evaluadores para que utihcen, otras areas ta~bin, como la historia, la crtica de arte y la etnografla, cuyo lenguaje
y conceptos resultan ms familiares a los clientes.
(
(
(
PREGUNTA
3.
(
(
e)
d)
esbozar los procedimientos para identificar, recopilar y analizar las descripciones y juicios ms relevantes,
encontrar la proporcin entre el coste y los beneficios.
(
(
(
(
(
(
(
(
,
,
e)
d)
dimientos.
PREGUNTA
4. Cul de las siguientes afirmaciones es coherente con la
reaccin de Stake ante la conceptualizacin evaluativa de Tyler, tal como queda reflejado en el texto Countenance?
(
(
a)
b)
e)
(
(
(
d)
273
Respuestas incorrectas
deben ser expresados en el lenguaje de la audiencia y pueden ser presectados, aceptablemente, tanto como objetivos expresivos como de compo.tamiento.
Stake:
Evaluacin sistemtica
incorrectas
PREGUNTA
5. Cuando los planes indican que el cuarenta por ciento del
tiempo de clase debe ser utilizado en la discusin y slo se utiliza de esta
manera el veinticinco por ciento, usted debe, de acuerdo con el texto Cauntenance
a)
b)
e)
d)
provocar ms debate,
cambiar los planes,
recopilar datos acerca de los juicios aparecidos en la discusin,
comparar la discusin con los resultados.
b)
incorrectas
Es incorrecta porque Stake rechaza el concepto segn el cual deben aceptarse los propsitos sin discusin.
Es incorrecta porque ni Stake ni ningn otro autor evaluativo han emi-
-~-===~-)
)
274
Evaluacin
Stake:
sistemtica
el mtodo
evaluativo
y el cliente
J
275
")
10 observado.
d)
No es la mejor respuesta, puesto que aunque Stake sugiere que las contingencias empricas entre las transacciones y los resultados observados
deben, a menudo, ser examinadas, los datos necesarios sobre los resultados tardan ms tiempo en obtenerse que los datos sobre los juicios,
accesibles de inmediato, y tambin porque, por lo general, cree que sus
sugerencias sobre el anlisis de la contingencia no estn demasiado bien
elaborados.
a)
b)
c)
d)
d)
a)
b)
c)
d)
El
La
El
El
anlisis de la congruencia.
investigacin de la base lgica del programa.
anlisis de las normas absolutas.
anlisis de las contingencias empricas.
)
')
')
')
')
)
)
')
)
)
)
)
)
Respuestas incorrectas
a)
b)
c)
Es incor~e~ta porque el anlisis de la congruencia supone comparar ciertas con~I~IOnes supuestas con una condicin observada, y las dos series
de condICIOnes de este ejemplo son observadas.
Es incorrecta p~rque la investi?acin de la base lgica de un programa
no cont~mpla nI !as congruencIas entre las condiciones supuestas y las
reales, nI las. contIn~encias ,entre.l?,s antecedentes, las transacciones y los
re~ultados, SInO que filosofIa, mISIon y/o principios bsicos son los que
gUIan el programa.
Es incorrecta porque la referencia a las normas absolutas (convicciones
pers~nales acerca de lo que es bueno y deseable en un programa) no est
relaCIOnada con la bsqueda de correlaciones y relaciones causales.
)
)
)
)
)
)
)
)
8:
E~ una informacin de prensa, el doctor Howard Benjamm, secretarIO eecutlv?de la National Schoolmasters Association, dijo: Los
rofesores no deben utIlIzar materiales didcticos que resulten ofensivos para
os padres. En el texto Countenance este comentario est tratado como
. PREGUNT~
a)
b)
un rumor,
una norma,
)
I )
')
(
{)
276
e)
d)
un dogma de fe,
una base lgica.
Evaluacin
Stake:
sistemtica
el mtodo
evaluativo
y el cliente
277
{
(
(
(
{
{
b)
d)
a)
(
(
e)
(
(
d)
(
(
(
PREGUNTA
9. Cul de las siguientes afirmaciones refleja mejor la postura de Stake respecto al papel del juicio en una evaluacin?
(
(
a)
b)
e)
f
4
,
,
d)
<
t
(
e)
Respuestas incorrectas
f
{
Respuestas incorrectas
PREGUNTA
10. Un profesor informa que todos los estudiantes han escrito
unas redacciones excelentes sobre La contaminacin del aire. De acuerdo con
el texto Countenanee estos juicios del profesor
a)
b)
e)
d)
Respuesta correcta. Debe usted haber seleccionado la e. Stake recomienda firmemente a los evaluadores que utilicen juicios recogidos de una
amplia gama de personas que conozcan, de distintas maneras, el objeto que
se est estudiando. A menudo, estos juicios reflejan intuiciones que no pueden
obtenerse slo con datos descriptivos.
Respuestas incorrectas
a)
b)
d)
PREGUNTA
11. Cul de las siguientes afirmaciones es ms coherente
con las presuposiciones que esboza Stake en torno a la evaluacin res pon.
dente?
)
278
a)
b)
c)
d)
)
Evaluacin
sistemtica
Por lo general, las evaluaciones responden tes estn destinadas a los profesores en general, puesto que son los nicos que pueden llevar a cabo
los programas que adopten sus sistemas escolares.
Por lo general, las evaluaciones responden tes se inician cuando los programas que deben ser estudiados estn ya en uso.
Las evaluaciones respondentes estn concebidas para ser autoevaluaciones, y esto, por lo general, no es necesario para un evaluador.
La evaluacin respondente es una denominacin que slo caracteriza las
actividades evaluativas formales y externas.
8take:
c)
d)
Es incorrecta porque, por el contrario, Stake dice que la evaluacin respondente sirve a clientes especficos, generalmente a la gente responsable
de llevar a cabo el programa.
Es incorrecta porque Stake centra su comentario de la evaluacin respondente en las personas que han sido encargadas, formal o informalmente,
de evaluar un programa.
Es incorrecta porque, aunque el comentario de Stake sobre la evaluacin
respondente supone que la evaluacin de un programa ha sido encargada,
intenta principalmente caracterizar y proporcionar ciertas directrices para
formalizar acontecimientos normales de una autoevaluacin informal.
Igualmente dice, en su texto Countenance, que la figura completa de la
evaluacin abarca tanto las actividades informales como las formales.
PREGUNTA12.
a)
b)
c)
d)
La evaluacin responden te
evaluativo
y el cliente
279
")
recopilacin de datos, pero rechaza la utilizacin de los tests ya existentes, de las guas para entrevistas y de las normas de observacin porque
los instrumentos ya existentes no suelen reflejar los requisitos informativos especiales de los clientes especficos.
J
")
')
)
Respuesta correcta. Debe usted haber seleccionado la a. Stake identifica ese intercambio como una de las principales distinciones entre la evaluacin preordenada y la evaluacin respondente.
Respuestas incorrectas
')
)
b)
c)
Respuestas incorrectas
a)
el mtodo
d)
')
)
)
)
)
)
)
)"
)
)
a)
b)
c)
d)
)
)
)
)
)
)
Respuesta correcta. Debe usted haber seleccionado la b. Stake caracteriza la evaluacin preordenada como algo limitado a la utilizacin de tcnicas
rigurosas a causa de su inters fundamental por la objetividad, mientras que
los evaluadores respondentes utilizan algunos de los puntos de vista subjetivos
de los participantes.
)
)
)
)
)
)
,
(
f
(
(
(
280 I
a)
e)
(
d)
PREGUNTA
14. Cul de las siguientes afirmaciones no coincide con el
clculo de Stake acerca de cmo reparten su tiempo los evaluadores preordenados y los respondentes?
a)
b)
(
(
e)
d)
(
(
(
(
(
(
PREGUNTA
15. Cul de las siguientes afirmaciones no es coherente con
el consejo que da Stake a los evaluadores sobre cmo decidir los propsitos
a los que deben dedicarse, las cuestiones que deben resolver y los datos que
'deben obtener?
a)
b)
(
(
e)
d)
Respuestas
a)
Respuestas incorrectas
a)
(
(
e)
(
(
(
(
(
d)
Esto coincide con el clculo de Stake porque l estima que ambos pueden
invertir el diez por ciento de su tiempo en la identificacin de problemas
y metas.
Esto coincide con el punto de vista de Stake porque l estima que el evaluador respondente puede dedicar el sesenta y cinco por ciento de su
tiempo a estas actividades.
Esto est de acuerdo con el anlisis de Stake porque ste calcula que el
evaluador preordenado puede dedicar el treinta por ciento de su tiempo
a preparar instrumentos, mientras que el evaluador respondente puede
dedicar a esta actividad el quince por ciento.
I 281
Respuestas incorrectas
(
(
Evaluacin sistemtica
b)
d)
incorrectas
PREGUNTA
16. Cul de las siguientes afirmaciones no es coherente con
la caracterizacin que hace el autor de las concepciones de Stake respecto a las
responsabilidades sociales y ticas del evaluador?
)
'
..
'
-1':'
282
Evaluacin
Stake:
sistemtica
d)
justicia en la educacin.
Los evaluadores deben adoptar y seguir las normas formales de la prctica evaluativa ms solvente.
El evaluador debe atender y describir las mltiples perspectivas de valor
de las personas y grupos que estn implicados e interesados en el programa que se est estudiando.
Los evaluadores deben ayudar a sus clientes a evitar una evaluacin
formal.
b)
e)
el mtodo
evaluativo
y el cliente
283
Respuesta correcta. Debe usted haber seleccionado la. ;<b. Stake est en
contra de la adopcin de normas formales para la evaluaclOn.
18. Cul de las siguientes afirmaciones es ms coherente
con el consejo general que ofrece Stake para llevar a cabo la evaluacin reloj?
d)
sociales del
evaluador.
Los escritos de Stake reflejan intensamente una filosofa pluralista.
Esta afirmacin es coherente con la recomendacin de Stake acerca de
que las evaluaciones formales deben ser llevadas a cabo slo cuando se
puede justificar claramente su coste y las molestias que representan.
.,
')
')
')
')
')
')
')
PREGUNTA
Respuestas incorrectas
')
a)
b)
e)
d)
')
)
)
)
)
)
)
)
)
)
a)
b)
e)
d)
i'
incorrectas
de la educacin ms
)
)
)
Respuestas incorrectas
)
a)
b)
e)
)
)
)
.)
)
)
)
)
,
(
(
((
(
(
284
a)
(
b)
(
(
c)
{
(
d)
(
(
(
(
(
b)
(
(
,
(
c)
(
(
(
\
\
,
\
285
Elementos
1. Organizadores previos: los problemas son los ms tiles puesto que
reflejan la complejidad, la urgencia
y la valoracin.
2. Estructura de la figura.
Utilizarla como gua para recopilar datos ampliamente descriptivos y crticos acerca del programa
de un distrito escolar para la integracin de los
estudiantes.
3. Observadores humanos.
4. Validacin: asegurar
macin obtenida es
cantidad y refleja la
mltiples fuentes de
Respuestas incorrectas
a)
Ejercicios prcticos
(
(
Evaluacin sistemtica
(
(
que la inforsuficiente en
utilizacin de
datos.
')
')
286
Evaluacin sistemtica
EJERCICIO
Tarea
cin reloj.
4. Conceptualizacin de
problemas y cuestiones.
Elaboracin
como sigue:
Ejemplificacin
El evaluador y el cliente
estn de acuerdo en que la
evaluacin debe considerar
el Arts Impact Program
de la Cranbrook School, desde sus principios en 1966
hasta el momento actual.
Preguntar a diversas
nas si piensan que puede
perderse algo dando fin ahora a la
y si
as, identificar los
potenciales de la
del estudio; y, ms an, que
emitan su juicio acerca de
estos beneficios pueden
pensar el probable coste.
Pedir igualmente a estas personas que identifiquen
quier inters especial que
puedan tener acerca del pro- :'.
grama.
Escuchar.
En la evaluacin del presupuesto de una universidad,,,
el evaluador identifica muo"~
chos puntos de vista impor~
tantes:
la administracin'
central, los decanos, el sin-{
Elaboracin
y el cliente
287
Ejem plificacin
dicato de profesores, el consejo de estudiantes, la junta
de administradores, los catedrticos, el personal relacionado con los servicios de
enseanza, el departamen to
de investigacin educativa,
el departamento de becas,
el departamento de contabilidad, los estudiantes en general, la junta estatal de
educacin, la oficina del gobernador, la legislacin del
estado y los auditores federales. Se entrevista con representantes de cada grupo,
toma nota de su valoracin
del presupuesto, consigue y
estudia los documentos pertinentes, hace una lista de
problemas y consulta con
personas interesadas en cada
problema para que lo ayuden
a describirlo. Luego rene
un grupo asesor, representativo de los distintos puntos
de vista, para que aborden
los problemas y lo ayuden
a decidir cules deben recibir ms atencin.
Habiendo asignado un orden
de prioridad a los problemas
tal corno sigue: 1) eficiencia
de la estructura actual del
departamento; 2) obstculos
para reducir o eliminar las
inversiones en programas improductivos; 3) fiabilidad y
validez de las frmulas utilizadas para pronosticar los
ingresos y los gastos; 4) regularidad de los incrementos
del precio de la matrcula,
y 5) lo razonable del incremento de salarios proyectado, el evaluador enumera las
preguntas, las fuentes de informacin y las tcnicas de
recopilacin de datos que
pueden resultar adecuadas
:)
)
')
')
')
')
.)
)
)
)
)
,)
)
.)
)
.)
~.).
)
~
:J
,)
J
J
.J
',J
'J
.:J
~.)
)
.)
.)
(
(
(
288
Evaluacin sistemtica
Tarea
(
(
(
(
(
{
(
(
(
(
(
~
(
Ejemplificacin
para la investigacin de cada
problema. Entonces se rene
con U? grupo asesor, repre_
sentatIvo de todas las a
diencias,
para examinar u.,.
y
qUlza meJorar este primer
plan de recopilacin de datos.
(
(
(
(
(
Puede desarrollar breves panoramas del programa, presentaciones del producto, videos, etctera.
9. Validacin:
confirmar
los intentos de rechazo.
Habiendo estudiado el Programa Estival para el perfeccionamiento de los estudios el evaluador encarga
a las partes independientes
que utilicen los resultados
para 1) atacar el programa
y 2) apoyarlo. Encarga a
una tercera parte que me.
taevale el estudio completo. Los informes correspondientes a estas tres acti-
e
e
,
(
,,
~
Tarea
Elaboracin
y el cliente
289
Ejemplificacin
vidades pueden ayudar a las
audiencias a interpretar los
resultados de la evaluacin.
Preparar comunicaciones especiales que saquen el mximo provecho de la informacin disponible, con el fin
de responder directa y distintamente a las diferentes
audiencias.
~
~
~
2.
3.
4.
Referencias bibliogrficas
CLARK,D. 1. Y GUBA,E, G. 1965. An examination of potentia1 change roles in
education. Texto presentado en el Seminar on Innovation in P1anning Schoo1
Curricu1a, Airliehouse, Virginia, octubre.
CRONBAC
H, L. J. 1963. Course improvement through eva1uation, T eachers College
Record, 64, pgs. 672-683.
CRONBACH,1. J. y otros. 1980. Toward a re/orm o/ program evaluation, San
Francisco, Jossey-Bass.
DENNY,T. 1978. Story telling and educationa1 understanding. Ka1amazoo: Centro
de Evaluacin, Universidad de Western Michigan, Occasional Paper n. 12, noviembre.
GLASS,G. V. 1980. Eva1uation research, Annual Review o/ Psychology, 31, pginas 211-228.
HAMILTON,D, y otros. 1977. Beyond the numbers game, Berkeley, McCutchan.
Joint Committee on Standars for Educationa1 Evaluation, 1981. Standards for
luations o/ educational programs, projects, and materials, Nueva York,
Hill.
MAcDoNALD,B. 1975. Eva1uation and the control of education. En D.
(comp.), Evaluation: The state o/ the art, Londres, Schoo1s Co,:ncil.
OWENS,T. 1973. Educationa1 eva1uatian by adversary proceedmg. En E. HOUSE
(comp.), School evaluation: The politics and process, Berkeley, McCutchan.
Educational
Evaluation
STAKE,R. E.; EASLEY,J. A., Jr. (comp.), 1978. Case studies in science education,
vol. 1, 2, Rep. NSF Proj. 5E-78-74, Urbana, I11.,CIRCE, Universidad de I11i.
nois, Facultad de Educacin.
STAKE,R. E. Y GJERDE,C. 1971. An evaluatian of TCITY: The Twin City Institute for Talented Youth. Ka1amazoo: Centro de Evaluacin, Universidad de
Western Michigan, Paper n. 1, Evaluation Report Services.
STUFFLEBEAM,
D. 1. 1966. A depth study of the evaluation requirement. Theory
into Practice, 5, pgs, 121-133.
STUFFLEBEAM,
D. 1. Y otros. Educational evaluation and decision making Itaska
m., Peacock.
'
,
TYLER,R. W. 1942. General statement on eva1uation, Journal o/ Educational Re.
search, 35, pgs, 492-501.
WOLF,R. 1. 1973. The application of se1ect legal concepts to educationa1 evalua.
tion, Tesis Doctoral de Filosofa, Universidad de I11inois,Champaign.
')
~
)
')
~
')
')
)
)
)
)
)
)
)
)
)
,)
)
)
)
)
)
)
)
)
1)
)
)
)
)
J
\.
j
l.
;.
El modelo de contraposicin para la evaluacin educacional fue desarrollado en los primeros aos setenta. Segn uno de sus ms tempranos representantes, Thomas Owens, el mtodo contrapuesto posee la metodologa necesaria para proporcionar informacin a quienes toman las decisiones con el fin
de que elaboren proyectos y juzguen los resultados previstos y los no previstos
cuando ya hayan sido realizados.
294
Evaluacin
'1
sistemtica
Objetivos
Los objetivos del captulo son los siguientes:
1.
Facilitar la comprensin
a)
b)
e)
d)
e)
2.
por ejemplo
')
')
T. R. Owens
3.
y R. L. Wolf
295
')
')
')
')
)
Intencin del modelo de contraposicin
En 1973, Owens afirm que durante la dcada anterior la evaluacin educacional haba experimentado una expansin que la condujo ms all del juicio
de los resultados finales. Cada vez se pona ms el nfasis en proporcionar
informacin para la toma de decisiones. Sin embargo, gran parte de la metodologa evaluativa no ha estado a la altura de la ampliacin del concepto y la
funcin administrativa.
A pesar de que los autores ms tempranos fueron muy crticos con la
limitada funcin de la evaluacin basada en tests psicolgicos, siguieron preocupndose por el hecho de que un proyecto alcanzara o no los objetivos propuestos. SCRIVEN,en concreto, destac (1967) la necesidad de examinar muy
de cerca tanto las metas como las presuposiciones propuestas en las que se
basaba un programa. Si las presuposiciones vinculaban el valor de un programa
a cada estudiante o a la sociedad, no exista casi ningn mtodo que pudiera
obtener este tipo de informacin.
Otra limitacin del modelo de tests psicolgicos que ya advirti Owens
consista en que era ms adecuado para la investigacin que para la toma de
decisiones prcticas. Aunque una evaluacin comparativa puede demostrar
que un programa es superior a otro, esta informacin no significa necesariamente que deba adoptarse el programa superior. Su utilidad prctica no ha
sido aprobada. As pues, existe un hueco entre los resultados empricos y las
decisiones administrativas en la realizacin de ciertas prcticas. Adems, el
modelo de tests psicolgicos limita, por lo general, el nmero de variables
examinadas. En concreto, las variables ms fcilmente cuantificables y tangibles suelen ser examinadas, mientras que las ms sutiles y menos tangibles,
suelen ser rechazadas. Por ejemplo, los tests hechos a estudiantes para la realizacin de un nuevo currculo son slo una parte del panorama general. T ambin deben ser tenidas en cuenta otras variables que influyen en el programa,
como las relaciones personales (por ejemplo, estudiante-profesor, maestro-administracin), las actitudes del estudiante y la aceptacin de la comunidad. El
modelo de la contraposicin para la evaluacin educacional se desarroll para
superar este tipo de problemas.
')
!
)
)
)
)
)
)
)
)
)
)
)
)
,
,
)
)
)
)
)
I )
)
( )
')
I
.j.
'.
(
(
296
Evaluacin
'
sistemtica
T. R. Owens
(
(
Los procedimientos
de contraposicin
en su contexto
legal
(
(
(
(
(
(
(
2.
(
(
3.
(
(
4.
(
(
5.
6.
7.
(
(
8.
(
(
(
(
(
(
(
(
(
(
La aplicabilidad
en la evaluacin
educacional
Los diversos autores estn, por lo general, de acuerdo en que los procedimientos de contraposicin para la toma de decisiones en educacin no deben
necesariamente sustituir a las planificaciones ya existentes para la recopilacin
y el anlisis de datos. Los procedimientos proporcionan un mtodo alternativo de presentar, interpretar, sintetizar e informar sobre evidencias. Se considera que los datos presentados son ms equilibrados que los obtenidos nicamente mediante tests psicolgicos.
Trasladados a un medio educativo, muchos de los procedimientos esbozados para el contexto legal pueden suponer una consideracin estructurada de
los aspectos importantes del programa y de su evaluacin. Las presuposiciones , las metas , los mtodos de recopilacin de datos y su anlisis, y la preci-
y R. L. Wolf
297
Realizaciones
prcticas
Owens sugiere siete modos principales en los que puede llevarse a cabo
el modelo de la contraposicin para satisfacer los propsitos de una eval.uacin educacional. Esbozaremos brevemente estas tiles y prcticas sugerenClas.
Explorar los valores de un currculo nuevo o ya existente. A menudo, las
evaluaciones comparativas fracasan al especificar e investigar la teora, la base
lgica y las presuposiciones de un currculo. Un debate abierto sobre la importancia de un currculo concreto que. satisfaga .las n~cesida~e~ ~resentes y
futuras de los nios, las necesidades soclales o la mtegndad dlsclplinar puede
resultar un paso til antes de decidir si es conveniente.o no desarrollar o llevar a cabo el currculo.
Seleccionar nuevos libros de texto. Los libros de texto de un distrito escolar se escogen, demasiado a menudo, de una manera fortuita o precipitada.
Una audiencia contrapuesta formada por profesores de un comit de seleccin
puede informar y aclarar cosas a los profesores sobre el valor de los libros de
texto, basndose en argumentos a favor y en contra.
Estimar la congruencia entre una innovacin y el sistema existente. Las
innovaciones pueden introducirse sin comunicrselo al ms amplio contexto
escolar. En una audiencia contrapuesta la evidencia puede producirse mencionando el probable efecto nocivo que puede producir una innovacin en el sistema como totalidad, revelando as las barreras potenciales que pueden frenar
el xito de un programa. Luego, se pueden tomar decisiones para frenar o
superar las posibles dificultades.
-~
i,
298
T. R. Owens y R. L. Wolf
I Evaluacin sistemtica
')
Dimensin 1: Marco
)
)
Formal
El que toma las decisiones
como juez
de los procedimientos
Dimensin 3:
Resultados
')
')
')
Dimension 2:
Jueces
)
La audiencia como juez
Ningn juez
)
)
FIGURA
Dimensiones
)
.
Resolver las disputas acerca de los contratos de trabajo. Continan producindose disputas sobre la realizacin de los contratos de trabajo. Los procedimientos de contraposicin pueden ayudar a resolver las disputas basndose en testimonios de expertos procedentes de una amplia gama de fuentes.
Llegar a la decisin que debe ponerse en prctica. Quien toma las decisiones educativas puede servir como director de la audiencia, en cuyo caso su
veredicto es la decisin. O puede pretender implicar a los jurados, como los
representantes de los profesores y de los estudiantes, en la toma de decisiones.
O considerar el veredicto del jurado como una parte de la informacin que
debe ser utilizada en combinacin con otras, como por ejemplo los argumentos expuestos en la audiencia o los datos recopilados mediante tests.
Owens considera que los procedimientos de contraposicin pueden ser especialmente relevantes para la aplicacin de los mtodos evaluativos desarrollados por Daniel Stufflebeam, Robert Stake (su modelo de la figura, 1967)
y Malco1m Provus.
299
.,
8-1.
)
)
)
)
)
)
de contraposicin
La base lgica
WOLF (1975) afirm que las evaluaciones educacionales se han convertido en un elemento cada vez ms complejo para el incremento de la responsabilidad evaluativa. Esto quiere decir que los evaluadores deben justificar
sus decisiones en todos los aspectos, deben comprender la complejidad de los
programas de enseanza y la importancia de la comunicacin efectiva con
el pblico acerca de estos problemas.
Wolf mantiene que la evaluacin convencional no satisface estas necesidades recientemente reconocidas. La solucin a estos problemas no est en
la recopilacin de grandes cantidades de datos tcnicos, sino en la clarifica-
)
)
')
)
(
)
)
')
I
300
Evaluacin
(
(
(
(
(
(
(
(
(
(
(
cin de todos los aspectos de las alternativas del programa. Esto puede beneficiar tanto al educador como al consumidor. La evaluacin judicial de Wolf
est concebida para clarificar e informar.
El modelo adapta y modifica conceptos tanto de los juicios con jurado
como de las audiencias administrativas. La metodologa legal ofrece un til
sistema de procedimientos destinados a producir deducciones alternativas a
pa~tir de datos, antes de emitir los juicios. Los evaluadores pueden centrarse
claramente en un grupo de problemas, contar con el testimonio de distintas personas, investigar diferentes aspectos de los problemas utilizando
dos equipos evaluativos, permitir el desarrollo de un punto de vista equilibrado y estructurar las deliberaciones de quienes toman las decisiones.
Adems, el modelo (como cualquier mtodo basado en la contraposicin)
investiga mu~has de las presuposiciones y bases lgicas de los programas,
as como tambin los mtodos mediante los cuales se recopilan y analizan los
datos de la evaluacin. En breve, la evaluacin se convierte en algo intelectualmente honesto y justo.
(
(
(
(
(
(
(
(
(
(
(
(
(
,
(
(
(
{
T. R. Owens
sistemtica
y R. L. Wolf
301
los comentarios
vista.
ms caractersticos
de los parti-
El argumento a favor
En su articulo An adversary Model for Educational Evaluation, Mari.
KOURILSKY (1973) enumera algunas ventajas del modelo.
Alcance de la informacin. El que toma las decisiones suele recibir una
amplia gama de informacin, que representa (por definicin) a los dos lados.
La confrontacin entre las dos posturas opuestas provoca una completa justificacin de la posicin adoptada.
Calidad de la evidencia. La relacin contrapuesta provoca recomendaciones para el desarrollo de una mejor calidad de las evidencias para las tomas
1yn
)
')
302
I Evaluacin sistemtica
de decisiones. Los abogados saben muy bien que sus afirmaciones sern comprobadas y, por lo tanto, deben buscar buenas pruebas que las apoyen. Las
afirmaciones de gran alcance del tipo las investigaciones indican que ... son
muy poco corrientes en los procedimientos de contraposicin.
Disminuye la tendenciosidad inconsciente. El proceso disminuye la posibilidad de ideas preconcebidas tanto por parte del personal del programa como
del evaluador, referentes a aspectos de la educacin, que puedan influir y
entrometerse en las conclusiones. Es posible que el evaluador y quien toma
las decisiones no sepan que existen realmente mtodos tendenciosos. Los informes evaluativos, de cualquier modo, pueden fcilmente contener puntos
de vista inconscientemente tendenciosos del evaluador y de aquellos que participan en el programa que se est evaluando. La evaluacin contrapuesta
proporciona el incentivo de presentar el mejor proceso posible para ambas
partes.
Disminuye el sndrome del S, seor. A menudo ocurre que el evaluador
conoce la predileccin de quien toma las decisiones por ciertos resultados posibles de una evaluacin. Inadvertidamente, es incapaz de resistirse a la tentacin de satisfacerla, pero los procedimientos de contraposicin ayudan a
eludir este tipo de situaciones.
.
Se exponen las presupasiciones ms ocultas. El mtodo de contraposicin
ayuda a exponer, clarificar y finalmente cambiar las presuposiciones que subyacen en un desacuerdo. Cuando aparece una prueba empricamente verificable, las premisas de valor relativas a la recopilacin de datos son expuestas y
discutidas. Cuando las presuposiciones y los criterios de valor (y los juicios)
han sido claramente demostrados, pueden clarificarse sus incoherencias. Se establece as una slida base para la futura toma de decisiones.
Todos los aspectos tratados en esta seccin subrayan que las ventajas del
mtodo de contraposicin proceden de su inevitable franqueza en los procesos
dialctico y legal. Como consecuencia, pueden tomarse decisiones mejores y ms
racionales.
El argumento en contra
En los ltimos aos, y desde distintas direcciones, se han venido expresando ciertas inquietudes acerca de algunos aspectos del mtodo de contraposicin. Una de ellas es la que han hecho pblica W. James POPHAM y Dale
CARLSON(1977) tras su participacin en una evaluacin contrapuesta en Hawai, en la primavera de 1976. Popham y Carlson enumeraron los defectos que,
segn ellos, presentan la mayora de las evaluaciones contrapuestas; tambin
ofrecieron, cuando pudieron, sugerencias para mejorar esas deficiencias.
Diferencias entre las tcnicas de los participantes. Es ms fcil suponer
que las dos caras de un problema van a ser satisfactoriamente presentadas
T. R. Owens Y R. L. Wolf
')
303
)
)
')
')
')
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
}
)
)
)
)
304
Evaluacin
sistemtica
T. R. Owens
y R. L. Wolf
305
(
(
(
(
(
(
(
(
(
(
(
(
portante para cada rea de decisin. Puede surgir de cualquiera de las presen.
taciones opuestas.
Excesivo coste. Es probable que la evaluacin contrapuesta cueste ms
que una evaluacin convencional de un programa similar. La principal razn
es que el coste de dos equipos y del personal de coordinacin/arbitraje
requeridos para una evaluacin contrapuesta es mayor que el de otros mtodos
evaluativos, que slo necesitan un personal especializado muy reducido.
Si una evaluacin contrapuesta debe ser llevada a cabo, debe invertirse
una gran cantidad de tiempo en clarificar las normas de trabajo y los procedimientos operativos. Popham y Carlson aconsejan el empleo de este tipo de
mtodos slo cuando pueden ser financiados.
Aunque las ventajas del mtodo de la contraposicin, pueden ser considerables, est claro que debe considerarse cuidadosamente su utilidad potencial para la toma de decisiones antes de emplearlo. En trminos generales,
debe ser tenido muy en cuenta como posible mtodo evaluativo cuando est
en juego una decisin poltica que exija grandes cantidades de recursos.
{
(
(
(
(
{
(
,e
Este test de conocimientos tiene dos partes: cinco preguntas que pueden
responderse con un verdadero o un falso y dos preguntas con varias respuestas para elegir. En la primera parte, cuando haya decidido si una afirmacin
es verdadera o falsa, debe usted responder otra pregunta basada en esa decisin. Las respuestas correctas se facilitan despus de cada pregunta.
El apartado de preguntas con varias respuestas posibles debe tambin determinar si ha adquirido el suficiente conocimiento sobre los objetivos del
modelo de contraposicin. En. cada caso, seleccione la que usted considere la
mejor respuesta. Luego, comprela con la explicacin de las respuestas correctas e incorrectas que siguen a cada pregunta.
(
(
(
(
(
Falso
(
~
(
(
Respuesta correcta. La afirmacin es verdadera. El modelo de la contraposicin ha sido desarrollado pan clarificar las facetas ms importantes de un
programa (o un programa propuesto) con el fin de que qui~~es toma~ las
decisiones tengan pruebas suficientes y slidas para tomar deC1S~onesra~lOn~les. Supone un alejamiento de la funcin evaluativa basada en el test pSlCologico y un acercamiento al mtodo dialctico empleado por el modelo legal.
Falso
Si es verdad, d su opinin acerca de la conveniencia de sustituir los diseos y mtodos evaluativos ya existentes por los procedimientos de contraposicin. Si es falso, diga cul es la posicin de las primeras planificaciones evaluativas respecto a los procedimientos de contraposicin.
Respuesta correcta. La afirmacin es falsa. Aunque los datos procedentes de un mtodo de contraposicin se consideran ms equilibrados que los
obtenidos nicamente mediante tests psicolgicos, estos ltimos son pruebas
admisibles en una audiencia. Hasta qu punto deben ser utilizados estos resultados en las pruebas finales, debe decidirse en las sesiones previas a la
audiencia.
Falso
."..-.~.>-
r.
')
.....
')
306
Evaluacin
T. R. Owens
sistemtica
Falso
cuasilegales
Respuesta correcta. La afirmacin es verdadera. Wo1 cree que la evaluacin debe desempear un papel cada vez ms importante en lo que a la responsabilidad se refiere. Los educadores y otros profesionales deben justificar
sus decisiones. Y para hacerlo, deben conocer a fondo la complejidad de los
programas de enseanza: la evaluacin resulta de mucha ayuda en este aspecto.
Falso
c)
d)
a la audiencia es posible que se llegue a un acuerdo en reas como las siguientes: nmero de testigos que deben ser llamados, alcance de los interrogatorios, criterios para determinar la admisibilidad de pruebas y el esbozo de
cuestiones especficas que sirvan de gua para las deliberaciones del jurado.
PREGUNTA6.
Para mitigar las diferencias que pueden existir entre las
tcnicas de los participantes, Popham y Carlson recomiendan:
Asegurarse de que los evaluadores seleccionados tienen idnticos antecedentes y experiencia evaluativa.
Realizar un proceso en el que los dos adversarios presenten las dos caras
del problema.
}
)
')
)
...,
}
")
Respuestas incorrectas
a)
c)
d)
")
")
)
)
)
)
)
PREGUNTA7.
de acuerdo?
a)
b)
b)
307
c)
a)
conjuntamente con otras informaciones cuando quien toma las decisiones llegue
a una conclusin acerca del destino del programa.
Verdadero
y R. L. Wolf
d)
El modelo judicial modifica conceptos tanto de los juicios con jurado como
de las audiencias administrativas.
La metodologa legal ofrece un til sistema de procedimientos destinados
a producir deducciones alternativas a partir de los datos y antes de que'
se emitan los juicios.
Los evaluadores no necesitan centrarse en un grupo de problemas; de
esta manera, podrn recoger una informacin flexible y equilibrada que les
ayude a aclarar la verdad acerca del programa.
El modelo judicial investiga muchas de las presuposiciones y bases lgicas de los programas.
)
)
)
)
)
)
)
)
)
)
)
)
)
a)
)
)
)
'\
f
(
T. R. Owens
308
b)
d)
Evaluacin
sistemtica
(
(
b)
INTERPRETACIN
DEL TEST DE CONOCIMIENTOS.
Cuando haya realizado las
dos secciones del test, le recomendamos que revise su trabajo y su comprensin
de las respuestas correctas, as como las secciones de la unidad.
Ejercicios prcticos
(
(
(
(
(
(
(
(
(
(
(
b)
d)
e)
La
La
La
La
etapa
etapa
etapa
etapa
de
de
de
de
(
(
t
t
t
t
t
y R. L. Wolf
309
4.
5.
programa.
Para identificar los problemas, pueden utilizarse entrevistas
medios.
y otros
de prioridad.
Un equipo de investigacin especial (que debe ser descrito) comprueba la importancia de cada problema y 10 pone todo por escrito.
e)
d)
La etapa de la audiencia:
1. En una sesin previa a la audiencia, ambos equipos examinan los
argumentos especiales.
2. Conjuntamente con el presidente de la audiencia, se determinan las
reglas del debate.
3. Se esbozan cuestiones especficas que sirven de gua para las deliberaciones del jurado.
4. Se determinan los detalles de la composicin del jurado, del grupo
de quienes toman las decisiones y del nmero de sesiones que tendr
la audiencia.
5. Se realiza la audiencia y el jurado delibera.
6. Sobre las recomendaciones resultantes se toman las decisiones.
EJERCICIO 2. Comente en un ensayo los pros y los contras de la evaluacin contrapuesta. Complete su respuesta con un breve prrafo que contenga opiniones equilibradas acerca de la utilidad del mtodo de contraposicin a la luz de sus comentarios sobre sus pros y sus contras.
)
)
)
310
Evaluacin
La respuesta
a)
b)
,.
,
sistemtica
al ejerciclO 2 debe
Referencias
e)
incluir
los siguientes
puntos:
bibliogrficas
311
Un argumento equilibrado:
1.
2.
3.
4.
Pueden proponerse soluciones para muchos de los argumentos expuestos en contra del modelo.
Cuando puede conseguirse financiacin, la evaluacin contrapuesta resulta recomendable, sobre todo si van a evaluarse programas muy
amplios.
Cualquier estudio que utilice el mtodo de contraposicin debe abordarse con muchas precauciones.
La utilizacin de un mtodo abierto y honesto, con la tendenciosidad
reducida al mnimo, convierte al modelo en algo nico entre todos
los dems modelos evaluativos.
']
}
)
)
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
Referencias bibliogrficas
AUERBAC
H, c.; GARRISON,L. K.; HURST,W.; y MERMIN,S. 1961. The adversary
system. En The legal pl'Ocess, San Francisco, Chandler.
FRANKH. N. 1949. Courts on trial. Princeton, N.]., Princeton University Press.
KOURI~SKY,M. 1973. An adversary model for educational evaluation, Evaluation
Comment 4, 2, junio.
LEVlNE,M. 1974. Scientific method and the adversary model, American Psyehologist (septiembre), pgs. 666-677.
OWENS,T. R. 1973. Educational evaluation by adversary proceedings. En HOUSE,
E. R. (comp.), School evaluation: The politics and process, Berkeley, McCutchan.
POPHAM, W. James y CARLSON,
Dale. Deep dark deficits of the Adversary Eva-
)
)
)
)
)
)
)
312
Evaluacin sistemtica
LA EVALUACION ILUMINATIVA:
EL METODO HOLISTICO
Para responder a la pregunta de si existen alternativas al modelo evaluativo de Tyler (basado en los objetivos), un grupo de catorce hombres celebr
una conferencia en el Churchill College de Cambridge, en diciembre de 1972.
La meta de la conferencia era investigar modelos no tradicionales de evaluacin de currculos y establecer algunas directrices para futuros desarrollos
de esta especialidad. Los participantes, que incluan a Robert Stake por los Es- tados Unidos y a David Hamilton, Malcolm Parlett y Barry MacDonald por
Gran Bretaa, fueron escogidos por sus conocidas reservas acerca de las prcticas evaluativas establecidas o porque haban sugerido o experimentado nuevos
mtodos.
El resultado de la conferencia fue un manifiesto de objetivos que recomendaba un replanteamiento total de las bases lgicas y las tcnicas de los
programas evaluativos existentes. Estos conceptos bsicos condujeron al desarrollo de lo que se dio en llamar evaluacin iluminativa.
De un modo caracterstico, los mtodos evaluativos convencionales han seguido las tradiciones experimentales o psicomtricas dominantes en' la inves-.
tigacin educativa. Los evaluadores iluminativos creen que mtodos como aqullos son de un alcance limitado e inadecuado para dilucidar los complejos problemas con que se enfrentan los evaluadores.
La evaluacin iluminativa se presenta vinculada a un paradigma de investigacin antropolgica opuesto. Los intentos de valoracin de los productos
educativos dejan paso a un estudio intensivo del programa como totalidad:
su base lgica, su evolucin, sus operaciones, sus logros y sus dificultades.
La crtica principal que se hace al modelo basado en objetivos es que
valora sin explicar, mientras que la metodologa iluminativa, contemplando
el programa como un todo, utiliza ms la descripcin que los nmeros.
}
')
314
Evaluacin
La evaluacin
sistemtica
4.
b)
e)
2.
Los esfuerzos futuros para la evaluacin de estas prcticas deben satisfacer los siguientes criterios:
a)
b)
e)
d)
3.
Se ha prestado muy poca atencin a las prcticas educativas, incluyendo las del aprendizaje.
Se ha prestado demasiada atencin a los cambios psicomtricamente
valorables en el comportamiento de los estudiantes.
La existencia de un clima investigativo que recompensaba la exactitud de la valoracin y la vaguedad de las teoras, mientras pasaba
por alto, sin relacionarlos, los problemas escolares y las cuestiones
investigativas, y toleraba una comunicacin ineficiente entre los investigadores y los que no participaban en ella.
e)
')
')
e)
e)
Es interesante advertir que la conferencia adopt una postura muy similar a la que promulgaba Cronbach, a saber, que los distintos diseos evaluativos sirven a propsitos distintos y que, incluso para un solo programa educativo pueden utilizarse muchas planificaciones distintas.
D~be usted ser capaz de conocer profundamente el mtodo iluminativo
a travs del estudio de esta unidad. Al final encontrar ejercicios para comprobar sus conocimientos. Ahora le proporcionaremos la lista de obj~ti~os de
la unidad. Estdielos, lea la unidad y luego realice el test de conOCimientos,
comparando sus respuestas con las correctas. Finalmente, haga los ejercicios
prcticos, comparando sus respuestas con los puntos principales que ~e proporcionamos, y responda, para terminar la unidad, a las preguntas SlD respuesta.
')
)
')
)
)
')
)
)
)
)
)
)
)
)
)
)
)
)
Objetivos
315
."
d)
a)
Los que diseen los estudios evaluativos deben prestar mucha atencin
a lo siguiente:
b)
iluminativa
)
)
)
1.
2.
3.
Esbozar algunas dudas acerca de ciertos aspectos de la evaluacin tradicional, poniendo el nfasis en los procesos o valoraciones del aprendizaje,
el paradigma agrcola-botnico, el mtodo holstico de MacDonald y el
concepto de Stake de la evaluacin como representacin.
Entender la evaluacin iluminativa como un paradigma socio-antropolgico, teniendo en cuenta el contexto de los programas educativos, el sistema de enseanza y el medio del aprendizaje.
Estudiar la organizacin y los mtodos de la evaluacin iluminativa por
)
)
)
)
)
)
)
316
f
(
(
4.
(
(
(
5.
(
(
(
(,
(
(
(
(
(
(
(
(
(
(
(
l
(
La evaluacin iluminativa
Evaluacin sistemtica
(
(
317
El paradigma agrcola-botnco
:Parlett y Hamilton han comparado el mtodo evaluativo de Tyler, bas.a~~
en los objetivos, con un paradigma agrcola-botnico. (T. S. Kuhn descnblO
en 1970 un paradigma como un superconcepto que incluye reas de problemas, mtodos de investigacin y normas aceptables para su solucin.) Los
estudiantes -como
si fueran cultivos -son sometidos a pre-tests (la planta
joven que es pesada o valorada) y luego sometidos a distintas experiencias
(condiciones de tratamiento). Como consecuencia, despus de un cierto per~od?
de tiempo, los resultados (el crecimiento o la cosecha) se valoran para m~car la relativa eficiencia de los mtodos (fertilizantes) utilizados. Los estudios
de este tipo estn destinados a proporcionar datos de tipo numrico y objetivo
que permitan la realizacin de anlisis estadsticos. Variables aisladas como
el coeficiente de inteligencia, la clase social, los resultados de los tests, las
caractersticas personales y la valoracin de su actitud, son codificadas y procesadas para indicar la eficiencia de los nuevos currculos, medios o mtodos.
Estos autores afirmaban, sin embargo, que este paradigma tena muchos
defectos:
1.
2.
3.
4.
318
5.
Evaluacin
sistemtica
MacDonald
y el mtodo holstco
La evaluacin
iluminativa
)
319
')
I
')
)
')
)
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
Stake pone el nfasis, pues, en la presentacin de los resultados. Si la evaluacin debe estar ms dirigida a quienes toman las decisiones que a los
investigadores, el evaluador debe intentar describir el progra~--d~,manera
que se comunique con la audiencia de un modo ms na~!i!t.y':"~a;"'dectivo
que en el caso del informe investigativo.
'_ .
'
)
)
)
:.::
\f"
(
(
(
(
(
320
Evaluacin
sistemtica
La evaluacin
f
(
(
(
,(
educativos
Iluminativa
321
1.
(
(
<.
(
(
(
(
{
(
(
,
(
t
t
t
(
2.
3.
Estudiar el programa innovador: cmo opera, cmo influye en las distintas situaciones escolares a las que se aplica, sus ventajas y desventajas,
y cmo se ven afectadas las tareas intelectuales y las experiencias acadmicas de los estudiantes.
Descubrir y documentar qu significa participar en el esquema, ya sea
como profesor o como alumno.
Discernir y comentar las caractersticas ms significativas de la innovacin,
las concomitancias recurrentes y los procesos crticos.
De esta manera se intenta plantear y clarificar una compleja serie de cuestiones, ayudando al innovador y a otras partes interesadas a identificar aquellos procedimientos y aspectos del programa que pueden conseguir los resultados deseados.
Como afirman Parlett y Hamilton, la adopcin de una evaluacin iluminativa requiere algo ms que un intercambio de metodologas (con las tradiciona1es); implica tambin nuevas suposiciones, conceptos y terminologa para
comprender la evaluacin iluminativa de dos aspectos: el sistema de enseanza y el medio de aprendizaje.
)
')
')
322
Evaluacin sistemtica
cualquier aula concreta, depende de la interaccin de muchos factores distintos. Por ejemplo, existen numerosas limitaciones (legales, administrativas y
financieras) para la organizacin de la enseanza en las escuelas; existen
siempre presuposiciones operativas (sobre los acuerdos acerca de los temas
los mtodos de enseanza y la valoracin de los estudiantes) propuestas po;
el profesorado; estn las caractersticas individuales de cada profesor (experiencia, actitud ante los estilos de enseanza y aprendizaje y expectativas personales); y estn los puntos de vista, necesidades y motivaciones de los estudiantes.
Es importante que la diversidad y complejidad de los medios del aprendizaje sean contempladas como una base para un estudio serio de los programas educativos. Cualquier programa, y en particular una innovacin, no puede
verse como un sistema independiente y autosuficiente. La introduccin de
una innovacin desencadena una serie de repercusiones a lo largo de todo
el contexto del aprendizaje. Y muy probablemente, pueden surgir consecuencias inesperadas que afecten a la propia innovacin, cambiando su forma y
moderando su impacto.
Parlett y Hamilton insisten en que intentar relacionar los cambios en el
medio del aprendizaje y las experiencias intelectuales de los estudiantes es
una de las preocupaciones bsicas de la evaluacin iluminativa. Como ellos
mismos dicen, los estudiantes no deben enfrentarse a un conocimiento desnudo; sino que ste les debe llegar vestido con textos, lecturas, grabaciones, etctera. Por su parte, la estructura administrativa est incrustada en estructuras institucionales y de departamentos mucho ms amplias, cada una con sus
propios procedimientos y sus dependencias profesionales y sociales. Estos
aspectos del aprendizaje, aunque aparentemente alejados de la asimilacin
del conocimiento en las aulas, no deben ser ignorados. As, el concepto del
medio del aprendizaje es necesario para analizar la interdependencia entre el
aprendizaje y la enseanza, puesto que relaciona la organizacin y las prcticas de la enseanza con las respuestas de los estudiantes a corto y largo plazo.
Adems, existen fenmenos de significativa influencia educativa, como el
inters del estudiante, la concentracin y el aburrimiento, que debilitan la
distincin psicolgica tradicional entre 10 cognitivo y 10 afectivo. Esto,
por lo general, surge en respuesta a la totalidad del medio del aprendizaje,
y no a uno solo de sus componentes. Los estudiantes responden tanto al currculo oculto como al visible: asimilan las costumbres, convenciones, cultura
y modelos de la realidad de la situacin del aprendizaje.
La evaluacin iluminativa
323
)
)
')
)
Caracteristicas
principales
de la evaluacin
iluminativa
')
La evolucin iluminativa no es un mtodo regularizado, sino una estrategia de investigacin general. Pretende ser adaptable para descubrir las dimensiones, metas y tcnicas de la evaluacin, y eclctica para proporcionar al evaluador una serie de tcticas investigativas. Las decisiones acerca de la estrategia
que debe ser utilizada en cada caso concreto surgen del pr9blema que debe
investigarse. Ningn mtodo se utiliza exclusiva o aisladamente; se combinan
distintas tcnicas para arrojar un poco de luz sobre un problema comn. Inicialmente, como afirman Parlett y Hamilton, la preocupacin del evaluador
es familiarizarse con la realidad cotidiana del marco en el que est investigando. Este propsito es similar al de los antroplogos sociales o los historiadores naturales. No intenta manipular, controlar o eliminar las variables situacionales, sino abarcar toda la complejidad de la escena:
')
)
')
')
)
)
)
)
Su tarea principal es desenmaraarla, aislar sus caractersticas ms significativas, esbozar los cidos causa-efecto y comprender las relaciones entre las
creencias y las prcticas y entre los modelos de organizacin y los -modelos
de los individuos.
)
)
)
1.
2.
3.
Dentro de esta estructura de tres etapas, se recogen informaciones utilizando datos recopilados de cuatro reas: la observacin las entrevistas los
cuestionarios y los tests, y las fuentes documentales y sob~e antecedentes.'
)
)
)
)
)
)
)
)
)
)
)
)
)
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
l
(
(
(
(
,
(
324
Evaluacin
La evaluacin
sistemtica
Iluminativa
325
)
')
326
La evaluacin iluminativa
Evaluacin sistemtica
del espirltu
del programa
Como se ha afirmado al principio, Stake subraya que la tarea del evaluador es comunicarse con una audiencia de una manera ms natural y, adems,
ms efectiva que en el informe investigativo tradicional. Esto quiere decir
que un informe formal escrito no siempre es necesario y que, de hecho, siendo
demasiado formal, puede traicionar sus propios propsitos. Una sobrecarga
de datos es, por lo tanto, algo que debe ser evitado en un informe. En cambio, segn Stake, necesitamos describir la complejidad. Necesitamos transmitir la impresin holstica, el modo, incluso el misterio, de la experiencia.
La lucha entre el deseo natural del evaluador de reflejar 10 que ve y, por
contra, explicarlo o relatarlo es, a veces, muy duro. Por una parte, el evaluador puede querer capturar el aroma ntimo, la complejidad y la idiosincrasia
del programa en la vida real, pero tambin inclinarse hacia una interpretacin
con el fin de generalizar o buscar modelos o incluso capturar la esencia de 10
que se est estudiando.
Las diferencIas
')
327
')
Cada grupo acudir al informe para que le ayude a tomar decisiones distintas. Por esta razn, el evaluador no puede, incluso aunque se 10 pidan,
proporcionar un simple juicio del tipo funcional no funciona acerca del futuro
del programa (o la innovacin). Puede suceder que una decisin basada en
el criterio evaluativo de un solo grupo sea discutida por otros grupos con
distintas prioridades.
La comunicacin
Una de las principales virtudes de la evaluacin iluminativa es su versatilidad. Las diferencias entre los informes es una inevitable y deseable consecuencia de este mtodo. Las evaluaciones tradicionales estn construidas sobre
requisitos metodolgicos, mientras que las evaluaciones iluminativas destacan
mtodos construidos sobre definiciones de problemas y contratos entre el evaluador y el patrocinador. Estos estudios, por 10 tanto, suelen estar dirigidos
a grupos especficos para que puedan ser discutidas las cuestiones y problemas, incluso polticos, que afectan a estos grupos. En el caso de las audiencias
mltiples, la tarea del evaluador puede estar dirigida a distintos grupos por
medio de secciones especficas del informe. No importa qu forma adopte el
informe, con tal de que sea legible, breve e interesante.
La evaluacin iluminativa, as, destaca ms la recopilacin de informacin
que la toma de decisiones. La tarea del informe, para quienes toman las deci.
siones, es proporcionar un amplio espectro de complejas realidades acerca del
programa. De ah deben surgir discusiones que conduzcan a desenmaraar las
complejidades y aislar lo trivial de lo significativo.
)
Problemas relacionados con la evaluacin iluminativa
')
)
Las reservas de Stenhouse
Aunque simpatiza totalmente con la crtica del viejo estilo, el de la evaluacin del producto, de la que surge el estilo iluminativo, Laurence Stenhouse
expresa algunas reservas acerca de este mtodo. Su preocupacin es el problema de los criterios, puesto que cree que la postura general asumida por
algunos evaluadores iluminativos puede bloquear el progreso de la innovacin
basada en la investigacin.
A Stenhouse le parece que los evaluadores iluminativos se preocupan del
valor o el mrito de un currculo o una prctica educativa, pero que sus
criterios no son claros y su preocupacin por las audiencias y la presentacin
de los resultados no es ms que un enmascaramiento del problema:
Aspiran a contarlo tal como es, y a menudo escriben como si fuera posible
a condicin de que puedan hacer alguna distorsin de acuerdo con sus propios valores. Pero esto no es contarlo tal como es. Es slo una creacin de
significado a travs de la utilizacin de criterios y estructuras conceptuales.
La tarea de informar a quienes toman las decisiones en un lenguaje que puedan entender fcilmente puede conducir, con demasiada facilidad, a la importacin casual de presuposiciones y criterios sin examinar. La respuesta de la
audiencia puede ser seductora, especialmente si la audiencia es polticamente
poderosa. Y es demasiado fcil para la evaluacin que aspira a ser una novela
degenerar en una novelucha.
Stenhouse viene a sugerir que un elemento importante en una evaluacin
adecuada de un currculo es la crtica filosfica. El objeto de esta crtica debe
ser revelar el significado del currculo, ms que calcular su valor, aunque,
naturalmente, la revelacin del significado invita a la valoracin. De ah que
su preocupacin acerca de la evaluacin iluminativa se centre en que presta
demasiada. atencin a las dimensiones polticas de un estudio y a la presentacin de los resultados en una forma vvida y aceptable, pero a menudo parcial, 10 cual puede convertir la discusin de estos criterios en parte de la
privacidad de los evaluadores. Afirma que estos problemas son demasiado
importantes para que sean contemplados como ~<problemas domsticos de la
familia evaluativa.
)
")
')
)
)
)
)
)
)
)
)
)
)
)
)
)
(
)
)
)
)
! )
)
I )
)
)
, )
:)
(
(
328 I
Evaluacin sistemtica
La evaluacin iluminativa
(
(
(
(
(
(
(
(
(
(
(
(
(
La tendenciosidad
experimental
. Parlett. '! Hamilton plantean esta pregunta: puede ser cientfica una
~ter?!etaclOn ~~r~onal? Ellos saben muy bien (como Stenhouse) que la recopI1~cl0n, el anahsIs y la presentacin de los datos por un evaluador iluminativo parecen se~ discretos. Los autores argumentan, sin embargo, como
hace St~k~, que mnguna forma de investigacin es inmune al prejuicio, la
tend~nC1~sl.d~dy :rror humano. Cualquier estudio investigativo, segn ellos,
reqUler~ JUlC10Stecmcos y, por lo tanto, es vulnerable; incluso en los estudios
evalu.atIvo~ ~~e manejan automticamente datos numricos procesados, es necesano el JUlCIOen todas las etapas.
, ~in em~argo, como admiten Parlett y Hamilton, la amplia utilizacin de
t~:m~as a~ler:as, d~ progresiva concentracin y datos cualitativos en la evaluac~on IlummatIva, Slgu~ permitiendo una gran parcialidad por parte del investigador: Enton:es sugIeren una serie de tcticas de precaucin. Los asesores
evaluativos es~an encargados de poner en duda las interpretaciones preliminares, y los ~Ien:bros del equipo investigativo pueden encargarse de desarrollar sus prop~as. mterpretaciones. Incluso con estas precauciones, persiste el
elemento subJetiVO. Parlett y Hamilton afirman que esto es inevitable:
;1
(
(
(
(
(
(
(
(
,
(
(
{
t
(
(
(
(
f
..
!ambi~ pued~ resp~nderse
S~CI?nespecIal
hmltarse a las
ment~ que la
ampha. Basan
a la pregunta de si, teniendo en cuenta la podel mvestIgador, la evaluacin iluminativa debe necesariamente
innovaciones a pequea escala. Parlett y Hamilton creen firmeevaluacin iluminativa puede ser aplicada a una escala ms
su presuposicin en una serie de puntos, el ms importante
'329
de los cuales es que el medio del aprendizaje, a pesar de su diversidad, comparte muchas caractersticas. As, la enseanza se ve a menudo limitada por
convenciones similares y los profesores se encuentran con similares grupos de
problemas; existe una amplia gama de fenmenos sociales y del comportamiento solapados que son inherentes a todos los programas de enseanza,
aprendizaje e innovacin. La evaluacin iluminativa puede contribuir a concretar y describir adecuadamente estos fenmenos mediante resmenes extractados, terminologa compartida y conceptos tiles.
Para ayudarle a determinar si ha alcanzado usted los objetivos de conocimiento de esta unidad, este apartado contiene seis preguntas con muchas
posibles respuestas y explicaciones de las respuestas correctas e incorrectas.
Debe usted seleccionar la letra que considere la mejor respuesta y luego compararla con las que le proporcionamos nosotros. Cuando haya contestado a
las preguntas, podr interpretar su trabajo siguiendo nuestras indicaciones.
PREGUNTA1. Cul de las siguientes afirmaciones describe mejor el mtodo iluminativo de evaluacin?
a)
b)
e)
d)
Una investigacin en la que los resultados de un programa se corresponden con las metas y objetivos expuestos.
Un estudio centrado en proporcionar informacin para los principales
tipos de decisiones educativas.
El descubrimiento del alcance del xito de un programa mediante la recopilacin de todos los detalles admisibles relacionados con l y el debate
sobre los mritos de esos detalles.
Una investigacin de un programa adaptable y eclctica, en la que el
investigador, habindose familiarizado con el marco, observa, investiga
y luego intenta explicar.
"';'.'.
-,
')
330
Evaluacin
Respuestas incorrectas
a)
b)
e)
Es incorrecta: esta afirmacin se corresponde ms con el mtodo utilizado por la escuela evaluativa tyleriana, esto es, el mtodo de los objetivos. Es casi la anttesis de las metas de la evalucin iluminativa.
Es incorrecta: sta es la definicin de evaluacin a la que se adhieren
los partidarios de las evaluaciones basadas en las decisiones. Es parecida
a la evaluacin iluminativa en que la informacin debe ser presentada a
quienes toman las decisiones, pero difiere de ella metodolgicamente en
muchas y significativas maneras (como indicar una lectura de la unidad
dedicada a Stufflebeam).
Es incorrecta: esta afirmacin se aproxima al mtodo utilizado en la evaluacin contrapuesta, segn el cual la metodologa y el propsito de la
investigacin difieren marcadamente del mtodo iluminativo.
La evaluacin
sistemtica
sea flexible en su mtodo, tanto para la planificacin como para los procedimientos utilizados en el estudio,
intente controlar las variables situacionales,
tome decisiones tempranas sobre la naturaleza de las investigaciones que
deben ser llevadas a cabo,
sea cauto a la hora de formar (o conjeturar) modelos de causa-efecto para
las operaciones del programa que se est estudiando.
iluminativa
')
331
e)
Es incorrecta porque el evaluador iluminativo acta ms como un antroplogo, cuando se ha familiarizado con el marco que est estudiando; ni
siquiera intenta manipular las variables.
Es incorrecta: el evaluador iluminativo inspecciona el campo con la mente abierta en toda su amplitud antes de seleccionar los temas o aspectos
de un programa para estudiarlos ms detenida y documentadamente.
d) Es incorrecta: el evaluador iluminativo debe esforzarse en descubrir m:delos de causa-efecto en la operacin de un programa Y; una v.ez hec o
')
'\
ratorio.
')
.')
, ')
e)
d)
participantes en el programa.
. , '1 .
La fase de la observacin ocupa un lugar central en la evaluaclOn 1 uml-
a)
b)
)
)
)
)
)
nativa.
Respuesta correcta. Debe usted haber seleccionado la d. La ta~ea principal del evaluador es observar las comp1ejidad.es de la escena Y alslar sus
caractersticas ms significativas, incluyendo los Clclos de causa Y efecto.
)
)
)
Respuestas incorrectas
a)
b)
e)
)
)
)
)
I
)
PREGUNTA4. En lo referente a la recopilacin de datos (con tcnicas
de papel-y-lpiz), cul de las siguientes opiniones respaldan Parlett y Hamilton?
Respuestas incorrectas
b)
d)
)
)
~)
-t )
I ./
)
)
,)
~)
~
(
.
.~f-~
La evaluacin iluminativa
332
Respuesta correcta. Debe usted haber respondido a. Aunque se ca centra en la observacin, el evaluador iluminativo puede utilizar tcnI'c n
l' .
1
.
as e
aplZ-y-pape ventajosamente, en particular porque sus resultados analizad
pueden apoyar o calificar los resultados de las observaciones y las entrevist as.
os
(
(
(
c)
Respuestas incorrectas
PREGUNTA6.
(
(
c)
(
(
d)
c)
. d)
audiencias.
una diversidad entre los informes es una consecuencia inevitable y de-
a)
b)
seable.
a)
(
(
b)
(
(
(
c)
d)
(
(
(
(
,
(
Respuesta correcta. Debe usted haber seleccionado la d. Stenhouse afirma: ~<~o se ~u~de contar tal como es. Esto slo puede ocurrir mediante la
creaCIOn de SIgnificado a trav~s ~e la utilizacin de criterios aceptados y estructuras conceptuales. Los criterios no examinados y las presuposiciones ca'
sualment: adoptadas por el evaluador, conducen a dudas acerca de la validez
del estudlO y sus resultados.
Respuestas incorrectas
a)
(
(
mas utIles en los estudIOs a gran escala, pueden tambin ser utilizadas
de una manera prove.hosa en los estudios ms reducidos.
Es incor~ect~; aunque teniendo en cuenta los defectos de este mtodo
de r:copl1acIOn de datos, el evaluador puede utilizar cuestionarios, pero
no aIsladamente.
Es i~co~recta: los comentarios escritos y cosas por el estilo, junto con
las teclllcas de papel-y-lpiz, ayudan a completar el banco de informacin
del evaluador iluminativo.
(
(
333
Evaluacin sistemtica
(
(
b)
Respuestas
a)
b)
e)
incorrectas
INTERPRETACIN
DEL TEST DE CONOCIMIENTOS.Cuando haya realizado el
test de conocimientos, cuente el nmero de respuestas correctas e incorrectas.
Le sugerimos que utilice este examen como gua para revisar y perfeccionar
su dominio del material presentado en esta unidad.
f
I Evaluacin sistemtica
334
La evaluacin iluminativa
3.
4.
5.
d)
6.
7.
4.
335
Ejercicios prcticos
Esta seccin contiene dos ejercicio
,.
ha comprendido los dos
.s ?racttcos que deben indicar si usted
Tras cada ejercicio hay
aSl~ectodspnnclpales de la evaluacin iluminativa
una Ista e puntos que
t d d b h b
.
su respuesta. El examen d
us e
e e a er incluido en
e estos puntos le ayudar a valorar su trabajo.
3.
4.
5.
')
)
')
')
programa educativo.
Parlett y Hamilton tambin afirman que la evaluacin tradicional ha
sido vctima de sus propias exigencias de control y exactitud, puesto
que los programas son vulnerables a un gran nmero de influencias
exteriores.
2.
1
1
tnico.
Los evaluadores deben aceptar como potencialmente relevantes todos los datos concernientes al programa y su contexto.
El mtodo holstico es un modelo de actos y consecuencias orgnicamente relacionados, de manera que un simple acto puede ser situado
funcionalmente en la totalidad de un concepto.
MacDonald afirma que los programas pueden tener ms efectos inesperados de lo que normalmente se supone, y que los programas desarrollados en distintos marcos pueden evolucionar de manera diferente.
MacDonald se orienta ms hacia el desarrollo de un modelo emprico que hacia el de un modelo normativo, en lo que se refiere a la
toma de decisiones educativas y sus consecuencias.
')
')
")
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
practicantes.
Criticando el excesivo nfasis que se le da a la valoracin en la educacin, Stake sugiere que se debe prestar ms atencin a las contin-
)
)
)
)
~~
..
f
f
f
336
gencias entre los antecedentes, las actividades de clase y los resultados escolares.
3. El concepto de Stake de la evaluacin como descripcin anticipa la
nocin de iluminacin de Parlett y Hamilton; igualmente, destaca
la influencia limitadora de la preespecificacin y la concentracin en
unas pocas metas prefijadas del programa.
4. La evaluacin responden te se orienta ms directamente hacia las actividades del programa que a sus propsitos, y saca a la superficie
perspectivas de valor que influyen en el programa.
5. El programa debe comunicar con la audiencia tan natural y eficazmente como sea posible.
6. La advertencia de Stake es que la informacin investigadora no puede ser el tipo de informacin til para quienes toman las decisiones.
(
(
(
(
(
(
{
(
(
{
(
Evaluacin sistemtica
(
a)
b)
e)
d)
e)
{
(
1.
2.
3.
4.
(
(
(
(
,
(
3.
4.
5.
e)
5.
337
2.
4.
1.
3.
a)
b) La fase de observacin:
(
(
La evaluacin Iluminativa
2.
3.
El evaluador se esfuerza por delinear ciclos de causa-efecto y relaciones entre las creencias y las prcticas.
4.
5.
iluminativo no debe rechazar las tcnicas de papel-y-lpiz que demuestren ser tiles.
Su ventaja para los estudios a gran escala es evidente (aunque tambin pueden ser utilizados en estudios reducidos).
Los resultados de los cuestionarios pueden ser utilizados ms tarde
en un estudio para justificar o calificar los resultados provisionales
ms tempranos.
Los cuestionarios slo deben ser utilizados despus de haberlo pensado mucho (y nunca en exclusiva).
Adems de contestar los cuestionarios, los participantes pueden tam-
")
338
6.
e)
Evaluacin
Referencias
sistemtica
2.
3.
2.
3. iroponga
339
")
")
bibliogrficas
")
Referencias bibliogrficas
CRONBACH,1. J. 1963. Course improvement through evaluation. Teachers College
Record, 64 (8), pgs. 672-683.
HAMILTON,D. F. Y DELAMONT,S. 1974. Classroom research: A cautionary tale,
Research in Education, 11 (mayo), pgs. 1-16.
HAMILTON,D. y otros (comp.). 1977. Beyond the numbers game, Londres, MacMillan Education.
HASTINGS,
J. T. 1966. Curriculum evaluation: The why of the outcomes, Journal
o/ Educational Measurement, 3 O), pgs. 27-32.
HOUSE,E. R. 1972. The conscience of educational evaluation, Teachers College
Record, 72 (3), pgs. 405-414.
MAcDoNALD,B. 1971. The evaluation of the Humanities Curriculum Project: A
holistic approach, Theory into Practice, 10 (3), pgs. 163.167.
-.1973.
Humanities curriculum project. En Evaluation in currculum development: Twelve case studies (Schools Council Research Studies), Macmillan Education.
PARLETT,M. R. 1972. Evaluating innovations in teaching. En H. J. BUTCHERy
E. RUDD (comp.), Contemporary problems in research in higher education,
Nueva York, McGraw-Hill.
PARLETT,M. R. Y HAMILTON,D. 1977. Evaluation in illumination: A new approach to the study of innovative programmes. En D. HAMILTONy otros
(comp.), Beyond the numbers game, Londres, MacMillan Education.
SCRlVEN,M. 1967. The methodology of evaluation. En R. W. TYLER,R. M. GAGNE, Y M. SCRlVEN,Perspectives o/ curriculum evaluation (American Educational Research Association Monograph on Curriculum Evaluation n. 1), Chicago,
Rand McNal1y.
STAKE,R. E. 1974. Responsive evaluation. New Trends in Evaluation, 35 (enero),
pgs. 41-73 (Instituto de Educacin, Universidad de Goteborg).
STUFFLEBEAM,
D. 1. Y GUBA,E. 1968. Evaluation: The process of stimulating,
aiding and abetting insightful action. Conferencia para el Segundo Simposio
Nacional de profesores de Investigacin Educativa, celebrado el 21 de noviembre, en Boulder, Colorado, Centro de Educacin, Facultad de Evaluacin,
Universidad del Estado de Ohio.
STUFFLEBEAM,
D. 1. y otros (Phi Delta Kappa National Study Committee on Evaluation). 1971. Educational evaluation and decision making, !tasca, m., Peacock.
SUCHMAN,E. A. 1967. Evaluative research, Nueva York, Russel1 Sage Foundation.
TAWNEY,David (comp.). 1976. Curriculum evaluation today, Londres, MacMillan
Educaton.
")
')
')
')
')
')
')
')
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
r:
e
e
f;
(f
e
("
(
(
(
(
(
(
(
(
(
(
(
(
(
(
,
(
(.
1
1
!l'
10
.-r
l'
l'
:
I
1<
!
f
l.
(;.
(
,
(.
(t.
".
(.
,
(.
'l
)
342
Evaluacin sistemtica
\ 343
")
"'l
Objetivos
Esta unidad pretende ayudarle a alcanzar los siguientes objetivos:
1.
2.
3.
4.
5.
evaluacin.
. , 'd
ifi
6. Comentar la lista de control de los indicadores de la evaluaclOn I ent cando la base lgica que le sirve de gua, enumerando y de~niendo ~us
etapas, y explicando cmo se relaciona la concepcin ~?rmatlva-sumatlva
con la lista de control de los indicadores de la evaluaclOn.
7. Explicar sus valoraciones de las ideologas valorativas denominadas separatismo, positivismo, administracin y relativismo.
.,.
,
8. Definir su papel y sus principales contribuciones en la profeslOnalIzaoon
de la evaluacin.
Pueden alcanzarse estos objetivos con la simple lectura del material de
esta unidad. Para enriquecer su comprensin de las ideas de Scriv:n, sin embargo, estudie sus escritos originales, especialmente los ~ue menclO~amos a~
final de esta unidad. Buena parte del material que publIcamos aqUl no esta
disponible en la literatura publicada y refleja la relacin laboral que el autor
mantuvo con el doctor Scriven durante ms de diez aos.
)
)
")
")
")
")
")
")
)
)
)
)
')
)
)
)
)
)
)
)
)
La definicin de evaluacin
A 10 largo de los aos, el doctor Scriven ha ido des~rrollando su d~finicin
de evaluacin, pero su mensaje bsico sigue siendo el mIsmo. En un a~t~culo ya
clsico (l967), defina la evaluacin como una actividad metodologlca q~e
consiste simplemente en la recopilacin y combinacin de datos de tra~aJo
mediante la definicin de unas metas que proporcionen escalas comparatlvas
o numricas con el fin de justificar 1) los instrumentos de recopilacin de
datos, 2) las' valoraciones y 3) la seleccin de las metas. Al discutir la evolucin de su definicin de evaluacin, le hemos odo decir a menudo que la evaluacin, esencialmente, es la determinacin sistemtica y objetiva del valor o
)
)
)
)
)
)
)
,
(
344
(
(
(
{
(
(
(
(
(
(
(
(
(
(
{
(
(
(
(
(
(
(
(
,
(
(
(
t
~
,
t
Evaluacin sistemtica
345
of Evalua-
)
")
346
Evaluacin sistemtica
Compara los costes y efectos del objeto con los de aquellos que Scriven ha
llamado competidores crticos, especialmente las alternativas ms econmicas.
En caso de que la audiencia est predispuesta a juzgar slo los resultados
comparndolos con las metas propuestas, la evaluacin sumativa proporciona
juicios acerca de hasta qu punto las metas reflejan, de una manera vlida, las
necesidades valoradas. En conjunto, la evaluacin sumativa sirve a los consumidores proporcionndoles valoraciones independientes que comparan los costes, los mritos y los valores de los distintos programas o productos.
')
347
')
en el trabajo o el estado de salud. Scriven reconoce la impo~tancia de. la evaluacin intrnseca, pero destaca que tambin deben determma.rse y Juzgarse
los resultados, puesto que las relaciones causales entre las vanables del proceso y las de los resultados es rara, o ninguna, la v~z ~n que se conocen a
ciencia cierta. Explica que ambos tipos pueden contnbult, ~anto a la e:,aluacin formativa como a la sumativa. Es particularmente cnUco con las Juntas
acreditadas, a causa de su preocupacin por los criterios intrnsecos,. como el
nmero de libros de una biblioteca, y su fracaso al valorar el trabajO de los
graduados.
)
)
')
'>
'>
')
')
'>
'>
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
,
(
f
(
(
(
(
{
(
(
(
(
{
{
{
(
(
(
(,
(
(
(
(
(
(
348
hcan sin hacer caso de 10 que se est tratando de lograr, cmo se puden
separar las consecuencias deseadas de las indeseadas? La respuesta de SC[~ven
es que deben compararse los resultados observados con las necesidades valoradas de los consumidores. Pero si una necesidad es una discrepancia entre
algo real y algo ideal, y si un ideal es una meta, no estn las valoraciones
de las necesidades basadas en metas, y, por 10 tanto, no estn tambin las
evaluaciones sin metas basadas en metas? Scriven dice que no. Para empezar las metas no deben coincidir necesariamente con cualquier grupo de ideales
co~o los incluidos en una democracia. En cualquier caso, afirma que la concepcin clsica de la necesidad, como discrepancia entre algo real y algo ideal,
es errnea, puesto que los ideales a menudo son ilusorios. Dado que las necesidades de los consumidores son un concepto fundamental en este mtodo,
sus estudiantes y l conceptualizaron ampliamente e investigaron este concepto.
Para Scriven, una necesidad es cualquier cosa que sea esencial para un
modo satisfactorio de existencia, cualquier cosa sin la cual este modo de existencia o nivel de trabajo no puede alcanzar un grupo satisfactorio. Los ejemplos que utiliza, por lo general, son la vitamina C y la alfabetizacin. Cuando
no dispone de esto, una persona puede estar fsicamente enferma o social e
intelectualmente debilitada; de ah que la persona 10 necesite. Para Scriven, la
valoracin de las necesidades es un proceso para descubrir hechos acerca de
si no proporcionar o arrebatar ciertas cosas puede tener funestas consecuencias, todo ello basado en normas razonables sobre lo que es bueno y 10 que
es malo. Dados los resultados de una valoracin de necesidades, pueden juzgarse los resultados de un programa concreto como buenos, malos o indiferentes, dependiendo de si contribuyen o no a satisfacer las necesidades identificadas. Segn nuestra experiencia, este argumento es, actualmente, ms
convincente en el terreno filosfico que en el prctico. Se necesita un alto
grado de desarrollo en el nivel tcnico antes de que la valoracin de las necesidades pueda producir significados factibles y apropiados para juzgar los
resultados.
(
(
(
(
,
l
Evaluacin sistemtica
1.
349
Descripcin. Qu hay que evaluar? El evaluado, descrito tan objetivamente como sea posible. Cules son sus componentes? Cules son
sus relaciones?
2. El cliente. Quin ha encargado la evaluacin? El cliente evaluativo, que
puede o no ser el iniciador de la investigacin evaluativa, puede o no
ser el instigador del evaluando -por ejemplo, su fabricante, o la agencia
subvencionadora, o su padrino legislativo-- y puede o no ser su inventor -por ejemplo, el planificador de un producto o programa.
3. Antecedentes y contexto de a) el evaluando y b) la evaluacin. Incluye
la identificacin de los mantenedores (incluyendo los no-clientes enumerados en el punto 2, el patrocinador, los representantes de la comunidad, etc.); la presunta naturaleza del evaluando; las expectativas acerca
de la evaluacin; el tipo deseado de evaluacin (formativa o sumativa;
esquemas organizativos; esfuerzos prioritarios, etc.).
4. Recursos ({sistema de ayudas o ({valoracin de los efectivos) a) disponibles para la utilizacin del evaluando, b) disponibles para la utilizacin
de los evaluadores. No se trata de lo que se utiliza, por ejemplo, en las
compras o el mantenimiento, sino de 10 que puede utilizarse. Incluye
el dinero, la habilidad, la experiencia previa, la tecnologa y las consideraciones sobre la flexibilidad. Esto es lo que define el nivel de viabilidad.
5. Funcin. Qu hace el evaluando? Distinguir entre 10 que se supone
que hace -funcin
o papel propuesta o declarada- y lo que de hecho
hace (funcin real, tanto para el evaluador como para el consumidor);
ambas cosas pueden incluirse en la descripcin, pero, por 10 general, es
mejor tratarlas aparte. Existen dimensiones, aspectos o componentes
obvios de estas funciones?
6. Sistema de distribucin. Cmo llega al mercado el evaluando? Cmo
se mantiene (en servicio)? Cmo se perfecciona (se pone al da)?
Cmo son sus usuarios? Cmo se lleva a cabo su realizacin, control
y perfeccionamiento? Quin hace todo esto?
7. El consumidor. Quin utiliza o recibe (los efectos de) el evaluando?
Distinguir las poblaciones o consumidores escogidos -mercado
desead()---- de las poblaciones de consumidores directamente afectadas de una
manera real o potencial -el verdadero mercad()---- o consumidores o receptores (o clientes del evaluando, a menudo llamados clientela); esto
debe distinguirse de la 'poblacin receptora total directa o indirectamente
afectada, que constituyen los verdaderos consumidores. Advierte que el
instigador y otras figuras de los puntos 2 y 3 tambin resultan afectados,
por ejemplo, por tener un trabajo, pero eso no les convierte en consumidores en el sentido estricto. Sin embargo, debemos considerarlos a la
hora de investigar los efectos totales y podemos describirlos como parte
de los afectados, impactados o implicados.
)
')
350
8.
Evaluacin
El mtodo
sistemtica
13.
14.
15.
16.
17.
18.
evaluativo
de Scriven
351
Costes. En dlares-psicolgico-de personal; inicial-repeticiones (incluyendo preparacin, mantenimiento y perfeccionamiento); directo/indirectoinmediato/ retardado/ rebajado; si conviene, por componentes.
Comparaciones con opciones alternativas, incluyendo las opciones reconocidas y las no reconocidas, las disponibles y las que se pueden crear.
Los principales contendientes en este campo son los competidores crticos y se identifican en trminos de coste ms efectividad. Normalmente
incluyen a aquellos que producen efectos similares o mejores por un
precio menor, y mejores efectos por un coste extra razonable (recursos).
Significado. Una sntesis de todo lo anterior. La validacin del procedimiento sinttico es, a menudo, una de las tareas evaluativas ms dificultosas. Normalmente, no puede dejarse al cliente, que, por lo general,
est mal equipado en experiencia y objetividad; y las frmulas -por
ejemplo, los clculos de coste-beneficiorara vez resultan adecuadas.
Lo ms til es una flexible suma ponderada.
Recomendaciones. Esto puede o no ser requerido, y puede o no desprenderse de la evaluacin; aunque sean requeridas, puede que no sea
posible proporcionar ninguna puesto que los nicos tipos que pueden resultar apropiados no disponen de pruebas cientficas especficas en el
campo de la investigacin. (Los recursos disponibles para la evaluacin
resultan cruciales aqu.)
El informe. El vocabulario, la extensin, el diseo, el medio, la localizaCin y el personal para su presentacin necesitan un cuidadoso exa.
men, igual que la proteccin/ privacidad/ publicidad y la investigacin
previa o la circulacin de los borradores finales o preliminares.
La metaevaluacin. La evaluacin debe ser evaluada preferiblemente antes de a) su realizacin, b) la difusin final del informe. La evaluacin
externa es deseable, pero primero el evaluador principal debe aplicar la
lista de control de indicadores a la propia evaluacil'Sn. Los resultados de
la metaevaluacin deben ser utilizados formativamente pero tambin pueden ser incorporados al informe o transmitidos (resumidamente) al cliente
y otras audiencias adecuadas. (Las audiencias aparecen en el metapunto 7, puesto que son el mercado y los consumidores de la evaluacin.)
)
')
')
')
1
)
')
')
')
)
)
)
)
)
)
.)
)
)
)
)
)
)
)
)
)
Estas etapas no estn concebidas para ser aplicadas en una secuencia concreta, pero deben ser planteadas antes de que se lleve a cabo la lista de control de indicadores. Igualmente, un evaluador puede recorrer la lista de control
muchas veces durante la evaluacin de un programa. Los primeros recorridos
constituyen la evaluacin formativa; los ltimos son lo que Scriven llama
evaluacin sumativa.
La base lgica de la lista de control de indicadores es que la evaluacin es
esencialmente un proceso de reduccin de datos en el que se obtienen grandes
)
)
)
)
)
)
)
f
f
(
352
Evaluacin sistemtica
353
la meta evaluacin
La ideologia separatista
(
(
(
{
{
(
(
(
(
(
(
(
(
(
(
(
(
(.
(
l
(
f.
(
(
(
,
I
Ideologas
evaluativas
l
354
1
El mtodo evaluativo de Scriven
Evaluacin sistemtica
La ideologa positivista
Scriven contempla una segunda ideologa, la del positivismo lgico, como
otra reaccin exagerada ante la va10rfobia. En sus intentos de alejar la tendenciosidad de los trabajos cientficos, Scriven piensa que los positivistas
reaccionan exageradamente hasta el punto de intentar convertir la ciencia del
siglo xx, en general, y la evaluacin, en particular, en algo sin valores. Mientras los separatistas rechazan la naturaleza autorreferente de la ciencia o la
evaluacin, los positivistas rechazan la naturaleza evaluativa de la ciencia.
Scriven aporta una serie de casos contradictorios. Por ejemplo, los psiclogos
educativos que aseguran que no pueden hacerse juicios evaluativos con objetividad, producen, sin embargo, juicios evaluativos acerca del trabajo de los estudiantes. Desde luego, la respuesta de Scriven a las imperfecciones del positivismo consiste en conceder una importancia central a la prctica de asignar
significados de valor a los resultados obtenidos en los estudios evaluativos.
La ideologa administrativa
Para Michael Scriven, la evaluacin bien administrada va mucho ms
all de la que simplemente se gua por un administrador competente. Puede,
en cambio, esta ltima, suponer una verdadera indulgencia hacia la valorfobia tanto por parte de los administradores del programa como de los evaluadores. Los administradores del programa pueden imponer controles rgidos
sobre la evaluacin que han encargado para que as no hayan sorpresas. Pueden
desear que slo se evale su programa y no el personal que participa en l
ni, especialmente, el administrador. Y pueden insistir en que la evaluacin
se limite a determinar si han sido alcanzadas las metas fijadas para el programa y a juzgar su trabajo basndose en los deseos de otro acerca del programa.
Para el punto de vista del administrador, esta ideologa administrativa
incluye claramente una tendencia a producir informes favorables. Segn Scriven, muchos evaluadores estn dispuestos a cumplir los deseos del administrador acerca de unos informes favorables y predecibles a causa de una serie
paralela de razones autosatisfactorias. Necesitan futuros contratos o conservar
su posicin evaluativa en la institucin, y proporcionar un informe favorable,
o al menos uno que no ponga nervioso al cliente o al patrocinador, es 10 mejor
que pueden hacer para obtener ms trabajo. A menudo estn incluso dispuestos a evitar cualquier inters por la evaluacin del personal porque esto ayuda
"'
355
')
3.
4.
5.
}
')
)
')
)
')
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
J
)
)
')
)
)
)
I
f
f
(
356
La ideologa relativista
(
(
{
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
(
Evaluacin sistemtica
(
{
(
(
t
t
t
t
f
357
dcadas y han influido sustancialmente en la prctica evaluativa. Los estudiantes que se tomen en serio la evaluacin' deben estudi:u' sus escritos originales
y estar al corriente de sus futuras contribuciones.
PREGUNTA1.
11)
b)
e)
La profesionalizacin de la evaluacin
d)
------_>.
')
)
358
Evaluacin sistemtica
Respuestas incorrectas
a)
b)
e)
Es incorrecta porque Scriven cree que la evaluacin guiada por una determinada serie de metas puede olvidarse de efectos importantes, y cree
que las metas tambin deben ser evaluadas.
Es incorrecta porque destaca que el evaluador debe proporcionar informacin para la toma de decisiones pero no tomar la decisin, mientras
que Scriven cree que el evaluador debe juzgar las opciones del programa
y as tomar decisiones acerca del programa que se est evaluando.
Es incorrecta porque es una variante de a. Scriven no puede aceptar
como suficiente una definicin de evaluacin que determina slo las discrepancias entre las normas dadas y la realizacin del trabajo. Insiste en
que las normas deben ser valoradas y no deben ser la nica base para la
valoracin del trabajo.
Respuestas incorrectas
a)
b)
d)
b)
e)
d)
Cronbach recomienda a los evaluadores que utilicen mltiples valoraciones en cada estudio, mientras que Scriven advierte que una prctica de
este tipo es intil y recomienda, en cambio, la utilizacin de una simple
valoradn sumativa.
Cronbach destaca que la principal obligacin de los evaluadores es plantear cuestiones fundamentales relativas a la decisin acerca de si un programa o producto es la mejor compra para los consumidores, mientras
que Scriven insiste en que la funcin ms importante del evaluador es
ser el artesano de quien ha desarrollado el programa.
Scriven afirma que la preferencia de Cronbach por la evaluacin formativa
como opuesta a la evaluacin sumativa es fundamentalmente errnea.
Cronbach insiste en la necesidad de las evaluaciones comparativas, mientras que Scriven afirma que esta prctica puede conducir a resultados
superficiales y no proporciona el nivel necesario de informacin que puede
obtenerse del estudio profundo de un caso de un solo programa.
Respuesta correcta. Debe usted haber seleccionado la opcin e. Cronbach recomienda la evaluacin formativa por encima de la evaluacin sumativa,
y Scriven dice que esta recomendacin oscurece el hecho de que, esencial y
fundamentalmente, cada evaluacin debe producir una valoracin sumativa del
valor y el mrito de un objeto.
')
)
)
')
)
PREGUNTA3. - Con cul de las siguientes afirmaciones estara ms de
acuerdo Scriven?
a)
e)
d)
a)
Es incorrecta porque ambos autores aconsejan a los evaluadores la utilizacin de mltiples valoraciones.
Es incorrecta porque lo opuesto est ms cerca de la verdad.
Es incorrecta porque lo opuesto est ms cerca de la verdad.
")
b)
I 359
Los evaluadores deben decidir si juzgar o no juzgar las prcticas evaluativas de acuerdo con la funcin que debe desempear un estudio evaluativo.
Los evaluadores deben obviar la necesidad de un juicio subjetivo mediante el empleo de planificaciones con un alto grado de validez interna
y externa y con reglas relativas a la decisin.
Los evaluadores deben juzgar el valor de las prcticas educativas que
evalan.
Los evaluadores deben describir totalmente las prcticas educativas, pero
deben evitar emitir juicios sobre esas prcticas.
)
)
)
)
)
)
)
)
)
)
)
Respuestas incorrectas
d)
)
)
)
)
)
)
)
)
)
)
)
)
)
(
('
360
Evaluacin sistemtica
361
(
(
(
PREGUNTA
4. Cul de las siguientes afirmaciones no es coherente con
la postura de Scriven relativa a la funcin de la valoracin de las necesidades
en la evaluacin?
.
a)
b)
(
(
e)
(
(
d)
{
(
(
(
(
(
(
Las metas proporcionan la mejor base para juzgar los resultados slo
si los resultados han sido desarrollados como respuestas a las necesidades valoradas.
No es necesario considerar las necesidades de los consumidores como una
base para la valoracin de productos y servicios, puesto que, fundamentalmente, el juicio profesional del evaluador es el determinante del valor
o el mrito de un objeto.
Debidamente concebidas, las valoraciones de las necesidades determinan
los huecos existentes entre los ideales y las realidades en la sociedad, y
consecuentemente son indistinguibles de cualquier otro estudio evaluativo verdadero.
Las valoraciones de las necesidades deben determinar qu cosas, si no se
proporcionan o se olvidan, pueden demostrar ser perjudiciales, y proporcionar as un criterio para determinar si una contribucin concreta es
vlida.
(
(
(
a)
b)
(
(
(
(
b)
e)
d)
c)
Es incorrecta porque Scriven dice que las metas pueden ser demasiado
limitadas y reflejar slo la seleccin de ciertas necesidades de quien ha desarrollado el programa y pueden tambin haber perdido actualidad, puesto
que al. final de un proyecto las necesidades que formaban la base para
elegir las metas del proyecto pueden haber cambiado sustancialmente.
Es incorrecta porque aunque Scriven contempla al evaluador como el
responsable de emitir los juicios y hacer recomendaciones, tambin destaca que estos juicios y recomendaciones deben derivarse de la comparacin de los resultados con las necesidades valoradas.
Es incorrecta porque Scriven anrma explcitamente que no es conveniente una concepcin de las necesidades referida a los ideales, puesto que
a menudo son tan poco realistas que no pueden ayudar a desarrollar recomendaciones prcticas.
Respuesta correcta. Debe usted haber seleccionado la respuesta b. Aunque la evaluacin puede desempear muchas funciones (tanto constructivas
como destructivas), su meta es siempre la misma: juzgar el valor. Este es el
principal argumento de Scriven, y le permite insistir en que los evaluadores
hacen juicios.
Respuestas incorrectas
a)
c)
,,
a)
Respuestas incorrectas
PREGUNTA
5. Cul de las siguientes afirmaciones ejemplifica mejor la
diferenciacin de Scriven entre la funcin y la meta de la evaluacin?
d)
Es errnea porque Scriven slo ve una meta para la evaluacin (el juicio
del valor), pero muchas funciones (relaciones pblicas, informes, directrices para el desarrollo, consejos para contratar un servicio, etc.).
Es lo 'opuesto a la postura de Scriven. El cree que los evaluadores eluden
su responsabilidad cuando no formulan y presentan juicios acerca de los
programas que evalan.
Es errnea porque las evaluaciones formativa y sumativa son funciones
que debe desempear la evaluacin.
PREGUNTA
6. Cul de las siguientes informaciones
utilizacin de la evaluacin formativa?
a)
b)
e)
d)
ejemplifica mejor la
)
'l
362
Evaluacin sistemtica
Respuesta correcta. Debe usted haber seleccionado la opcin c. La evaluacin formativa ayuda al personal del programa a llevar a cabo los esfuerzos
del desarrollo.
Respuestas incorrectas
a)
b)
d)
Es incorrecta porque el libro de texto ya ha sido publicado y la evaluacin formativa debe llevarse a cabo durante su desarrollo.
Es incorrecta por una razn similar.
Es incorrecta porque el proceso de inversin ha sido ya completado.
PREGUNTA
a)
b)
c)
d)
la
la
el
el
7.
c)
d)
')
')
Respuestas incorrectas
I
1
a)
c)
d)
final.
a)
I 363
Es incorrecta porque el cambio en la actitud del estudiante es un efecto producido por un programa, y no una cualidad, como la orientacin
investigativa, del programa que produce el cambio.
Es incorrecta por una razn similar. El grado e intensidad de la motivacin del estudiante es un efecto, no una caracterstica, de un programa
de enseanza.
Es incorrecta porque pone el nfasis en los efectos sobre los estudiantes.
)
)
)
)
)
9. Segn Scriven, el mtodo evaluativo finalista puro se caracteriza por su preocupacin por
PREGUNTA
a)
b)
c)
d)
Respuesta correcta. Debe usted haber seleccionado la a. Aunque determina si las metas han sido alcanzadas, su principal limitacin, segn Scriven,
es que no juzga si han sido bien alcanzadas.
Respuestas incorrectas
b)
c)
d)
Es errnea
pero s los
Es errnea
Es errnea
)
)
)
)
)
)
)
)
)
)
)
)
)
PREGUNTA
8. La evaluacin intrnseca
como una valoracin de
a)
b)
c)
d)
puede brevemente
ser definida
10. Cul de las siguientes afirmaciones distingue ms correctamente entre la evaluacin sin metas y la evaluacin basada en las metas?
PREGUNTA
a) La evaluacin sin metas es una evaluacin intrnseca, mientras que la evaluacin basada en las metas es lo mismo que la evaluacin final.
de los
)
)
)
)
)
)
)
364
e)
Evaluacin sistemtica
I 365
{
(
f
(
d)
(
(
(
(
(
(
a)
(
(
b)
(
(
Respuestas incorrectas
b)
e)
Respuestas incorrecta:;
en las metas deben seguir desempeando una funcin. Pero piensa que los resultados de las evaluaciones sin metas pueden aadir una informacin til y
nica a la que ya producen las evaluaciones basadas en las metas.
d)
Es incorrecta porque la evaluacin intrnseca y la evaluacin final diferencian entre las variables relativas a las cualidades de un tratamiento
y sus efectos; el conocimiento de los conceptos de ambas evaluaciones no
ayuda a distinguir entre evaluacin sin metas y evaluacin basada en las
metas.
Es incorrecta porque tanto la evaluacin sin metas como la evaluacin
basada en las metas estn basadas en datos y suponen el desarrollo de
conclusiones subjetivas.
Es incorrecta porque tanto la evaluacin sin metas como la evaluacin
basada en las metas valoran los resultados.
d)
PREGUNTA12. Cul de las siguientes afirmaciones explica mejor el significado de los efectos secundarios en el contexto de la evaluacin sin metas?
a)
(
(
b)
(
(
a)
(
(
(
b)
e)
(
(
(
d)
La evaluacin basada en las metas es incapaz de producir resultados evaluativos slidos y tiles, y debe ser reemplazada por una estrategia evaluativa ms efectiva.
Los evaluadores sin metas pueden descubrir resultados significativos que,
por lo general, no descubren los evaluadores que se basan en las metas.
Con tal de que los evaluadores determinen los resultados positivos y negativos de un proyecto, no es necesario que valoren particularmente si
las metas prefijadas han sido alcanzadas.
Al concentrarse en comprobar si los objetivos fijados han sido alcanzados,
los evaluadores pueden ser insensibles a los efectos ms significativos,
que no estn relacionados con los objetivos fijados.
t
(
(
(
e)
d)
En la evaluacin sin metas, los efectos secundarios son la principal preocupacin, porque la evaluacin basada en las metas proporcionar un
profundo anlisis del efecto principal.
Las evaluaciones sin metas no se preocupan por los efectos secundarios
porque son cualidades intrnsecas del instrumento didctico y no una
preocupacin propia de la evaluacin destinada a identificar y valorar
los resultados.
En la evaluacin sin metas, los efectos secundarios son los efectos producidos por la informacin evaluativa acerca del comportamiento de las
audiencias para los resultados evaluativos.
En la evaluacin sin metas, no existen efectos secundarios porque todos
los efectos, y no slo los relacionados con las metas fijadas, son de primersima importancia.
Respuesta correcta. Debe usted haber seleccionado la d. No existe preocupacin por valorar los efectos secundarios porque, desde el principio de la
evaluacin, todas las variables de los resultados, y no slo las relacionadas con
las metas fijadas, son igualmente importantes.
)
')
'
366
Evaluacin sistemtica
367
')
Respuestas incorrectas
a)
b)
c)
PREGUNTA14. Cul de las siguientes afirmaciones es la mejor base lgica para la lista de control de indicadores de la evaluacin?
a)
b)
c)
d)
Respuesta correcta. Debe usted haber escogido la b. Dado que la evaluacin es una actividad concebida para ayudar a mejorar las condiciones humanas y dado que todas estas actividades, por definicin, deben ser evaluadas,
la propia evaluacin tambin debe ser evaluada.
c)
d)
La evaluacin es el proceso de formular y ejecutar una secuencia de experimentos crticos comparativos que conduzcan al conocimiento de ciertos fenmenos, como por ejemplo que los resultados de acciones especficas son predecibles.
La evaluacin es un proceso de reduccin de datos que supone caracterizar un proyecto y sintetizar un juicio respecto al valor global del programa.
La evaluacin sirve de gua para un proyecto a travs de cinco etapas de
desarrollo, mediante la valoracin y presentacin de las discrepancias entre
el trabajo y las normas en cada una de las etapas.
La evaluacin supone la comparacin progresiva de los antecedentes prefijados y reales de un programa, las transacciones y los resultados.
Respuesta correcta. Debe usted haber seleccionado la b. Scriven contempla la evaluacin como un proceso sistemtico que supone la caracterizacin y valoracin de un proyecto. Esencialmente, los evaluadores recopilan
y analizan amplias series de datos a travs de una amplia gama de puntos, y
luego sintetizan los datos para que pueda ser emitido un juicio global de valor.
c)
d)
)
')
')
')
)
)
)
)
)
)
)
)
Respuestas incorrectas
a)
c)
d)
Respuestas incorrectas
a)
')
')
a)
b)
PREGUNTA13. Cul de las siguientes afirmaciones es ms coherente con
la base lgica de Scriven para la metaevaluacin?
')
)
)
)
)
)
)
)
PREGUNTA15. Cul de las siguientes afirmaciones explica mejor la relacin entre la concepcin formativa-sumativa de Scriven y su lista de control
de indicadores?
)
)
a)
b)
)
)
)
)
J,
,
(
(
368
e)
d)
Evaluacin sistemtIca
369
(
(
(
(
(
(
(
(
(
(
Respuestas incorrectas
b)
e) y d}
Es incorrecta porque Scriven no identifica la caracterizacin y validacin de las etapas con las evaluaciones formativa y sumativa.
Son incorrectas porque la lista de control de indicadores de la evaluacin es tanto formativa como sumativa.
(
(
(
a)
b)
e)
(
(
d}
(
(
(
,
(
<-
e)
{
(
Es incorrecta porque la lista de control de indicadores no es una explicacin de la evaluacin sin metas.
Es incorrecta porque la lista de control de indicadores modela la evaluacin y no el desarrollo, y porque la evaluacin sin metas no es un modelo evaluativo sino una particular estrategia metodolgica.
b)
La evaluacin sin metas y la lista de control de indicadores de la evolucin son dos estrategias evaluativas diferentes pero complementarias.
La lista de control de indicadores de la evaluacin explica las etapas que
deben seguirse al realizar una evaluacin sin metas.
La lista de control de indicadores de la evaluacin es un modelo del proceso de desarrollo, mientras que la evaluacin sin metas es un modelo
del proceso evaluativo.
La evaluacin sin metas es una estrategia metodolgica apropiada para
ser empleada en una amplia comprobacin de las consecuencias del programa.
PREGUNTAS
17 A 21. Para cada afirmacin de los nmeros 17-21, seleccione, de la lista que le proporcionamos, la ideologa apropiada. Base sus elec.
ciones en su comprensin del anlisis de Scriven. Realice sus elecciones escribiendo la letra correspondiente a la ideologa seleccionada en el espacio que
haya la izquierda de cada afirmacin numerada.
A.
B.
C.
Ideologa separatista.
Ideologa positivista.
Ideologa administrativa.
Ideologa relativista.
p.
--17.
--18.
--19.
--20.
--21.
17.
18.
19.
t
t
,,
(
Respuestas incorrectas
a}
),
I
El mtodo evaluativo de Scriven
I Evaluacin sistemtica
370
20.
21.
)
371
')
trador.
Segn Scriven, los positivistas lgicos se guan por una concepcin sin valores de las ciencias sociales, en general, y de la evaluacin, en particular.
Esto, de nuevo, pertenece a la ideologa administrativa, aunque
concentrase en identificar y valorar slo aquellos resultados pertenecientes a las metas del administrador es congruente con la
postura positivista que los evaluadores deben evitar interponiendo valores de su eleccin en sus trabajos evaluativos.
')
d)
e)
I
"')
}
')
')
')
}
)
)
)
)
)
)
EJERCICIO2. Suponga que planea evaluar el programa de un grupo de
profesores utilizando la lista de control de indicadores. Resuma las etapas que
debe seguir.
)
)
)
Ejercicios prcticos
Este apartado contiene dos ejercicios prcticos destinados a demostrar si
ha comprendido las premisas y los conceptos bsicos del mtodo evaluativo
formativo-sumativo de Scriven. Responda a las preguntas en hojas de papel
separadas. Tras cada ejercicio hay una lista de puntos que debe usted haber
incluido en su respuesta. Realice el primer ejercicio antes de empezar el segundo. Acuda, tan a menudo como sea necesario, a las lecturas recomendadas
y a las claves contenidas en el test de conocimientos previo.
)
)
a)
b)
c)
d)
e)
f)
Caracterizar tan objetivamente como sea posible la naturaleza del programa que se va a evaluar.
Clarificar las audiencias de los resultados evaluativos, incluyendo a quien
haya encargado la evaluacin y a otros grupos interesados, especialmente
estudiantes, administradores y profesores.
Examinar los antecedentes de la necesidad de la evaluacin y clarificar
las cuestiones que deben ser respondidas.
Inventariar los recursos financieros y de otro tipo que estn disponibles
para apoyar el desarrollo, mantenimiento y evaluacin del programa.
Realizar un anlisis funcional del equipo de profesores tal y como operan
realmente, especialmente en lo que se refiere a lo que hacen realmente
los profesores y los estudiantes mientras participan en el programa.
Analizar lo que hace el distrito escolar para asegurar que el programa se
lleva a cabo adecuadamente en lo que se refiere, por ejemplo, a la orien-
)
')
)
)
)
)
)
)
)
)
I
,
(
(
372
Evaluacin sistemtica
Referencias bibliogrficas
373
f
f
(
g)
h)
(
(
i)
(
(
(
j)
(
(
k)
l)
(
(
(
(
m)
n)
o)
p)
(
(
(
q)
(
(
(
(
,
(
(
(
(
(
1.
2.
3.
4.
5.
6.
Referencias bibliogrficas
CRONBAC
H, 1. J. Course improvement through evaluation. Teacher's College
Record, 64, pgs. 672-683.
Joint Committee an Standards far Educatianal Evaluatian. 1981. Standars for
evaluations of educational programs, projects, and materials, Nueva Yark, McGraw-Hill.
SCRIVEN,
Michael. 1967. The methodolagy af evaluatian. En Perspectives on CurrSeries on Curriculum
Evaluation,
n. 1).
Comment,
3, p-
culum Evaluation
(AERA
Monograph
.),~
..)
i)
\)
INDICE DE AUTORES
.,j
,)
')
')
)
.)
.)
i)
J
Adand, H., 75
Airasian, P., 39
Alkin, M. C., 73
Anderson, S., 25
Ball, S., 25
Bane, M. J., 75
Bigman, 114
Bloom, B. S., 71
Bock, R. O., 72
Brickell, H. M., 203
Brinkerhoff, R., 25, 41
Cahen, L., 239
CarIson, D., 303
Campbell, D. T., 72
Campbell, E. Q., 75
Clark, D. L., 248
Clark, K., 75
Cohen, D., 75
Coleman, J. S., 75
Cook, D. L., 40
Cronbach, L. J., 22, 37, 42,72,73,76,
190, 237, 250, 252, 316, 344
Denny, T., 260
Eisner, E. W., 39
Fleck, A. C., 112
Foley, W., 181
',)
,)
.J
J
J'
)
:)
,)
)
)
J
l.)
:]
J
.)
'.)
.]
,.)
)
')
!)
()~
,le
~c
r
f:
(!
e
e
(:
(
e
r
(
(
(
(
(
(
(
(
<:
c..
<:
(.
"
.C
\..
~
'-
(;.,
376
EvaluaCin sistemtica
INDICE ANALITICO
J~
')
)
378
Indice analtico
Evaluacin sistemtica
Desarrollo de la evaluacin, 51
Descripcin, 241
Diseador de la evaluacin, 44, 143
Diseo de la evaluacin, 143, 144, 145,
204, 251, 256, 261
acuerdos, 127
Diseo de la evaluacin e investigacin
evaluativa, 122, 127, 143, 144, 204,
348
Diseo, Flexibilidad del, 159
Dominios de la evaluacin, 145, 146,
149
Efectos, 122
secundarios, 124, 153
inesperados, 124
Efectos, Valoracin de los, 122
Eficiencia, 119
Entrada, Evaluacin de, 180-181, 191,
197
Entrevistas, 324
Epistemologa, 267
Especialistas en ayuda tcnica, 46
Especialistas en comunicacin evaluativa, 48
Especialistas en informacin evaluativa,
47
Esquema de recopilacin de datos, 243
Estructuracin de las decisiones, 180
Estudios basados en los objetivos, 91,
93,98
Estudios de casos contra estudios experimentales, 159
Estudios de orientacin de la decisin,
72, 175,325
Estudios de relaciones pblicas, 69
Estudios experimentales, 38, 159
Estudios experimentales contra estudios
de casos, 159
Estudios orientados hacia el consumidor,
75, 341
Estudios polticos, 74
Evaluacin, Aproximaciones metodolgicas a la, 120
Evaluacin, Aspectos conceptuales de la,
113
Evaluacin, Conceptualizacin
alternativa de la, 66, 142, 252
251,
253,
379
')
')
')
')
)
')
)
')
)
)
Fase convergente de la planificacin de
una evaluacin, 154
Fase divergente de la planificacin de
una evaluacin, 152
Fiabilidad, Valoracin de la, 123
Fidelidad contra extensin, 143
Filosofa de la educacin, 266
Final, Evaluacin, 346
Formativa, Evaluacin, 187, 345
Fuentes de las cuestiones, 154
Funciones de la evaluacin contra meta
de la evaluacin, 345
)
)
)
)
)
)
)
)
)
)
)
)
I )
')
)
)
')
,)