Vous êtes sur la page 1sur 9

Prisionero (Dilema del)

Paula Casal
Keele University, UK

El "Dilema del Prisionero" es una historia que suele atribuirse a A. W.


Tucker (1), que da nombre al ms conocido de los problemas que
estudia la Teora de Juegos. Esta teora es una rama floreciente de la
Teora de la Eleccin Racional que ha resultado ser de gran utilidad no
slo en Economa y en Biologa Evolutiva, sino tambin en Filosofa y
Teora Poltica y Social.
La mencionada historia es la siguiente. Dos prisioneros incomunicados
en celdas individuales han cometido dos crmenes, uno leve y otro
grave. Existen pruebas suficientes para que les condenen por el
primero, pero no por el segundo, a menos que alguno confiese haberlo
cometido. El fiscal visita a uno de los prisioneros y le dice: "Tengo una
buena noticia y una mala noticia para usted. La buena noticia es que si
ninguno de ustedes confiesa su grave crimen, slo podremos
condenarles a dos aos por su primer crimen y si usted confiesa, yo
convencer al jurado de que es usted un hombre arrepentido y de que el
perverso es su compaero, de modo que usted quedara libre en un ao
y l permanecera en prisin 10 aos. La mala noticia es que voy a
hacerle la misma oferta a su compaero". "Y que ocurrira si ambos
confessemos?", pregunta el prisionero. "Entonces no tendr razn para
beneficiar a ninguno de ustedes, dejar que la justicia tome su curso y,
como el crimen es grave, estimo que les condenarn al menos a 8 aos".
As, los prisioneros se encuentran ante el siguiente dilema:

Cada uno piensa que slo pueden pasar dos cosas: que el otro confiese
o que no confiese. "Si confiesa, es mejor que yo tambin lo haga, porque
de lo contrario me quedar 10 aos en la carcel. Si no confiesa y yo s,
entonces podr beneficiarme de la oferta del fiscal y quedar libre en un
ao". La conclusin es que haga lo que haga el otro, lo mejor es
confesar. Ambos razonan de igual modo, con lo cual ambos confiesan y

se quedan en la crcel mucho ms tiempo del que les habra tocado, si


hubiesen cooperado entre s y ninguno de los dos hubiese confesado.
Este es un juego de dos personas, pero podra darse entre n personas,
por ejemplo, en el caso de una huelga, que puede entenderse como un
bien pblico (* tragedia de los comunes). Cada trabajador puede
pensar: "o bien hay bastantes trabajadores que vayan a la huelga y
consiguen el objetivo de esta accin colectiva (por ejemplo, un ascenso
salarial, una reduccin de la jornada laboral o una mejora en las
condiciones de trabajo), o bien esto no ocurre. En el primer caso, de
todas formas voy a beneficiarme del xito de la huelga, y si me quedo,
puedo, adems, seguir cobrando y quiz mejore mis relaciones con mis
superiores. Y si los dems no van a la huelga, lo mejor es que yo
tampoco vaya, porque estar pagando en vano los costes de mi
contribucin a esta accin colectiva que va a fracasar".
El problema es que lo individualmente racional conduce al fracaso
colectivo. Lo mismo puede ocurrir en el caso de muchas otras acciones
colectivas (manifestaciones, revoluciones, guerras, votaciones, etc.) y en
muchos otros contextos, por lo que este juego ha resultado til en una
gama muy amplia y variada de investigaciones en Ciencias Sociales.
Este y otro juegos pueden caracterizarse por el orden de las alternativas
siguientes.
Dilema del Prisionero (DP):
C = la Cooperacin universal: todosGCEP
cooperan
Juego de la Seguridad (JS):
E = el Egoismo universal: nadie coopera CGEP
G = el Gorrn: menos yo, todos cooperan Imperativo
Categrico
(IC):
P = el Primo: slo coopero yo
CPEG
Juego del Gallina (JG): GCPG
En el DP, el orden es GCEP. Ello es especialmente claro en la historia
original, en la que los dos prisioneros estn incomunicados. No
obstante, si les hubiesen permitido hablar, la historia podra ser la
misma: "Si me dice que no confesar, lo mejor es que yo confiese; y si
me dice que confesar, lo mejor es que yo tambin lo haga". Adems,
puede que el otro mienta o cambie de idea.
Ahora bien, la cuestin sera distinta si entre los prisioneros hubiese
amistad y mutua confianza o, en el caso general, si lo que cada
miembro del grupo desea en primer lugar es que se obtenga el bien
pblico y no obtener la mayor ganancia para s. En ese caso, la
situacin ya no sera la del DP, sino la de un Juego de la Seguridad
(CGEP). Muchas veces, como ha sealado Amartya Sen, lo que ocurre
no es que uno quiera explotar a los dems, sino no perder doblemente
haciendo el primo; y por ello, uno est dispuesto a cooperar, siempre
que los dems tambin lo hagan. Por ejemplo, es posible que a ningn

productor le guste utilizar los crueles e insanos mtodos que se


emplean hoy en las granjas-factora; pero que, sometidos a la presin
del mercado, se vean obligados a reducir sus costes confinando a los
animales en espacios cada vez menores y tratndoles de formas cada
vez ms repugnantes. En un mercado cerrado o con barreras
proteccionistas, el gobierno podra prohibir ciertas prcticas o emplear
impuestos o subvenciones selectivas que pongan fin a esa dinmica;
pero si tal pas tiene que competir con otros, el gobierno tender a
apoyar a los ms despiadados, que son los que prometen un mayor
xito competitivo en el mercado internacional. As, los mtodos pueden
llegar a ser tan escalofriantes que horrorizaran a la mayora de los
consumidores que estn informados, pero tambin estos tendrn que
comprar lo que hay, si no pueden prescindir de todo producto animal.
En el JS, los individuos estn dispuestos a cooperar (por ejemplo, a
pagar cierto impuesto) con la condicin de que los dems tambin lo
hagan. Por ello, cuando falta informacin y los participantes no saben
qu decidirn los dems, pueden terminar comportandose como en un
DP. Al no tener garantas, prefieren jugar sobre seguro, de ah el
nombre del juego (2). Si los individuos estuviesen dispuestos a
cooperar, independientemente de lo que hiciesen los dems, ya no se
tratara de un JS, sino de lo que Elster llama un Juego del Imperativo
Categrico (CPEG).
Al margen de si sta es una caracterizacin adecuada de la tica
kantiana, cosa que habra que discutir, desde el punto de vista social,
Elster piensa que sta ni es frecuente ni conveniente. Por un lado,
arguye que la historia de la clase obrera muestra que la conducta
cooperativa suele ser condicional; y por otro, que los actos hericos
individuales, no secundados, pueden ser contraproducentes, al dar pie
a represalias colectivas. "Esto prueba", concluye, "que la tica
individualista kantiana no es adecuada para la accin colectiva" (3).
Aqu caben al menos cuatro breves observaciones. Por un lado, la
cooperacin incondicional slo es contraproducente en ciertas
circunstancias; y lo que es ms infrecuente no es tanto la cooperacin
incondicional (de las madres o los ecologistas, por poner dos ejemplos
cotidianos), como el preferir E a G (por ejemplo, preferir que todos usen
CFCs a ser el nico que los usa). Por otro lado, la tica
consecuencialista tampoco es inmune a los problemas de accin
colectiva (VEASE TRAGEDIA) y el mismo Elster mantiene otras veces
posiciones anti-consecuencialistas basadas en la imposibilidad de
predecir en Ciencias Sociales (4).
Por ltimo, el Juego del Gallina (GCPG) debe su nombre (the chicken
game) a una especie de juego ritual que a veces se ve en las pelculas
sobre bandas juveniles norteamericanas. Los aspirantes a lderes
compiten en sus coches en una peligrosa carrera hacia un precipicio.
Ambos quieren que sea el otro el que decelere, porque ninguno quiere
quedar como un gallina; de modo que ambos continan acelerando, y el

riesgo aumenta. Pero segn aumenta el riesgo, quedar como un gallina


empieza a no parecer tan malo como correr un riesgo altsimo y
creciente de estrellarse. Algo parecido puede ocurrir entre dos
compaas de autobuses que recorren el mismo trayecto y se adelantan
mutuamente tratando de llegar antes a cada parada para llevarse a los
pasajeros que estn esperando y ofrecerles mayor rapidez, aumentando
as el riesgo de accidentes. Otro ejemplo es el de la inversin en
innovaciones tecnolgicas que ahorran mano de obra. Si nadie invierte
en ello, los salarios suben, por lo que resulta racional adelantarse a esta
subida introduciendo tecnologas que ahorren mano de obra; pero si los
dems capitalistas ya lo estn haciendo, sobrarn desempleados
dispuestos a aceptar bajos salarios, por lo que el capitalista individual
ya no tendr incentivos para invertir en estas tecnologas (5). No
siempre es fcil distinguir un JS y un DP, pues en ambos casos la
conducta no cooperativa individualmente racional es colectivamente
contraproducente, como ocurre cuando la competencia entre
fabricantes les lleva a gastar cada vez ms en publicidad, a bajar cada
vez ms los precios o a arriesgar la propia ruina por arrastrar a ella a
los dems. Cuando todos gritan para que se les oiga ms que a otros,
slo se consigue una afona colectiva. Si se trata de un DP, conviene no
cooperar hagan lo que hagan los dems, mientras que en un JG, la
decisin depende de la estrategia que elijan los dems y se tender a
hacer lo contrario de lo que hagan stos.
Tras los ejemplos, puede hacerse ahora una caracterizacin algo ms
tcnica que permita situar mejor al DP.
(a) El DP se emplea en Ciencias Sociales para analizar conductas
intencionales (orientadas a una meta) y se adopta el supuesto
metodolgico de que la conducta es racional y optimizadora (entre los
medios disponibles se eligen los ms adecuados para obtener tales
metas) (6). Cuando se supone adems, que cada individuo considera
que los dems son tan racionales como l, son capaces de
razonamientos parecidos y estarn calculando si emprender tal accin o
tal otra, se habla de racionalidad estratgica, que es de la que
propiamente se ocupa la Teora de Juegos o de Decisiones
Interdependientes. Cuando cada uno slo se considera a s mismo como
variable y a los dems como constantes, se habla de racionalidad
paramtrica.
(b) En un DP cada uno calcula qu es lo que pueden hacer los dems,
pero termina llegando a la misma conclusin tanto si piensa que los
dems harn una cosa, como si cree que harn otra. Es decir, es un
juego con estrategia dominante (hay una opcin que es la mejor, hagan
lo que hagan los dems). Aqu la estrategia dominante es el egoismo
universal, mientras que en el IC domina la cooperacin. Otros juegos no
tienen estrategia dominante, como el JS, en el que lo mejor es hacer lo
que haga el resto.

(c) El DP tiene un solo punto de equilibrio, es decir, de un conjunto de


estrategias slo hay una que sea ptima frente a las de los otros. Como
slo tiene uno, este es la solucin (conjunto de estrategias a las que
convergen tcitamente los actores racionales con informacin perfecta).
El JS, en cambio, tiene dos puntos de equilibrio. En este caso, la
solucin ser la colectivamente ptima, el punto que todos prefieren a
todos los dems, que en el JS es la cooperacin.
(d) El DP tiene una solucin subptima (E). El resultado es el desastre
colectivo. La cooperacin universal no es individualmente estable ni
individualmente accesible: todos tendern a alejarse de ella y nadie
querr dar el primer paso para acercarse a ella. En el JS, en cambio, s
es individualmente estable aunque no individualmente accesible;
mientras que en el JG, que no tiene solucin, el ptimo es
individualmente accesible, pero no individualmente estable.
(e) El DP es un juego de suma variable, porque no slo la distribucin
de las ganancias, sino tambin el total a distribuir, depende de las
estrategias elegidas. En los juegos de suma cero, que son los nicos que
siempre tienen solucin, uno gana lo mismo que pierde el otro. Son
juegos de puro conflicto, mientras que los de suma variable pueden ser
de pura cooperacin o mixtos de cooperacin y conflicto. Al DP y al JG
los estudia la teora de los juegos no cooperativos, que es la que ms se
utiliza en Ciencias Sociales, porque la teora de los juegos cooperativos til en otros contextos, como el del anlisis normativo- ya cuenta con la
cooperacin y no investiga cmo se origina y en qu condiciones puede
surgir. No obstante, los juegos cooperativos pueden cumplir funciones
explicativas, cuando la cooperacin es, a su vez, explicada a partir de la
no-cooperacin.
Estas ltimas distinciones no se incluyen en el siguiente esquema (7), al
que podran aadirse bastantes distinciones ms. Por ejemplo, puede
tratarse de un juego de 2-personas y de una sola vez o de n-personas
que interactun reiteradamente. El tamao del grupo y el nmero de
jugadas son factores a tener en cuenta cuando se aborda la cuestin de
cmo evitar que un DP lleve al desastre. Por ejemplo, cuando un grupo
crece, pueden aumentar los problemas de coordinacin que dificulten la
accin colectiva, pero tambin puede que el grupo, al tener ms
miembros, cuente con una masa crtica de individuos suficiente para
que se consiga el objetivo (8).
Pues bien, cmo puede evitarse que un DP lleve al desastre? La
respuesta ms frecuente es esta: hay que modificar las circunstancias,
aadiendo un tercero (el Estado o la Ley) que imponga sanciones a los
gorrones, cobre multas por destruir bienes pblicos y recaude
impuestos para construirlos. Esta es la forma en que suele entenderse a
Hobbes. No obstante, en una seccin del Leviatn (cap. 15) conocida
como su "respuesta al insensato" (Reply to the Foole), Hobbes mismo
sugiere otra opcin que fu precisamente la que abraz un autor de

inspiracin anarquista, Michael Taylor y que Robert Axelrod populariz


y desarroll empleando un computador.
La idea bsica es muy sencilla: cuando un grupo de personas
interactan en repetidas ocasiones, por ejemplo, cooperando para
recoger la cosecha en una aldea, un gorrn puede engaar a algunos
durante cierto tiempo, pero no engaar a todos todo el tiempo. Si el
insensato se niega a cooperar con los que le han ayudado, la prxima
vez lo dejarn solo y, al final, le ir peor que si hubiese cooperado.
Axelrod obtuvo la versin informtica de esta idea calculando el balance
de costes y beneficios que obtenan, siguiendo ciertas pautas de
conducta, unos individuos ficticios que interactuaban reiteradamente. A
los cooperadores incondicionales, que cooperaban indiscriminadamente
con cualquiera, no les iba demasiado bien, porque -aunque saliesen
ganando cuando interactuaban con otros cooperadores- los gorrones les
explotaban ilimitadamente. A los gorrones no les iba del todo mal,
porque no tenan costes y a veces conseguan aprovecharse de alguien.
Pero a los que mejor les iba era a los cooperadores condicionales que
seguan la estrategia llamada C-toma y daca (C-tit for tat) consistente en
cooperar la primera vez y luego hacer lo mismo que el otro ha hecho la
ltima vez. De esta forma, si el otro no coopera, no se le permitir que
se siga saliendo con la suya, sino que la prxima vez se le castigar no
cooperando; y si el otro coopera (condicional o incondicionalmente) se
generar una dinmica mutuamente beneficiosa.
Al investigar las condiciones en las que la cooperacin puede surgir
espontnemente entre egoistas, Axelrod lleg a la conclusin de que no
era necesario que los individuos fuesen racionales y entendiesen lo que
se ha explicado aqu, ni que hubiese un intercambio de mensajes o
confianza mutua. De hecho, C-tit for tat, la estrategia ganadora del
torneo informtico de DPs puede triunfar y difundirse mediante la
seleccin natural en un proceso evolutivo, incluso en el mundo de las
bacterias; y hoy los bilogos, que ven a la naturaleza ms como a una
economista que como a una ingeniera, estn empleando estos mismos
modelos.
Por otro lado, si la autoridad central, el altruismo, el lenguaje, la
racionalidad, y la confianza, resultaron no ser requisitos
indispensables, hay otras condiciones que s son necesarias para que la
cooperacin surja, se difunda y se mantenga. Para que tit for tat
funcione, los individuos tienen que poder reconocer a los otros
jugadores y recordar qu han hecho en ocasiones anteriores. Tambin
tienen que interactuar repetidas veces y tener una probabilidad
suficientemente alta de seguir hacindolo en el futuro, para que la
cooperacin sea estable. Adems, para que sta surja, tiene que haber
variacin en las estrategias, de modo que pueda darse, o bien un
proceso de tipo darwiniano, o bien alguna forma de imitacin deliberada
de las pautas exitosas. Por ltimo, tiene que haber un grupo de
individuos que interacten entre s, que empiecen cooperando y que

discriminen entre los que han respondido a su cooperacin y los que


no. Un solo cooperador rodeado de gorrones no ira a ninguna parte.
Por todo ello, generalmente se piensa que aunque la cooperacin pueda
imponerse en ausencia de una autoridad central en ciertos contextos,
como el de una pequea comunidad donde se dan las condiciones
adecuadas de interaccin reiterada e interdependencia, no es de esperar
que se resuelvan as todos los DPs que surjan, por ejemplo, a nivel
internacional (9).
Las opciones descritas -penalizar la no-cooperacin mediante sanciones
impuestas por una autoridad central o, en ausencia de sta, "pagando
con la misma moneda"- se sealan en la parte superior del esquema
siguiente, que se seguir muy rpidamente a continuacin.
Si las circunstancias no se alteran, todava puede evitarse el
desastre si los participantes modifican sus objetivos o actitudes ticas.
Derek Parfit distingue cuatro soluciones posibles: (i) que los
participantes se hagan kantianos y hagan slo lo que puedan querer
racionalmente que hagan los dems (nadie puede querer que nadie
coopere); (ii) que se conviertan en personas de fiar, de forma que si se
llega a un acuerdo de cooperacin no lo rompan; (iii) que se vuelvan
ms altruistas; y (iv) que adquieran reticencia a gorronear, de modo que
prefieran hacer su parte si piensan que muchos otros tambin la har
(10). Esta es la opcin que corresponde al "principio de la equidad"
(principle of fairness) formulado H. L. A. Hart y adoptado por John
Rawls: si uno acepta gustoso los beneficios logrados con el esfuerzo
colectivo de otros, adquiere la obligacin de cooperar, incluso cuando
no se ha firmado un acuerdo explcito al respecto (11).
La ltima opcin es la de modificar la relacin entre los objetivos y el
principio de eleccin racional. Simplificando mucho, esta idea podra
explicarse como sigue. Supongamos que un individuo perdido en un
desierto le dice a otro que conoce el lugar que, si le conduce hasta la
poblacin ms cercana, ir al banco y le pagar este servicio. Si son
racionales, sabrn que, una vez que lleguen a la ciudad, el que estaba
perdido ya no tendr ninguna razn para pagar al gua, por lo que no
harn el trato y ambos perdern. Es decir, un mundo de maximizadores
directos, que calculen los beneficios de cada accin concreta,
considerada aisladamente y elijan la opcin que maximize su utilidad,
podra ser una autntica pesadilla. Es ms, ser racional en este sentido
es individualmente -y no slo colectivamente- contraproducente (en
trminos parfitianos, directly individually self-defeating). Por ello, David
Gauthier propone otra opcin, que es la del maximizador indirecto o
restringido (a constrained maximizer), que es el que tiene la disposicin
que maximiza su utilidad (ser el tipo de individuo que cumple lo
acordado, que sigue una lnea, etc.) (12). Este ser racional, en este
segundo sentido, saldra del desierto y pagara su deuda, pero se
portara siempre bien?. Una vez que hemos dejado atrs las apelaciones
al altruismo o a la preocupacin por los dems, los maximizadores

restringidos podran convertirse, por ejemplo, en los co-operadores


recprocos de Peter Danielson que "cooperan cuando y slo cuando la
cooperacin es necesaria y suficiente para que los otros cooperen" (13)
por lo que podran cooperar siempre con los cooperadores condicionales
y explotar a fondo a los incondicionales.
Todo esto plantea el tema de hasta dnde puede fundamentarse
racionalmente la tica y en qu sentido puede ser sta, como sugiere
Harsanyi, "una rama de la Teora de la Conducta Racional" (14).
Considerando que la Economa surgi a su vez, ya con Smith, como
rama de la tica (15), con la propuesta de este Nobel, el crculo se
cerrara. No cabe duda de que estos modelos tienen sus limitaciones,
pero no es necesario negarlas para reconocer su utilidad explicativa y
normativa y su xito multidisciplinar que est devolviendo a lo que Mill
llamaba las "ciencias morales", parte de la unidad perdida.

NOTAS
1.-Vase R. D. Luce y H. Raiffa, Games and Decisions, Wiley, N. York,
1957,
p.
94.
2.-Vase A. Sen, "Isolation, Assurance and the Social Rate of Discount",
Quarterly
Journal
of
Economics
80,
1976.
3.- J. Elster, "Marxismo, Funcionalismo y Teora de Juegos", Zona
Abierta 33, 1984, p. 48. Vase T. Domenech, De la tica a la poltica,
Crtica, Barcelona, 1989, caps. 6 y 7 y el juego de la virtud kantiana en
la
p.
287.
4.- Vase, por ejemplo, "Comment on van der Veen and Van Parijs",
Theory
and
Society
15,
1986.
5 .- Vase J. Elster, "Marxismo, funcionalismo...", p. 51 y El cambio
tecnolgico,
Gedisa,
Barcelona,
1990.
6.- Hay muchas definiciones de racionalidad y de racionalidad
instrumental. Puede decirse que "actuar racionalmente" en un sentido
amplio es "hacer aquello que uno tiene ms razn para hacer"; o puede
hablarse, como hacen los economistas, de "elegir lo que maximice la
utilidad", lo que mejor satisfaga las propias preferencias. R. Hardin, p.
e., se refiere a "la eficiencia con la que uno asegura sus propias metas"
(Collective Action, John Hopkins UP, 1982, p. 9) y J. Elster a "la eleccin
de la accin factible, compatible con las restricciones estructurales, que
produzca los mejores resultados" (vase, p. e., "Marxismo,
funcionalismo...", p. 39 y Rational Choice, Blackwell, Oxford, 1986, p.
4). En castellano, vase J. Mostern, Racionalidad y accin humana,
Alianza,
Madrid,
1978.
7.J.
Elster,
El
cambio
tecnolgico,
p.
65.
8.- Vanse dos obras clsicas, M. Olson, La lgica de la accin colectiva,
Limusa, Mxico, 1993 y R. Hardin ibid.; y P. Oliver y G. Marwell, "The
Paradox of Group Size in Collective Action" American Sociological Review
53, 1988 y The Critical Mass in Collective Action, Cambridge UP, 1993.

9.- Vase M. Taylor, Anarchy and Cooperation, Wiley, Londres, 1976 y


R. Axelrod, "The Emergence of Cooperation among Egoists", The
American Political Science Review, 75, 1981, reimpreso en P. K. Moser
(ed.) Rationality in Action, Cambridge UP, 1990, y en R. Campbell y L.
Sowden (eds.), Paradoxes of Rationality and Cooperation, U. of British
Columbia Press, Vancouver, 1985, que son dos excelentes volmenes
sobre los temas aqu tratados, y La evolucin de la cooperacin, Alianza,
Madrid, 1982. Un buen resumen no tcnico puede encontrarse en "Tit
for
Tat",
P.
Singer
(ed.)
Ethics,
Oxford
UP,
1994.
10.- D. Parfit, "Prudence, Morality and the Prisoner's Dilemma", en J.
Elster
(ed.)
Rational
Choice,
p.
38.
11.- Vase H. L. A. Hart, "Are There any Natural Rights?", Philosophical
Review 64, 1955; J. Rawls, Teora de la justicia, FCE, Mxico DF, 1971,
seccs. 18 y 52; y G. Klosko, The Principle of Fairness and Political
Obligation, Rowman and Littlefield Publishers, Lanham, USA, 1992.
12.- Vase D. Gauthier, La moral por acuerdo, Gedisa, Barcelona, 1994,
y P. Vallentyne (ed.) Contractarianism and Rational Choice, Cambridge
UP,
1991.
13.- P. Danielson, Artificial Morality: Virtuous Robots for Virtual Games,
Routledge,
Londres,
1992,
p.
82.
14. J. Harsanyi, "Morality and the Theory of Rational Behaviour", en A.
Sen y B. Williams, Utilitarianism and Beyond, Cambridge UP, 1982, pp.
40
y
ss.
15.- Vase en Sobre tica y economa, Alianza, Madrid, 1989, p. 11 y ss.
los comentarios de A. Sen sobre esta antigua unin y posterior divorcio.

Vous aimerez peut-être aussi