Anarquía y teoría de juegos — Doug Newdick
Traducción del artículo originalmente titulado Anarchy and Game Theory
1. Introducción.
En cualquier discusión sobre el anarquismo, o las condiciones para una sociedad sin Estado, tarde o temprano sale a la luz una afirmación como esta: «la gente es demasiado egoísta como para que eso funcione». Creo que se basan en una suposición (o teoría) sobre la naturaleza humana, que consideran evidentemente cierta, en lugar de ser argumentada. A menudo oigo una versión de «Lo siento pero tengo una visión más pesimista de la gente que tú». El propósito de este ensayo es mostrar que incluso si concedemos los supuestos de racionalidad egoísta, la cooperación sin el Estado sigue siendo una posibilidad.
2. El argumento antianarquista/hobbesiano.
2.1 El argumento intuitivo
Con este tipo de objeciones al anarquismo («la gente es demasiado egoísta para cooperar sin leyes» etc.) creo que la gente está apelando tácitamente a un argumento de la forma:
1. La gente es egoísta (egoistas racionales).
2. La gente egoísta no cooperará si no se les obliga a hacerlo.
3. El anarquismo implica la ausencia de fuerza.
4. El opositor al anarquismo puede decir entonces que o bien, como la anarquía también requiere cooperación, implica una contradicción; o bien, una sociedad sin cooperación sería terrible, por lo tanto una anarquía sería terrible.
2.2 La versión de Taylor (1987)
Si llamamos a las dos opciones (estrategias) disponibles para la cooperación individual (C) y la defección (D) (no cooperación), entonces podemos ver las similitudes entre el argumento intuitivo y la interpretación de Taylor (1987) del argumento de Hobbes (1968) sobre la necesidad o justificación del Estado: «a) en ausencia de cualquier coacción, es en interés de cada individuo elegir la estrategia D; el resultado del juego es, por lo tanto, la Defección mutua; pero cada individuo prefiere el resultado de la Cooperación mutua; b) la única manera de asegurar que se obtenga el resultado preferido es establecer un gobierno con suficiente poder para asegurar que es en interés de cada hombre elegir C». (Taylor 1987: 17) Podemos ver de esto que el argumento parece ser formalizable en términos de teoría de Juegos, específicamente en la forma de un juego de dilemas de prisioneros.
3. El dilema del prisionero
3.1 El dilema del prisionero¹
Decir que un individuo es racional, en este contexto, es decir que maximiza sus beneficios. Si un individuo es egoísta entonces su recompensa es únicamente en términos de su propia utilidad. Así, el egoísta racional elegirá aquellos resultados que tengan la mayor utilidad para sí mismo. En la ilustración tradicional del dilema del prisionero, dos criminales han cometido un crimen atroz y han sido capturados por la policía. La policía sabe que los dos individuos han cometido este crimen, pero no tiene suficientes pruebas para condenarlos. Sin embargo, la policía tiene suficientes pruebas para condenarlos por un delito menor. La policía (y tal vez un fiscal inteligente) separa a los dos matones y les ofrece a cada uno un trato. Cada uno de los criminales tiene dos opciones: permanecer callado o delatar a su compañero de crimen. Si delatan a su compañero y éste se queda callado, se librarán, si ambos delatan recibirán sentencias medianas, si se quedan callados y su compañero delata, recibirán la sentencia más dura, y si ninguno delata, cada uno recibirá sentencias ligeras. Los dos son incapaces de comunicarse entre sí, y deben tomar sus decisiones ignorando la elección del otro. Hay cuatro posibles resultados para cada jugador en este juego: salir libre, que diremos que tiene una utilidad de 4; obtener una frase ligera, que tiene una utilidad de 3; obtener una frase media, que tiene una utilidad de 2; y obtener una frase pesada, que tiene una utilidad de 1. Si etiquetamos la estrategia de permanecer callado «C» (por Cooperación), y etiquetamos la estrategia de confesar «D» (por Defección), entonces obtenemos la siguiente matriz de pagos:
Jugador 2
C D C 3, 3 1, 4
Jugador 1
D 4, 1 2, 2
(donde se ordena cada par de pagos: Jugador 1, Jugador 2)
Es obvio de esto que no importa qué estrategia elija el otro jugador, cada jugador es mejor para Desertar, por lo tanto la elección racional es Defeccionar (en teoría de juegos la Defección es la estrategia dominante). Como este es el caso de ambos jugadores, el resultado del juego será la Defección mutua. Sin embargo, hay un resultado, la Cooperación mutua, que ambos jugadores prefieren, pero debido a que son egoístas racionales no pueden obtener ese resultado. Este es el dilema del prisionero.
En general, el dilema del prisionero es un juego con una matriz de pagos de la forma:
C D
C x, x z, y
D y, z w, w
Donde y > x > w > z. (La convención es que las filas son elegidas por el jugador 1, las columnas por el jugador 2, y los pagos se ordenan «jugador 1, jugador 2».) (Taylor 1987: 14)
Cualquier situación en la que las preferencias de los jugadores puedan ser modeladas por esta matriz es un dilema del prisionero.
3.2 Ramificaciones del dilema del prisionero
Muchas personas han propuesto que el dilema del prisionero es un buen análisis de la provisión de bienes públicos y/o de los problemas de acción colectiva en general, han tomado como modelo las preferencias de los individuos en las empresas cooperativas. En primer lugar, el dilema del prisionero da una visión interesante de los llamados problemas del «polizón» en la provisión de bienes públicos. En las interacciones de bienes públicos, los problemas del polizón surgen cuando un bien es producido por una colectividad, y no se puede impedir que los miembros de la colectividad consuman ese bien (en la terminología de Taylor el bien no es excluible).² En este caso, un individuo racional preferiría cosechar los beneficios del bien y no contribuir a su provisión (es decir, defeccionar), por lo tanto, si otros cooperan entonces el individuo debe defeccionar, y si todos los demás defeccionan entonces el individuo debe defeccionar.³ En segundo lugar, el dilema del prisionero se considera un buen modelo de las preferencias de los individuos en sus interacciones diarias con otros individuos, como el cumplimiento (o no cumplimiento) de las obligaciones contractuales, el pago de las deudas y otras interacciones recíprocas.
3.3 Mi versión del argumento antianarquista
Dada una interpretación teórica de la reivindicación en 1, y consecuentemente una interpretación teórica de los argumentos intuitivos y hobbesianos de la necesidad del Estado, podemos reformularlos con el siguiente argumento:
1. Las personas son agentes racionales egoístas.
2. Si las personas son agentes racionales egoístas, entonces la provisión de bienes públicos es un dilema del prisionero (DP).
3. Si la provisión de bienes públicos es un DP entonces, en ausencia de coacción, los bienes públicos no serán provistos.
4. Esa coacción sólo puede ser proporcionada por el Estado, no por una anarquía.
5. Por lo tanto, los bienes públicos no serán proporcionados en una anarquía.
6. Por lo tanto, el Estado es necesario para la provisión de bienes públicos.
7. La provisión de bienes públicos es necesaria para una sociedad «buena».
8. Por lo tanto, una anarquía no será una sociedad «buena».
9. Por lo tanto, el Estado es necesario para una sociedad «buena».
4. Resumen de mis críticas/posición
Creo que el modelo de teoría de juegos es la mejor (y más plausible) manera de interpretar este tipo de argumentos. Sin embargo, creo que sus premisas 1 a 4 son falsas. En contra de la premisa 2, siguiendo a Taylor (1987: ch 2), sostengo que el dilema del prisionero no es la única preferencia plausible que ordena la acción colectiva, y en algunos de estos diferentes juegos la cooperación es más probable que en el dilema del prisionero. El modelo estático del juego del dilema del prisionero no es realista en el sentido de que la mayoría de las interacciones sociales se repiten, por lo que sostengo que un modelo más realista es el de un dilema iterado de los prisioneros, en el que la cooperación (en determinadas circunstancias) es de hecho la estrategia óptima (siguiendo a Taylor 1987 y Axelrod 1984), por lo que se argumenta que 3 es falso. Por último, sostengo que la premisa 1 es falsa, que de hecho lo hacemos y que deberíamos esperar que las personas sean (de alguna manera limitada) altruistas.
5. La provisión de bienes públicos no siempre es un dilema del prisionero.
Para que un juego sea un dilema del prisionero, debe cumplir ciertas condiciones: «cada jugador debe (a) preferir la no cooperación si el otro jugador no coopera, (b) preferir la no cooperación si el otro jugador coopera». En otras palabras: (a’) ningún individuo encuentra rentable proporcionar nada del bien público por sí mismo; y (b’) el valor para un jugador de la cantidad del bien público proporcionado por el otro jugador solo (es decir, el valor de ser un beneficiario gratuito) excede el valor para él de la cantidad total del bien público proporcionado por la Cooperación conjunta menos sus costos de Cooperación» (Taylor 1987: 35) Para muchas situaciones de bien público, o bien (a’), o (b’) o ambos no se obtienen.
5.1 Los juegos de la gallina
Si la condición (a’) falla podemos obtener lo que Taylor llama un juego de gallinas; es decir, si obtenemos una situación en la que se paga a un jugador para proporcionar el bien público aunque el otro jugador defeccione, pero ambos jugadores prefieren dejar que el otro jugador proporcione el bien, obtenemos esta matriz de pagos:
C D
C 3, 3 2, 4
D 4, 2 1, 1
Taylor (1987: 36) da un ejemplo de dos granjas vecinas que mantienen un sistema de riego, donde el resultado de la defección mutua es tan desastroso que cualquiera de los dos individuos preferiría mantener el sistema por sí mismo. Por lo tanto, este juego modelará ciertos tipos de arreglos recíprocos que no están modelados apropiadamente por un juego de dilema del prisionero.
5.2 Los juegos de la seguridad
Si la condición (b’) no se cumple, podemos obtener lo que Taylor (1987:38) llama un juego de Aseguramiento, es decir, una situación en la que ninguno de los jugadores puede proporcionar una cantidad suficiente del bien si contribuyen solos, por lo tanto, para cada jugador, si el otro Defiende entonces también debe defeccionar, pero si el otro Coopera entonces preferiría Cooperar también. Por lo tanto, la matriz de pago se ve así:
C D
C 4, 4 1, 2
D 2, 1 3, 3
5.3 Cooperación en un juego de gallinas o de seguridad
No debería haber ningún problema con la Cooperación mutua en un juego de la seguridad (Taylor 1987: 39) porque el resultado preferido por ambos jugadores es el de la Cooperación mutua. En el juego de la gallina, la cooperación mutua no está asegurada, sin embargo, la cooperación mutua es más probable que en el dilema del prisionero. ⁴
6. La cooperación es racional en un dilema del prisionero iterado
6.1 Por qué la iteración
Sin duda, no hay posibilidad de cooperación mutua en un dilema del prisionero de una sola vez, pero como se ha señalado, el juego de una sola vez no es un modelo muy realista de las interacciones sociales, especialmente de las interacciones de bien público (Taylor 1987: 60). La mayoría de las interacciones sociales implican interacciones repetidas, a veces como un grupo (un juego de N-personas), o entre individuos específicos (que podría ser modelado con un juego entre dos jugadores). La pregunta entonces se convierte: ¿Es más probable la cooperación mutua con los juegos iterados? (Específicamente el dilema del prisionero iterado). Como es de esperar, el hecho de que los juegos se repitan (con los mismos jugadores) abre la posibilidad de una Cooperación condicional, es decir, una Cooperación dependiente de la actuación pasada del otro jugador.
6.2 El dilema del prisionero iterado
Hay dos suposiciones importantes sobre los juegos iterados. En primer lugar, se asume (muy plausiblemente) que el valor de los juegos futuros para un jugador es menor que el valor del juego actual. La cantidad por la que se descuenta el valor de los juegos futuros se denomina valor de descuento, cuanto más alto sea el valor de descuento menos valen los juegos futuros (Taylor 1987: 61). En segundo lugar, se supone que el número de juegos a jugar es indefinido. Si los jugadores conocen el número de juegos, la estrategia racional será desertar en el último juego, porque no pueden ser castigados por esto por el otro. Una vez que esto es asumido por ambos jugadores, el penúltimo juego se convierte en efecto en el último juego y así sucesivamente (Taylor 1987: 62).
Axelrod (1984) utilizó un ingenioso método para probar cuál sería la mejor estrategia para el dilema de un prisionero iterado, realizó dos torneos de computadoras de round robin donde cada estrategia diferente (programa de computadora) compitió contra cada uno de sus rivales un número de veces. Sorprendentemente, el programa más simple, uno llamado TIT FOR TAT, ganó ambos torneos, así como todos los torneos hipotéticos menos uno. Los resultados de Axelrod confirmaron lo que Taylor había demostrado en 1976.⁵ TIT FOR TAT es la estrategia de elegir C para la primera partida y después elegir lo que el otro jugador eligió en la última partida (de aquí en adelante TIT FOR TAT se designará como estrategia B, siguiendo a Taylor (1987)).
Un equilibrio en un juego iterado se define como «un vector de estrategia tal que ningún jugador puede obtener un mayor rendimiento usando una estrategia diferente mientras que las estrategias de los otros jugadores siguen siendo las mismas. Un equilibrio, entonces, es tal que, si cada jugador espera que sea el resultado, no tiene ningún incentivo para usar una estrategia diferente» (Taylor 1987: 63). Dicho de manera informal, un equilibrio es un par de estrategias tales que cualquier movimiento de un jugador que se aleje de esa estrategia no mejorará el resultado de ese jugador. Entonces la cooperación mutua surgirá si B es un equilibrio, porque ninguna estrategia lo hará mejor que B cuando juegue contra B.⁶
La recompensa de una estrategia en un dilema (indefinido) del prisionero iterado es igual a la suma de una serie infinita:
x/(1 — w)
x = pago
w = parámetro de descuento (1 — valor de descuento)
DI (Defeccionador Incondicional) jugando con DI obtiene un pago de 2 por juego por defección mutua, si ponemos w = 0.9 entonces el pago de DI es:
2/(1–0.9) = 20
B jugando con B obtiene una recompensa de 3 por juego por la cooperación mutua, por lo tanto con w = 0.9 B obtiene:
3/(1–0.9) = 30
(B, B) es un equilibrio cuando el pago de B de (B, B) es más alto que el pago de DI de (DI, B):
El pago de B contra B es 3/(1-w)
El pago de DI contra B es: 4 + 2w/(1-w)
Por lo tanto DI no puede hacerlo mejor que B cuando:
(3/(1 — w)) > (4 + 2w/(1 — w))
= w > (4–3)/(4–2)
= w > 0.5
(Axelrod 1984: 208)⁷ ⁸
¿Puede cualquier otra estrategia funcionar mejor contra B que contra el propio B? Informalmente podemos ver que esto no es posible (asumiendo que las futuras interacciones no se descuentan demasiado). Para que cualquier estrategia le vaya mejor que a B, debe en algún momento defeccionar. Pero si la estrategia defecciona, entonces B castigará esta defección con una defección propia, lo que debe resultar en que la nueva estrategia lo haga peor de lo que lo hubiera hecho si hubiera cooperado. Por lo tanto, ninguna estrategia puede hacerlo mejor jugando con B, que el propio B. Ahora bien, si B es un equilibrio, entonces la matriz de pago para el juego iterado es:
B DI
B 4, 4 1, 3
DI 3, 1 2, 2
El cual es un juego de la seguridad. Por lo tanto, si B es un equilibrio, entonces debemos esperar una cooperación mutua. (Taylor 1987: 67) Sin embargo, si B no está en equilibrio (es decir, el valor de descuento es demasiado alto) entonces los pagos se asemejan a un dilema del prisionero, y por lo tanto la defección mutua será el resultado (Taylor 1987: 67).
6.3 El dilema del prisionero iterado de N-personas
Un modelo más realista de (algunas) interacciones sociales, especialmente las interacciones de bienes públicos, es el del dilema del prisionero iterado de N-personas, es decir, un dilema del prisionero iterado con más de dos actores (un número indefinido a efectos de análisis). El análisis es demasiado complejo para reproducirlo aquí,⁹ pero los resultados del análisis del dilema del prisionero iterado de dos personas pueden aplicarse más o menos directamente al caso de N-personas. Si la cooperación ha de surgir, al menos algunos de los jugadores deben ser cooperadores condicionales (es decir, utilizando algo como B) y «se ha demostrado que bajo ciertas condiciones la cooperación de algunos o todos los jugadores podría surgir en el superjuego sin importar cuántos jugadores haya» (Taylor 1987: 104).
6.4 Condiciones para la cooperación condicional
Para que surja la cooperación mutua, es necesario que los individuos utilicen una estrategia similar a la de B, y que (B, B) sea un equilibrio. Para que esto último sea así, el parámetro de descuento debe ser suficientemente alto. Para el primero, los individuos necesitan poder decir si otros individuos están Cooperando o Defeccionando. El parámetro de descuento depende de la posibilidad de que el jugador tenga más interacciones con ese jugador, y de la frecuencia con que las tenga. Cuanto mayor sea el tiempo probable entre las interacciones, y cuanto menor sea el número de interacciones probables, menor será el parámetro de descuento y menor la posibilidad de obtener una cooperación mutua. Hay varias maneras de aumentar el parámetro de descuento (Axelrod 1984: 129–132): aumentar la territorialidad (reducir la movilidad de la población); aumentar la especialización; concentrar las interacciones, de modo que un individuo tenga más interacciones con un número menor de individuos; descomponer las interacciones en interacciones más pequeñas. Si las personas van a emplear una estrategia como la B, deben ser capaces de vigilar el comportamiento de otros actores. Así pues, parece que la cooperación mutua será más probable en las sociedades más pequeñas que en las más grandes. Si las relaciones entre los individuos son directas y multidimensionales (es decir, interactúan con otros sin mediación alguna, e interactúan con ellos de diversas maneras), la vigilancia del comportamiento es mucho más fácil. Esto se traduciría en un requisito de tamaño menos estricto. Estas propiedades se encuentran en sociedades que tienen la propiedad de la «comunidad» (Taylor 1987: 105, 1982).
6.5 La evolución de TIT FOR TAT
Como TIT FOR TAT es la mejor estrategia bajo ciertas condiciones, esperaríamos que los organismos que evolucionaron en estas condiciones bien podrían usar esta estrategia como una adaptación.* Esta expectativa se apoya en una serie de ejemplos aparentes de comportamiento de TIT FOR TAT entre ciertos organismos que viven bajo condiciones de dilema del prisionero iterados (Dawkins 1989: 229–233). Si gran parte de la interacción social humana toma la forma de un dilema del prisionero (y hemos visto que si este es el caso, entonces estos serán en su mayoría iterados), y si asumimos que gran parte de la historia evolutiva de los seres humanos y sus antepasados pasó en pequeños grupos (como la evidencia sugiere), entonces podríamos esperar que los seres humanos podrían haber evolucionado tal estrategia de comportamiento. Hay que tener cuidado de no llegar a una conclusión sólida sobre los humanos y el comportamiento humano a partir de argumentos evolutivos. El comportamiento humano es notoriamente complejo y muy plástico, a diferencia del comportamiento animal. Sin embargo, creo que este argumento da una razón adicional para ser optimista sobre la posibilidad de una cooperación mutua.
7. El altruismo
7.1 El altruismo no es un fenómeno raro.
El propósito de la sección anterior era mostrar que, incluso si concedemos a la antianarquista sus supuestos más pesimistas sobre los seres humanos (que son egoístas racionales) y las interacciones sociales (que tienen la estructura de preferencia de un dilema del prisionero), todavía se puede lograr una cooperación mutua. Ya he criticado el último supuesto del S5, pero el anterior supuesto, también, es obviamente defectuoso*. La gente no es egoísta. Si pensamos por más de un momento, deberíamos ser capaces de dar una serie de ejemplos de altruismo puro, ejemplos en los que no se obtiene ningún beneficio para el ejecutante de la acción, por no mencionar los ejemplos de altruismo impuro. La donación de sangre es un buen ejemplo de altruismo puro: no se obtiene ningún beneficio (mensurable) para alguien que dona sangre (sin publicitarlo), pero el beneficio para los demás puede ser grande, y hay un costo (aunque no sea sustancial). Luego hay ejemplos como la crianza de los hijos. El costo de criar a un niño es sustancial, tanto en términos monetarios como de otros recursos (por ejemplo, tiempo, oportunidades perdidas, etc.), pero el beneficio recae principalmente en el niño, no en el padre.
7.2 Selección de parentesco
Una explicación de ciertos tipos de aparente altruismo, y posiblemente de un grado de cooperación recíproca mayor de lo esperado, puede encontrarse en la teoría de la selección de parentesco. Tomando la vista del gen propuesto por Dawkins (1989),¹⁰ imaginemos un gen para las barbas verdes. Si este gen, además de causar barbas verdes, hace que el portador del gen ayude a otros individuos con barbas verdes, tiene una probabilidad mayor que la habitual de propagarse a través de una población. En una población normal, un organismo tiene más probabilidades de compartir genes con sus parientes que con otro miembro de la población. Para cualquier gen que esté en su cuerpo, hay un 50% de probabilidades de que esté en el cuerpo de su hermano, hay un 25% de probabilidades, para cada uno de sus primos, de que el gen esté en su cuerpo. Por lo tanto, desde la perspectiva del gen, si te sacrificas para salvar la vida de tres de tus hermanos, entonces el gen ha ganado de hecho (porque se conservaron más copias de él que perecieron). Este es el mecanismo de selección de los parientes. Cuanto más cerca estás de alguien, más se beneficia la unidad de selección (la entidad que se beneficia de la selección natural), en este caso el gen, si les ayudas, con la cantidad de ayuda directamente proporcional al índice de parentesco (Dawkins 1989: cap. 6). En términos de la teoría de juegos, en cualquier juego el beneficio para el gen es igual a la utilidad para el individuo en el que se encuentra más la utilidad para el otro individuo multiplicada por su índice de parentesco:
El pago en los juegos entre parientes para el jugador 1 = z + xy donde:
x = índice de parentesco.
y = utilidad del jugador 2.
z = utilidad del jugador 1
Índice de parentesco = la posibilidad de que un gen de X esté presente en su relación Y.
Por ejemplo, el valor de x si los dos jugadores son hermanos, es 0.5, así se verá el dilema del prisionero transformados:
C D
C 4.5, 4.5 3, 4.5
D 4.5, 3 3, 3
En este caso debemos esperar que el resultado sea la cooperación mutua, porque es un equilibrio y es preferido por ambos actores.
Como sabemos por el S6 el valor del parámetro de descuento requerido para que (B, B) sea un equilibrio disminuye a medida que la diferencia entre el pago por Defeccionar mientras el otro jugador Coopera y el pago por Cooperación mutua disminuye. Por lo tanto, la Cooperación mutua es más fácil de lograr cuando el mecanismo de selección de parientes está funcionando.
También es posible que ese mecanismo se generalice en exceso, es decir, que identifique a demasiadas personas como suficientemente relacionadas para alterar el comportamiento en situaciones del tipo dilema del prisionero. Si se considera que gran parte de nuestra historia evolutiva reciente, los humanos han vivido en pequeñas bandas donde el índice medio de parentesco era bastante alto (especialmente en comparación con la actualidad), tales generalizaciones no habrían generado muchos falsos positivos.¹¹ La cooperación mutua engendrada por la selección de parentesco puede ayudar a la difusión de la cooperación recíproca. Puede crear un grupo suficientemente grande de Cooperadores condicionales para hacer de la Cooperación condicional la mejor estrategia en la población. Si un grupo de Cooperadores condicionales invade una población de Defeccionadores Incondicionales, una vez que el número de Cooperadores condicionales alcanza un cierto nivel (dependiendo del parámetro de descuento), los Cooperadores condicionales ganan más que los Defeccionadores Incondicionales en virtud de sus interacciones entre sí (Axelrod 1984: cap. 3).
8. Resumen
He demostrado que las premisas 2 y 3 del argumento intuitivo/hobbesiano son falsas. Por lo tanto, las conclusiones de que las anarquías no son viables, y que el Estado es en cierto sentido necesario, no se siguen. El análisis del dilema del prisionero iterado muestra que incluso si concedemos al oponente de la anarquía su mejor caso, su conclusión simplemente no se sigue. La teoría de juegos nos muestra que incluso los individuos egoístas cooperarán sin coerción o coordinación, dadas ciertas condiciones. Ciertas condiciones que son prácticamente posibles. Cuando se añade a la tesis de Taylor (1982) que la coacción puede ser utilizada por una comunidad anárquica para fomentar la cooperación, la plausibilidad de una anarquía aumenta. Creo que el análisis de teoría de juegos y la selección de parentescos debería dejarnos optimistas sobre la posibilidad de la Cooperación sin coacción, incluso en circunstancias adversas, y por lo tanto los cambios en la naturaleza humana requeridos para una anarquía viable son mucho menores de lo que creen los oponentes de la anarquía.
NOTAS
1. Gran parte de esta sección está extraída de Taylor 1987 y Axelrod 1984.
2. Taylor (1987: 6) dice que los problemas del polizón sólo surgen cuando el bien colectivo no es excluible pero no indivisible (es decir, cuando el consumo del bien por un individuo da lugar a que el bien esté menos disponible para los demás). No creo que este sea el caso, seguramente somos capaces de pasear gratis por el bien público de los parques, etc., al no pagar nuestros impuestos.
3. Este es realmente un ejemplo de un dilema del prisionero N-personas, más que un dilema del prisionero normal. Ver Taylor 1987: capítulo 4.
4. Taylor 1982 puede ser tomado como un argumento contra la premisa 4, estoy de acuerdo pero no entraré en ese argumento aquí.
5. Para una presentación completa del argumento matemático de esta conclusión, véase Taylor 1987: 39–59.
6. En su libro «Anarchy and cooperation». Taylor 1987 es una revisión sustancial de este libro. Taylor (1987: 70) señala que ya había demostrado lo que Axelrod demostró con sus torneos, sin embargo el método de Axelrod era más interesante.
7. Tengan en cuenta que la Defección Incondicional (DI) es un equilibrio, cualquier estrategia que coopere en cualquier punto con DI anotará menos que DI en ese juego.
8. B también tiene que hacer mejor que una estrategia que alterna la cooperación con la deserción, que también ocurre cuando w > 0.5
9. Estrictamente hablando (B, B) ser un equilibrio es una función de la relación entre w y el valor de las retribuciones. Así, (B, B) es un equilibrio cuando: w > (y — x)/(y — w) o w > (y — x)/(x — z). Para los pagos que estoy usando, este es el caso si w > 0.5
10. Véase Taylor 1987: ch 4, para un análisis detallado del dilema del prisionero iterados N-persona.
11. Esta es una mala filosofía de la biología, pero se entiende fácilmente.
12. Una vez más, este argumento no debe tomarse demasiado en serio, sino que simplemente añade razones adicionales para ser optimistas en cuanto a que los humanos están más inclinados a la cooperación mutua de lo que predice el modelo puramente egoísta.
* Con todos los polizones habituales como: la variación podría no haber surgido; las limitaciones de otras estructuras podrían impedirlo, etc.
* Esta suposición es aceptable como idealización cuando tenemos un propósito explicativo o predictivo específico en mente (suponiendo que no nos dé malos resultados), pero en este papel justificador sus insuficiencias son centrales para la cuestión que nos ocupa.
BIBLIOGRAFÍA
Axelrod, 1984, The Evolution of Cooperation, Basic Books,
Dawkins, 1989, The Selfish Gene, Oxford University Press, Oxford.
Hardin, 1982, Collective Action, John Hopkins University Press, Baltimore.
Hobbes, 1968, Leviathan, ed C.B. MacPherson, Pelican Classics.
Lewontin et al, 1984, Not In Our Genes, Pantheon, New York.
Lukes, 1974, Power: A Radical View, Macmillan Press.
Mansbridge (ed), 1990, Beyond Self-Interest, University of Chicago Press, Chicago.
Palfrey & Rosenthal, 1992, «Repeated Play, Cooperation and Coordination: An Experimental study», Social Science Working Paper 785, California Institute of Tecnology, Pasadena.
Taylor, 1982, Community, Anarchy & Liberty, Cambridge University Press, Cambridge.
— — , 1987, The Possibility of Cooperation, Cambridge University Press, Cambridge.
— — (ed), 1988, Rationality and Revolution, Cambridge University Press, Cambridge.
Wright et al, 1992, Reconstructing Marxism, Verso, London.