Participan dos sujetos a los que se ofrece una cantidad importante de dinero que podrán repartirse entre ellos sólo si se ponen de acuerdo en el reparto. A uno se le dará la facultad de proponer el trato y el otro sólo tendrá dos opciones, aceptar o rechazar la oferta. Si la acepta, cada uno se llevará la parte acordada. Si la rechaza, ninguno recibirá nada. El planteamiento racional sería: puesto que él tiene la capacidad de decidir, si rechazo la oferta, me quedo sin nada. Luego la posición más ventajosa --y egoista-- es aceptar lo que me proponga. Pues no. La mayoría de los sujetos que participan en el Ultimatum Game rechaza la oferta si esta es inferior al 40 por ciento. La rechazan de plano, y además suelen enojarse. Pero si en lugar de una persona, es una computadora la que hace la oferta injusta, entonces, ¡la mayoría acepta lo que la máquina le ofrece! ¿Por qué esta diferencia? Porque una computadora no es humana. Con la decisión de rechazar la oferta injusta, practican el llamado "castigo altruista", un rasgo muy humano: actuar contra el propio interés por defender un principio moral.
Lo leí en el diario y me llamó la atención.
4 comentarios:
Más que principios éticos, lo veo como simple competencia entre iguales. En una de esas, la máquina es más lista y respetamos sus decisiones.
Me gustó el concepto de "castigo altruista"...
Who knows where to download XRumer 5.0 Palladium?
Help, please. All recommend this program to effectively advertise on the Internet, this is the best program!
Ahora me entra la duda: ¿será que el último comentario sobre XRunner 5.0 es la opinión de la máquina sobre el Ultimatum Game?
Sobre el negocio: yo aceptaría el 5% o lo que fuera, pero, claro, me pasaría la vida hablando pestes de mi socio...
Publicar un comentario