Dos cajas cerradas. La caja A y la caja B. Las tienes delante. La caja A contiene 1.000 euros. En el caso de la caja B, hay dos posibilidades: nada o 1 millón de euros. Lo de la caja A es seguro. Lo de la caja B depende.
Tus opciones:
1 Te llevas las dos cajas
2 Te llevas la caja B
Lo que sea que haya dentro de tu selección es para ti. La idea es conseguir la mayor cantidad de dinero.
Pero he aquí el detalle. El experimento es obra de un ser superinteligente que ha predicho tus acciones. Si ha predicho que cogerás las dos cajas, entonces B está vacía. Si predijo que cogerías B, entonces ahí hay 1 millón de euros.
Un detalle más. El ser en cuestión jamás se ha equivocado con una predicción. No ha fallado en ninguna predicción que ha hecho sobre el estado del mundo o sobre acontecimientos futuros, no solo sobre las cajas. Jamás se ha equivocado haciendo predicciones sobre tu vida o la de cualquier otra persona.
¿Qué haces? ¿Te quedas con las dos cajas o con la caja B?
Piénsalo.
Como en cualquier experimento mental de este tipo, no hay realmente una respuesta correcta o una respuesta falsa. No en el sentido de que se pueda establecer más allá de toda duda. En realidad, la respuesta que des a un problema de este tipo expone tu personalidad y tu forma de actuar. Qué consideras importante, cómo has interpretado las ambigüedades del planteamiento y demás.
De entre toda las soluciones posibles (tantas como seres humanos, imagino) hay dos principales tal y como cuenta el artículo en The Guardian.
Coges B
Después de todo, es un ser superinteligente que jamás se ha equivocado. Por tanto, si te llevas la caja B, el ser habrá predicho eso mismo y en ella encontrarás un millón de euros.
Coges las dos cajas
El ser ya ha hecho su predicción. En la caja B habrá o no habrá un millón de euros. Coger las dos cajas no va a cambiar el contenido de la caja B porque yo tomo la decisión después. Por tanto, si en la caja B hay un millón de euros, al llevarme las dos cajas ganaré 1.000 euros más. Por tanto, esa es la decisión correcta.
Veo problemas en cada uno de los razonamientos.
En el primer caso, todo depende de que el ser superinteligente haya predicho correctamente. Parece lógico, porque siempre ha acertado hasta ahora. Por desgracia, ése es el problema de la inducción: el hecho de que algo siempre haya sucedido de cierta forma no quiere decir que vaya a suceder así la próxima vez. Quizá yo me plante delante de las dos cajas y justo esta vez el ser superinteligente falle en su predicción. Solo sabemos que ha predicho correctamente en el pasado. Nada nos garantiza que predecirá correctamente en el futuro.
En el segundo caso, la suposición es que una decisión tomada en el futuro no va a afectar una decisión tomada en el pasado. La solución propuesta se apoya en que el ser inteligente podría fallar en su predicción, poniendo el millón en B porque cree que cogeremos únicamente esa caja. Por desgracia, ya hemos admitido que es un ser superinteligente que ha realizado predicciones con éxito en el pasado. Ya es mucho aceptar. Por tanto, ¿cómo sé que el resto de las condiciones físicas del universo se mantienen? Quizá en ese mundo la casualidad está invertida. Quizá sea justo así cómo realiza sus predicciones, no tanto porque prediga sino porque tiene información del futuro.
¿Qué harías yo?
Lo que decía, es una cuestión de personalidad.
Yo cogería la caja B.
El otro día mi hija me preguntaba por qué mi coche es automático. Yo le expliqué que no tengo problema en que los demás tomen decisiones por mí cuando a) a mí no me interesa mayormente tomarla y b) el que toma la decisión está más capacitado que yo para tomarla. En el caso del coche, confío más en que el sistema mecánico sabe mejor que yo cuándo debe cambiar las marchas. Y como se trata de algo de lo que prefiero despreocuparme, pues así queda.
En el caso del problema, ya hemos establecido que se trata de una entidad a) superinteligente y b) todas sus predicciones hasta la fecha han tenido éxito. Parece por tanto no solo más inteligente que yo, sino además más capaz. Por tanto, no tengo ningún problema en asumir que le resultaría difícil predecir mi comportamiento futuro, porque desde su punto de vista seré un sistema trivial. No la voy a poder engañar.
Por tanto, a pesar de las objeciones anteriores, asumiría que el dinero está en B, porque es la caja que voy a coger, porque mi tendencia es dar por buenos los elementos de una situación de ese estilo.
Por cierto, estaría la opción de elegir aleatoriamente. En ese caso, aparentemente la versión original del problema, Newcomb’s Paradox, establecía que la caja B estaría vacía. No sirve de nada entregarte al azar.
Volviendo al asunto de que la respuesta al problema refleja más que nada una cuestión de personalidad, la Wikipedia cita este comentario de Nozick:
To almost everyone, it is perfectly clear and obvious what should be done. The difficulty is that these people seem to divide almost evenly on the problem, with large numbers thinking that the opposing half is just being silly.
(vía Solving Newcomb’s problem with (possibly non) expected utility theory