Vas por la carretera a bordo de tu coche sin conductor, uno de esos supermodernos que negocian los obstáculos y son capaces de reaccionar ante cualquier cambio. Te aproximas a un túnel. De pronto, un niño pequeño se cruza frente al coche. La situación es tal, que si el coche sigue su marcha, atropellará al niño, matándolo. Pero si se desvía para salvarlo, se estrellará inevitablemente contra las paredes y te matará a ti.
¿Qué debe hacer el coche?
Ésa es la pregunta de Should your driverless car kill you to save a child?. Se trata de un experimento mental, por supuesto. En muchas circunstancias reales habrá una tercera, cuarta o enésima opción. Pero inevitablemente, en algún momento se dará ese caso: una muerte segura para uno de los implicados.
Estamos acostumbrados a considerar que los únicos actores en una situación ética son los seres humanos. Pero cada vez es más evidente que a medida que vamos delegando poder de decisión a las máquinas, en situaciones cada vez más complicadas en las que resulta difícil establecer reglas de antemano, será habitual que las máquinas tengan que resolver problemas éticos. Precisamente Isaac Asimov, el primero en adoptar las leyes de la robótica, se escribió una buena serie de cuentos elucubrando sobre ese tipo de escenarios.
En cualquier caso, si esa situación es una posibilidad, habrá que decirle a la máquina qué debe hacer. El autor se pregunta si será el diseñador del dispositivo o el usuario. En el primer caso, no está muy claro que uno se sienta seguro sabiendo que una empresa ha decidido que según ciertas circunstancias tu muerte es la consecuencia más “ética”. Por otra parte, si decide el usuario, la situación es prácticamente como ir ahora mismo en tu coche y no hacer ni el más mínimo esfuerzo por desviarte o desviarte y sacrificarte por otro.
Es una situación muy complicada. El autor señala que habría que examinar primero los dilemas éticos que se plantean en medicina y evaluar las soluciones que allí se aplican. Como bien dice, si la decisión es de los diseñadores se está evitando que el usuario tome unas decisiones que son muy complejas y personales. Si eres tú el que decides no girar el volante, al menos habrás decidido tú y la responsabilidad será totalmente tuya.
Me resulta una situación especialmente compleja, porque como decía aquel filósofo, inventar una tecnología es inventar el accidente de esa tecnología. Si inventar el avión implica inventar el accidente de aviación, el coche autónomo implica el accidente de un coche autónomo que toma decisiones y resuelva problemas que ni siquiera nosotros tenemos claro cómo resolver (y que, como buen accidente, incluso podría equivocarse). Quizá sí es cierto que lo mejor sea permitir que cada usuario decida según su conciencia. O la sociedad podría decidir en su conjunto que una opción es mejor que otra y establecer que todos los coches deben hacer lo mismo.
Pero por desgracia en ese segundo caso, estamos hablando por ahora de un experimento mental. Cada uno, ahora mismo, sentado frente a su mesa o leyendo este texto en un móvil, puede tomar una decisión que considere más o menos firme. Cambia un par de detalles en el escenario (no es un niño, es un adulto) y muchas decisiones podrían virar, y la solución acordada anteriormente ya podría no valer. Y eso sin contar que probablemente años y años de legislación en zonas afines (en qué sentido es uno responsable o no de ciertas consecuencias) deberían tenerse en cuenta en este tipo de casos. Estoy seguro de que muchas disciplinas, ajenas a la tecnología y la ética, podrían aportar puntos de vista interesantes y necesarios.
Por lo demás, concluye:
None of this simplifies the design of autonomous cars. But making technology work well requires that we move beyond technical considerations in design to make it both trustworthy and ethically sound. We should work toward enabling users to exercise their autonomy where appropriate when using technology. When robot cars must kill, there are good reasons why designers should not be the ones picking victims.
Evidentemente, el coche siempre podría lanzar un dado. Sospecho que la solución estocástica no contentaría a nadie.