Imagine que está en un coche auto-conducido y va directo hacia un grupo de peatones. La única otra opción es dirigirse hacia un precipicio. ¿Qué debería hacer el coche?
Los filósofos han estado debatiendo durante año un enigma moral similar durante año, pero la discusión tiene una nueva aplicación práctica con la llegada de los coches auto-conducidos, que se espera que sean algo común en las carreteras en los próximos años.
Concretamente, los coches auto-conducidos de Google, Tesla y otros van a tener que tratar un ejercicio mental muy debatido llamado el dilema del tranvía.
En su planteamiento original, un tranvía se dirige hacia cinco personas. Puede tirar de una palanca para desviarlo hacia otra dirección, en el que solo habrá una persona en el camino del tranvía. ¿Debería matar a una para salvar a cinco?
Muchas personas piensan que sí, pero este instinto moral se complica por otras situaciones. Por ejemplo: usted se encuentra en un puente sobre la vía y ve un tranvía que se dirige hacia cinco personas. Hay un señor gordo a su lado y usted sabe que su peso sería suficiente para parar al tranvía. ¿Es moral empujarlo desde el puente para salvar a cinco personas?
Desvíese del acantilado
Cuando se les preguntó a personas que no eran filósofos sobre cómo deberían enfrentarse los coches auto-conducidos a una situación donde la vida de ocho pasajeros o peatones fuese inevitable, la mayoría creyó que los coches deberían estar programados para evitar herir a transeúntes, según un estudio publicado por el sitio de investigación científica Arvix este mes.
Los investigadores, liderados por el psicólogo Jean-François Bonnefon de la Escuela de Economía de Toulouse, presentaron una serie de situaciones de colisión a cerca de 900 participantes en total. Descubrieron que el 75% de las personas pensaba que el coche siempre debía cambiar de dirección y matar al pasajero, incluso aunque fuera para salvar solo a un peatón.
Entre filósofos que debatían la teoría moral, esta solución se complica por diferentes argumentos que apelan a nuestras intuiciones morales pero que apuntan a diferentes respuestas. El dilema del tranvía se debate encarnizadamente precisamente porque es un claro ejemplo de la tensión entre nuestro deber moral de no causar daños y nuestro deber moral de no hacer el mal.
La antigua escuela de pensamiento argumenta que la acción moral es la que causa la felicidad máxima al máximo número de personas, una teoría conocida como utilitarismo. Basándonos en este razonamiento, un coche auto-conducido tendría que hacer la maniobra que salvase a la mayor cantidad de personas posible, sin importar si son pasajeros o peatones. Si fuesen a morir cinco personas por la colisión contra el muro, entonces el coche auto-conducido tendría que proseguir aunque eso significara matar a un peatón inocente. El razonamiento puede sonar algo simplista, pero los detalles de la teoría utilitarista, tal y como estableció John Stuart Mill, son difíciles de rebatir.
¿Quién es responsable?
Sin embargo, otros filósofos que han sopesado el dilema del tranvía argumentan que el utilitarismo es un enfoque crudo y que la acción moral correcta no solo evalúa las consecuencias de la acción, sino que también tiene en cuenta quién es moralmente responsable.
Helen Frowe, profesora de filosofía práctica en la Universidad de Estocolmo y quien ha dado una serie de conferencias sobre el dilema del tranvía, dice que los fabricantes de coches auto-conducidos deberían programar a los vehículos para que protegiesen a los transeúntes inocentes puesto que quienes van en el vehículo tienen más responsabilidad sobre cualquier peligro. Esta ha dicho a Quartz:
«Tenemos obligaciones bastante estrictas para no matar a personas. Si decidió meterse en un coche auto-conducido, entonces eso está imponiendo el riesgo».
La ética es bastante complicada cuando el argumento de Frowe apunta hacia una acción moral diferente a la de la teoría utilitaria. Por ejemplo, un coche auto-conducido podría llevar a cuatro pasajeros, o quizá a dos niños en el asiento trasero. ¿Cómo cambia el cálculo moral?
Si los pasajeros del coche son todos adultos, Frowe cree que deberían morir para evitar golpear a un peatón puesto que los adultos han elegido estar en el coche y por ello tienen más responsabilidad moral.
A pesar de que Frowe cree que los niños no son moralmente responsables, sigue argumentando que no es moralmente permisible matar a una persona para salvar las vidas de dos niños.
«A medida que incremente el número de niños será más fácil justificar matar a uno. Pero en caso donde haya solo adultos en el coche, tendrá que ser capaz de salvar a muchos de ellos –más de diez, quizá a todo un autobús- para hacer que matar a uno sea moral».
Es mejor no hacer nada
Pobres los diseñadores de software (y, sin duda, los abogados) que están tratando de ver qué hacer con esto, porque puede volverse todo aún más complicado. ¿Qué pasaría si un peatón actuase imprudentemente o incluso se pusiera enfrente del vehículo con la intención de que cambie de dirección y con ello mate a los pasajeros? (Guionistas de Hollywood, enciendan sus motores). Puesto que los coches auto-conducidos no pueden juzgar las intenciones de los peatones, es muy difícil tener en cuenta este aspecto ético.
Los filósofos aún están muy lejos de llegar a una solución a pesar de las cantidades de estudios que debaten cada pequeño detalle ético. Por ejemplo, ¿es más inmoral desviar a un coche de manera activa hacia un único peatón que sencillamente no hacer nada y dejar que el vehículo le dé a alguien? Warren Quinn rechazó de manera explícita la idea utilitaria de que la moralidad debe maximizar la felicidad. En vez de ello, argumentó que los humanos tienen el deber de respetar a otras personas y por ello una acción que directa e intencionalmente causa daño es éticamente peor que una acción indirecta que causar daño.
Por supuesto, raramente los coches se encontrarán en una situación en la que habrá solo dos acciones y el coche puede computar, con 100% de certeza, que cualquier decisión llevará a la muerte. Pero con suficientes coches auto-conducidos en la calle, no es implausible que el software vaya a tener que tomar una decisión entre causar daño a un peatón o a un pasajero. Cualquier coche auto-conducido debería poder reconocer y equilibrar estos riesgos.
Los fabricantes de coches auto-conducidos aún tienen que revelar su postura en este asunto. Pero, dada la falta de unanimidad filosófica, parece improbable que vayan a dar con una solución aceptable universalmente. Con respecto a los filósofos, el tiempo les dirá si disfrutan viendo cómo se prueban sus teorías de manera real.