¿En caso de un accidente inevitable, deberá el automóvil preservar tu vida o el mayor número de vidas posible?
El dilema del tranvía fue formulado por primera vez por la filósofa británica del S.XX, Phippa Foot. El dilema comienza así: imagínate que conduces un tranvía y unas decenas de metros más adelante ves un grupo de seis personas atadas a la vía. Puedes cambiar de vía con solo accionar una palanca, pero en la otra vía también hay otra persona, en este caso solo una, atada a ella. ¿Debería accionarse la palanca? De hacerlo salvarías más vidas, pero habrás tomado una decisión que terminará con seguridad con una vida, mientras que de no hacerlo moriría más personas pero tú no estarías haciendo nada.
Ese mismo problema se circunscribe al coche inteligente ante un inminente accidente de tráfico, como un pinchazo, una avería en los frenos, un peatón atravesando la vía, un ciclista que se cae frente a nosotros... Si los automóviles toman el control de la carretera, habrá que estudiar muy bien las “tres leyes de la robótica” que los guíen incluso en los casos más extremos.
Pero no termina ahí la problemática del coche autónomo, también habrá que dilucidar quién tiene la responsabilidad en caso de siniestro con resultado de heridos o fallecidos, y habrá que hacerlo tanto desde el punto de vista de las aseguradoras como del penal.
Especialmente cuando los que convivan en la carretera sean vehículos autónomos (tipo automóvil) con otros que no los son (tipo motocicleta). Habrá “exenciones penales” para los propietarios de los vehículos autónomos. ¿Cómo se demuestra que fue el vehículo y no el conductor el que cometió el error?
Pero veamos la solución al Dilema del Tranvía que nos proponen desde la Universidad de Alabama
Ameen Barghi, del grupo de Bioética de la Universidad de Alabama en Birmingham (UAB), propone una solución que pasa por que las máquinas realicen una elección entre el utilitarismo y el deontologismo.
El utilitarismo apuesta por hacer lo que proporcione más felicidad al mayor número de personas. Si la situación se reduce a estrellar el vehículo contra algo inanimado como (un muro o un guardarraíl) o interponerse en la trayectoria de un autobús escolar, el coche autónomo debería estar programado para hacer lo primero.
Claro que el deontologismo lo ve de otra forma, pues afirma que algunos valores son categóricamente verdaderos y están por encima de la utilidad. Por ejemplo: el vehículo no accionaría la palanca en el dilema del tranvía porque supone asesinar activamente a un humano, a pesar de que esto conllevará la muerte de seis personas.
Pero el utilitarismo también admite dos variantes, según el utilitarismo de la regla, se establece que habrá que elegir siempre la acción más altruista, independientemente de las circunstancias. Lo que aplicado al dilema del tranvía supone salvar el mayor número de vidas posibles.
El utilitarismo del acto implica que cada acción individual debe ser evaluada en su particular conjunto de acciones y elecciones. Desaparecen las reglas absolutas y cada situación tendrá su propia solución “óptima”. Eso es relativamente fácil de ejecutar para un humano, pero muy complejo para las maquinas que necesitan una programación con reglas prefijadas.
¿Serán los fabricantes los responsables legales y morales de los accidentes?
Cómo mencionamos anteriormente, queda por resolver quién será el responsable de los accidentes, ¿el propietario del vehículo o los fabricantes? Algunos, como Patrick Lin, director del grupo de Ética y Ciencias Emergentes de la Universidad Politécnica del Estado de California, proponen que cada vehículo adopte los valores éticos que predetermine su usuario.
Así unos usuarios elegirán salvar su propia vida por encima de cualquier consideración, otros programarán preservar el bien común, y los habrá que prefieran evitar cualquier problema legal o económico.
Según una encuesta, "el 44% de los conductores preferiría contar con la posibilidad de elección, mientras que el 12% prefiere que los ajustes éticos vengan de fábrica".
Y eso nos pone ante el más perverso de los problemas éticos, si el vehículo solo tiene dos opciones atropellar a una persona y matarla o girar bruscamente matando al conductor (y propietario) ¿qué debería hacer?, ¿quién debería tomar la decisión? Según la encuesta el 44% considera que la decisión debería ser del usuario, el 33% de los legisladores y el 12 % del fabricante.
Y tú... ¿qué opinas?
Fuente: El Confidencial