Los coches autónomos están a la vuelta de la esquina. Automóviles capaces de escoger la ruta y dirigirse por sí mismos. Evitan los impactos, pero... ¿y si tienen que escoger? ¿su algoritmo de funcionamiento defenderá a los ocupantes o al bien común?.
¿Debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas?
Evitar un posible atropello de varias personas que por despiste crucen sin mirar -imaginad un trágico caso con una familia con dos pequeños- podría implicar que el software tomara una decisión trágica para nosotros: la de hacer que impactemos con algo para evitar ese atropello, y que ese impacto nos cause graves daños...o la muerte. ¿Cómo se toma en cuenta esa programación moral y ética?
Si tuviéramos una situación en la que ineludiblemente impactaremos o bien con un motorista con casco o con uno sin casco, ¿cuál debería "elegir" la programación?
Si se elige al motorista con casco, "le penalizamos por ser responsable y llevar casco", mientras que "perdonamos" al motorista sin casco que, efectivamente, está conduciendo de forma ilegal, ya que el casco es obligatorio en diversos países del mundo, incluido España. Pero claro, si se elige el impacto contra el motorista sin casco se respeta a quien cumple las normas, pero las posibilidades de que haya graves daños o muerte es mucho mayor.
¿Debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas?