Coches autónomos. Dilema ético

emrcia

Administrador
Miembro del equipo
Los coches autónomos están a la vuelta de la esquina. Automóviles capaces de escoger la ruta y dirigirse por sí mismos. Evitan los impactos, pero... ¿y si tienen que escoger? ¿su algoritmo de funcionamiento defenderá a los ocupantes o al bien común?.

Evitar un posible atropello de varias personas que por despiste crucen sin mirar -imaginad un trágico caso con una familia con dos pequeños- podría implicar que el software tomara una decisión trágica para nosotros: la de hacer que impactemos con algo para evitar ese atropello, y que ese impacto nos cause graves daños...o la muerte. ¿Cómo se toma en cuenta esa programación moral y ética?
Si tuviéramos una situación en la que ineludiblemente impactaremos o bien con un motorista con casco o con uno sin casco, ¿cuál debería "elegir" la programación?
Si se elige al motorista con casco, "le penalizamos por ser responsable y llevar casco", mientras que "perdonamos" al motorista sin casco que, efectivamente, está conduciendo de forma ilegal, ya que el casco es obligatorio en diversos países del mundo, incluido España. Pero claro, si se elige el impacto contra el motorista sin casco se respeta a quien cumple las normas, pero las posibilidades de que haya graves daños o muerte es mucho mayor.

¿Debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas?
 

Adjuntos

  • coche-autonomo.jpg
    coche-autonomo.jpg
    29,6 KB · Visitas: 462
Respuesta: Coches autónomos. Dilema ético

Precisamente es esta cuestión la que mantendrá alejados de las calles a los coches autónomos durante bastante tiempo. La tecnología que permita conducir con la misma seguridad a una máquina que a una persona ya está cerca, pero la necesidad de asignar responsabilidad a una actividad que genera tantas pérdidas materiales y humanas, y el retraso entre la legislación respecto al avance tecnológico mantendrá durante varios años estos vehículos en circuitos cerrados, o al menos con supervisores humanos.

Un vídeo muy ilustrativo al respecto (traducción automatizada de subtítulos en CC>Translate captions>Spanish):

 
Respuesta: Coches autónomos. Dilema ético

Al hilo de esta discusión: Las tres leyes de la robótica.

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

3. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley

EPSRC / AHRC principios de la robótica

En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (Engineering and Physical Sciences Research Council, EPSRC por sus siglas en inglés) y el Consejo de Investigación de Artes y Humanidades (Arts and Humanities Research Council, AHRC por sus siglas en inglés) de Gran Bretaña publicaron conjuntamente un conjunto de cinco principios éticos "para los diseñadores, constructores y los usuarios de los robots en el mundo real, junto con siete mensajes de alto nivel", destinado a ser transmitido, sobre la base de un taller de investigación en septiembre de 2010.

1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:

1. Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
2. La mala práctica nos perjudica a todos.
3. Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
5. Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
6. Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
7.Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

Interesante discusión
Saludos
 
Respuesta: Coches autónomos. Dilema ético

La lista de cosas que los coches autónomos de Google no saben hacer

Los impresionantes progresos impiden ver las principales limitaciones a las que se enfrenta para lograr la conducción automática

Los peatones se detectan simplemente como borrones de píxeles en movimiento en forma de columna, lo que significa, según admite Urmson, que el coche no podría detectar a un policía en la acera moviendo los brazos frenéticamente para detener la circulación.

Los sensores del coche no saben si un obstáculo en la carretera es una piedra o un trozo de papel arrugado, así que el coche intentará rodearlo en cualquiera de los dos casos. Urmson también explica que el coche no puede detectar socavones o una alcantarilla descubierta si no están marcados por conos.
 
Atrás
Arriba