Motor.es

Alemania perfila una normativa para coches autónomos éticos

La legislación que permita que los coches autónomos circular en el futuro sin supervisión humana deben tener en cuenta las relaciones con terceros, especialmente ante la eventualidad de un accidente. ¿Quién debe sufrir los daños de una colisión si es inevitable?

7 min. lectura

Publicado: 24/08/2017 21:00

Los coches autónomos empiezan a poderse probar -no digo comercializar- poco a poco en algunas regiones o países, para que los ingenieros puedan hacer su trabajo. Les ponen una condición: siempre tiene que ir una persona atenta para tomar el control en todo momento, y esa persona es la responsable de lo que pueda ocurrir.

El que los coches puedan conducirse por sí mismos plantea una serie de problemas legales y éticos. Cuando conduce un ser humano, este es el responsable, y este es el que debe tomar decisiones teniendo en cuenta las posibles consecuencias. Las rutinas de programación también tendrán que hacer eso, y, en la medida de lo posible, sin que haya que improvisar.

Habrá situaciones en las que habrá que incumplir las normas de tráfico en pos de un bien superior

Calcula ahora el precio de tu seguro de coche

¡Infórmate!

En Alemania se está perfilando una ley que establece unos mínimos que los coches autónomos deberán cumplir. Esa y otras leyes marcarán el camino a los programadores de los coches autónomo. La normativa alemana se mete en un terreno muy interesante, y es el de a quién hacer daño si no queda más remedio.

Pongámonos en el caso de que un accidente es simplemente inevitable. La programación del coche debe evaluar las posibles consecuencias de lo que vaya a hacer para tomar una decisión, como si estuviese jugando al ajedrez. Dada la potencia de cálculo que dispone, puede prever distintos escenarios antes de ejecutar ninguna acción.

El borrador de la normativa alemana especifica que se debe evitar a cualquier precio el hacer daño a cualquier persona, sin entrar en consideraciones de edad, sexo o cualquier condición física. Eso implica que, para cumplir esa directiva, será aceptable hacer daño a un animal o provocar daños a la propiedad (para eso están los seguros).

¿Y si el accidente es inevitable y no es posible cumplir esa directiva? Es un caso un poco retorcido, pero posible, tendrá que tomar la acción que menos daño pueda provocar. En otras palabras, es preferible chocar contra un autobús que contra peatones, ya que es más difícil provocar daños a las personas por la protección que brindan las carrocerías.

Este debate nos recuerda a las famosas leyes de la robótica que enumeró Sir Isaac Asimov en una de sus obras. La razón de ser de dichas leyes es evitar que las creaciones (máquinas) se vuelvan contra sus creadores (los humanos). No está de más recuperarlas:

  1. Un robot no podrá hacer daño a un ser humano o, por omisión, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes de un ser humano, salvo que éstas entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia, en la medida en que esta protección no entre en conflicto con la primera y segunda ley.

Respetando el espíritu de estas normas, un coche autónomo hará todo lo posible por minimizar los daños que pueda provocar en una situación límite. Según vaya aumentando el grado de conducción automática el factor imprevisto tenderá a cero: conducción imprudente, errores manifiestos, alcoholemia, somnolencia... Eso está excluido del reino de la informática. Sí, puede haber fallos, pero se pueden achacar al que lo programó.

Permitidme un poco de nostalgia televisiva, y mirad los primeros minutos de este programa de finales de los 70:

Aunque las imágenes suenen a cachondeo, la idea subyaciente sigue siendo la misma: incluso el mejor de los ordenadores tendrá que hacer frente a situaciones imprevistas, y para eso deberá hacer uso de lo que se llama en informática razonamiento con incertidumbre. Para entenderlo rápido, la temperatura se puede entender como frío y calor, o que 20 grados es una temperatura más calurosa que fría: se admiten los grises.

Para cumplir la norma de no dañar a los humanos, el coche autónomo tendrá que evaluar cada caso y hacer una predicción del daño que puede hacer. Si en un caso A) hay una previsión de daño del 30% y en un caso B) del 31%, y no hay más posibilidades, elegirá la opción A). Cuando la solución perfecta no está disponible, es aceptable la mejor entre las peores.

¿Y la responsabilidad? Buena pregunta. Solo Volvo ha asumido, por adelantado, que se harán responsables de los daños que provoquen sus coches cuando estén en modo autónomo. La legislación todavía no ha ofrecido respuesta a ese interrogante. Desde luego, si la decisión que provoca daño ajeno la ha tomado una rutina informática, poco margen hay para que sea el conductor/propietario el responsable si no estaba a los mandos, eso sí, salvo que sea un problema de mantenimiento. En ese caso sí podemos hablar de responsabilidad del dueño, condujese o no.

Compártela en:

Pixel