Motor.es

Google paró el desarrollo de sistemas autónomos de nivel 3 porque los conductores se distraían

Responsables del proyecto Waymo de Google han revelado que abandonaron el desarrollo de sistemas de conducción autónoma de nivel 3 porque los probadores se dormían o distraían demasiado al volante, por lo que decidieron no desarrollar ningún sistema que requiriese de intervención humana.

4 min. lectura

Publicado: 02/11/2017 08:00

El Firefly de Google.

Responsables de Waymo, el proyecto de Google de sistemas de conducción autónoma, han revelado que desistieron de desarrollar un sistema de nivel 3 porque durante las pruebas comprobaron que los conductores probadores no solo llegaban a despistarse sobremanera, sino que llegaban a adormecerse.

Esta no es la primera vez que vemos un informe semejante. Hace solo unos meses Ford tuvo que desmentir unas declaraciones que aseguraban que los ingenieros se dormían durante las pruebas de sus prototipos autónomos. Recordemos que hasta ahora, en cualquier prototipo dotado de este sistema, de cualquier nivel o grado de automatización, siempre ha habido uno o dos ingenieros para monitorizar el sistema y llegar a tomar el mando del vehículo en caso necesario.

Recordemos que un sistema de nivel 3 todavía requiere que el conductor preste atención en todo momento, tanto a la circulación como al funcionamiento del sistema, pues este solo opera en determinadas circunstancias. Y en un momento de emergencia el conductor debe estar preparado para tomar los mandos, por lo que no solo debe estar atento, además es el único responsable en última instancia.

Calcula ahora el precio de tu seguro de coche

¡Infórmate!

Uno de los Chrysler Pacifica de Waymo.

En un principio, Google pensaba desarrollar un sistema de nivel 3, no solo porque sería más rápido y sencillo que un sistema de nivel 5 o completamente autónomo, sino para tener algo que poder comercializar antes. Sin embargo, al monitorizar a los pilotos descubrieron que muchos se despistaban con facilidad (algunos usaban su móvil y en algunos casos hasta se maquillaban mientras el sistema estaba en marcha) por lo que llegaron a la conclusión de que contar con el factor humano era demasiado peligroso y que podía ser toda una fuente de problemas judiciales. Si los propios ingenieros o pilotos probadores podían despistarse mientras estaban siendo vigilados, que no haría un usuario en la intimidad.

La conclusión a la que llegó la compañía fue la de centrarse exclusivamente en sistemas de automatización completa, en la que el conductor no intervenga para nada. Lo cual también tiene sus inconvenientes, pues recientemente pudimos saber que en la práctica totalidad de accidentes (con otros vehículos) en los que se ha visto involucrado un vehículo autónomo de pruebas se ha dado el caso que el vehículo no era capaz de predecir los errores del resto de vehículos, conducidos por humanos.

Ya que si bien el sistema el sistema entiende como se debe circular correctamente, no es capaz de preveer que el resto de conductores de la vía no lo hagan. Por lo que ahora los ingenieros están centrando sus esfuerzos en enseñar a los sistemas a conducir como seres humanos, en el intento de que el sistema pueda prever errores de otros vehículos.

Pixel