Cuando hablamos de los coches autónomos, ya dijimos que la mayor barrera que tiene su implantación y popularización es el propio ser humano. Los conductores no parecemos dispuestos a renunciar a la sensación de libertad y poder inherentes a la conducción, otros usuarios se muestran recelosos ante la posibilidad de perder el control total del vehículo, y otros muchos temen la pérdida de miles de puestos de trabajo en profesiones como la de camionero o taxista.
A todas estas “barreras humanas” se suma un dilema que lleva tiempo planteándose en el campo de estudio del vehículo autónomo, y que recientemente ha vuelto a la primera línea de debate a raíz de un estudio publicado en la revista Science el pasado mes de junio. Dicho estudio planteaba la siguiente pregunta: Programar la toma de decisiones de los vehículos autónomos, ¿en base al interés propio o al general? O dicho de otra manera: En caso de riesgo de atropello, ¿salvar a los pasajeros o a los peatones?
El dilema moral: ¿Atropellarías a un peatón para salvarte a ti mismo?
Este dilema de los coches autónomos nos retrotrae a un dilema mucho más antiguo: ¿mataríamos a una persona por salvar nuestra vida? Las personas en general mostramos una alta sensibilidad al bienestar del prójimo, y encuestas como la del caso del tranvía en marcha demuestran un fuerte rechazo de la sociedad a poner en peligro la vida de los demás. Sin embargo, la experiencia nos dice que nuestro instinto de supervivencia y el sentimiento de protección de nuestros seres queridos (incluidas mascotas) nos pueden llevar a anteponer nuestro propio interés al de terceras personas.
Es un dilema moral y ético que trasciende incluso los límites de lo normativo: ¿pegarías un volantazo a riesgo de estrellarte contra un muro, para evitar atropellar a un grupo de escolares? ¿Y si esos escolares han cruzado la carretera indebidamente y el accidente es culpa de ellos? Incluso con antecedentes de casos de familias afectadas que han tenido que indemnizar por daños al vehículo del conductor que atropelló a los escolares, el propio instinto de supervivencia y la conciencia de cada uno prevalecen por encima de la ley a la hora de tomar la decisión de pegar el volantazo o no.
Ya sabemos que nos alejamos del punto de vista más técnico que solemos abordar en este blog, y que nos adentramos en el pantanoso campo de la psicología y de la moral humana; pero como hemos dicho otras veces, son tres los elementos que intervienen en el tráfico, y el conductor es uno de ellos, con sus hábitos, su comportamiento, sus defectos… Y no se pueden obviar en la pelea por mejorar la seguridad vial de nuestras carreteras.
El dilema moral de los coches autónomos: ¿debe salvar a los pasajeros antes que a los peatones?
Este instinto de supervivencia y de protección de nuestros seres queridos, es completamente contrario a la tendencia general que prevalecerá en el comportamiento de los vehículos autónomos. Aunque estudios como el ya comentado arriba demuestran que preferimos que la inteligencia de estos coches tenga una moralidad utilitarista y busque minimizar los daños de un accidente (esto es, mejor matar al conductor que atropellar a los 10 escolares), la mayoría de los encuestados asegura que no compraría un coche que pudiese hacer esto con ellos mismos.
Aunque los gobiernos y las instituciones como la DGT busquen siempre el bien común y minimizar en todo caso los efectos de los accidentes de tráfico, en el caso de los vehículos autónomos parece que tienen la batalla perdida de antemano frente a los fabricantes. Estos, que siempre buscan hacer sus productos más atractivos y no están dispuestos a incluir características que produzcan rechazo en el consumidor, ya están organizados en un poderoso lobby para influir en las decisiones políticas que están por venir.
Así pues, la pregunta es: ¿deben los fabricantes programar los vehículos autónomos para superar nuestro interés más egoísta, y tomar las decisiones más acertadas para el conjunto de los ciudadanos? ¿O deben estar programados para velar a toda costa por la protección de sus usuarios?
Es un debate que nos recuerda a las leyes de la robótica propuestas por Asimov en sus novelas de ciencia ficción (como ya trataron de analizar nuestros compañeros de Xataka). Y pretende ir más allá, al panorama de un futuro en el que los vehículos dejarían de ser particulares y formarían parte exclusivamente de una red de transporte público integral. ¿Haremos pues uso de estos sistemas de transporte, si sabemos que están programados para matarnos a nosotros antes que a otros?
Conclusiones
A todo este respecto, Nokia y su división HERE argumentó que la solución podría estar en lo que ellos llaman Conducción Humanizada (o según este artículo, “conducción estúpida”), esto es, implementar comportamientos humanos en la inteligencia artificial de los vehículos autónomos. Pero lo que pretende ser la emulación de decisiones humanas instintivas, podría verse reducido a un simple cara-o-cruz totalmente aleatorio en el que la suerte estaría demasiado implicada.
En todo caso, es una pena que dilemas morales de este calibre puedan afectar a la popularización de los coches autónomos o, al menos, frenar su desarrollo. No olvidemos que el 90% de los accidentes de tráfico se deben a errores humanos, y que éstos podrían ser subsanables en gran parte en un futuro con la implantación de los coches autónomos.
En Circula Seguro | Obstáculos que los coches autónomos aún no pueden evitar