Cuando el algoritmo toma los mandos del coche.

Cuando el algoritmo toma los mandos del coche.

De acuerdo con la Organización Mundial de la Salud, cada mes mueren más de 100.000 personas en el mundo por accidentes de tráfico y la previsión es que la cifra suba a 150.000 en el año 2020. El 90% de dichos accidentes está causados por errores humanos.

Los expertos consideran que en menos de 10 años estarán disponibles comercialmente los primeros coches 100% autónomos, es decir, que no necesiten conductor. Estos vehículos se comunicarán entre ellos y también interactuarán constantemente con los semáforos, las señales y los smartphones de los peatones. Uno de los objetivos principales de este nuevo desarrollo tecnológico es reducir drásticamente el número de accidentes. Se espera además que contribuyan a la disminución de los atascos, reduzcan el consumo global de combustible, incrementen la movilidad de personas con problemas de visión u otra discapacidad y mejoren del medio ambiente, impulsando los sistemas de compartición de vehículos.

Como no podía ser de otra manera, los coches autónomos plantean nuevos interrogantes y preocupaciones, entre ellas cómo actuar en el caso de un accidente inevitable. Por ejemplo ¿los algoritmos que controlarán estos vehículos deberían dar prioridad al bien mayor –el número de vidas salvadas– o valorar a los individuos involucrados? ¿Debería el coche sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Las preguntas no son ciertamente nuevas como nos recuerda Rocio Pérez en un artículo reciente en Teknautas. Es el clásico dilema del tranvía en versión moderna. El profesor Patrick Lin lleva años estudiándolo desde distintos puntos de vista y ha publicado varios artículos e incluso un libro (Robot Ethics) sobre el tema.

El debate es muy interesante desde un punto de vista teórico y filosófico pero no tiene solución puesto que es imposible preprogramar el software del coche para cubrir todos los eventos potencialmente posibles de una manera satisfactoria, máxime cuando estos supuestos teóricos que hemos planteado probablemente no ocurrirán de forma generalizada sino en un pequeño porcentaje de los casos.

Coincido en este punto con la opinión del profesor Bryant Walker-Smith: “la cuestión moral más importante es la rapidez con la que nos movemos”. Dado el altísimo porcentaje de accidentes mortales de tráfico causados por un error humano, lo que sería poco ético es introducir la tecnología de conducción automática demasiado despacio.

Mientras ese momento llega, creo que filósofos e ingenieros tienen que seguir profundizando juntos en estas cuestiones éticas, primero para plantear las preguntas relevantes y después para dar una respuesta consensuada a los temas tratados. Ese trabajo podría servir de base para elaborar un código de autorregulación con las reglas mínimas que deberían cumplir los algoritmos que gobiernen los coches autónomos del futuro. Lo perfecto sería hacer público ese documento antes de su aprobación definitiva y generar un debate social en el que pudieran participar todas las personas y organismos interesados, de forma que la versión final del código incorporara las aportaciones de todos los afectados.

La cuestión de la responsabilidad legal por los accidentes plantea otros interrogantes. ¿Debe ser responsable el fabricante del automóvil, el programador del algoritmo o el proveedor de mapas o de comunicaciones? ¿Qué papel juegan las empresas aseguradoras? Probablemente para contestar adecuadamente a lo anterior, debemos preguntarnos antes qué nivel de seguridad vamos a exigir a los coches autónomos ¿Debe de ser el mismo que el de un conductor medio, el de un conductor sobresaliente u otro? La cuestión es relevante porque dependiente de dónde coloquemos el listón de seguridad exigible y el de responsabilidad asociado, puede afectar a la disponibilidad comercial de esta nueva tecnología.

Es lo que se conoce como chilling effect: si las reglas son muy estrictas se perjudica la innovación y el desarrollo de los productos/servicios. Si lo situamos muy alto, los fabricantes no se arriesgarán a poner a la venta estos vehículos hasta que estén seguros de alcanzar esos niveles, lo cual puede retrasar excesivamente la disponibilidad de una tecnología que puede reportar grandes beneficios para la sociedad. Por el contrario, un nivel de responsabilidad excesivamente bajo impide que se consigan los objetivos perseguidos por la normativa, principalmente la prevención de accidentes y la adecuada compensación de las víctimas. Es un tema que se analiza con mayor detenimiento en robolaw, el informe encargado por la Comisión Europea a un comité de expertos para arrojar luz sobre los principales temas legales y éticos de los robots.

Para solventar esta cuestión sugiero que las leyes que se desarrollen para permitir la comercialización de coches sin conductor contemplen una exención de responsabilidad temporal (pongamos 5 años) para los fabricantes y proveedores que se hayan adherido al código mencionado anteriormente. Durante ese periodo se podrá evaluar el funcionamiento (real, no teórico) de los vehículos sin conductor y elaborar así la norma más adecuada para este caso.

¿Utópico? Probablemente pero lo contrario -aplicar soluciones legales tradicionales a las tecnologías disruptivas- tampoco parece la opción más aconsejable.

Foto del usuario de Flickr Terry Madeley

Entradas relacionadas
Dejar una respuesta