¿Qué ocurre cuando un robot causa daños?

¿Qué ocurre cuando un robot causa daños?

Según Díez-Picazo y Gullón “responsabilidad significa la sujeción de una persona que vulnera un deber de conducta impuesto en interés de otro sujeto a la obligación de reparar el daño causado”.

La responsabilidad puede ser contractual (deriva de un acuerdo, verbal o escrito, entre dos o más partes) o extracontractual (que entra en juego, como nos recuerdan ambos autores, cuando el daño a un tercero se produce por transgredir el genérico deber neminem laedere, es decir, el de abstenerse de realizar un comportamiento lesivo para los demás).

Trasladando estos conceptos a la robótica, la cuestión que surge es qué ocurre si un robot causa daños. La pregunta tiene truco porque el concepto de robot es muy laxo, de manera que puede abarcar desde aparatos sencillos, como podría ser la aspiradora Roomba, hasta máquinas sofisticadas como Asimo.

El primero de los supuestos (robos monofunción) es más fácil de contestar. En materia de productos defectuosos rige en España la Ley General para la Defensa de los Consumidores y Usuarios (en adelante LGDCU), que viene a complementar el régimen general contenido en los artículos 1902 y siguientes y 1101 y siguientes del Código Civil.

El artículo 128 LGDCU señala que todo perjudicado tiene derecho a ser indemnizado por los daños o perjuicios causados por los bienes o servicios. El artículo 137 de la misma norma establece que:

Se entenderá por producto defectuoso aquél que no ofrezca la seguridad que cabría legítimamente esperar, teniendo en cuenta todas las circunstancias y, especialmente, su presentación, el uso razonablemente previsible del mismo y el momento de su puesta en circulación.En todo caso, un producto es defectuoso si no ofrece la seguridad normalmente ofrecida por los demás ejemplares de la misma serie.

El perjudicado podrá, entonces, solicitar al productor la reparación de los daños causados siempre y cuando pueda probar el defecto, el daño y la relación de causalidad entre ambos.

Ahora bien, el tema se complica un poco más cuando nos movemos al terreno de los robots inteligentes. La profesora Lilian Edwards ejemplifica determinadas situaciones nos pueden parecer de ciencia ficción pero que muy probablemente tengamos que resolver a corto plazo, en concreto: ¿qué pasaría si un humanoide militar matara a un civil? ¿Y si un robot dedicado a cuidar ancianos le indicara tomar más pastillas de las que debería? ¿Quién es responsable si un coche sin conductor es hackeado y atropella a un peatón? ¿Y si un “robot sexual” aplica las preferencias de un usuario (por ejemplo, recibir azotes) a otro y le provoca daños?

En principio, la norma aplicable sería igualmente la LGDCU porque un robot es un producto, pero las circunstancias especiales y singulares de los casos mencionados complican la respuesta jurídica, por los siguientes motivos:

a) Es probable que muchos de esos robots permitan la personalización por parte del usuario y/o la instalación de aplicaciones adicionales que le doten de funcionalidades no incluidas inicialmente en el producto, por lo que será mucho más difícil determinar qué elemento provocó el daño y por tanto ejercitar las oportunas acciones de reclamación.

b) La LGDCU establece que producto defectuoso es “aquél que no ofrezca la seguridad que cabría legítimamente esperar, teniendo en cuenta todas las circunstancias”. El punto de partida es razonable pero su aplicación puede ser complicada en determinados supuestos, por ejemplo cuando hablamos de los llamados coches autónomos o coches conectados en los no será necesaria la presencia de una persona que pilote el vehículo.

¿Qué nivel de responsabilidad en la conducción, seguridad o siniestralidad vamos a exigir a este nuevo tipo de automóviles? ¿El mismo que el de un conductor medio, el de un conductor sobresaliente u otro ad-hoc? La cuestión es relevante porque, dependiendo de dónde emplacemos el (mínimo) nivel de seguridad exigible y el de responsabilidad asociado al anterior, ponemos afectar a la disponibilidad comercial de esta nueva tecnología. Es lo que se conoce como “chilling effect”, que ya hemos comentado en algún otro artículo de Replicante.

c) ¿Cuál es el uso “razonablemente previsto” de un robot multipropósito y diseñado para vivir con humanos como Pepper? ¿Tiene sentido que las condiciones generales de uso de Pepper regulen todo lo que no es “razonable” hacer con él? ¿Qué efecto tendrían las cláusulas de exoneración o limitación de responsabilidad en estos casos? Son cuestiones difíciles de responder en este momento tan incipiente de la tecnología.

d) Pero quizá la mayor dificultad que se va a plantear es cómo aplicar el régimen de responsabilidad examinado anteriormente a algoritmos “inteligentes”, que aprenden de la interacción con las personas de su entorno y pueden ser capaces de actuar de una manera no prevista inicialmente (teoría de las propiedades emergentes). Es cierto que a día de hoy este planteamiento no es viable pero muchos de los desarrollos en el campo de la inteligencia artificial están intentando imitar el funcionamiento del cerebro humano.

¿Quién sería responsable en ese caso de actuación no prevista? ¿Debemos prohibir o limitar esta posibilidad en el momento del diseño de forma que únicamente puedan ejecutar las tareas o funciones para las que se les diseñó originariamente? Es lo que conoce como “code as law” o regulation by design”: la tecnología no es sólo objeto de regulación sino que también participa en la misma por ejemplo mediante la implementación en las máquinas/sistemas autónomos de un conjunto de requisitos éticos y legales, de forma que puedan comportarse de acuerdo con dichas reglas.

Considero que restringir a priori no es la manera más adecuada de resolver el problema y que podría impedir el nacimiento o desarrollo de nuevas tecnologías.

En cualquier caso, nos encontramos de nuevo con interrogantes complejos para los que no existe una solución satisfactoria a día de hoy. Hasta que las normas se adapten, tendrán que ser los órganos judiciales, a través de decisiones individuales, los que delimiten el terreno en el que nos tenemos que mover.

Foto del usuario de Flick SAM Nasim

Entradas relacionadas
Comentario ( 1 )
  1. Anónimo
    5 abril, 2016 at 20:28
    Responder

    Muy buen articulo!!!, muchas gracias.

Dejar una respuesta