El derecho penal frente a los robots.

El derecho penal frente a los robots.

Artículo escrito por Juan Pablo Nieto Mengotti. Jurista, pertenece a la carrera Fiscal

i.- Responsabilidad penal

Que un robot, al no ser persona humana, no pueda ser considerado sujeto activo del delito no implica que no interese al derecho penal. Al contrario, constituye un reto, no solo de lege ferenda, como todo progreso, en el ámbito de la ciencia penal y de la criminología. Por tanto, rechazo la expresión “responsabilidad penal de los robots” (Alejandro Sánchez del Campo ya se pronunció diciendo NO, con mayúsculas, en sus “Reflexiones de un replicante legal”). Es una tentación permanente considerar sujetos activo del delito a entes distintos del ser humano, así históricamente se ha imputado y juzgado a a animales –a donde no llega la dogmática penal alcanza el derecho procesal, como se ve en los “Procesos extraños y curiosos” de Alcalá-Zamora y Castillo, Madrid 1982 – se imputa y juzga entre nosotros a personas jurídicas, se intenta personificar a los simios (Proyecto “gran simio”, que ocupa alguna comisión de estudio en Naciones Unidas), y, ahora, aparecen los robots. Estos serán un “instrumento” del delito, y también un “objeto” del delito, nunca un “sujeto activo” de la esfera penal.

Se nos dice por los expertos que los robots pueden tener emociones, intuición, memoria e inteligencia. Que puede el robot aprender aun sin ayuda externa, de modo automático (machine learning), que puede también incorporar la experiencia a sus algoritmos de aprendizaje, que incluso últimamente se beneficia de técnicas de “aprendizaje profundo”, se vale de redes neuronales complejas, al modo humano, que le permiten la elaboración de conceptos abstractos; sin embargo, no alcanza el valor ontológico de la persona física que le permita protagonizar la autoría del delito a que se refiere los artículos 27 y 28 de nuestro código penal. El código penal no define a la persona humana, sí lo hace el código civil, y ahí no entra la inteligencia artificial.

Que el robot pueda tener “emociones”, sea esto lo que fuere, no es relevante; podría decirse que el derecho –que se debe a la razón- desconfía de las emociones, un elemento distorsionador de la conducta humana en su relaciones de alteridad, para un penalista la emoción se residencia más bien en el ámbito de las circunstancias modificativas de la responsabilidad criminal. Difícilmente se puede pasar de ahí, otra cosa son los sentimientos que se protegen en determinados ámbitos.

Si bien nos inquieta teóricamente el saber que una decisión del legislador cambie las cosas. Desde 2010 en España, por primera vez, se rompe la tradición milenaria del principio “societas delinquere non potest” –ya se había hecho en otros países de nuestro entorno- y se introduce a través del artículo 31 bis del código penal la responsabilidad personal de las personas jurídicas para determinados supuestos, y, a la vista de la jurisprudencia el Tribunal Supremo, aún hay un debate interno no cerrado sobre el alcance y fundamentación de esta novedad.

ii.- El robot como instrumento del delito

En este sentido, ya sea en la forma dolosa o imprudente de la conducta, el robot está llamado a tener entidad, y esto vale tanto para la responsabilidad penal como civil. Con respecto a la última los hechos ocasionados por la actividad del robot sujetan a una cadena de responsables a toda la doctrina del artículo 1902 del código civil que cubre la responsabilidad por riesgo y la responsabilidad objetiva. En la medida que un robot tiene autonomía y puede ocasionar daños de muy diversa índole hay que predeterminar la cadena de responsabilidad desde la fabricación hasta la venta, mantenimiento, utilización y depósito. Y en toda esta cadena habrá que buscar asimismo un garante penal.

La experiencia de los drones es interesante a estos efectos. Debe haber matrícula o registro, licencia de uso y seguro obligatorio. Por tanto la primera regulación legal va a ser la administrativa. Cuanta más autorregulación en los investigadores y fabricantes menos incertidumbres y conflictos se darán en su desarrollo práctico.

Ahora bien, el robot como instrumento del delito está llamado a plantear temas interesantes. La literatura generada por los investigadores y divulgadores distingue “robots asesinos” (LAR, “Lethal Autonomous Robots”), “robots industriales” y robots domésticos”, tres perfiles distintos de la inteligencia artificial. Ello nos permite apreciar el dolo o la imprudencia –que exige el artículo 10 del código penal- en el garante penal, el autor mediato.

Claus Roxin – “uno de los más grandes penalistas de todos los tiempos”, como definen sus discípulos españoles al antiguo maestro de la Universidad de Munich, tan influyente aquí que Gimbernat lo considera “penalista hispanoamericano”- se esfuerza en deslindar la ciencia penal de “la política, la filosofía, la moral y la religión” señalando que la función del derecho penal consiste en asegurar “una vida común sin miedo” (“Dependencia e independencia del derecho penal…”, Anuario de Derecho Penal y Ciencias Penales, Madrid, 2006), esto afecta a la ciencia y las tecnologías digitales. Es decir, los robots piensan, sienten y toman decisiones autónomas, pero no son responsables por la sencilla razón de que nuestro sentir común, de momento, nos mantiene en el convencimiento de que deben ser las personas “que están detrás” quienes deben responder de los hechos generados por la actividad de los robots.

En derecho penal cuando el “instrumento [del delito] sea incapaz de culpabilidad, obre con error (de tipo o de prohibición) o bajo coacción sólo estas circunstancias, en principio, pueden desplazar el dominio del hecho al que actúa por detrás” (STS 44/2008, de 5 de febrero, Bacigalupo), o sea, “el hombre de atrás”, en la terminología alemana.

iii.- Autoría mediata sobre hechos criminales de los robots

Lo cierto es que está previsto que en los próximos 20 años haya robots que cometan crímenes, así se expresan los científicos, y miran al jurista. Expertos en inteligencia artificial de la británica National Crime Agency y de Europol European Cybercrime Center, estiman que para el año 2040 los robots cometerá más crímenes que los humanos; esto aparte de las incidencias de los coches sin conductor (driveless cars) y los drones. No hace mucho la CNBC ha titulado la noticia “Robot with $100 bitcoin buys drugs, gets arrested, refiriéndose a un robot que, al parecer, compro ectasy (MDMA) por su propia cuenta. Pero el titular de la noticia no se corresponde con la técnica penal aplicada por las autoridades suizas, se habla de confiscación del robot y sus compras ilegales, y añade que “tres meses después fue entregado a sus titulares”. En nuestro sistema eso equivale a la intervención cautelar de una cosa mueble –el robot- en una investigación penal. Pero esos “titulares” a quienes el robot fue devuelto serían los responsables de una conducta penalmente tipificada.

La autoría mediata exige acreditar la conexión de quien tiene el dominio del hecho con los elementos objetivos y subjetivos del delito (el actus reus y la mens rea a que se refiere el derecho penal anglosajón).

iv.- El derecho penal debe esperar

Lo menos urgente es hacer una ley penal. Estamos en fase de investigación y regulación, el ámbito del derecho administrativo y del derecho privado. Pero luego, cuando cristalice esta nueva realidad hay técnicas de responsabilidad del garante de las conductas criminales protagonizadas por robots, tanto a través de criterios de imputación objetiva como de autoría mediata, determinando, en base a la regulación y la experiencia, quien es el garante con dominio sobre el hecho ejecutado por robots: no vemos al robot como sujeto sino como instrumento del delito.

Foto del usuario de Flickr Luis Perez

Entradas relacionadas
Dejar una respuesta