La inteligencia artificial debe respetar la ética

La inteligencia artificial debe respetar la ética

Que el CEO de dos compañías tan punteras como Tesla Motor o SpaceX y uno de los más brillantes científicos manifiesten públicamente su preocupación por el futuro de la inteligencia artificial, es para tomarse el tema en serio. Elon Musk además acaba de dar un paso adicional y ha anunciado una donación de 10 millones de dólares al Future of Life Institute con el objetivo de que la inteligencia artificial tenga siempre como finalidad ser beneficiosa para la humanidad.

Musk, Hawking y otros muchos científicos del MIT y expertos en tecnología han firmado una carta preparada por dicha institución en la que se aboga por asegurarse de que los cada vez más potentes sistemas de inteligencia artificial estén diseñados de forma robusta y beneficiosa para las personas y de que siempre hagan lo que se les haya ordenado. En un documento anexo a la carta, se destacan los principales escollos y las recomendaciones que hace el grupo, para tratar de conseguir un desarrollo sostenible de la inteligencia artificial. Entre otras cosas, el documento recomienda formularse las siguientes preguntas: ¿Está bien construido el sistema? ¿Se ha desarrollado el sistema adecuado? ¿Cómo evitar las manipulaciones no autorizadas? Y si falla, ¿cómo arreglarlo de la forma más eficaz?

Un poco antes, la comisión de reflexión sobre la ética de la investigación en ciencias y tecnología (CERNA)  del prestigioso Allistene hizo público un informe (en francés) sobre la ética en la investigación en robótica, que va en el mismo sentido. CERNA se centra en tres casos de uso: a) robots sociales, b) robots en el contexto médico y c) robots en el campo de la defensa y la seguridad y hace 26 recomendaciones dirigidas a los investigadores, de las cuales 17 son específicas para robótica y otras 9 tienen que ver con las ciencias digitales en general.

 

 

Siguiendo con los temas morales, recomiendo escuchar la interesante charla en TED de Gerd Leonhard (arriba). Practicamente no ofrece respuestas pero sí muchas preguntas del tipo ¿es la inmortalidad una buena idea? ¿estamos dispuestos a tener nanorobots en la sangre o acceso a internet a través del iris? ¿son los proveedores de los servicios comerciales los que deben tomar las decisiones sobre los temas éticos? ¿tiene sentido que robots sociales como Jibo sean nuestros partners?. Leonhard describe la situación como “hellven” (hell-infierno + heaven-cielo) por la mezcla de elementos positivos y negativos que implica. Destaca además la imposibilidad de prohibir este fenómeno y la asimetría entre el cremiento exponencial de la tecnología y el desarrollo lineal del ser humano.

 

Leonhard finaliza la charla recomendando tres reglas para la regulación de la inteligencia artificial:

– los seres humanos no deben convertirse en tecnología

– los seres humanos no deben ser controlados por sistemas inteligentes

– no se deben fabricar nuevas criaturas “aumentando” seres humanos o animales.

 

En la misma línea, un reciente artículo del NY Times especula sobre la posibilidad de que las normas morales de los robots puedan llegar a ser más consistentes que las de los humanos y se pregunta si vamos a externalizar los temas éticos a los robots de la misma forma que hemos hecho con muchas otras tareas humanas.

 

Foto del usuario de Flickr We Are Neo

Entradas relacionadas
Dejar una respuesta