Sobre la regulación de la inteligencia artificial (segunda parte)

Sobre la regulación de la inteligencia artificial (segunda parte)

I would rather have questions that can’t be answered than answers that can’t be questioned. —Prof. Richard Feynman

Decía en el artículo anterior que, en numerosas ocasiones, las noticias que aparecen en los medios sobre inteligencia artificial son superficiales, poco rigurosas e inducen a confusión en lugar de ilustrar. Afortunadamente en internet se pueden encontrar también multitud de informes serios sobre esta materia. Uno de ellos es el que acaba de publicar el despacho de abogados Slaughter and May junto con la empresa tecnológica británica ASI Data Science titulado “Superhuman Resources. Responsible deployment of AI in Business”, que paso a analizar a continuación.

El documento empieza ofreciendo algunos datos interesantes. De acuerdo con el Foro Económico Mundial, la inversión global en startups relacionadas con inteligencia artificial creció entre 2011 hasta 2015 desde los 0.3 hasta los 2.4 billones (americanos) de dólares y se espera que llegue a 153 billones en el año 2020. Las dos razones que explican la reciente explosión del machine learning son el tremendo incremento de la capacidad de computación y los enormes volúmenes de datos acumulados disponibles.

El machine learning ofrece ya resultados prometedores pero todo apunta a que será capaz de desarrollar nuevas habilidades y herramientas basadas en el conocimiento adquirido anteriormente. Por ejemplo, Deep Mind ha sido capaz de reprogramar un software diseñado originalmente para optimizar el rendimiento en juegos de estrategia para conseguir mejorar el sistema de enfriado de los centros de almacenamiento de Google, con el consiguiente ahorro para el gigante de Mountain View.

Obviamente estas tecnologías plantean riesgos. El primero que menciona el informe es que haya fallos en el diseño y lo ilustra con el siguiente caso: un servicio de atención al cliente podría ser entrenado con el objetivo de minimizar el número de llamadas de quejas. Si el diseño y el entrenamiento tienen como único objetivo que aprenda las estrategias más eficaces para hacer frente a los problemas de los clientes, el sistema podría aprender y ejecutar cualquier acción que reduzca las llamadas de manera más efectiva, como mantener la línea ocupada para evitar llamadas entrantes o contestar de forma maleducada para reducir las llamadas repetitivas.

También es importante prestar atención a la información que se introduce o utiliza. El big data no debería contener bad data. Un sistema entrenado con un conjunto de datos limitado tendrá un desempeño peor que otro al que se le ha suministrado con una información más amplia y diversa. Por ejemplo, una aplicación  de fotos que ha sido entrenada con una gran variedad de rostros de animales pero un número de caras humanas limitado y no representativo de la diversidad de fotos que verá en la práctica, es probable que etiquete erróneamente a una persona como un animal, como le ocurrió a  Google fotos, que confundió a una persona de raza negra con un gorila.

El documento menciona otros problemas potenciales. Microsoft abrió una cuenta de Twitter para su bot Tay y los pocos días éste empezó a publicar mensajes racistas y misóginos. Puede parecer una broma pero el riesgo de usos incorrectos es mucho más grave en sistemas como los que regulan el reconocimiento facial en aeropuertos y pasos fronterizos o los que tienen impacto sobre los mercados financieros. Nuestra privacidad también podría estar en peligro si el sistema puede ser objeto de técnicas de ingeniería inversa que permitan acceder a datos personales sensibles, como podrían ser los de salud.

Como respuesta a los riesgos mencionados, el informe propone que sea el mercado el que se autorregule adoptando códigos de conducta sectoriales y/o estándares técnicos y no acudir a la regulación y, menos aún, a la restricción o prohibición salvo que sea necesario.

El informe concluye ofreciendo unos principios -formulados en forma de preguntas- para empresas que quieran hacer un desarrollo responsable de la inteligencia artificial o que usen algoritmos basados en esa tecnología. Por su interés, los trascribo a continuación:

  • ¿Son conscientes las personas que manejan el negocio de los fallos que se pueden producir al usar sistemas de inteligencia artificial?
  • ¿Ha implementado la empresa sistemas de monitorización y alerta en tiempo real para cuestiones relacionadas con la seguridad y el funcionamiento adecuado?
  • ¿Se puede auditar y reconstruir el proceso de toma de decisión de los algoritmos?
  • ¿Existe algún registro interno sobre quién es la persona o unidad “encargada” del algoritmo, las funciones y estructura del mismo y los servicios de la empresa que dependen de él?
  • ¿Son las predicciones que hace el algoritmo suficientemente precisas en la práctica?
  • ¿Los datos con los que trabaja son correctos y tienen un volumen y nivel de actualización suficiente?
  • ¿Están bien definidos los objetivos del sistema?
  • ¿Está protegido frente a sesgos, ataques o distorsiones?
  • ¿Cumple el algoritmo con la normativa de privacidad?
  • ¿Puede el algoritmo generar resultados discriminatorios?
  • ¿Está correctamente pactado el reparto de riesgos entre todos los proveedores o empresas involucradas? Es decir ¿está claro quién y en qué casos es responsable por fallos en el sistema de inteligencia artificial?

Obviamente el informe no da respuesta a todos los retos que plantea la inteligencia artificial pero creo que acierta al señalar los riesgos y, sobre todo, al formular las preguntas adecuadas, que nos permitan reflexionar sobre la mejor forma de avanzar con seguridad y garantías en esta delicada materia.

Foto del usuario de Flickr asvensson

Entradas relacionadas
Dejar una respuesta