¿A QUÉ NOS REFERIMOS CUANDO DECIMOS INTELIGENCIA ARTIFICIAL?

¿A QUÉ NOS REFERIMOS CUANDO DECIMOS INTELIGENCIA ARTIFICIAL?

By far the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.” ― Eliezer Yudkowsk.

Muchos de los artículos que escribo tienen como finalidad principal aclarar mis propias ideas sobre un determinado tema. Éste es uno de ellos. Llevo muchos años leyendo y escuchando el término “inteligencia artificial” (usaremos también la abreviatura IA en ocasiones) y creo que ha llegado el momento de recopilar algunos conceptos sobre este materia, sin ninguna pretensión de exhaustividad y con el ánimo de ser más didáctico que riguroso.

Debemos empezar por señalar que la IA es un paraguas o concepto general que agrupa distintas tecnologías, entre las que podríamos mencionar: deep learning, machine learning, cognitive computing, image recognition, creative computation, developmental robotics, natural language processing, reinforcement learning o neural networks.

La Real Academia de la Lengua define inteligencia artificial como la “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Dicho de otra forma, la IA trata de copiar la forma en la que los seres humanos pensamos y tomamos decisiones.

Cuando nos referimos a inteligencia artificial, ese proceso de decisión se podría dividir en la siguiente secuencia de pasos:

  • Búsqueda y recopilación de la información relevante, que puede estar estructurada o no y ser de muchos tipos: fotos, vídeos, textos, metadatos, datos de sensores, interacciones de voz a través de Siri u otros asistentes virtuales, etc.
  • Valoración de la misma: aquí es donde normalmente intervienen los algoritmos. Como ejemplos podríamos citar: la concesión o no de un crédito bancario a un particular, el tratamiento de los datos de los sensores de un coche autónomo o la técnica conocida como data mining (procesamiento de millones de datos históricos para encontrar algo concreto o un patrón común).
  • Toma de decisión o ejecución de una determinada acción, con o sin intervención humana.
  • Opcionalmente, uso de la experiencia adquirida en procesos pasados para aprender y perfeccionar todas o algunas de las fases anteriores.

Todas las etapas anteriores son relevantes. Si la información que se procesa es incorrecta o no está actualizada o la valoración que se hace no es buena (por ejemplo, el coche autónomo confunde a un animal o a un objeto con una persona), la decisión difícilmente será la óptima. Por ello es esencial dedicar mucho tiempo a “enseñar/entrenar” a las máquinas como hacemos con los niños, con la ventaja de que en este caso el resultado es infinitamente más escalable.

Para que puedan “aprender”, los sistemas de IA necesitan ingentes cantidades de información y un ajuste continuo para que, poco a poco, vayan haciendo lo que esperamos de ellos. Ese ajuste puede estar previamente establecido/programado pero también se puede dar el caso de que el software esté diseñado para aprender por sí mismo a través de su propia experiencia y de las interacciones que genere con el entorno.

En los últimos meses, Stephen Hawking, Elon Musk y otros expertos han alertado sobre los peligros de la inteligencia artificial. El riesgo lógicamente aumenta cuando: a) los datos se toman de fuentes abiertas (internet) frente a bases de datos predefinidas, b) el sistema no tiene unas reglas claras y tasadas sino que funciona en base a objetivos o recompensas, que se pueden alcanzar de distintas formas y c) interactúa con otros sistemas porque entonces se podrían producir lo que se conoce como emergent behaviors (comportamientos no previstos inicialmente por quien diseñó un determinado software).

Hemos visto que las distintas tecnologías que componen lo que denominamos inteligencia artificial son muy potentes cuando el objetivo es tratar millones de datos de todo tipo. Ahí reside precisamente su principal fortaleza. Lo que no han conseguido todavía esos sistemas es analizar intuiciones o emociones. Es cierto que son capaces de registrar determinados patrones de comportamiento humano como una risa o un tono de voz agitado e incluso asociarlo con ciertas emociones básicas como alegría o enfado, pero no pueden captar los matices ni, sobre todo, sentir esas emociones. Tampoco son capaces a día de hoy de poner sentido común o creatividad a su actuación.

Relacionado con lo anterior, no podemos terminar sin mencionar la diferencia entre IA débil e IA fuerte/general. La primera se focaliza en una determinada tarea y la segunda es mucho más ambiciosa. Como señala Ramón López de Mántaras, Fundador y Director del Instituto de Investigación en Inteligencia Artificial del CSIC y uno de los mayores expertos en la materia, quien introdujo esta distinción entre ambas inteligencias fue John Searle en 1980. La IA fuerte implicaría que un ordenador convenientemente programado no simula una mente sino que es una mente y por consiguiente, debería ser capaz de pensar igual que un ser humano. La IA débil, por otro lado, consistiría -según Searle- en construir programas que ayudan al ser humano en sus actividades mentales en lugar de duplicarlas.

La capacidad de los ordenadores para realizar tareas específicas mejor que las personas ya se ha demostrado sobradamente. De hecho, todos los avances logrados hasta ahora en el campo de la inteligencia artificial son manifestaciones de la IA débil. Conseguir dotar a los sistemas de inteligencia artificial de sentido común es lo que nos puede permitir dar el salto a una IA general.

No quiero terminar este artículo sin citar el final del trabajo antes referido de López de Mántaras, que por cierto resultó ganador del X Edición del Premio Novática: por muy potentes que lleguen a ser las futuras inteligencias artificiales, siempre serán distintas a las humanas ya que el desarrollo que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular de los sistemas perceptivo y motor. Ello unido a que las máquinas muy probablemente seguirán procesos de socialización y culturización distintos a los nuestros, incide todavía más en el hecho de que, por muy sofisticadas que lleguen a ser, serán inteligencias distintas a las nuestras.

Un último consejo: prácticamente todos los días salen noticias en los medios que nos ilustran sobre las inmensas posibilidades de la inteligencia artificial a corto plazo. En la mayor parte de los casos se trata de los que los angloparlantes llaman hype. Se difunde (directa o indirectamente) por las empresas que están detrás de la explotación comercial de dichas tecnologías y no suele tener mucho fundamento. Sugiero no prestar demasiada atención a esas noticias, salvo que la fuente sea un experto de reconocido prestigio.

Foto del usuario de Flickr quapan

Entradas relacionadas
Comentario ( 1 )
  1. Procurador Tenerife
    4 diciembre, 2016 at 11:59
    Responder

    Parece que las peliculas ya son realidad. ahora, cuando el software que soporta esa ia, haga algo incorrecto ¿quién es el responsable jurídico?

Dejar una respuesta