Robots sociales que aprenden y entienden tus emociones (II). Retos morales y legales

Robots sociales que aprenden y entienden tus emociones (II). Retos morales y legales
Como veíamos en el artículo anterior, parece que lo que cuenta la película Her no está tan lejos como parece. Pero ¿cuáles son los riesgos de estos sistemas de inteligencia artificial avanzados, en especial en el caso de que cuiden o interactúen habitualmente con personas más vulnerables como menores o ancianos?


Es evidente que niños y mayores son mucho más fácilmente manipulables por este tipo de sistemas, máxime si están instalados en un robot con apariencia humana, en cuyo caso podrían llegar a no darse cuenta de que están comunicándose con máquinas ¿Ponemos límites a lo que pueden hacer estas herramientas o dejamos que sean programadas para maximizar el beneficio de las empresas que las comercializan? ¿Pueden simular una conversación con un niño para obtener información sobre su familia o condicionar a un anciano para que no salga de casa porque se puede perder en la calle? ¿Nos preocupa que puedan manipular sus sentimientos apelando a las emociones?


El Consejo de Ética de Dinamarca se ha planteado si es aceptable que los robots sean diseñados para hacer creer a ciertas personas que tienen sentimientos. Se inclinan a pensar que dichos sistemas no son un problema en si mismos y recomiendan a los cuidadores de la gente más vulnerable que se aseguren de que no se pone en riesgo su dignidad. Me parece un buen principio y, sobre todo, celebro que haya países que entiendan que las cuestiones éticas son relevantes y promuevan este tipo de instituciones destinadas a generar informes que sirvan de base para un acto legislativo o un eventual debate social posterior. Ojalá cundiera el ejemplo.


Siguiendo con los temas morales, los profesores de la Universidad de Notre Dame, Laurel D. Riek y Don Howard han elaborado un código ético dirigido a las personas que desarrollan robots diseñados para interactuar con humanos, que termina con unas recomendaciones bastante razonables como que sería deseable que el comportamiento de los robots fuera predecible o que la privacidad debe ser respetada de la forma más amplia. Os dejo también un postcast de media hora con una entrevista a la doctora Riek, en la que ofrece más información sobre sus motivaciones para preparar el documento y los aspectos tratados en el código.


En cuanto a los riesgos legales, ya apuntamos algunos de ellos hace unas semanas en Replicante Legal. Me parece que las empresas que comercialicen estos robots tienen que estar obligadas a informar de forma muy clara sobre qué datos van a obtener, qué uso hará de ellos, si los va a ceder a terceros y en qué circunstancias, si el usuario podrá acceder a los datos y/o borrarlos efectivamente, así como las medidas de seguridad implementadas para impedir que el dispositivo sea hackeado. Otro punto esencial es la usabilidad: debe ofrecerse a los usuarios la posibilidad de apagarlo completamente y de configurarlo fácilmente para que sólo ejecute las acciones requeridas.


En la misma línea, un interesante artículo reciente de Hoja de Router alertaba sobre los peligros de la computación afectiva. Un número creciente de empresas y dispositivos están enfocados en detectar y procesar nuestras emociones, dado el papel tan relevante que éstas juegan en cualquier decisión de compra. Lo preocupante de este caso es que la máquina podría estar recopilando esa información sin que te dieras cuenta puesto que estos sistemas no requieren una interacción directa para cumplir su finalidad. Es evidente que si los usuarios no son plenamente conscientes de todas las implicaciones para su intimidad y privacidad de estas nuevas técnicas, difícilmente podrán ser consideradas conformes con la normativa de protección de datos.


Foto del usuario de Flickr juhansonin
Entradas relacionadas
Dejar una respuesta