EL SESGO DE LOS ALGORITMOS

EL SESGO DE LOS ALGORITMOS

“Vamos hacia el gobierno de los algoritmos” leo en Twitter que ha dicho el juez Eloy Velasco en una charla reciente. Es la misma tesis que sostiene Carlos Elías en su más que recomendable libro “El selfie de Galileo”.

Empecemos por definirlos. Simplificando mucho podemos decir que un algoritmo es un software con una secuencia de instrucciones para ejecutar una determinada tarea. ¿Y por qué son tan importantes? Básicamente porque son los responsables de la elaboración de perfiles que evalúan nuestros aspectos personales (rendimiento en el trabajo, situación económica, salud, preferencias o intereses, fiabilidad y en general la situación de un individuo y de su familia) y de la toma de decisiones basadas en esa información. Dicho de otra manera, son los responsables –entre otras muchas cosas- de que te concedan o no un crédito bancario o de la cuantía de la prima que te corresponde pagar por el seguro del coche.

El problema es que los algoritmos no siempre funcionan como deberían, lo que puede ser debido a los datos de los que se alimentan o la forma en la que éstos se procesan o valoran. Veamos algunos ejemplos.

  • En el mismo sentido, una investigación publicada recientemente por ProPublica reveló que el software más utilizado en EEUU para evaluar el riesgo de reincidencia de los delincuentes tenía el doble de probabilidades de señalar erróneamente a ​individuos de raza negra como personas con un mayor riesgo de cometer crímenes en el futuro y a la inversa, las personas de raza blanca tenían la mitad de posibilidades de ser declarados reincidentes por dicho software.

El asunto no es baladí. Prácticamente todas las semanas vemos en las noticias muertes o altercados provocados por la tensión racial que se vive actualmente en EEUU. Que los algoritmos estuvieran sesgados implicaría que la tecnología no solo no estaría ayudando a resolver problemas sino incluso contribuyendo a agravarlos.

Los defensores de las técnicas algorítmicas como la minería de datos, argumentan que estas soluciones eliminan los prejuicios humanos en el momento de la toma de decisiones, pero como se explica detalladamente en un informe titulado “El impacto desigual del big data”, un algoritmo es tan bueno como los datos con los que trabaja. Los datos son frecuentemente imperfectos en formas que permiten que dichos algoritmos hereden los sesgos de quienes tomaron las decisiones anteriores. En otros supuestos, los datos pueden reflejar simplemente los prejuicios generalizados que persisten en la sociedad. En cualquier caso el problema, como señala el informe, es que la discriminación provocada por el algoritmo es casi siempre una propiedad emergente y no intencionada derivada de la utilización del software, en lugar de una elección consciente de sus programadores y por ello puede ser extraordinariamente difícil identificar la fuente del problema.

¿Qué hacemos frente a esta situación? Una opción sería que los algoritmos vigilen a los algoritmos, al estilo de las aplicaciones que están proliferando en Silicon Valley para detectar las discriminaciones en los procesos de contratación o de evaluación de los trabajadores. Otra posibilidad es obligar a las empresas que usan esos algoritmos a ser más transparentes y ofrecer más información a las personas afectadas por los mismos. Esa es precisamente la línea que sigue el nuevo Reglamento de protección de datos europeo que entrará en vigor en 2018.

Los artículos 13.2.f) y 14.2.g) de la norma obligan a informar al interesado, tanto si los datos personales se han obtenido a través del mismo o no, sobre “la existencia de decisiones automatizas, incluida la elaboración de perfiles, a que se refiere el artículo 22, apartados 1 y 4, y, al menos en tales casos, información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado.” El artículo 15.1.h) de la norma establece el derecho de acceso a dicha información.

Además, el artículo 22 del Reglamento señala que “todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”, excepto si la decisión: a) es necesaria para la celebración o ejecución de un contrato entre interesado y responsable, b) se basa en su consentimiento explícito o c) está amparada por alguna norma. En los dos primeros casos el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión.

Vemos claro por tanto el interés del legislador comunitario en acotar la posibilidad de elaboración de perfiles basados en decisiones automatizadas. Tengo curiosidad por saber cómo van a actuar Google, Facebook, Netflix o Amazon cuando una persona, al amparo del derecho de acceso consagrado en el artículo 15.1.h) antes mencionado, les requiera “información significativa sobre la lógica aplicada” por sus algoritmos.

Los algoritmos de las compañías punteras de internet son uno de sus mayores secretos y, en muchos casos, la base sobre la que sustentan su liderazgo. El problema es que, como hemos visto, es prácticamente imposible que no tengan fallos o desviaciones y ello puede tener impacto enorme en nuestras vidas puesto que el mundo es cada vez más digital.

Si es verdad que queremos una red abierta, transparente y neutral, creo que el tema de los algoritmos debería recibir una mayor atención por parte de los usuarios y los reguladores.

Foto del usuario de Flickr donnierayjones

Entradas relacionadas
Dejar una respuesta