Sin transparencia, no puede haber inteligencia. Tampoco artificial

A menudo, cuando me invitan a hablar de inteligencia artificial o de modelos algorítmicos aplicados a la gestión pública, me gusta empezar relatando una noticia de hace casi 6 años, cuando esta materia ya empezaba a bullir. En abril de 2018 los medios de comunicación se hacían eco de la candidatura de Michihito Matsuda a las elecciones en un distrito de la ciudad de Tokio. La noticia carecería de todo interés si no hubiera sido porque Michihito, un robot operado por inteligencia artificial, quedó en tercer puesto, lo que recurrentemente me lleva a preguntarme si hoy por hoy confiamos más en la gestión que podría llevar a cabo una máquina que la que podría realizar cualquiera de nuestros congéneres humanos.

La noticia nos puede dar pie a múltiples reflexiones, pero en lo que a mí más interés despierta, me hace a cuestionarme sobre qué es lo que mayor o menor confianza nos despierta en quien tiene que tomar una decisión que afecta a nuestra esfera de derechos. Dependiendo de nuestra escala de valores o prejuicios, que en buena medida vendrán dados por nuestra educación, experiencia o contexto social, habrá múltiples factores. Pero habrá seguramente uno común que aparecerá en todas las respuestas y es la capacidad de explicar por qué razones, por qué motivos la decisión se ha tomado. Está claro: confiamos más en quien puede explicar su conducta, su forma de actuar. O, también, de quien entendemos sin necesidad de ninguna explicación, por su obviedad, la respuesta a una pregunta. Confiamos en lo que entendemos, lisa y llanamente.

Esto mismo, aplicado a la gestión pública, actúa con iguales premisas, si bien cuando la actuación limita o perjudica nuestros derechos e intereses, siempre la recibimos con una natural resistencia o desagrado. Esto es humanamente comprensible, aun cuando la decisión proceda de una máquina, y no de una persona.

Este razonamiento viene al hilo, esencialmente, del intenso debate sobre las posibilidades que tienen o no los sistemas de decisión automatizada de poder explicar cómo operan, como actúan, y de que todos seamos capaces de entenderlo. Nos ha llevado siglos conseguir que la motivación de las decisiones administrativas fuera una de sus garantías indispensables para salvaguardar nuestro derecho a defendernos ante ellas, tanto más cuanto más discrecionales son, como para poner ahora en cuestión que este no deba ser un requisito también cuando la decisión la toma un algoritmo. No podemos admitir una rebaja de esta exigencia cuando el diseño de estas herramientas corresponde también a personas.

Lo cierto es que la Administración ya aplica soluciones algorítmicas «regladas», simples fórmulas, para resolver un número muy importante de procedimientos que, en caso de exigir la intervención humana, ralentizarían de una forma significativa, si no fatalmen­te, una gestión mínimamente eficiente. Y no es menos cierto que de una manera cada vez más creciente empieza a utilizar otro tipo de instrumentos de inteligencia artificial cuyas condiciones de explicabilidad son menores, hasta el punto de poder calificar algunos de ellos de verdaderas cajas negras, lo que razonablemente empieza a suscitar importantes recelos ante el temor de que puedan vulnerar derechos fundamentales o arrojar soluciones injustas o inequitativas. La cuestión es que, como todos los expertos advierten, hay una relación inversa entre explicabilidad y rendimiento de los modelos, tal que cuanto más sofisticados resultan ser —esto es, más valor pueden añadir a lo que la mente humana ya hace—, más difícil es saber cómo operan o actúan.

Y aquí es donde el pánico puede hacer que nos agarremos a la butaca porque el vértigo no es pequeño. Para empezar: ¿sabemos cuáles de estos sistemas o modelos están utilizando las administraciones actualmente? ¿En qué procedimientos? ¿Resuelven por sí solos, sin intervención humana, o son únicamente predictivos, sirven de ayuda para que la persona tome la decisión? Hoy por hoy no sabemos nada. Como solemos bromear cuando alguien es el último en enterarse de su propia defunción, solo la prensa nos saca de dudas cuando trae a primera página algún conflicto relacionado con este asunto.

Salvo honrosas excepciones, no existen en nuestro derecho normas que obliguen a algo tan simple como la publicidad de un listado de este tipo de herramientas. Y las poquitas que existen, aun están pendientes de cumplirse. Ya no digamos, saber cómo funcionan. Tampoco crean que este es un estándar internacional asumido y que somos los últimos en enterarnos o cumplir, como es tradición ya en otras materias. No, tampoco han avanzado mucho más fuera de nuestras fronteras. Hace un par de años, la Oficina Digital y de Datos británica publicaba una plantilla para ayudar a las administraciones a dar una información estándar sobre cada sistema de inteligencia artificial. En esa plantilla -también denominadas en el argot técnico “tarjetas modelo”-, de uso no obligatorio, se incluía una descripción no técnica del sistema (el porqué de su utilización, cómo funcio­na y qué problema trata de resolver) y otras más técnica (quién es el responsable y titular, para qué se ha di­señado, cómo influye en la toma de decisiones, si está supervisada por huma­nos, su impugnación, datos que utiliza, evaluaciones de impacto realizadas, descripción de riesgos y acciones previstas para mitigarlos).

A nivel de grandes ciudades, el Observatorio Global de Inteligencia Artificial Urbana identifica también algunas buenas prácticas en este sentido, como es el caso de Amsterdam o Helsinki, que poseen registros de algoritmos, siendo Barcelona o el Consorcio de Administración Abierta catalán las administraciones que están dando mayores pasos en esta dirección de dar mayor publicidad y transparencia en el uso público de esta nueva tecnología en nuestro país. Al margen de ellas, son algunos de nuestros comisionados y consejos de transparencia, a semejanza de lo que homólogos suyos, como la Comisión francesa de acceso a los documentos administrativos, y algunos tribunales de otros países europeos, quienes están demandando más garantías en este terreno.

De lo que no cabe duda es que las administraciones ya están utilizando esta tecnología y cuanto más tardemos en hincarle el diente a esta cuestión, más difícil será hacerlo. El desarrollo de estos sistemas parece imparable sin que las garantías estén establecidas, ni siquiera planteadas. ¿Qué quieren que les diga? Para los que nos confesamos adeptos de las tesis humanistas en el desarrollo de esos sistemas, el asunto no deja de darnos un poquito de pavor sin querer meter miedo a nadie.

1 comentario
  1. O'farrill
    O'farrill Dice:

    La cuestión básica es que, en las relaciones humanas, se parte de un principio de responsabilidad personal o colectiva que puede trazarse sin mayores problemas. Cada institución tiene sistemas reglados que garantizan que el acto administrativo, judicial o de mero trámite, no puede ni debe ejecutarse sin cumplir la debida neutralidad (hasta aquí la teoría) aunque en la práctica, dada la imperfección del ser humano ejecutante, se esté sujeto a todo tipo de errores, negligencias, preferencias ideológicas, etc. etc. Algo que un sistema mecánico parece superar pero…. ¿quien nos dice que el humano que lo diseñó no dejó en el sistema sus propias incapacidades, negligencias o caprichos personales?
    Al final siempre nos encontraremos con artilugios que pueden alterar, modificar e incluso falsear por ejemplo resultados electorales (ya se hacía en USA en la época de Kennedy, donde el patriarca de la familia alardeaba de haber votado varias veces en la misma convocatoria y ha seguido hasta nuestros días donde los recuentos de votos tienen más sombras que luces).
    La venalidad de la máquina recibe la de quienes la diseñan o programan desde la honestidad o desde la maldad, buscando resultados acordes con sus objetivos personales.
    El Club de Roma se metió en estas cuestiones con sus límites al crecimiento de la población para certificar que en la década de los 80 ya no habría alimentos en el mundo a través de los avanzados procesos algoritmicos del Instituto de Tecnología de Massachusets. Pues bien llegó el momento y la población seguía tan feliz alimentándose sin ningún problema.
    Esto aplicado a teorías como las del calentamento global o cambio climático, está dejando a los calentólogos mundiales con los calzones caídos (ayer en Noruega -43º C, en la Antártida son habituales estas cifras hasta llegar a mínimos de unos -90ºC). No, el Artico no se funde porque es un espacio permanentemente fundido lleno de bloques de hielo, pero…. se anunció a través de las más novedosas tecnologías de IA la catastrófica inundación de ciudades costeras (N. York ya debería estar sumergida desde el año 2010 por ejemplo). El CO2 atmosférico, fuente de los orígenes y mantenimiento de la vida en la Tierra, se ha vuelto malo (según las nuevas ideas tecnológicas, que esconden puro negocio), olvidando que la fotosíntesis de las plantas para la que es necesaria e imprescindible la presencia de CO2 en su producción de oxígeno para la vida en el planeta. Allí donde las máquinas vaticinaban destrucción de la masa vegetal, hay procesos de reforestación que llegan a cubrir de nuevo los espacios yermos de la corteza terrestre(así lo atestiguan las fotos de la NASA).
    En fin, la gran trampa es sustituir responsabilidades humanas reales a responsabilidades artificiales de las máquinas que, según dicen, nunca se equivocan pero cuyos fallos permanentes sufrimos en nuestra vida diaria. No hace falta comentarlos.
    El pensar que todo consiste en legislar todas estas cuestiones, demuestra hasta qué grado de estupidez puede llegar la especie humana actual en su pretenciosa soberbia. Pero para eso nos han preparado y siguen preparando.
    Apagar las máquinas y encender los cerebros es fundamental para la supervivencia humana.
    Un saludo.

    Responder

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *