Marbury vs. Madison. Juez ponente: R2-D2 (con voto particular discrepante de C-3PO)

Hace tiempo que venía dándole vueltas a la cabeza acerca del tema objeto de este artículo, sobre todo después de leer la trilogía de Harari [1]. Y me he puesto a escribir con ocasión del reciente artículo del magistrado Pinto Palacios: “¿Pueden los robots administrar justicia?” [2]. Mi reflexión pasa por reconocer que no sabemos qué nos deparará el futuro al respecto. Bastante tenemos ahora con preocuparnos por resolver, en el corto y en el medio plazo, los problemas que nos trae la pandemia Covid-19.

Según Harari [3], “no podemos basarnos en la máquina para establecer criterios éticos relevantes: será necesario que esto sigan haciéndolo los humanos. Pero una vez que hayamos decidido acerca de un criterio ético en el mercado laboral (por ejemplo, que está mal discriminar a los negros y a las mujeres), podemos confiar en las máquinas para que implementen y mantengan ese criterio mejor que los humanos”.

Nos ilustra Pinto Palacios con un caso real, dado en los Estados Unidos: “el «caso Loomis». En el año 2013 Eric Loomis fue detenido por agentes de policía del Estado de Wisconsin (Estados Unidos) cuando conducía un vehículo implicado en un reciente tiroteo. Se le acusaba de huir de la policía y utilizar un vehículo sin la autorización de su propietario. El señor Loomis se declaró culpable de ambos delitos con la esperanza de que no tuviera que ingresar en prisión. Durante la vista para decidir sobre su libertad condicional, el Fiscal aportó un informe elaborado por el programa informático Compas, desarrollado por la empresa privada Northpointe Inc., según el cual el señor Loomis tenía un riesgo elevado de reincidencia y de cometer actos violentos. El informe concluía que el condenado representada un «alto riesgo para la comunidad».

Partiendo de tales consideraciones, el juez impuso al señor Loomis una pena de seis años de prisión y otros cinco en régimen de libertad vigilada. La defensa del condenado recurrió la sentencia alegando que se había vulnerado el derecho a un proceso con todas las garantías porque no podía discutir los métodos utilizados por el programa informático Compas dado que el algoritmo era secreto y solo lo conocía la empresa que lo había desarrollado. Sin embargo, tales argumentos no fueron acogidos por la Corte Suprema del Estado de Wisconsin. Los jueces argumentaron que, en definitiva, el programa informático se había basado únicamente en los factores habituales para medir la peligrosidad criminal futura como, por ejemplo, huir de la policía y el historial delictivo previo”.

El magistrado español estima, convenientemente, que “la utilización de la inteligencia artificial en la Administración de Justicia plantea numerosos interrogantes. ¿Quién elabora el software? ¿Qué variables tiene en cuenta? ¿Cómo se pueden rebatir sus conclusiones? ¿Puede desvelarse el algoritmo cuando esté en juego la libertad de una persona? Todas estas cuestiones redundan, en definitiva, en una mucho más trascendental: ¿estamos dispuestos a ser juzgados por máquinas? Nuestra imaginación todavía no alcanza a imaginar ese escenario. Sin embargo, si nos paramos a reflexionar un instante, pronto nos daremos cuenta de hasta qué punto la tecnología ha ido introduciéndose en el arte de juzgar. Quizá sea el momento de recordar las palabras de Marvin Minsky, padre de la Inteligencia Artificial, pronunciadas hace más de cuarenta años en la Revista Life: «Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte, decidirán mantenernos como mascotas».

Pinto Palacios basa su reflexión principalmente en el terreno de los hechos, de la prueba. A mí me gustaría introducir en el debate el tema de la formulación del Derecho, de la doctrina y, más precisamente, de la jurisprudencia. Incluso se podría introducir el tema de la producción, stricto sensu, del Derecho. Si se estima que los robots son idóneos (o pueden llegar a ser idóneos) para la administración de justicia, ¿por qué no lo van a ser para proporcionarnos las mejores leyes para administrar nuestra conducta?

Creo que no será posible. Al Derecho le pasa lo mismo, en mi opinión, que a la traducción, pues “La interpretación correcta de un texto va más allá de una cuestión sintáctica o gramática“.

Ramón López de Mántaras, profesor investigador del Centro Superior de Investigaciones Científicas y director del Instituto de Investigación de inteligencia artificial, explica que la dificultad reside en dotar a la Inteligencia Artificial de sentido común. Este conocimiento se basa en la experiencia que adquirimos las personas en las primeras etapas de nuestras vidas”[4]. Sobre las dificultades que presenta el entendimiento (incluso para traductores profesionales) de textos jurídicos escritos en lengua extranjera, Zaccaria [5] ha señalado que “esta operación no es fácil. De hecho, el traductor debe interpretar una tradición y una cultura jurídica que es diferente a la suya, enunciados jurídicos creados para formar y describir el derecho de un país determinado, acompañados por aparatos científicos y reflexiones doctrinales totalmente peculiares, sin los cuales es probable que el sentido del texto se pierda irremediablemente. Esto implica una confrontación continua entre el lenguaje técnico y el lenguaje común, para comprobar si a un caso controvertido se relaciona o no un enunciado normativo específico…”

En el terreno del arte, Pablo L. Rodríguez [6], refiriéndose a la noticia de que “Un algoritmo completa la misteriosa Sinfonía inacabada de Schubert” [7], entiende que “la Sinfonía inacabada es el resultado de una imperfección artística que fue considerada como perfecta por su autor. Por tanto, no tiene sentido ahondar en cómo la habría terminado Schubert”. Parece evidente que un robot puede (re)producir, incluso a la perfección, una obra de arte, pero no puede producir, seguramente, Las meninas de Velázquez o el Guernica de Picasso.

Parece evidente, como señala Dans[8], que “es más que posible que muchos casos sencillos que hoy son juzgados por humanos acaben siendo objeto de juicios puramente algorítmicos, que ahorren tiempo y recursos… ¿qué harán los abogados, entonces? Simplemente, situarse más allá y llevar a cabo tareas de más valor añadido. Nada que no hayamos visto anteriormente en la historia de la humanidad. El dilema de la sustitución no es el enfoque adecuado…”

A mí me parece evidente que un robot no sería capaz de elaborar la doctrina del judicial review, contenida en Marbury v. Madison. De la misma manera que no sería capaz de formular, paso a paso, el imponente edificio jurídico que a través de decisiones pretorianas ha realizado el Tribunal de Justicia de la Unión Europea, estableciendo principios como los de primacía, eficacia directa, efectividad y equivalencia, etcétera, etcétera. Ello es obra del genio de los juristas (humanos). Como dice López de Mántaras [9], “los robots funcionan con reglas que no se pueden saltar. Los humanos sí, por eso surge un Miró, un Picasso o un Bach”. Por esta lógica parece que un robot no será capaz de crear reglas, principios, y que, al menos en el ámbito jurídico, la presión económica no llegará a hacer obsoletos a los juristas (humanos), como advierte Tegmark [10].

 

NOTAS

Al respecto del título de este post: la vicepresidenta del Tribunal de Justicia de la Unión Europea, Silva de Lapuerta, no es partidaria de que haya votos particulares en las sentencias del Tribunal de Justicia de la UE: “Yo no soy partidaria de que haya votos reservados en el Tribunal. Tienen que pensar que estamos en un Tribunal que está compuesto por miembros procedentes de distintos países y yo creo que eso llevaría a identificar una determinada tendencia o un determinado voto en función de la nacionalidad. Y eso no es bueno. Porque aquí nos olvidamos, desde el momento en que entramos por la puerta de qué nacionalidad somos cada uno. El otro elemento es la fuerza de nuestras sentencias cuando respondemos a una cuestión prejudicial. ¿En qué medida un juez nacional se va a ver vinculado por una sentencia nuestra si –pensemos que es una sentencia de una sala de cinco jueces– hay tres a favor y dos votos reservados? Creo que eso dañaría la eficacia y la fuerza de nuestras sentencias, por lo tanto, creo que el sistema está muy bien como está”. Sobre los votos particulares, puede verse: Ibáñez García: “¿Deben permitirse los votos particulares en el TJUE?”.  Diario La Ley,  Nº 9560, 2020.

[1] “Sapiens”; “Homo Deus”; “21 lecciones para el siglo XXI”. Penguin Random House Grupo Editorial. https://www.penguinrandomhouse.com/authors/2138691/yuval-noah-harari

[2] Diario La Ley, nº 9808, 11 de marzo de 2021. https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1CTEAAmMjIxMLc7Wy1KLizPw8WyMDI0MgMlfLy09JDXFxti3NS0lNy8xLTQEpyUyrdMlPDqksSLVNS8wpTlVLTcrPz0YxKR5mAgDFUrT7YwAAAA==WKE

[3] “21 lecciones para el siglo XXI”.

[4] “¿Qué impide a la IA producir traducciones perfectas?”. Artículo de Poz Aranda. https://www.lavanguardia.com/tecnologia/20210212/6235165/barrera-ia.html#:~:text=La%20complejidad%20del%20lenguaje%20dificulta,que%20interprete%20correctamente%20cada%20mensaje.&text=El%20desarrollo%20del%20aprendizaje%20profundo,tecnol%C3%B3gicas%20en%20todas%20las%20disciplinas

[5] “Hermenéutica jurídica, comprensión del derecho, traducción”. http://www.racmyp.es/R/racmyp/docs/corr/2014%20Zaccaria%20texto%20ingreso1.pdf  . 11 de julio de 2014.

https://ecjleadingcases.files.wordpress.com/2017/06/ibanez_garcia_las-lenguas-2017.pdf

 

[6] “Una empresa inútil”. El País, 4 de febrero de 2019. https://elpais.com/cultura/2019/02/04/actualidad/1549309286_187427.html

[7] https://elpais.com/cultura/2019/02/04/actualidad/1549284459_079024.html Jesús Ruiz Mantilla, 4 de febrero de 2020.

[8] ¿Sustituirán las máquinas a los abogados? Abogacía Española, febrero 2018.

[9] “Eso de que los robots puedan rebelarse es una tontería”. El mundo, 25 de marzo de 2028.

[10] “Hay una gran presión económica para hacer obsoletos a los humanos”. Entrevista de Mediavilla. El País, 13 de agosto de 2018. https://elpais.com/elpais/2018/08/07/ciencia/1533664021_662128.html