ChatGPT debe revolucionar, de una vez por todas, la enseñanza del Derecho

El 30 de noviembre de 2022 Open AI, un laboratorio de investigación en inteligencia artificial, fundado en diciembre de 2015 por varios empresarios y focalizado en el desarrollo de la inteligencia artificial y su democratización, nos anunciaba el lanzamiento de su última solución: ChatGPT.

Esta tecnología encaja dentro de la categoría soluciones de de inteligencia artificial denominadas generativas, así bautizadas por su capacidad de generar conocimiento partiendo de miles de informaciones, que han sido previamente incorporadas al sistema y del aprovechamiento de varios tipos de tecnologías, como las redes neuronales, el aprendizaje automático, el aprendizaje por refuerzo y la programación en lenguaje natural.

Desde ese anuncio, el aluvión de noticias y artículos que han aparecido hablando de ella ha sido impresionante y con esta pieza, me sumo a él. En mi caso quiero hacer algunas reflexiones sobre el impacto de esta solución y de las similares -que seguro, muy pronto nos presentarán otras organizaciones tal y como están anunciando en cascada empresas como Google, Baidú o Alibaba- en el ámbito de la educación y más particularmente, en el de la educación en Derecho.

Frenesí bursátil en China por ChatGPT se enfría ante prohibición | EL ESPECTADOR

¿Qué es exactamente eso de ChatGPT?

Como decíamos, estamos ante un desarrollo informático, basado en varios tipos de soluciones que se encuadran dentro de la familia de la Inteligencia Artificial y que utiliza el Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). Se ha entrenado con grandes cantidades de datos de Internet,  escritos por humanos, incluidas conversaciones, por lo que las respuestas que proporciona pueden parecer humanas.

¿Por qué es tan interesante una solución como ChatGTP?

Pues sencillo, porque es capaz de hacer muchas cosas, muy útiles, que nos evitarán la realización de trabajos aburridos o nos evitarán errores. En resumen, nos harán más fácil nuestras vidas.  ¿Qué tipo de cosas? Veamos la lista de tareas que anuncia la plataforma, que como veréis, corresponde en muchos casos con tareas que casi a diario tenemos que hacer los juristas: Generar textos, completar o resumir textos, traducirlos a otros idiomas, convertirlos en voz o generar diálogos.  Impresionante, ¿no os parece?

Pero ¿es oro todo lo que reluce?

No, como siempre hay matices. ChatGPT no es perfecta. ChatGPT no está conectado a Internet, sino que la fuente de la que emana su conocimiento, se paró en el tiempo. Y, en ocasiones, puede dar respuestas incorrectas. Tiene un conocimiento limitado del mundo y de los acontecimientos posteriores a 2021 y también puede producir ocasionalmente instrucciones perjudiciales o contenidos tendenciosos. ChatGPT puede incluso, según ella misma señala: inventar hechos y alucinar en sus resultados y como ella misma nos cuenta, puede incurrir en todas estas situaciones perniciosas como la difusión de información errónea o falsa, la generación de  contenido ofensivo o dañino, la suplantación de identidad, la invasión de la privacidad o el spamming.

Si eres jurista y has leído esta lista de avisos que nos da la solución, seguro que han comenzado a sonarte las alarmas, pues son varios los derechos que parece podrían verse vulnerados por la solución. Se me ocurren entre otros, la igualdad y no discriminación, la dignidad, el derecho a la privacidad y a la protección de datos, los derechos de propiedad intelectual, el derecho al honor, etc.

ChatGPT: expectativas y sobreexpectativas - Aceprensa

¿Cómo afecta la existencia de ChatGTP a la educación y más concretamente a la educación en Derecho?

En mi opinión, este tipo de soluciones son o deberían ser, un antes y un después para el sistema educativo.  Es como si de pronto, tanto alumnos como estudiantes, tuviéramos la posibilidad de tener siempre a nuestro lado, un becario listo y con un carácter perfecto, a nuestra disposición las 24 horas del día y 7 días a la semana. Este becario puede hacer los deberes y exámenes mejor que la mayoría de los estudiantes. Este becario puede hacer magníficos apuntes, discursos y conferencias.  Sin embargo, como hemos visto el becario no es perfecto, no tiene respuesta para todo, aún se está “formando”. Además, ChatGTP puede contener respuestas  tendenciosas (como ha demostrado por ejemplo, el observatorio guatemalteco de delitos informáticos), es decir, ideología, a pesar de que él mismo afirma ser neutral. Algo que tiene lógica pues como hemos visto el modelo ha sido entrenado con contenidos de medios de comunicación, instituciones académicas y culturales, que inevitablemente tienen sesgos.  Adicionalmente, debemos ser conscientes de que la solución podría un día dejar de funcionar o incluso, desaparecer.  Este riesgo debe ser tenido en cuenta, pues si tenemos dependencia de algo que puede no estar un día, debemos estar pertrechados para salir adelante.

Así las cosas, si optáramos por apoyarnos como profesores o permitiéramos a nuestros alumnos apoyarse en exceso en su nuevo becario, correríamos ambos grandes riesgos que acarrearían un menor desarrollo de nuestras capacidades intelectuales o incluso nuestra dependencia intelectual.  Además, en un momento determinado, la respuesta a todas nuestras preguntas, serían las “consensuadas” por la solución de IA. No habría divergencia, solo convergencia. Algo que, a la larga, cercenaría seguro la creatividad y el desarrollo de la humanidad.

Otro tema, muy relevante en relación con ChatGPT es el de la propiedad intelectual, pues la solución es cuestionada por infringir derechos de autor. Además, algunos han expresado su preocupación por que se estén usando datos personales sin autorización para entrenar la solución. Nuestros alumnos deben comprender que ser creador de contenido original te otorga derechos y que esos derechos deben ser respetados y que los datos son de alguien.

¿Integramos ChatGTP en la enseñanza del derecho o lo prohibimos?

ChatGPT ha venido para quedarse y le van a acompañar muchas soluciones similares. No tiene sentido, por tanto, que sigamos formando a los estudiantes de Derecho bajo programas y métodos muy parecidos a los que usamos desde hace más de 50 años. El máximo directivo de Open AI, Sam Altman, en una entrevista, a la pregunta de cómo podemos preparamos para un futuro con la Inteligencia Artificial ha respondido “Con resiliencia, adaptabilidad, capacidad de aprender cosas nuevas rápidamente y creatividad (aunque habrá creatividad asistida)”. En esta frase Altman nos está regalando a los profesores unas acertadísimas pautas de lo que necesitamos enseñar: nuestros alumnos no necesitan dedicar esfuerzos a  memorizar ni a buscar información, pero sí necesitan aprender otras muchas cosas. Ante este nuevo paradigma, ¿qué podemos hacer y qué debemos enseñar para que ChatGPT y sus primos sumen y no resten en la formación en Derecho?

  1. Dejar a los alumnos las reglas claras, idealmente por escrito, y quizás a través de la firma de un código ético, sobre qué pueden y no hacer con este tipo de soluciones.
  2. Nuestros alumnos necesitan desarrollar un espíritu crítico muy superior al que nosotros necesitábamos tener cuando éramos estudiantes. En efecto, es clave enseñarles a comprender la anatomía de estas soluciones, que incluye saber quiénes están  realmente detrás, las financian, alimentan, comercializan; que intereses y motivaciones justifican su existencia; qué datos e informaciones las alimentan y quien se encarga de hacerlo o qué riesgos se derivan de su uso, como, por ejemplo, el de que un día la solución no esté disponible, la de que las respuestas que ofrezca tengan sesgo. El desarrollo de ese espíritu crítico superlativo les permitirá aprovechar lo mejor que ofrecen, pero detectar también sus debilidades y estar siempre “por encima de la máquina”. Es decir, hay que lograr que nuestros estudiantes y nosotros mismos, sigamos dominando a la máquina y no, lo contrario.
  3. No abusar nosotros mismos, como docentes, de las soluciones. Debemos predicar con el ejemplo. Hace poco me confesaba una profesora que temía estar haciéndoles adicta a ChatGPT y es que, realmente es como una varita mágica. Le pides que escriba y pum, te redacta un texto, perfecto, sin una falta.
  4. Dominar las soluciones disponibles para detectar el uso y abuso. Tenemos suerte porque ya están disponibles soluciones para pillar a quien confía en exceso en las capacidades de ChatGPT, entre otras: AI Content Detector & Checker ; AI Writing Check) y poder probarlo. Es importante que los profesores seamos conscientes del tipo de abusos que los estudiantes pueden hacer y que sepamos evitar situaciones como las que se denuncian en este artículo.
  5. Y en mi opinión lo más importante, idear nuevos tipos de tareas, pues las tradicionales, de redactar textos en respuesta a preguntas generales o temas sugeridos, puede hacerlas la máquina. Pero hay otros muchos tipos de ejercicios, que la máquina no puede hacer, ¿Cuáles son? Ahí te dejo la pregunta para que, como yo, te pongas a pensar en esa nueva “generación de tareas para el alumno” que ChatGPT no podría responder. Y te doy pistas de mis primeras conclusiones: participar en foros y chats, donde se planteen cuestiones muy concretas o ejercicios cuya respuesta dependa de hechos acontecidos en clase, que requieran datos o informaciones que no están en internet y organizar debates en clase o presentaciones seguidas de preguntas planteadas por los alumnos.

A los pocos días de presentarse la solución se inició un debate interesante: ¿debe prohibirse el uso de estas tecnologías a los estudiantes?  Aunque en varios países ya se ha prohibido su uso (como por ejemplo, en los colegios de Nueva York, en algunas universidades australianas y de la India). Mi respuesta es contundente, por supuesto que no. La solución está ahí a nuestra disposición mientras nuestros alumnos estudian Derecho y lo estará cuando finalicen sus estudios. ¿Para qué prohibirles el uso de algo que puede ayudarles a hacer mejor su trabajo? Es cierto que la solución puede hacerles trabajos, pero eso no debería ser un problema, sino una ventaja. Nuestros alumnos (y nosotros mismos, tenemos un becario, que encima, por ahora, no nos cuesta nada).

Conclusiones y propuesta para los profesores de derecho

ChatGPT está y no se va a ir y pronto tendremos junto a él, muchas más soluciones con poderes similares o incluso mejorados, que pueden permitirnos vivir mejor y ser más sabios. Sin embargo, su existencia conlleva riesgos y tanto nosotros, los docentes, como nuestros alumnos, debemos conocerlos.  Es nuestra obligación comprender bien que es chatGPT y aprender a manejar la solución; reflexionar sobre cómo podemos integrarla como herramienta de apoyo en la enseñanza y entender los riesgos que se derivan de su uso y ser capaces de identificar los abusos que se cometan por parte de los alumnos en su utilización.  El desarrollo tecnológico debe ser visto siempre como una oportunidad, pero también como una amenaza entre otros a los derechos fundamentales y a nuestro desarrollo intelectual. Estas soluciones no pueden convertirse en navajas de nuestros cerebros, ni en armas contra los derechos que tantos siglos hemos tardado en acuñar.

4 comentarios
  1. Manuel Sánchez de Diego
    Manuel Sánchez de Diego Dice:

    Últimamente es un tema que hemos comentado en la Universidad.
    Un texto escrito por inteligencia artificial no es un texto escrito por un estudiante. Es más la participación del estudiante en su elaboración ha sido 0. Al menos cuando corta y copia consigue hacerse una idea del tema.
    Las evaluaciones de los alumnos tendremos que hacerlas de forma oral, para saber si el alumno ha sido capaz de comprender y de construir un discurso sobre un tema.
    Lo positivo sería que si las fuentes son buenas, el texto sirviera como fuente…. pero me temo que como en internet todavía hay muchos errores, el programa debe ser capaz de discriminar y ofrecer un discurso coherente y no meramente generalista.

  2. Amelia
    Amelia Dice:

    No solo es útil para un estudiante. Como ciudadanos, nuestros derechos se violan con mucha frecuencia y necesitamos tener una cierta orientación sobre cómo defenderlos.
    Con el pretexto de la pandemia, muchos hemos perdido dinero en servicios contratados y no brindados y creo que una herramienta como esta podría ser útil a modo de referencia, porque no hay muchos foros de debate al respecto para compartir experiencias.

  3. James Lau
    James Lau Dice:

    See : Pranshu Verma and Will Oremus, ChatGPT sometimes makes up facts. For one law prof, it went too far—The AI chatbot fabricated a sexual harassment scandal involving a law professor — and cited a fake Washington Post article as evidence, Washington Post, 5 April 2023, https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

    “One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list.

    The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student…

    ‘It was quite chilling,’ he said in an interview with The Post. ‘An allegation of this kind is incredibly harmful.’ ”

  4. James Lau
    James Lau Dice:

    Liew Wei Li, Director-General of Education at (Singapore) Ministry of Education, Opinion: Education in a technology-transformed world—What and how we learn must evolve. It is misguided to believe that learning content in schools is unimportant as everything can be found on the Internet or by using AI tools, 8th April 2023 printed edition of Straits Times, page B3, https://str.sg/i4cS

    “ In a technology-drive age, some may say that learning content in schools in unimportant as everything can be found on the Internet or by using artificial intelligence (AI) tools. This view is misguided.

    Some content is still needed for two reasons. First, content and skills are intertwined; one cannot be developed without the other. Research has shown that critical thinking cannot exist in a vacuum Bransford et. al. and De Corte’s respective research on constructionist and situated learning found that students need to tap a sound knowledge base acquired from learning different subjects in schools to distil, discern and problem solve in various situations.

    Second, we cannot be referring to or checking facts all the time when we work or make everyday decisions. Some things must be at our fingertips for us to be productive. We must have a quick way to verify content retrieved by AI tools.

    Students and adults alike need to hone good judgment, as well as anticipate, define, and solve novel problems. They have to gather and link ideas from across domains, create new value and bring them to fruition in teams.”

Los comentarios están desactivados.