Juez colombiano usa ChatGPT para dictar sentencia y toma una decisión humana

El juez falló a favor del niño indicando que los gastos médicos y los costos de transporte del niño deben ser pagados por su plan médico, considerando los ingresos limitados de sus padres.

Un juez en Colombia consultó al chatbot ChatGPT de OpenAI para preparar un fallo en un caso de derechos médicos de los niños, informó una estación de radio local.





Juan Manuel Padilla, juez de la ciudad caribeña de Cartagena, dijo que buscó el consejo del chatbot en un caso que implicaba excluir a un niño autista del pago de citas médicas, terapia y transporte, considerando los limitados ingresos de sus padres. Cabe señalar que también utilizó precedentes de sentencias anteriores para confirmar su decisión.

El pasado 2 de febrero, Padilla le dijo a Blu Radio que ChatGPT y otros programas similares de inteligencia artificial podrían resultar útiles para «facilitar la redacción de textos», pero «no para reemplazar» a los jueces. El 30 de enero, el juez falló a favor del niño, indicando que los gastos médicos y los costos de transporte del niño deben ser pagados por su plan médico, y escribió en su sentencia que había consultado a ChatGPT sobre el caso. El primer juzgado laboral de Cartagena argumentó que aplicó la Ley 2213 de 2022, según la cual se pueden utilizar herramientas virtuales en determinados casos.

Sin embargo, el juez no ha especificado hasta qué punto el bot generador de texto lo ayudó.

La ley colombiana permite el uso de tecnologías donde sea posible

Padilla defendió su uso de la tecnología, insistiendo en que “al hacerle preguntas a la aplicación, no dejamos de ser jueces, seres pensantes”.

En este caso, Padilla dijo que le preguntó al bot: «¿Está exonerado el menor autista de pagar las tarifas de sus terapias?». entre otras preguntas.

Respondió: “Sí, así es. De acuerdo con la normativa en Colombia, los menores diagnosticados con autismo están exentos del pago de aranceles por sus terapias”.

En 2022, Colombia aprobó una ley que sugería que los abogados públicos deberían usar tecnologías donde sea posible para hacer su trabajo más eficiente.

Como explicó Padilla:

Los jueces deben estar al tanto de la evolución de la justicia y la tecnología. Desde la pandemia, en Colombia, comenzamos a implementar tecnologías en los juzgados y esta es una ventana enorme, hoy podría ser ChatGPT, pero más adelante pueden surgir más herramientas para los jueces. Esta inteligencia artificial nos ayuda a generar oraciones muy comprensibles, con buena redacción, etcétera.

El juez también argumentó que ChatGPT realizó servicios que una secretaria brindaba anteriormente. Y lo hizo «de manera organizada, sencilla y estructurada» lo que podría «mejorar  los tiempos de respuesta» en el sistema de justicia.

‘No es ético usar ChatGPT’

Desde el lanzamiento de ChatGPT, ha sido noticia por varias razones. El chatbot de IA respaldado por Microsoft ha ayudado a producir código, ensayos, artículos de noticias, tareas de estudiantes y redacción de exámenes en segundos. También alcanzó los 100 millones de usuarios en dos meses, haciendo historia como la plataforma de más rápido crecimiento.

Sin embargo, no todos están contentos.

El profesor Juan David Gutiérrez de la Universidad del Rosario, experto en regulación y gobernanza de la inteligencia artificial, escribió en Twitter que «ciertamente no es responsable ni ético usar ChatGPT como pretendía el juez en la sentencia en cuestión».

Dijo que había hecho las mismas preguntas a ChatGPT pero que obtuvo respuestas diferentes. Gutiérrez también pidió capacitación urgente en «alfabetización digital» para los jueces.

Octavio Tejeiro, juez de la corte suprema de Colombia, le dijo a The Guardian que aunque la gente temía que los robots reemplazaran a los jueces, la herramienta probablemente sería aceptada pronto.

Así lo explicó Tejeiro:

El sistema de justicia debe aprovechar la tecnología como herramienta pero siempre dentro de la ética y teniendo en cuenta que el administrador de justicia es en última instancia un ser humano. Debe ser vista como un instrumento que le sirve al juez para mejorar su juicio. No puedo permitir que la herramienta se vuelva más importante que la persona.

Padilla también aclaró que, aunque ChatGPT es una herramienta bastante buena, “la sentencia final es una decisión propia y privada del juez”.

Es la primera sentencia a nivel nacional que ha utilizado inteligencia artificial, por lo que me sorprende, sin embargo, entendiendo la preocupación de muchos, mi decisión es completamente personal, privada y autónoma, pero la inteligencia artificial ayuda a construir una cadena de textos que ayuden a obtener la sentencia y tomar la decisión.

También agregó que los jueces en el futuro pueden seguir dependiendo de otros servicios de inteligencia para sus sentencias:

Conozco a un grupo de jueces y amigos que están muy contentos porque sabemos que este sistema nos puede ayudar a transcribir cosas que están en Internet y traerlo muy lógico y corto a lo que necesitamos.

ChatGPT en sí mismo no está seguro de brindar asesoramiento sobre asuntos legales

Irónicamente, ChatGPT no está muy seguro de sus habilidades para resolver problemas.

ChatGPT en sí mismo no está seguro de brindar asesoramiento sobre asuntos legales

Cuando le preguntamos al chatbot de IA si los jueces pueden usar la plataforma para pronunciarse sobre casos legales, no se mostró entusiasmado. Mencionó que «si bien los modelos de IA como ChatGPT pueden ayudar con la recopilación e investigación de información, no son capaces de tomar decisiones legalmente vinculantes y no tienen la autoridad para interpretar y aplicar la ley», y agregó que la resolución de casos legales debe ser hecho por un juez humano.

No te pierdas

Contenido Relacionado