La utilización de inteligencia artificial (IA) en la toma de decisiones judiciales ha generado un intenso debate en Colombia desde que se dictó el primer fallo en el país con la asistencia del ChatGPT.
Ahora, la Corte Constitucional ha decidido revisar este caso, lo que ha avivado aún más la discusión sobre los límites y los posibles usos de esta tecnología en el sistema judicial. La Defensoría del Pueblo ha solicitado establecer reglas claras al respecto, planteando interrogantes sobre el alcance de la IA en el ámbito legal.
El 30 de enero de 2023, el Juzgado Primero Laboral del Circuito de Cartagena emitió un fallo histórico al utilizar la inteligencia artificial ChatGPT en la elaboración de su decisión.
El caso, que resolvía a favor de una familia con un niño diagnosticado con trastorno del espectro autista, ordenaba a Salud Total EPS asumir los servicios de salud necesarios para el menor. Este fallo, el primero en su tipo en Colombia, generó un amplio debate en todo el país sobre el uso de la inteligencia artificial en la toma de decisiones judiciales.
Sin embargo, es ahora que la Corte Constitucional decidió revisar esta tutela cuando se plantea de manera más enfática la necesidad de establecer límites claros en el uso de la inteligencia artificial en el ámbito legal. La Defensoría del Pueblo, junto con los magistrados Paola Meneses y José Fernando Reyes Cuartas, resaltaron la importancia de examinar este asunto novedoso en la administración de justicia a nivel de la alta corte.
¿En qué consistía el caso?
El caso seleccionado para su revisión se centra en la consulta realizada por el juez Manuel Padilla al ChatGPT con relación a un menor de edad autista. Entre las preguntas formuladas se encontraba si el niño estaba exento de pagar cuotas moderadoras en sus terapias, si la exigencia de dichas cuotas constituía una barrera para acceder al servicio, si la Corte Constitucional había emitido fallos favorables en casos similares y en qué situaciones era pertinente conceder tutelas.
Ante la primera pregunta, la respuesta del ChatGPT fue clara: “Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficio (sic) está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud”.
¿Qué mencionó la Defensoría del Pueblo?
La Defensoría del Pueblo expresó su posición con respecto al caso en discusión y planteó importantes consideraciones sobre el uso de la inteligencia artificial en el ámbito judicial.
En primer lugar, enfatizó que si bien la normativa actual favorece el uso de herramientas digitales, esto no implica que se pueda utilizar cualquier tecnología de manera indiscriminada o sin regulación. Argumentó que permitir esto podría dar lugar a un cambio en las reglas de juego para los ciudadanos y potencialmente vulnerar el derecho al debido proceso.
Además, la Defensoría hizo hincapié en que la inteligencia artificial, en manos de operadores judiciales, requiere un máximo cuidado y control debido a su ejercicio de una función pública.
“La inteligencia artificial, instrumentalizada en las diferentes aplicaciones y aplicativos que ya se encuentran al alcance de cualquier persona, en manos de un operador judicial, exige un máximo de cuidado y control, puesto que ejerce una de las funciones públicas” añadió la Defensoría del Pueblo.
La magistrada Paola Meneses, en su criterio personal, sugirió “se debería estudiar del uso de la inteligencia artificial en el sistema jurídico a efectos de elaborar la argumentación jurídica, pues plantea una serie de desafíos y consideraciones éticas y legales, como la transparencia, la protección de diversos derechos fundamentales involucrados y mecanismos de control y supervisión adecuada”
Por su parte, el magistrado José Fernando Reyes reconoció las limitaciones arquitectónicas y de entrenamiento del ChatGPT que tendría en aquel momento, señalando que podría generar información incorrecta o sesgada al no distinguir el origen de los datos y contar con un conocimiento limitado del mundo actualizado hasta el año 2021. Destacó la importancia de tener en cuenta estas limitaciones al evaluar el uso de la inteligencia artificial en el sistema judicial.
El jurista señaló que este caso plantea una serie de interrogantes que la Corte Constitucional debe abordar con relación al uso de herramientas de inteligencia artificial como el ChatGPT en el contexto de la función judicial. Estos interrogantes se refieren a las prácticas que podrían potencialmente comprometer el debido proceso y la administración de justicia.
En última instancia, Juan Carlos Cortés, quedó a cargo del caso.