Noticias
7 de October de 2024
Resumen de la Sentencia T-323 de 2024 de la Corte Constitucional de Colombia sobre el uso de IA por jueces de la República
Por: Luisa Fernanda Herrera Sierra - Docente Investigadora de la Universidad Externado de Colombia
Introducción:
En esta nota se ofrece un resumen y comentarios acerca de la Sentencia T-323 de 2024, que aborda el uso, que aborda el uso de la inteligencia artificial (IA) por jueces en Colombia. Esta sentencia plantea cuestiones importantes sobre la relación entre la tecnología y el derecho, y particularmente, se enfoca en analizar el impacto que la IA puede tener en la independencia e imparcialidad predicable y exigible a los jueces, y si su uso podría vulnerar el debido proceso. El fallo examina los riesgos asociados con el uso de la IA, como ChatGPT, en la toma de decisiones judiciales y establece criterios clave para su aplicación en aras de no afectar la garantía de una adecuada administración de justicia como derecho fundamental.
La Sentencia T-323 de 2024 fue producto de una revisión realizada por parte de la Corte Constitucional, en virtud de su facultad de seleccionar y revisar los casos y fallos en tutelas que considere de especial relevancia para su desarrollo jurisprudencial, caso en el cual se exceptúa el carácter provisional de tales decisiones derivados de una tutela.
Definición de la Acción de Tutela:
En el sistema jurídico colombiano, la acción de tutela es un mecanismo constitucional consagrado en el artículo 86 de la Constitución Política de 1991, que permite a cualquier persona solicitar la protección inmediata de sus derechos fundamentales cuando estos se vean amenazados o vulnerados por la acción u omisión de cualquier autoridad pública, entidad privada o de particulares. La tutela busca una protección rápida y efectiva de los derechos fundamentales, y su fallo es de obligatorio e inmediato cumplimiento.
Análisis de la Sentencia T-323 de 2024:
Tras analizar el cumplimiento de los requisitos de procedencia de la acción de tutela, la Corte Constitucional examinó si en el caso en cuestión se configuraban los presupuestos de una carencia actual de objeto por hecho superado. Agotado ese estudio, la Corte abordó dos aspectos fundamentales: (i) el uso de la IA para la toma de decisiones en sede de tutela, y (ii) el cobro de copagos y cuotas moderadoras en el Sistema General de Seguridad Social en Salud (SGSSS), el suministro del servicio de transporte, y el derecho a un tratamiento integral de un niño diagnosticado con trastorno del espectro autista (TEA).
Sobre el uso de la inteligencia artificial para la toma de decisiones en sede de tutela:
Dado que el juez de segunda instancia en la tutela objeto de revisión utilizó IA, específicamente ChatGPT 3.5, para emitir su decisión, la Sala consideró relevante revisar si se vulneró el derecho fundamental al debido proceso producto de dicha acción. Surgieron dudas respecto a si la decisión fue tomada por un juez de la República o por un IA, y si en efecto, dicha decisión fue debidamente motivada o fue producto de alucinaciones y sesgos generados por la IA.
Así, se abordaron los siguientes puntos: (i) el derecho fundamental al debido proceso; (ii) el debido proceso, incluyendo el probatorio, en un sistema jurisdiccional que utiliza IA; (iii) el sistema de inteligencia artificial: conceptos y aspectos básicos de su funcionamiento; (iv) impactos del uso de herramientas de IA en la sociedad; (v) estado de la IA en Colombia; (vi) el marco regulatorio de la IA en el mundo, con énfasis en instrumentos de soft law e iniciativas normativas nacionales; (vii) experiencias concretas de IA en la práctica judicial; y (viii) la garantía del juez natural en un sistema jurisdiccional que utiliza IA.
Sobre el cobro de copagos y cuotas moderadoras en el SGSSS, el suministro del servicio de transporte y el derecho a un tratamiento integral de un niño diagnosticado con TEA:
En cuanto al fondo del caso, la Corte revisó si los derechos fundamentales a la salud, la vida digna y la seguridad social de un niño diagnosticado con TEA fueron vulnerados por su EPS, al no haber sido exonerado de copagos y cuotas moderadoras, al no habérsele suministrado el servicio de transporte interurbano bajo el argumento de que no existía prescripción médica que lo ordenara, y al no habérsele autorizado un tratamiento integral.
La Corte analizó los siguientes temas: (i) los niños, niñas y adolescentes como sujetos de especial protección constitucional; (ii) las personas en situación de discapacidad como sujetos de especial protección constitucional; (iii) el derecho a la salud; (iv) los niños y adolescentes en situación de discapacidad y la protección de su derecho fundamental a la salud; (v) la prohibición de barreras administrativas para la prestación del servicio de salud; (vi) el tratamiento integral; (vii) el reconocimiento de los gastos de transporte para el paciente y un acompañante; y (viii) la exoneración de copagos y cuotas moderadoras para personas en situación de discapacidad física o cognitiva.
Consideraciones de la Corte:
Respecto a la posible vulneración del debido proceso debido al uso de ChatGPT, la Corte concluyó que no existió sustitución del ejercicio de la función jurisdiccional por parte del sistema de IA, ya que el juez había tomado la decisión con anterioridad y solo consultó la IA para obtener respuestas adicionales. Sin embargo, la Corte destacó que, pese haberse garantizado la privacidad de las personas involucradas, ya que no se introdujeron datos personales del menor o de las partes involucradas, en todo caso, no se cumplieron completamente los principios de transparencia y responsabilidad en el uso de la IA.
En lo sustancial, la Corte determinó que el niño debía ser exonerado de copagos y cuotas moderadoras en todos los servicios y medicamentos relacionados con su tratamiento a fin de garantizarle una prestación de servicio integral de salud sin barreras, ordenando además a la EPS la ampliación de su cobertura del servicio de transporte para todas las consultas y tratamientos necesarios luego de concluir que la entidad no había autorizado adecuadamente dicho servicio.
La Corte en su decisión reconoce las dificultades y retos que se enfrenta a la hora de adoptar medidas para la gobernanza de la IA, pues no existen medidas nacionales ni internacionales que se encuentren aún alineadas ni estandarizadas con fines y propósitos unívocos, así: “La falta de normas y puntos de referencia comunes entre los marcos nacionales y multinacionales de gestión de riesgos, así como las múltiples definiciones de IA utilizadas en dichos marcos han complicado el panorama de la gobernanza de la IA, a pesar de la necesidad de espacio para que coexistan diferentes enfoques reguladores que reflejen la diversidad social y cultural del mundo”.
Decisión de la Corte:
La Corte decidió que no se había vulnerado el derecho al debido proceso en la sentencia de segunda instancia, por lo que la actuación judicial fue válida. No obstante, la Corte subrayó la necesidad de que el Consejo Superior de la Judicatura emita guías claras sobre el uso de IA en el sistema judicial, y que los jueces adopten las mejores prácticas para asegurar que estas herramientas tecnológicas no comprometan la autonomía e independencia judiciales.
En cuanto a los derechos del niño, la Corte confirmó parcialmente la sentencia del juez de tutela y ordenó a la EPS implementar de manera efectiva la exoneración de copagos y la provisión completa del servicio de transporte para todas las necesidades médicas del menor.
Breves comentarios a la sentencia:
La Sentencia T-323 de 2024 ofrece diversas definiciones de IA, destacando la de Martín Tironi, quien subraya que “el fenómeno de la inteligencia artificial no se puede reducir a una cuestión puramente tecnológica, ya que sus aplicaciones están condicionando cada vez más el funcionamiento de los sistemas democráticos, las políticas públicas, la innovación, la producción cultural, la economía e incluso los espacios íntimos de las relaciones sentimentales”.
A propósito de esto y en cuanto al poder de la IA y de la información analizada desde la historia del impacto de la tecnología en el mundo y en la sociedad, Harari en su libro Nexus advierte que “si tan solo unos pocos dictadores deciden confiar en la IA, esto podría tener consecuencias de gran alcance para toda la humanidad”, en especial, si en algún momento, es el sistema el que adopta las decisiones dictatoriales, de poder y política. Este tipo de reflexión resalta los riesgos de conceder demasiado control a las herramientas de IA. Aunque no lo ve como una profecía, Harari sugiere que, al igual que las armas nucleares, la IA debe manejarse con cautela. Los dictadores que crean que la IA necesariamente les beneficiará podrían terminar atrapados por la propia tecnología que creen controlar.
Cuestiones Judiciales y la IA:
El asunto analizado en la sentencia respecto al uso de IA para la toma de decisiones judiciales, genera interrogantes sobre la vulneración del debido proceso, como, por ejemplo, ¿fue la decisión emitida por un juez humano o por un sistema de IA? ¿Estuvo debidamente motivada o fue resultado de respuestas generadas por IA con posibles sesgos?
La Sentencia T-323 aborda específicamente si el uso de ChatGPT podría vulnerar el debido proceso, y también presenta una definición reciente de la OCDE que describe la IA como un sistema que infiere, a partir de datos de entrada, cómo generar salidas como predicciones o decisiones, las cuales influyen en entornos físicos o virtuales. Este planteamiento lleva a cuestionar si, al emplear IA en la toma de decisiones judiciales, se transfiere indebidamente la responsabilidad del juez a un sistema autónomo, lo que podría vulnerar el principio del juez natural.
Ciclo de Vida y Gobernanza de la IA:
La sentencia también explora el ciclo de vida de los sistemas de IA, que incluye el diseño de datos, la validación, el despliegue y la supervisión. La autonomía y la adaptabilidad son elementos esenciales de la IA, lo que implica una evaluación constante sobre el grado de delegación de responsabilidades a la tecnología, y el porcentaje de las decisiones que se conservan en cabeza del ser humano. La autonomía se refiere al grado o porcentaje de intervención del ser humano pues existe la capacidad de los sistemas IA actuales de automatizar procesos de decisión e incluso de ejecución de esas decisiones sin intervención del ser humano, generando resultados con independencia de instrucciones humanas. La adaptabilidad consiste en la capacidad de los sistemas de IA de adaptar su comportamiento conforme a los datos de entrada así como de salida conforme las circunstancias cambiantes del mundo real.
En términos de gobernanza de la IA, no hay una alineación internacional sobre cómo aplicar la IA ni interoperabilidad entre jurisdicciones, -más allá de su reconocimiento, como al resto de adelantos tecnológicos y al progreso de las ciencias en general, como un derecho humano reconocido en múltiples instrumentos internacionales en palabras de la Corte Suprema de Justicia, en Sentencia SC370-2023 del 10 de octubre de 2023, entre ellos la Declaración Universal de Derechos Humanos de 1948 (artículo 27), la Carta de Organización de los Estados Americanos (OEA) (artículo 38), y el Pacto Internacional de Derechos Económicos, Sociales y Culturales de 1996 (artículo 15, numeral 1, literal b)-; lo que plantea desafíos en términos de acceso y seguridad. Además, el uso de IA en decisiones judiciales podría comprometer la independencia del juez, ya que los sistemas de IA pueden contener sesgos derivados de los datos con los que fueron entrenados.
De ahí, la relevancia de echar un vistazo al Informe Provisional de Asesoramiento sobre IA Governing AI for Humanity) de diciembre de 2023, emitido por el órgano consultivo de la ONU en materia de IA, el cual consagra los siguientes cinco principios rectores de gobernanza a ser cumplidos por sus tres niveles de actores, cuales son organizaciones internacionales, gobiernos y sector privado: “(i) la IA debe gobernarse de forma inclusiva, por y para el beneficio de todos; (ii) la IA debe gobernarse en pro del interés público; (iii) la gobernanza de la IA debe construirse al compás de la gobernanza de los datos y la promoción de datos comunes; (iv) la gobernanza de la IA debe ser universal, estar conectada en red y arraigada en la colaboración adaptativa de múltiples partes interesadas, y (v) la gobernanza de la IA debe estar anclada en la Carta de las Naciones Unidas, la legislación internacional sobre derechos humanos y otros compromisos internacionales acordados, como los Objetivos de Desarrollo Sostenible (ODS).”
Así como a otros instrumentos internacionales como el Proyecto “fAIr LAC+”, impulsado por el Banco Interamericano de Desarrollo (BID), que desde la academia, el gobierno, la sociedad civil, la industria y el sector emprendedor, promueve la aplicación ética de la IA en América Latina y el Caribe, recomendando diseñar y desarrollar auditorías y autoevaluaciones éticas de las soluciones basadas en IA para los sectores público y privado, y una guía de auditoría de algoritmos para sistemas de toma o soporte de decisiones, entre otras recomendaciones.
La Corte también comenta sobre las regulaciones más relevantes y recientes sobre el uso de IA, y acá se hace un resumen de algunas de las consideraciones que hace la Corte sin adicionar nada más a lo comentado por esta Corporación.
El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, adoptado el 13 de junio de 2024, tiene como objetivo mejorar el funcionamiento del mercado interior y fomentar el desarrollo de IA centrada en las personas y confiable. Asimismo, busca garantizar un alto nivel de protección de la salud, seguridad y derechos fundamentales establecidos en la Carta, incluyendo la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los riesgos asociados a los sistemas de IA en la Unión, además de apoyar la innovación.
Este Reglamento, conocido como el Reglamento de Inteligencia Artificial, prohíbe ciertas prácticas relacionadas con el uso de IA, tales como: (i) el uso de técnicas subliminales o engañosas que distorsionen el comportamiento y perjudiquen la toma de decisiones informadas, causando daño significativo; (ii) la explotación de vulnerabilidades por razones de edad, discapacidad o circunstancias socioeconómicas, generando perjuicios; (iii) la categorización biométrica que infiera atributos sensibles como raza, religión, u orientación sexual, salvo ciertas excepciones; (iv) la puntuación social, es decir, clasificar a individuos según sus comportamientos, generando trato discriminatorio; (v) evaluar el riesgo de delitos basándose únicamente en perfiles o rasgos de personalidad, a menos que se complemente con evaluaciones humanas objetivas; (vi) la recopilación masiva de imágenes faciales de internet o grabaciones de CCTV para bases de datos de reconocimiento facial; (vii) la inferencia de emociones en lugares de trabajo o educativos, salvo por razones médicas o de seguridad; y (viii) la identificación biométrica remota en tiempo real en espacios públicos, salvo en situaciones excepcionales como la búsqueda de personas desaparecidas o la prevención de ataques terroristas.
El Reglamento adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en distintos niveles:
- Alto riesgo: El artículo 6 identifica los sistemas de alto riesgo mediante dos técnicas. La primera, basada en una clasificación con condiciones que deben ser cumplidas según otras normativas de la UE. La segunda, mediante un listado en el Anexo III que incluye sistemas relacionados con biometría, infraestructura crítica, educación, empleo, acceso a servicios, aplicación de la ley, migración y justicia.
- Riesgo limitado: Aplica a sistemas que requieren transparencia específica, como los chatbots, donde los usuarios deben ser informados de que están interactuando con una máquina.
- Riesgo mínimo: Incluye aplicaciones como videojuegos o filtros de spam.
Además, el Reglamento consagra requisitos para el uso de sistemas de IA de alto riesgo, como la implementación de un sistema de gestión de riesgos, estándares de calidad aplicado a los datos de entrenamiento, preparación de documentación técnica, la realización de registro de contingencias, medidas que garanticen transparencia, vigilancia humana, y ciberseguridad.
En el contexto internacional, Estados Unidos ha adoptado instrumentos normativos relevantes, como la Orden Ejecutiva sobre el Desarrollo y Uso Seguro de la Inteligencia Artificial, emitida por el presidente Biden en 2023. Esta orden se basa en un Anteproyecto de Declaración de Derechos de la IA que establece principios para proteger los derechos de los ciudadanos frente a sistemas automatizados, promoviendo la seguridad, equidad, protección de datos, transparencia y el derecho a optar por no usar IA en ciertos contextos.
Otros proyectos relevantes en EE.UU. incluyen el Plan Nacional de Investigación y Desarrollo de IA, el marco de gestión de riesgos del NIST, y pautas de la Oficina de Protección Financiera del Consumidor para proteger a los consumidores contra la discriminación en decisiones automatizadas.
IA y el Sistema Judicial Colombiano:
En cuanto a la situación en Colombia, la sentencia subraya la necesidad de avanzar en la regulación de la IA, especialmente en el ámbito público. Aunque aún no existe un marco jurídico especializado, se reconoce la importancia de establecer estrategias de autorregulación y autocontrol para garantizar un uso ético y responsable. El Congreso de la República está tramitando varios proyectos de ley para regular la IA, como el Proyecto de Ley Estatutaria 200 de 2023, que busca precisamente regular el uso de las tecnologías de IA para que esté acorde con los principios y valores fundamentales de los derechos humanos, la ética, la transparencia y la justicia social, y en general, definir los límites de la IA en Colombia.
El avance en la modernización del sistema judicial ha sido acelerado por la pandemia de Covid-19, lo que impulsó la digitalización de los servicios judiciales a través del Decreto 806 de 2020, el CONPES 4024 de 2021 y la Ley 2213 de 2022. Estas medidas adoptaron tecnologías de la información para agilizar los trámites procesales, flexibilizar la atención judicial y promover la reactivación económica.
En Colombia, es fundamental avanzar en el ámbito de la IA para establecer su uso adecuado, especialmente en el sector público, y definir claramente sus límites. Aunque no existe un marco legal especializado y vinculante sobre IA, el país cuenta con regulaciones en el área de tecnologías de la información. Por ello, es necesario considerar la adopción de estrategias de autorregulación, autocontrol y una construcción colectiva bien fundamentada sobre el uso responsable de la IA.
Actualmente, el Congreso de la República está tramitando diversas iniciativas legislativas que buscan regular la IA en el país. El Senado ha informado sobre proyectos de ley como el N.º 130 de 2023, el N.º 091 de 2023 y el N.º 059 de 2023. Sin embargo, otros proyectos de ley como el N.º 253 de 2022 han sido archivados. Por otro lado, en la Cámara de Representantes se está discutiendo el referido Proyecto de Ley Estatutaria 200 de 2023, que, se reitera, busca definir y regular la IA, estableciendo límites a su desarrollo, uso e implementación. Después de su aprobación de ser ese el caso, este Proyecto deberá ser revisado por la Corte Constitucional para asegurar que cumple con los estándares constitucionales.
El enfoque que se adopte en la regulación será decisivo, ya que de él dependerá el alcance de la IA en el sector público, especialmente en la Rama Judicial, y la protección de los derechos fundamentales. A nivel global, se han desarrollado varios modelos de gobernanza de la IA, como la regulación basada en riesgos, en derechos fundamentales, en principios, en estándares y en reglas de “mando y control”.
En cuanto al uso de tecnologías de la información en el sector público colombiano, el proceso de modernización del sistema judicial ha avanzado considerablemente en la última década, impulsado aún más por la pandemia de Covid-19. Desde 2015, el Estado ha promovido la transformación digital en la administración pública mediante la implementación de una política de gobierno digital.
Mientras se espera la promulgación de una ley específica sobre IA, será necesario recurrir a la autorregulación y a mecanismos de autocontrol como estrategias eficientes para promover la innovación y maximizar los beneficios de estas tecnologías sin comprometer los derechos fundamentales. Este proceso debe abordarse con una visión ética y responsable, respetando las garantías constitucionales y el modelo de Estado Social de Derecho.
En todo caso, las tecnologías emergentes, como la IA, están cubiertas por la legislación en materia de tecnologías de la información y las comunicaciones, como lo establece la Ley 1341 de 2009. Esta ley define estas tecnologías como el conjunto de recursos que permiten el procesamiento y transmisión de información, lo que incluye sistemas de IA.
- El Decreto 1078 de 2015 refuerza esta normativa al disponer la implementación de la Política de Gobierno Digital en coordinación con las ramas legislativa y judicial, y los órganos de control. Además, establece principios como la armonización, la confianza, la innovación y el respeto por los derechos humanos.
- Por otro lado, el documento CONPES 3975 de 2019 define la IA como un área de la informática dedicada a resolver problemas cognitivos, habitualmente asociados con la inteligencia humana, y destaca la importancia de desarrollar condiciones que permitan a Colombia prepararse para los cambios económicos y sociales que traerá la IA y otras tecnologías de la cuarta revolución industrial.
- Posteriormente, en noviembre de 2020, se lanzó el “Task Force para el Desarrollo e Implementación de la Inteligencia Artificial en Colombia”, que propone mecanismos para la adopción de tecnologías emergentes en los sectores público y privado. El Gobierno ha desarrollado diversas publicaciones en esta línea, como el Sandbox sobre privacidad en proyectos de IA y el modelo de gobernanza de infraestructura para tecnologías emergentes.
- En abril de 2021, el Departamento Nacional de Planeación emitió un plan para seguir implementando principios y estándares internacionales en IA. En octubre de 2021, se publicó el “Marco Ético para la Inteligencia Artificial en Colombia”, que ofrece recomendaciones a las entidades públicas sobre el uso de la IA con un enfoque ético.
- En términos de principios éticos, se destacan la transparencia, la seguridad, la no discriminación y el control humano en las decisiones automatizadas. Estos principios buscan garantizar que la IA se utilice de manera responsable y en beneficio de la sociedad.
- Durante la pandemia, el Estado colombiano promovió la digitalización del sistema judicial a través de normativas como el CONPES 4024 de 2021 y el Decreto 806 de 2020, medidas que se hicieron permanentes con la Ley 2213 de 2022. Estas normativas permitieron la implementación de tecnologías de la información y agilizaron los trámites judiciales en respuesta a la necesidad de continuar con los procesos de manera remota.
- El Decreto 806 de 2020 tenía como objetivos principales la implementación de TIC en las actuaciones judiciales, la agilización de los procesos judiciales, la flexibilización de la atención a los usuarios del sistema de justicia y el apoyo a la reactivación económica. Los 16 artículos de este decreto se centraron en dos ejes principales: (i) la implementación de tecnologías de la información, y (ii) las modificaciones procesales para agilizar los trámites.
- Finalmente, en cuanto al tratamiento de datos personales, las leyes estatutarias 1266 de 2008 y 1581 de 2012, que regulan la protección de datos en Colombia, establecen que cualquier sistema de IA que administre o gestione datos personales debe cumplir con estos marcos normativos. Estas leyes clasifican los datos en públicos, semiprivados y privados, y destacan la importancia de que los datos tratados sean veraces, completos y comprensibles.
- Aunque Colombia aún no cuenta con una regulación específica para la IA, existe un sistema de garantías tecnológicas que protege los derechos fundamentales en el uso de estas tecnologías. La Corte Suprema de Justicia ha reconocido que el acceso a los avances tecnológicos es un derecho humano respaldado por varios tratados internacionales.
- La creación de un sistema de IA generativa y adaptiva especializado en jurisprudencia colombiana, podría mejorar la eficiencia judicial, facilitar el acceso a la justicia y alcanzar ciertas descongestión judicial, siempre y cuando se respete y prevalezca siempre el papel fundamental del juez natural como uno de los componentes primordiales del derecho al debido proceso, siendo entonces la IA un apoyo a la función judicial, y además se mantengan los principios de transparencia y protección de datos.
Tratamiento de Datos y Marco Regulatorio:
Es importante señalar que, aunque no existe una regulación específica sobre IA, las leyes estatutarias 1266 de 2008 y 1581 de 2012, que regulan la protección de datos en Colombia, se aplican a todas las herramientas tecnológicas, incluyendo la IA. La Ley 1581 de 2012 define los datos personales, incluidos los “datos sensibles”, cuya protección es fundamental en cualquier sistema que utilice IA. El cumplimiento de estos principios de veracidad y calidad de los datos es esencial para garantizar que las decisiones basadas en IA no generen discriminación ni errores.
La Corte Suprema de Justicia, en su Sentencia SC370-2023, reconoció el derecho humano al acceso y disfrute de los avances tecnológicos, según lo establecido en diversos tratados internacionales. De este modo, cualquier uso de IA en Colombia debe estar alineado con estos principios.
Impacto Potencial de la IA en el Sistema Judicial:
El uso de un sistema de IA generativa especializado en jurisprudencia y normativas podría mejorar significativamente la eficiencia del sistema judicial colombiano, facilitando el acceso a la información, análisis de casos y líneas jurisprudenciales. Sin embargo, la sentencia concluye que, aunque la IA puede ser una herramienta útil en la administración de justicia, nunca debe sustituir la labor humana en la toma de decisiones judiciales, pues el juez humano es un medio de garantía del debido proceso. La transparencia, la protección de datos y la reducción de riesgos, como los sesgos inherentes a los datos de entrenamiento de la IA, son cruciales para mantener la legitimidad del proceso judicial.
Este enfoque plantea que la IA debe ser vista como un apoyo y no como un sustituto en el ejercicio de la función jurisdiccional, lo que permitiría mejorar la eficiencia sin comprometer la independencia ni los derechos fundamentales de las partes involucradas. Se trata pues de un apoyo a la gestión judicial, que en ninguna caso puede producir una “creación de contenidoni interpretación de hechos o pruebas y, mucho menos, la solución de casos”, y en general remplazar la labor del juez de conocer y resolver de fondo el asunto de su competencia.
La Corte Constitucional señala que es fundamental que Colombia desarrolle un marco regulatorio robusto y ético que permita el uso de la inteligencia artificial (IA) en el sistema judicial de manera responsable, protegiendo los derechos fundamentales, la transparencia y la imparcialidad en la justicia.
La sentencia también establece principios éticos claves para el uso de la IA en Colombia, destacando los siguientes: (i) transparencia y claridad en su operación, (ii) supervisión humana de las decisiones tomadas por sistemas de IA, (iii) seguridad, (iv) responsabilidad, (v) no discriminación, (vi) inclusión, (vii) prioridad en la protección de los derechos de los menores, y (viii) la promoción del bienestar social.
Conclusiones:
La Sala de Revisión concluye que se vulnera la garantía del juez natural cuando se pretende la sustitución del razonamiento lógico propio del ser humano, lo cual es esencial en la interpretación de los hechos, la evaluación de pruebas y la motivación de sus decisiones. En estos casos, se produce una sustitución del poder jurisdiccional por la IA, lo que constituye una violación del debido proceso y del derecho a ser juzgado por un juez legalmente habilitado.
No obstante, el uso de IA para el desarrollo de funciones administrativas y de apoyo, como la gestión documental, la organización de expedientes o la revisión y síntesis de textos largos, no afecta la garantía del juez natural, siempre y cuando la IA no genere contenido, interpretación de hechos o resolución de casos, y se garantice la contribución sustancial y primaria del ser humano.
Es fundamental que, cuando los jueces empleen herramientas de IA, se respeten los principios de responsabilidad, legalidad e idoneidad, entre otros. Sin asomo de duda, el uso de IA de manera responsable y sin sustituir al juez natural podría contribuir a una administración de justicia más eficiente, sin comprometer la independencia de los jueces.
Ahora, es cierto que el uso de IA también genera preocupaciones sobre la independencia judicial, ya que las decisiones del juez podrían ser influenciadas por sesgos derivados del entrenamiento recibido por la IA. La falta de un control adecuado podría llevar a que el juez incorpore en su decisión información incorrecta o no verificada, afectando la justificación y fiabilidad de las decisiones judiciales.
En conclusión, el uso de IA sin las debidas garantías genera riesgos relacionados con el deber del juez de fundamentar sus decisiones y la garantía del derecho a un juez imparcial e independiente. Por lo tanto, es crucial que los jueces mantengan la transparencia y la claridad en sus decisiones, de manera que las partes involucradas puedan comprender los fundamentos de las resoluciones y ejercer plenamente sus derechos procesales, como el de contradicción.
Principios para el uso de IA en el sistema judicial:
- Transparencia: Se debe dejar claro el uso y alcance de la IA en las decisiones judiciales.
- Responsabilidad: Los usuarios de la IA deben estar capacitados y ser conscientes de sus posibles efectos.
- Privacidad: Es esencial salvaguardar los datos personales y sensibles en el contexto judicial.
- No sustitución de la racionalidad humana: La IA no puede reemplazar el juicio ni la responsabilidad del juez.
- Seriedad y verificación: Las fuentes y posibles errores de la IA deben ser revisados con rigor.
- Igualdad y equidad: Debe evitarse cualquier forma de discriminación derivada de los sesgos presentes en la IA.
- Control humano: Las decisiones apoyadas por IA deben contar siempre con supervisión humana.
- Seguimiento y adaptación: Es importante mantenerse actualizado con los avances tecnológicos y jurídicos que afecten el uso de la IA en la justicia.
- Idoneidad: El uso de tecnologías de la información debe estar orientado a facilitar el acceso a la justicia y agilizar los procedimientos judiciales.
Las anteriores pautas que da la Sentencia T-323 para el uso de la IA en el ámbito judicial coinciden con el soft law derivado de los instrumentos internacionales, que si bien no son jurídicamente vinculantes deben observarse, y además ser tenidos en cuenta por los gobiernos a la hora expedir una regulación sobre el uso de IA para garantizar que el mismo sea ético.
En primer lugar, la IA no puede reemplazar el razonamiento lógico y humano del juez, ya que esto vulneraría el derecho al debido proceso y la garantía de un juez natural. Sin embargo, su uso es aceptable en tareas administrativas y de apoyo a la gestión judicial, siempre y cuando no interfiera en la labor esencial del juez, como la valoración de pruebas o la toma de decisiones. En todo caso, debe haber supervisión humana para evitar riesgos como la pérdida de independencia judicial o la invasión de la privacidad. Pero ¿Cómo se asegura que se trate de un mero apoyo y no de la fuente de análisis e interpretación? ¿Será suficiente con que la regulación prevea la obligación de que exista una supervisión humana? ¿Cuáles son las herramientas y medidas de control con las que cuenta la rama judicial en Colombia que sirvan de garantía de la autoevaluación ética recomendada para evitar la vulneración al debido proceso?
Se destacan principios clave que deben guiar el uso de la IA, como la transparencia en su aplicación, la responsabilidad de quienes la utilizan, y la privacidad de los datos manejados. También se resalta la importancia de la seriedad y verificación de la información proporcionada por la IA, evitando sesgos o errores. Además, se insiste en que el control de las decisiones debe recaer siempre en los jueces y no en la tecnología.
La sentencia también insta al Consejo Superior de la Judicatura a desarrollar lineamientos para el uso de la IA en la Rama Judicial, asegurando que su implementación respete los derechos fundamentales y no comprometa la imparcialidad del sistema judicial. Estos lineamientos deberán contemplar la capacitación de los jueces en el uso de estas herramientas, la colaboración con otras entidades estatales y la evaluación continua de las prácticas relacionadas con la IA, con el objetivo de garantizar una administración de justicia más eficiente y confiable.
Finalmente, se enfatiza que la IA debe utilizarse de manera responsable, ética y con mecanismos de autorregulación. Se sugiere que la digitalización de la justicia en Colombia avance de forma que respete los derechos fundamentales y se adapte a los rápidos cambios tecnológicos, sin comprometer los principios básicos del debido proceso ni la independencia del sistema judicial. En Colombia aún falta mucho camino por recorrer en materia de regulación del uso de la IA, y los constantes y rápidos avances tecnológico en dicha materia no paran, lo que genera el interrogante de, si habrá garantía del debido proceso, incluyendo control judicial, transparencia e imparcialidad, mientras se expide dicha normativa.