Copyright and Related
18 of February,2026

La inteligencia artificial en los estrados: entre la eficiencia tecnológica y la deshumanización de la justicia[1]

Por: Luisa Herrera, Docente Investigadora del Departamento de Propiedad Intelectual, y Laura Lucía Cacua, Egresada de la Universidad Externado de Colombia

Harari sostiene que los humanos “somos los únicos mamíferos que pueden cooperar con numerosos extraños, porque solo nosotros somos capaces de inventar historias ficticias, difundirlas y convencer a millones de otros de creer en ellas.’ Y en su libro Nexus, el autor menciona los diversos riesgos derivados de dejar de cuestionar la información generada por los sistemas de inteligencia artificial, y que no controlar el uso indiscriminado y sin gobernanza de la IA, podría ocasionar la manipulación de intereses y poderes bajo la falsa premisa de que la IA es neutral.

La Sala de Casación Penal de la Corte Suprema de Justicia de Colombia, mediante sentencia STP21973-2025, resolvió la impugnación contra la decisión que había negado una acción de tutela interpuesta dentro de un proceso penal. En dicha tutela se alegaba la vulneración de los derechos fundamentales al debido proceso y a la imparcialidad judicial, derivada del uso indebido de inteligencia artificial generativa por parte del despacho judicial.

El caso se originó en una recusación presentada por una de las partes, luego de advertir en el expediente digital la existencia de un archivo denominado “Sentencia ordinaria”. El documento contenía una valoración probatoria integral, conclusiones sobre la responsabilidad penal, la imposición de una condena de 18 años de prisión e incluso la firma de la titular del despacho, pese a que aún no se habían presentado los alegatos de conclusión ni se había anunciado el sentido del fallo. En primera instancia, la tutela fue declarada infundada bajo el entendido de que se trataba de un borrador cargado por error humano y carente de efectos jurídicos vinculantes.

Sin embargo, al revisar el expediente, la Corte constató que el análisis del testimonio de la víctima no provenía del razonamiento autónomo de la jueza, sino que había sido elaborado mediante una herramienta de inteligencia artificial generativa. En el documento se encontraron referencias explícitas a la finalidad del uso de la IA para el examen probatorio, “orientado a valorar su utilidad para una sentencia condenatoria”.

Con fundamento en ello, la Corte decidió amparar los derechos fundamentales al debido proceso y al juez imparcial, revocó las decisiones de instancia y ordenó apartar a la jueza del conocimiento del caso. Consideró que la sola existencia y conocimiento del borrador vaciaban de contenido la presunción de inocencia y comprometían la imparcialidad objetiva, en tanto anticipaban el resultado del proceso y convertían el juicio en un “mero ritual” desprovisto de auténtica función decisoria. Asimismo, emitió un enérgico exhorto recordando que la inteligencia artificial no puede sustituir el razonamiento humano ni las funciones jurisdiccionales indelegables.

La relevancia de esta decisión trasciende el caso concreto. No se trata únicamente de una irregularidad procesal, sino de la coexistencia —y eventual tensión— entre la racionalidad humana y la racionalidad algorítmica. Esta sentencia se suma a la decisión AC739-2026 del 13 de febrero de 2026, también proferida por la Corte Suprema de Justicia de Colombia, en la cual se examinó un caso en el que un abogado presentó referencias jurisprudenciales generadas por inteligencia artificial que no existían en la realidad. En esa oportunidad, la Alta Corporación advirtió sobre la creación de un “pseudo-derecho” cuando se elaboran memoriales o decisiones basados en fundamentos ficticios derivados de alucinaciones propias de los sistemas generativos.

Juzgar no es una operación aritmética ni la aplicación mecánica de normas. Implica interpretar hechos complejos, valorar la credibilidad de la prueba, contextualizar conductas y asumir la responsabilidad de subsumir realidades humanas en categorías jurídicas. Cuando esa labor se delega, aunque sea parcialmente, en un algoritmo, se erosiona el núcleo deliberativo que legitima el ejercicio del poder jurisdiccional. La Corte lo expresa con claridad al advertir el riesgo de sustituir la “racionalidad humana”.

En su estado actual, la inteligencia artificial no comprende la prueba ni el conflicto; opera sobre correlaciones estadísticas y patrones lingüísticos. Puede producir textos coherentes y estructurados, pero no ejerce juicio, prudencia ni conciencia. Pretender que un modelo de lenguaje evalúe la coherencia interna de un relato o pondere la conducta de las partes equivale a vaciar la providencia judicial de la actividad intelectual que le confiere autoridad y legitimidad.

El caso ilustra además un fenómeno particularmente preocupante: la progresiva despersonalización de la figura del juez. Un fallo anticipado ya compromete la esencia del proceso; pero automatizar el razonamiento que sustenta esa decisión implica algo más profundo, pues transforma el acto de juzgar en una operación estandarizada en la que el juez corre el riesgo de convertirse en un mero validador de textos generados por sistemas tecnológicos. Ello no solo afecta la imparcialidad, sino también la responsabilidad ética que recae sobre quien decide.

La gravedad aumenta si se considera la instrucción dada a la herramienta tecnológica, orientada a estructurar un análisis encaminado a fundamentar una sentencia condenatoria. No se trató de una consulta exploratoria ni de un apoyo metodológico neutral, sino de un uso instrumental dirigido a reforzar una conclusión previamente asumida. En ese escenario, el prejuzgamiento no solo existe, sino que se automatiza y se reviste de una apariencia técnica que puede resultar aún más difícil de detectar y controvertir.

Desde una perspectiva ética, el debate no gira en torno a la existencia de sistemas de inteligencia artificial, sino a la ausencia de límites claros en su utilización. Los sistemas generativos producen textos plausibles, pero no necesariamente verdaderos ni jurídicamente correctos. Sin verificación crítica ni control riguroso por parte del juez, puede generarse una peligrosa apariencia de racionalidad: decisiones formalmente bien estructuradas, pero carentes de auténtica deliberación.

Ahora bien, este análisis tampoco admite posturas simplistas que propugnen la exclusión absoluta de la inteligencia artificial del ámbito judicial. La tecnología forma parte del ecosistema jurídico y puede contribuir a mejorar la eficiencia administrativa, la sistematización de precedentes y la gestión de cargas de trabajo. El verdadero riesgo radica en su utilización como sustituto del juicio humano.

El desafío actual no consiste en reemplazar al juez ni en optar entre la inteligencia artificial y el criterio humano, sino en diseñar una gobernanza tecnológica que preserve al ser humano como centro de la innovación y como origen de cualquier razonamiento judicial. La cuestión no es si la inteligencia artificial puede asistir al juez, sino hasta dónde puede hacerlo sin alterar la esencia misma del acto de juzgar.

En última instancia, la administración de justicia descansa sobre premisas inmodificables: las decisiones que afectan derechos y libertades deben ser el resultado de una conciencia humana que asume responsabilidad. Cuando tales decisiones se desplazan hacia sistemas algorítmicos, el riesgo no es únicamente técnico; es institucional y democrático. Por ello, la sentencia STP21973-2025 debe leerse como una advertencia temprana: la tecnología puede fortalecer la justicia, pero no puede impartirla. Es la sana crítica del juez humano la que la legitima.

Adicionalmente, la decisión del 13 de febrero de 2026 recordó los deberes de los abogados frente al uso de inteligencia artificial. Si bien su utilización no está prohibida en el ejercicio profesional, su empleo exige que los escritos reflejen el criterio propio del abogado, quien es responsable de la veracidad de su contenido, de la verificación en fuentes oficiales y de la diligencia empleada en su elaboración. Estas cargas profesionales son, además, indelegables.


[1] Las autoras utilizaron una herramienta de inteligencia artificial exclusivamente para revisión de estilo y corrección lingüística. El contenido sustantivo, los argumentos y las conclusiones son de su exclusiva autoría.