Competencia Económica y Consumo
9 of September,2025

La inteligencia artificial, la propiedad intelectual y el rol del abogado: entre la disrupción tecnológica y la responsabilidad institucional

Por: Luisa Herrera - Docente Investigadora

En el marco de un reciente panel celebrado con motivo del evento Abogado Externadista, surgieron preguntas que reflejan inquietudes cada vez más presentes en el ejercicio profesional: ¿es posible para los abogados seguir siendo exitosos en un mundo mediado por la inteligencia artificial (IA)? Inspirada por la interpelación de un estudiante brillante y comprometido- el representante estudiantil ante el Consejo Directivo de la Facultad de Derecho- Samuel Cáceres, he decidido elaborar algunas reflexiones sobre el rol de la abogacía en tiempos de disrupción tecnológica, y su relación con la educación jurídica y la propiedad intelectual.

La respuesta a esa pregunta no puede ni debe ser dicotómica. La IA no elimina la necesidad de la labor jurídica, ni mucho menos su esencia, pero es indudable que genera efectos en sus contornos, en formas de comunicar, y de procesar información. Es preciso atender no solo a los cambios funcionales (automatización, optimización, asistencia en análisis predictivos), sino también a sus implicaciones epistemológicas y éticas. En palabras de Yuval Noah Harari, la IA ha “hackeado el sistema operativo de la civilización humana”, dado que su dominio sobre el lenguaje le permite intervenir directamente en la construcción de la cultura, de las normas y de las narrativas políticas, sociales y religiosas que dan sentido a nuestras instituciones humanas (Harari, 2023).

Esta capacidad transformadora plantea desafíos estructurales para la democracia, el derecho y la educación. Como advirtió Juan Gabriel Vásquez en su discurso “Instrucciones para no ser sonámbulos: inteligencia artificial, ciudadanía y democracia”, presentado en el Congreso Empresarial Colombiano (ANDI) el 15 de agosto de 2025, las transformaciones tecnológicas han tenido lugar, con frecuencia, en la sombra, sin mecanismos efectivos de regulación o fiscalización democrática (Vásquez, 2025). La desregulación ha sido favorecida por narrativas que exaltan la libertad de innovación y la supuesta neutralidad tecnológica, pero que, en la práctica, han facilitado la consolidación de poderes económicos y políticos mediante el uso instrumental de la tecnología (Vásquez, 2025).

La inteligencia artificial, lejos de ser un fenómeno neutro, constituye una herramienta que puede emplearse tanto para fortalecer las instituciones democráticas como para debilitarlas. No se trata, sin embargo, de defender regulaciones absolutas o excesivamente detalladas, que por su rigidez puedan omitir las realidades cambiantes del entorno tecnológico. Se trata, más bien, de avanzar hacia modelos de gobernanza críticos y adaptativos, que reconozcan las oportunidades de la innovación sin perder de vista sus riesgos. En este sentido, resultan valiosas experiencias normativas como el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, conocido como Ley de IA o AI Act, que establece normas armonizadas en materia de inteligencia artificial y constituye un referente de regulación proporcional, orientada por principios de transparencia, seguridad y supervisión efectiva.

Las reflexiones profundas y humanistas planteadas por Vásquez en el citado discurso, subrayan que uno de los retos cruciales que enfrenta nuestra especie es la gestión de los avances tecnológicos, incluyendo la inteligencia artificial. Para ilustrar la gravedad de este desafío, recurre a la analogía del “Reloj del Juicio Final”, una creación simbólica de Einstein y Oppenheimer, cuyas manecillas han sido adelantadas por el Boletín de Científicos Atómicos para marcar la cercanía de la humanidad a la catástrofe. Entre las amenazas identificadas hoy figuran las armas nucleares, el cambio climático y los usos indebidos de la biotecnología y la inteligencia artificial (Vásquez, 2025).

En el ámbito jurídico, esto se traduce en una urgencia: formar abogados que comprendan los principios fundamentales del derecho, y que como en nuestra Universidad se formen un criterio propio analítico, y que entiendan las lógicas de las tecnologías emergentes y sus efectos sobre los derechos fundamentales. No basta con adaptar las clases a los cambios instrumentales; se requiere una formación transversal, crítica y contextualizada. La IA no sustituye el juicio jurídico, pero podría incidir en su calidad si quienes la usan no comprenden sus sesgos, sus límites y sus alcances (The Economist, 2023).

Uno de los terrenos más sensibles en esta transformación es el de la propiedad intelectual. La formación de modelos de lenguaje a partir de scraping masivo de contenidos protegidos por derecho de autor ha generado disputas judiciales sobre la legitimidad de estos procesos. El caso del New York Times contra OpenAI y Microsoft ha puesto en evidencia los problemas que surgen cuando los modelos generativos reproducen textualmente obras protegidas. Si bien las empresas alegan que el uso de obras en los datasets está amparado por el fair use, los tribunales aún no han sentado una jurisprudencia clara al respecto (OECD,  2025). Por su parte, la demanda colectiva contra Anthropic en EE.UU. por el uso de libros de LibGen en el entrenamiento de sus modelos refuerza la necesidad urgente de criterios judiciales claros (Authors Alliance, 2024). Aunque el caso fue conciliado fuera de los tribunales, el hecho de que se haya alcanzado un acuerdo económico —que incluyó el pago por parte de Anthropic— sugiere que el uso no autorizado de obras protegidas puede tener consecuencias legales y financieras relevantes. Aunque el tribunal concluyó que el entrenamiento de modelos de lenguaje por parte de Anthropic con libros protegidos podía enmarcarse dentro del fair use, evitó pronunciarse sobre la legalidad de la simple descarga y almacenamiento de dichos libros, especialmente cuando no había claridad sobre si algunos fueron efectivamente usados para el entrenamiento. Esta ambigüedad legal, unida a la falta de trazabilidad precisa de los libros utilizados —muchos de los cuales provenían de repositorios no autorizados, terminó por complicar el caso pues resulta difícil la real identificación e individualización de todos los usos y obras en cuestión. (Authors Alliance, 2024).

En el Reino Unido, se han desarrollado procesos judiciales emblemáticos. En el caso Getty Images v. Stability AI, la demanda alegó infracción de derechos de autor, derechos sobre bases de datos y marcas, incluyendo el uso no autorizado del watermark “gettyimages” por parte de la IA. Aunque el cargo de infracción por entrenamiento fue retirado, persiste la discusión sobre la importación de modelos entrenados en el extranjero y su posible calificación como copia infractora (Fox Williams LLP, 2024). Por su parte, en Emotional Perception AI v. UKIPO, actualmente ante la Supreme Court, se discute si una red neuronal artificial puede ser objeto de protección por patente, lo que podría reconfigurar los límites actuales del sistema de patentes (Fox Williams LLP, 2024).

En paralelo, el gobierno británico lanzó en julio de 2025 grupos de trabajo conjuntos entre representantes del sector creativo y de la industria de la IA, como parte del “Plan for Change”. El objetivo es desarrollar soluciones que armonicen la protección de la creatividad humana con la promoción de la innovación, atendiendo a problemáticas como el acceso a datos de calidad para entrenamiento y la transparencia en el uso de obras protegidas (UK Government, 2025).

La jurisprudencia comparada y la doctrina también han explorado cómo los modelos de lenguaje procesan información proveniente de bases de datos o corpus de texto, bajo el amparo de excepciones como el text and data mining. Herrera Díaz analiza que, si bien esta actividad puede considerarse lícita en algunos contextos, la ausencia de transparencia respecto al contenido exacto de los datasets impide verificar si se han respetado los derechos patrimoniales y morales de los autores (Vargas Ariza, 2025).

El informe de la OCDE sobre scraping de datos e inteligencia artificial refuerza estas preocupaciones al evidenciar la escasa transparencia con la que las grandes plataformas tecnológicas recopilan y utilizan datos, incluidas obras protegidas por derechos de autor. La OCDE propone, entre otras medidas, el desarrollo de “etiquetados estandarizados” que permitan a los creadores marcar sus obras para excluirlas del entrenamiento de modelos, así como mecanismos contractuales y técnicos que fortalezcan el control sobre el uso de contenidos (OECD, 2025). Así, entonces, esta parece ser la respuesta ante el interrogante de ¿cómo garantizar el respeto por los derechos de autor cuando ni los desarrolladores conocen con precisión los datos que nutren a sus sistemas? En efecto, aunque aún incipiente, la solución podría estar en el desarrollo de estándares internacionales de gobernanza algorítmica.

La preocupación, sin embargo, no debería limitarse al ámbito de la propiedad intelectual. Se podría pensar que la IA plantea riesgos democráticos cuando se usa para manipular la información, interferir en elecciones o producir narrativas con apariencia de verdad. Como revela el informe del International Panel on the Information Environment, en cuatro de cada cinco elecciones celebradas en 2024, se identificaron usos de IA generativa. En algunos casos, como en Rumania, se produjeron interferencias que llevaron a la anulación de elecciones. En otros, como en la India, se usaron deepfakes de figuras políticas fallecidas para incidir en las preferencias electorales (OECD, 2025).

La IA, entonces, no solo transforma la profesión jurídica, sino también el ecosistema institucional en el que esta se desarrolla. Una de las conclusiones posibles es que la respuesta institucional no puede ser tecnofóbica, pero tampoco ingenua. Se requeriría una comprensión matizada que articule la promoción de la innovación con la protección de los derechos, que combine eficiencia con garantías, que fomente el uso de la IA para fines públicos, sin renunciar al control democrático de sus usos.

El rol del abogado, en este contexto, podría estar redefiniéndose no como un simple operador jurídico, sino como un agente crítico y protector de la institucionalidad. Un abogado que comprenda el potencial y los riesgos de la tecnología, que no abdique del análisis jurídico riguroso frente al entusiasmo por la automatización, y que promueva un ejercicio profesional anclado en la ética y en la defensa de los principios democráticos. La IA no debe ser vista como reemplazo del razonamiento jurídico, sino como herramienta complementaria. Así lo sostuvo la Corte Constitucional colombiana en la Sentencia T-323 de 2024, donde examinó si el uso de ChatGPT por un juez vulneraba el derecho al debido proceso. La Corte concluyó que, si bien no hubo sustitución del juez natural, sí se evidenciaron fallas en los principios de transparencia y responsabilidad en el uso de IA en la función judicial (Herrera, 2024).

Estas reflexiones no pretenden clausurar el debate, sino abrirlo. Lo sucedido hasta el momento ha hecho pensar a algunos que estamos frente a una transformación estructural que exige más preguntas que respuestas. Este artículo, por tanto, no se propone zanjar controversias, sino estimular un diálogo abierto, interdisciplinario y crítico sobre el futuro del derecho en la era de la inteligencia artificial.


Bibliografía

·  Authors Alliance. (2024, septiembre 5). Bartz v. Anthropic: A preliminary look at what LibGen books may be included in the class actionhttps://www.authorsalliance.org/2025/09/05/bartz-v-anthropic-a-preliminary-look-at-what-libgen-books-may-be-included-in-the-class-action/

·  Centre for Democracy & Technology. (2023). Could AI tilt the outcome of elections?https://www.economist.com/international/2025/07/31/could-ai-tilt-the-outcome-of-elections

·  Fox Williams LLP. (2024a, marzo 5). Artificial intelligence and intellectual property: An update. https://www.foxwilliams.com/2024/03/05/artificial-intelligence-and-intellectual-property-an-update/

·  Fox Williams LLP. (2024b, junio 10). Another case on AI and patents: ANN. https://www.foxwilliams.com/2024/06/10/another-case-on-ai-and-patents-ann/

·  Harari, Y. N. (2023, abril 28). AI has hacked the operating system of human civilisation. The Economist. https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation

·  Herrera, L. F. (2024). Resumen de la Sentencia T-323 de 2024 de la Corte Constitucional de Colombia. Blog del Departamento de Propiedad Intelectual, Universidad Externado de Colombia.

·  Organisation for Economic Co-operation and Development (OECD). (2025, febrero). Intellectual property issues in artificial intelligence trained on scraped data (OECD Artificial Intelligence Papers, No. 33). OECD Publishing. https://www.oecd.org/publications/intellectual-property-issues-in-artificial-intelligence-trained-on-scraped-data

·  The Economist. (2023, junio 6). Generative AI could radically alter the practice of law. The Economist. https://www.economist.com/business/2023/06/06/generative-ai-could-radically-alter-the-practice-of-law

·  UK Government. (2025, julio 15). Creative and AI sectors kick-off next steps in finding solutions to AI and copyright. GOV.UK. https://www.gov.uk/government/news/creative-and-ai-sectors-kick-off-next-steps-in-finding-solutions-to-ai-and-copyright

·  Vargas Ariza, M. P. (2025, marzo 6). Fair use, minería de datos e IA: La nueva frontera del derecho de autor. Herrera Díaz Abogados. https://herreradiaz.com/en/fair-use-mineria-de-datos-e-ia-la-nueva-frontera-del-derecho-de-autor/

·  Vásquez, J. G. (2025, agosto 15). Instrucciones para no ser sonámbulos: inteligencia artificial, ciudadanía y democracia. El País. https://elpais.com/america-colombia/2025-08-15/instrucciones-para-no-ser-sonambulos