Luis Guillermo Luigi Ramos Vergara- Doctor en Derecho y Magíster en Filosofía del Derecho y Teoría Jurídica. Profesor universitario. Magistrado de la Comisión Seccional de Disciplina Judicial de Bolívar y presidente de la Comisión de Género de la Rama Judicial en Bolívar.

Por: Luis Guillermo Luigi Ramos Vergara *

 El despliegue contemporáneo de las tecnologías digitales ha configurado un entorno inédito para el Derecho. En ese contexto, los sistemas de Inteligencia Artificial -IA – de propósito lingüístico irrumpen en el espacio jurídico como operadores de texto que no son seres racionales ni autoconscientes y, por tanto, carecen de auténtica autonomía práctica en sentido kantiano; sin embargo, pueden alterar de manera profunda las prácticas jurídicas si se los trata como si fueran centros de decisión o sujetos de imputación normativa. Ante ese desplazamiento tecnológico, el jurista se ve exigido a un doble ejercicio de rigor, por un lado, filosófico, para esclarecer qué está en juego cuando se habla de lenguaje en conexión con los juegos de lenguaje y las formas de vida de las que se ocupa Wittgenstein; por otro, estrictamente normativo, para fijar con claridad el estatuto jurídico de estos sistemas dentro de la argumentación y de la decisión judicial o administrativa.

Desde un horizonte kantiano, los modelos de IA que procesan lenguaje natural no constituyen personas ni agentes portadores de dignidad basada en la autonomía de la voluntad, sino artefactos técnicos que solo pueden ser entendidos como medios sujetos a la responsabilidad de sus programadores, operadores y usuarios. Atribuirles el lugar de sujetos racionales capaces de darse a sí mismos leyes morales o jurídicas no solo implica una confusión categorial, sino que amenaza con desdibujar los presupuestos de la imputación y del deber jurídico, desplazando de modo indebido la responsabilidad humana hacia la opacidad algorítmica.

Wittgenstein resalta que el significado de los términos jurídicos se sustenta en prácticas sociales compartidas, en arreglos institucionales concretos y en una forma de vida determinada, de manera que es posible identificarlo con patrones estadísticos de signos producidos por una máquina. Si se equipara la mera capacidad probabilística de un modelo a una participación efectiva en los juegos de lenguaje propios del foro, del legislativo o de la enseñanza del Derecho, se corre el riesgo de borrar la frontera entre la simple generación de textos verosímiles y la práctica, cargada de normatividad, de ofrecer y exigir razones en clave jurídica.

De ahí que el jurista esté llamado a desplegar, por un lado, un trabajo filosófico que le permita separar el manejo técnico de cadenas lingüísticas de la comprensión práctica inserta en una forma de vida, marcando los límites categoriales de hablar de interpretación o de juicio a propósito de la IA. Y, por otro, un trabajo jurídico que trace con nitidez la línea entre el uso legítimo de estos sistemas como apoyos en la búsqueda de información, la organización de materiales o la redacción, y la responsabilidad humana, que no es delegable, en la interpretación de las normas y en la adopción de decisiones que inciden en derechos, deberes y situaciones jurídicas concretas.

Entonces, el significado de una expresión no remite a una esencia oculta que habría que descubrir, sino a su empleo efectivo en prácticas sociales compartidas, regidas por criterios de corrección y ancladas en formas de vida que hacen posible el propio funcionamiento del lenguaje. Estas formas de vida incluyen entramados institucionales y prácticas normativas como sancionar, ordenar, justificar decisiones o describir situaciones jurídicas, de tal modo que lo que se da por sentado en una comunidad jurídica son esos patrones de uso estabilizados.

Este horizonte vislumbra una frontera conceptual frente a la pretensión de atribuir comprensión jurídica a los grandes modelos de lenguaje. Estos sistemas extraen y explotan regularidades estadísticas en secuencias de signos, pero no participan en la práctica intersubjetiva donde se fijan los estándares de corrección del lenguaje jurídico, no comparten la forma de vida institucional propia del proceso, de la deliberación legislativa o de la gestión administrativa. En Derecho el seguir una regla y decidir qué cuenta como aplicación correcta o incorrecta de una norma depende de prácticas y acuerdos interpretativos de una comunidad de operadores, y no de patrones formales desprendidos de su contexto de uso.

En el debate actual sobre IA se ha sugerido que los LLM pueden comportarse, en ciertos entornos conversacionales, como si fuesen usuarios funcionales del lenguaje, dado que producen respuestas coherentes en determinados intercambios. Sin embargo, eso no los convierte en miembros de pleno derecho de una comunidad lingüística ni legitima atribuirles estados mentales o compromisos normativos. Algunos tratadistas que articulan la noción de juegos de lenguaje con teoría de juegos y modelos computacionales muestran que los LLM se pueden representar como agentes estratégicos en interacciones lingüísticas, sin que por ello se satisfagan las condiciones pragmáticas y normativas de pertenencia a una práctica jurídica humana.

Para el Derecho, esta distinción es decisiva. Ya que igualar la capacidad generativa de los modelos con una interpretación del ordenamiento jurídico soslaya que la aplicación de normas es una práctica inferencial y pragmática de dar y pedir razones en marcos institucionales específicos. En este orden, el discurso producido por sistemas de IA puede cumplir un papel instrumental importante como apoyo en la búsqueda de información, en la organización de materiales o en la redacción, pero no se puede considerar fuente autónoma de voluntad normativa y mucho menos se puede considerar portador de razones en el sentido que exige la argumentación jurídica, que sigue siendo una tarea humana.

En la ética kantiana, el centro de gravedad normativo reside en la dignidad de la persona, concebida como un fin en sí y no como un instrumento disponible para designios ajenos; esa dignidad se ancla en la autonomía de la voluntad racional, que se da a sí misma la ley en forma de imperativos categóricos. Desde este punto de vista, solo los agentes racionales y libres, capaces de reconocerse bajo leyes morales que ellos mismos legislan, son propiamente imputables en sentido moral y jurídico, lo que excluye de ese estatuto a entidades no racionales, entre ellas los sistemas automatizados y las arquitecturas contemporáneas de inteligencia artificial.

En el campo jurídico, este enfoque impone cautela cuando se pretende delegar en tecnologías automatizadas decisiones que inciden sobre derechos fundamentales. La complejidad técnica y, en muchos casos, la opacidad de los algoritmos, de manera particular, de los modelos de lenguaje de gran escala, pueden minar la capacidad real de supervisión y de rendición de cuentas, generando un escenario en el que resulta difícil saber quién responde por la afectación de la autonomía o de la dignidad de las personas involucradas. En una clave kantiana, no es aceptable que tales sistemas asuman funciones decisorias sobre situaciones jurídicas concretas sin control humano racional, consciente y responsable, porque ello conduciría a una despersonalización de la responsabilidad incompatible con el respeto debido a la humanidad en cada sujeto.

Además, la delegación a herramientas tecnológicas no se puede entender como un simple acto discrecional de traslado de carga decisoria, sino que debe quedar sometida a límites normativos que garanticen transparencia, explicabilidad y posibilidad efectiva de impugnación, condiciones básicas de un Estado de Derecho que se toma en serio la autonomía y la dignidad de las personas. La apelación a hipotética neutralidad u objetividad de los modelos computacionales para legitimar decisiones judiciales o interpretaciones del Derecho exige, por tanto, un escrutinio ético, en la medida en que la responsabilidad última no se puede disolver en procedimientos algorítmicos. Desde una ética de la responsabilidad diseñadores, implementadores y usuarios de sistemas automatizados deben mantener un compromiso para asegurar que estos dispositivos sean medios auxiliares, sin erosionar el estatuto de los individuos como sujetos morales y jurídicos plenamente responsables de los actos que deciden y ejecutan.

¿Cómo le pareció el artículo?
+1
1
+1
0
+1
0
+1
0
+1
0

Por editor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *