Luis Guillermo Luigi Ramos Vergara- Doctor en Derecho y Magíster en Filosofía del Derecho y Teoría Jurídica. Profesor universitario. Magistrado de la Comisión Seccional de Disciplina Judicial de Bolívar y presidente de la Comisión de Género de la Rama Judicial en Bolívar.

Por: Luis Guillermo Luigi Ramos Vergara *

Harvard Law School ha consolidado una línea institucional dedicada a examinar la incorporación de la IA en el campo jurídico, subrayando tanto su potencial para apoyar tareas de predicción, análisis masivo y revisión documental, como los peligros asociados a la importación acrítica de sesgos presentes en los grandes modelos de lenguaje. Preocupa cómo tales sistemas manejan nociones de creencia, grados de confianza y afirmaciones de verdad, abriendo preguntas filosóficas sobre la forma en que un sistema algorítmico puede comunicar error en contextos donde las decisiones son jurídicamente atribuibles a personas, lo que pone sobre la mesa la necesidad de marcos regulatorios específicos para contener la reproducción y amplificación de discriminaciones algorítmicas.

University College London en iniciativas vinculadas a la Cátedra Unesco en IA, viene estudiando la inserción de estas tecnologías en la formación jurídica, partiendo de que el Derecho constituye un dominio intensamente textual, con grandes repositorios de jurisprudencia, legislación y doctrina que resultan atractivos para el aprendizaje automático. Sin embargo, informes dedicados al análisis de sesgos en modelos de lenguaje de gran escala subrayan la urgencia de formar a los futuros juristas en la lectura crítica de los resultados producidos por estas herramientas, de forma que el juicio interpretativo, anclado en los principios constitucionales y en los valores democráticos, no sea subordinado a la falsa apariencia de neutralidad de las correlaciones estadísticas.

CodeX de Stanford Law School estudia el impacto transversal de la IA generativa sobre profesiones reguladas como la abogacía, dando cuenta de cómo estas tecnologías están reconfigurando el ecosistema LegalTech a través de cambios en la estructura de costos, en los modelos de prestación de servicios y en la distribución del trabajo dentro de los despachos. Sus estudios evidencian tensiones entre eficiencia, calidad del asesoramiento y preservación de la dimensión pública de la profesión jurídica, y proponen abordajes que tengan en cuenta las barreras estructurales que suponen la dependencia de grandes volúmenes de datos propietarios y la centralidad del esquema de la hora facturable.

Los grandes modelos de lenguaje jurídicos (Legal LLMs) muestran hoy una capacidad técnica sobresaliente para tareas como identificar precedentes análogos, sugerir jurisprudencia pertinente o estimar el sentido probable de decisiones judiciales, apoyados en corpus legales especializados, técnicas de aprendizaje en contexto y representaciones estructuradas del ordenamiento. Pueden mejorar el desempeño de modelos generales en escenarios de zero/few‑shot, lo que los vuelve atractivos como infraestructura digital especializada; sin embargo, este rendimiento no altera su estatuto de herramientas instrumentales carentes de autonomía práctica o responsabilidad.

Estos Legal LLMs aprovechan la regularidad del lenguaje jurídico para realizar clasificación, extracción y recomendación con niveles de precisión que resultan útiles en práctica forense, compliance o análisis de riesgo. Pero, su modo de operación sigue siendo puramente estadístico ya que generan ideas verosímiles a partir de correlaciones en datos, pero sin comprensión teleológica del Derecho ni conciencia de las consecuencias normativas de sus respuestas.

Entonces, llamar interpretación jurídica a lo que hace un modelo de lenguaje es un desatino frente a hermenéutica kantiana o gadameriana. En Kant, la interpretación se vincula a la autonomía racional que se da a sí misma la ley; en Gadamer, a la historicidad del intérprete y al prejuicio productivo que orienta la fusión de horizontes entre texto y contexto. Ambos enfoques presuponen un sujeto que se reconoce responsable de sus juicios, algo que no se encuentra en un sistema de cómputo estadístico.

La dogmática jurídica ha alertado frente a la confusión entre correlaciones probabilísticas y atribución normativa ya que una cosa es que un modelo detecte regularidades en cómo se han resuelto ciertos casos, y otra muy distinta que eso sea suficiente como razón jurídica para decidir. El principio de motivación exige que las decisiones se fundamenten en argumentos comprensibles, reconstruibles y sometidos a crítica, no en puntuaciones opacas o en confianzas internas del modelo. Aceptar sin mediación crítica la salida de un Legal LLM como si fuera criterio es erosionar el núcleo deliberativo del Estado de Derecho.

Desde una lectura kantiana, delegar de facto la decisión en un sistema de IA implicaría desplazar la imputación desde un sujeto racional hacia un mecanismo que no puede responder moralmente por sus actos. Desde una perspectiva gadameriana, supondría ignorar que la comprensión jurídica es un proceso situado, atravesado por tradición, conflictos de interpretación y apertura al diálogo, que no puede reducirse a extrapolar patrones de un corpus.

Las alucinaciones normativas como referencias a normas inexistentes, lecturas abiertamente incompatibles con el texto o la jurisprudencia son un síntoma de esos límites y deben ser tratadas como errores relevantes que activan un deber reforzado de verificación, no como meros fallos técnicos. Éticamente, el punto no es solo corregir la salida, sino evitar que la opacidad probabilística diluya la responsabilidad del juzgador quien tiene la última palabra sobre el sentido del Derecho y la afectación de derechos y obligaciones sigue recayendo, en términos de dignidad y autonomía, en sujetos humanos que dan y responden por razones.

Ahora, desde una perspectiva constitucional y filosófica, el fenómeno no es neutro en la medida que afecta de manera directa cómo se distribuyen capacidades efectivas para litigar y deliberar en el espacio público jurídico. Si se leen estos cambios a la luz de la justicia como equidad de Rawls, la concentración de herramientas avanzadas de IA en grandes firmas y litigantes con alto músculo financiero agonda desigualdades de poder procesal, lo que choca con la exigencia de asegurar condiciones razonablemente igualitarias de acceso a los mecanismos que determinan derechos y deberes. En términos de igualdad de armas, principios análogos a los del artículo 14 CEDH y 8 CADH exigen que ninguna de las partes disponga de una ventaja tecnológica tan desproporcionada que vacíe de contenido la posibilidad real de contradicción y defensa, incluso si formalmente se respetan las reglas procesales.

En clave habermasiana, el riesgo es que la infraestructura algorítmica del foro quede en manos de pocos proveedores y grandes jugadores, inclinando de manera estructural la economía de la argumentación a favor de quienes pueden costear las mejores herramientas. Esto no solo compromete la igualdad procesal, sino la calidad de la deliberación pública porque si los argumentos viables que llegan a tribunales y organismos reguladores están prefiltrados por modelos entrenados sobre datos sesgados hacia intereses dominantes, la pretensión de imparcialidad del Derecho se erosiona desde su base material y se configura un oligopolio tecnológico en el campo jurídico, con capacidad de condicionar la agenda litigiosa y regulatoria de manera difícilmente visible para el ciudadano común.

En síntesis, la clave iusfilosófica consiste en orientar la IA hacia el robustecimiento del Estado de Derecho: usar la ganancia de eficiencia para ampliar el acceso a la justicia y la calidad de la deliberación, no para consolidar asimetrías de poder que minen la autonomía ciudadana y la dignidad procesal en el contexto de una democracia cada vez más digitalizada. 

Doctor en Derecho y Magíster en Filosofía del Derecho y Teoría Jurídica. Profesor universitario. Magistrado de la Comisión Seccional de Disciplina Judicial de Bolívar y presidente de la Comisión de Género de la Rama Judicial en Bolívar.

¿Cómo le pareció el artículo?
+1
2
+1
0
+1
0
+1
0
+1
0

Por editor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *