Fuente: Elaboración Propia
Autor:
Pablo Isaac López Vaca
La integración de la inteligencia artificial (IA) en la administración de justicia genera importantes interrogantes éticas y jurídicas que transforman nuestra comprensión del derecho. Las herramientas basadas en machine learning ya se utilizan en diversas jurisdicciones para predecir riesgos de reincidencia, evaluar la viabilidad de demandas y asistir en la redacción de sentencias (Goodman & Flaxman, 2017). Estos avances prometen eficiencia y objetividad, pero también introducen desafíos significativos que exigen un análisis desde la filosofía del derecho, particularmente desde el positivismo jurídico de H.L.A. Hart, cuya teoría resulta sorprendentemente pertinente para nuestra era digital.
La textura abierta del derecho y los algoritmos judiciales
Hart (1961/2012) argumentaba que el derecho posee inherentemente una «textura abierta»
—zonas de penumbra donde las reglas generales no ofrecen respuestas claras a casos particulares. En estos espacios, los jueces ejercen necesariamente cierta discrecionalidad interpretativa guiada por principios jurídicos y consideraciones contextuales. Esta visión contrasta con el determinismo algorítmico que caracteriza a muchos sistemas de IA judicial, que pretenden reducir decisiones complejas a fórmulas computables.
El sistema COMPAS, implementado en varios estados norteamericanos, ilustra esta tensión. Cuando el Tribunal Supremo de Wisconsin confirmó en State v. Loomis (2016) la legitimidad de su uso como herramienta auxiliar, estableció importantes salvaguardas: el algoritmo no debía ser el único factor determinante y los jueces conservaban la responsabilidad de evaluar críticamente sus recomendaciones (Martínez, 2019). Esta decisión refleja una preocupación hartiana: los algoritmos, al operar con reglas predefinidas, son incapaces de abordar adecuadamente la textura abierta inherente a muchas decisiones judiciales.
Transparencia algorítmica y regla de reconocimiento
La opacidad característica de los algoritmos de aprendizaje profundo constituye un desafío fundamental para los sistemas jurídicos. Estos modelos operan como «cajas negras» cuyas decisiones resultan difíciles de interpretar incluso para sus creadores (Burrell, 2016). Esta opacidad plantea un problema desde la perspectiva hartiana: si la «regla de reconocimiento» requiere que las decisiones judiciales sean fundamentadas y basadas en normas reconocibles, ¿cómo evaluar la legitimidad de decisiones apoyadas en algoritmos inescrutables?
El llamado «derecho a una explicación» ha generado intenso debate jurídico. Wachter et al. (2017) argumentan que el Reglamento General de Protección de Datos (RGPD) no establece explícitamente tal derecho, sino salvaguardas informativas más limitadas. Sin embargo, la reciente evolución jurisprudencial europea, ejemplificada en SCHUFA Holding AG v. LW (2022), muestra un progresivo reconocimiento de la necesidad de garantizar la comprensibilidad de las decisiones asistidas por algoritmos (Zalnieriute et al., 2023).
Desde una perspectiva hartiana, la opacidad algorítmica no es necesariamente incompatible con un sistema jurídico funcional, siempre que existan mecanismos intermedios de validación. Los algoritmos podrían integrarse como herramientas auxiliares, siempre que las reglas secundarias de reconocimiento y adjudicación — aplicadas por jueces humanos— mantengan la coherencia del sistema.
Sesgos algorítmicos y la pretensión de neutralidad jurídica
Estudios empíricos demuestran que sistemas como COMPAS exhiben sesgos sistemáticos, calculando mayores probabilidades de reincidencia para personas negras con historiales similares a personas blancas (Angwin et al., 2016). Estos hallazgos contradicen la pretensión de neutralidad algorítmica y plantean un desafío fundamental:
¿podemos permitir que decisiones judiciales se apoyen en sistemas que perpetúan desigualdades históricas?
Hart rechazaba tanto el formalismo jurídico como el determinismo sociológico que reduce el derecho a meros patrones de conducta social. Aplicando esta visión, los
algoritmos entrenados exclusivamente con datos históricos corren el riesgo de reproducir un determinismo sociológico que Hart consideraría insuficiente para un sistema jurídico legítimo.
La Ley de Inteligencia Artificial europea (2024/1689 de 13 de junio de 2024) aborda parcialmente esta preocupación al clasificar las aplicaciones judiciales de IA como «de alto riesgo». Sin embargo, esta aproximación regulatoria podría resultar insuficiente si no considera también la dimensión interpretativa que Hart identificó como esencial para el derecho.
Algunos investigadores proponen modelos de «fairness by design» que incorporan explícitamente principios jurídicos en el desarrollo algorítmico (Pessach & Shmueli, 2020). Esta aproximación, aunque prometedora, enfrenta la dificultad de traducir principios jurídicos abstractos a parámetros computacionales, reflejando la textura abierta del derecho que Hart identificó.
Responsabilidad jurídica en sistemas sociotécnicos complejos
La distribución de responsabilidad en sistemas judiciales algorítmicos constituye otro desafío fundamental. La cadena de desarrollo, implementación y uso involucra múltiples actores: ¿cómo asignar responsabilidad cuando una decisión algorítmica resulta errónea?
Hart distinguía entre distintos tipos de responsabilidad —causal, moral y jurídica— reconociendo la complejidad de este concepto (Hart, 2008). Esta distinción resulta particularmente relevante para sistemas algorítmicos, donde la causalidad técnica puede diferir de la responsabilidad jurídica. El caso Robodebt en Australia, donde un sistema automatizado generó miles de reclamaciones erróneas, ilustra esta complejidad: aunque técnicamente el sistema funcionaba según sus especificaciones, los tribunales determinaron que las autoridades eran jurídicamente responsables por su diseño fundamentalmente defectuoso (Carney, 2022).
La noción hartiana de responsabilidad como «adscripción» ofrece un marco valioso para abordar estos dilemas. La responsabilidad por decisiones algorítmicas debería asignarse según criterios normativos y contextuales, no simplemente técnicos. Esto justificaría que
los jueces mantengan la responsabilidad última por decisiones judiciales asistidas algorítmicamente, independientemente de su comprensión técnica del sistema.
Hacia un positivismo jurídico digital: propuestas prácticas
La integración responsable de algoritmos en sistemas judiciales requiere un marco normativo que reconozca tanto las potencialidades como las limitaciones de la automatización. Basándonos en la teoría hartiana, considero:
- Algoritmos interpretables y defensas procesales: Priorizar algoritmos intrínsecanente interpretables sobre modelos de «caja negra» cuando sea posible. El sistema HART (Harm Assessment Risk Tool) del Reino Unido ofrece un ejemplo parcial al combinar modelos complejos con interfaces explicativas para operadores judiciales (Oswald et al., 2018).
- Pluralismo metodológico: Los sistemas judiciales deberían incorporar múltiples metodologías complementarias para evaluaciones críticas. El sistema de justicia juvenil de Pensilvania complementa herramientas algorítmicas con evaluaciones cualitativas realizadas por trabajadores sociales (Stevenson & Doleac, 2021).
- Auditorías algorítmicas participativas: Las evaluaciones de impacto deberían incluir auditorías que involucren no solo a expertos técnicos, sino también a representantes de comunidades potencialmente afectadas. Iniciativas como el «Public Voice» en Nueva Zelanda, que incorpora perspectivas indígenas Māori, ofrecen modelos valiosos (Gavaghan et al., 2019).
- Capacitación judicial para una interpretación crítica: Los programas de formación judicial deberían desarrollar competencias específicas para la interpretación crítica de recomendaciones algorítmicas. El programa piloto de la Escuela Judicial española representa un paso inicial en esta dirección (Consejo General del Poder Judicial, 2022).
Conclusión: Hart en la era algorítmica
La teoría jurídica de Hart, con su énfasis en la textura abierta del derecho y la dimensión interpretativa de la práctica judicial, ofrece un marco conceptual sorprendentemente relevante para abordar los desafíos de la justicia algorítmica. Su comprensión del derecho
como práctica social normativa que requiere interpretación contextual resulta particularmente valiosa frente a la pretensión de reducir decisiones judiciales a cálculos deterministas.
Los sistemas judiciales contemporáneos deben evitar dos extremos igualmente problemáticos: un rechazo luddita de las herramientas algorítmicas, y una adopción acrítica que socave principios fundamentales de justicia. La perspectiva hartiana sugiere un camino intermedio: integrar algoritmos como herramientas auxiliares dentro de un marco interpretativo humano que preserve la legitimidad del sistema jurídico.
La implementación de la IA en la administración de justicia continuará planteando desafíos normativos que ningún marco teórico puede resolver definitivamente. Sin embargo, el positivismo jurídico de Hart, con su atención a la práctica social del derecho y su reconocimiento de la inevitable textura abierta de los conceptos jurídicos, proporciona orientaciones valiosas para navegar esta transformación tecnológica.
Bibliografía
- Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in- criminal-sentencing
- Burrell, J. (2016). How the machine «thinks»: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1), 1-12. https://doi.org/10.1177/2053951715622512
- Carney, T. (2022). Robo-debt illegality: The seven veils of failed guarantees of the rule of law? Alternative Law Journal, 47(1), 47-54. https://doi.org/10.1177/1037969X211068053
- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de la Unión Europea (Ley de Inteligencia Artificial) https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=OJ:L_202401689
- Consejo General del Poder Judicial. (2022). Plan de formación de la Escuela Judicial sobre tecnologías disruptivas. Servicio de Formación Continua.
- Gavaghan, C., Knott, A., Maclaurin, J., Zerilli, J., & Liddicoat, J. (2019). Government use of artificial intelligence in New Zealand. New Zealand Law Foundation.
- Goodman, B., & Flaxman, S. (2017). European Union regulations on algorithmic decision-making and a «right to explanation». AI Magazine, 38(3), 50-57. https://doi.org/10.1609/aimag.v38i3.2741
- Hart, H. L. A. (2008). Punishment and responsibility: Essays in the philosophy of law 2nd ed.). Oxford University Press. (Obra original publicada en 1968)
- Hart, H. L. A. (2012). The concept of law (3rd ed.). Oxford University Press. (Obra original publicada en 1961)
- Martínez, C. (2019). Inteligencia artificial, derecho y derechos fundamentales. Revista de Derecho Político, 106, 233-261. https://doi.org/10.5944/rdp.106.2019.26156
- Oswald, M., Grace, J., Urwin, S., & Barnes, G. C. (2018). Algorithmic risk assessment policing models: Lessons from the Durham HART model and ‘Experimental’ proportionality. Information & Communications Technology Law, 27(2), 223-250. https://doi.org/10.1080/13600834.2018.1458455
- Pessach, D., & Shmueli, E. (2020). Algorithmic fairness. arXiv preprint. https://doi.org/10.48550/arXiv.2001.09784
- Stevenson, M. T., & Doleac, J. L. (2021). Algorithmic risk assessment in the hands of humans. IZA Discussion Paper No. 14312. http://dx.doi.org/10.2139/ssrn.3489440
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99. https://doi.org/10.1093/idpl/ipx005
- Zalnieriute, M., Moses, L. B., & Williams, G. (2023). The rule of law and automation of government decision-making. The Modern Law Review, 86(1), 3-32. https://doi.org/10.1111/1468-2230.12715
