Blog Lab
Inteligencia artificial en el ámbito judicial: riesgos y garantías en la protección de datos personales
La incorporación de sistemas de inteligencia artificial en el ámbito judicial abre nuevas posibilidades para el análisis de datos y la valoración de pruebas, pero también plantea riesgos relevantes para la protección de los datos personales y otros derechos fundamentales. En este contexto, el nuevo marco europeo de regulación de la inteligencia artificial introduce garantías adicionales que deben interpretarse de forma coherente con las exigencias ya previstas en el Reglamento General de Protección de Datos.
Inteligencia artificial y práctica jurídica
La inteligencia artificial ha dejado de ser una tecnología ajena al ejercicio del Derecho para convertirse en una herramienta cada vez más presente, tanto en la práctica de la abogacía como en el funcionamiento de la administración de justicia.
Sistemas capaces de analizar grandes volúmenes de resoluciones judiciales, identificar patrones jurisprudenciales, asistir en la elaboración de escritos o realizar estimaciones sobre posibles resultados procesales comienzan a integrarse en el trabajo diario de los y las profesionales del Derecho.
Desde una perspectiva práctica, el uso de estas herramientas aporta beneficios evidentes. Permiten optimizar tiempos, acceder de forma más eficiente a información compleja y abordar tareas que, por su volumen o complejidad, resultarían difícilmente asumibles mediante medios exclusivamente humanos. En un contexto de sobrecarga estructural de los órganos judiciales, estas soluciones se presentan, además, como un posible apoyo para mejorar la eficiencia del sistema.
No obstante, su utilización no es neutra desde el punto de vista jurídico. En la mayoría de los casos, los sistemas de inteligencia artificial empleados en el ámbito judicial operan sobre datos personales, incluidos datos especialmente sensibles vinculados a procedimientos judiciales, lo que sitúa su uso en una zona de especial relevancia para la protección de datos y los derechos fundamentales.
Por ello, el empleo de sistemas de inteligencia artificial en contextos judiciales plantea riesgos específicos que deben ser analizados con cautela. Entre ellos destaca, en primer lugar, el tratamiento masivo de datos personales procedentes de resoluciones judiciales, expedientes o bases de datos procesales, en ocasiones con finalidades que van más allá de aquellas para las que los datos fueron recogidos inicialmente.
A ello se suma la posible opacidad de los algoritmos utilizados, que dificulta conocer con precisión cómo se procesan los datos, qué variables resultan determinantes y de qué forma se alcanzan determinadas conclusiones o recomendaciones. Esta falta de transparencia puede afectar directamente al ejercicio de derechos como el acceso, la oposición o la obtención de información significativa sobre la lógica aplicada en los tratamientos automatizados.
Todo ello obliga a considerar estos tratamientos como de alto riesgo desde la perspectiva de los derechos fundamentales.
La protección de los datos personales en el uso de la inteligencia artificial para la práctica judicial
Antes de que existiera una regulación específica sobre inteligencia artificial, el ámbito judicial europeo ya identificó los riesgos asociados a estas tecnologías. En este contexto, la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) del Consejo de Europa aprobó en 2018 la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales. Este documento, dirigido tanto a organismos públicos como a empresas y desarrolladores de soluciones tecnológicas, estableció una serie de principios orientados a garantizar un uso responsable de la inteligencia artificial en la justicia.
La Carta no tenía carácter vinculante, pero anticipó muchas de las preocupaciones que posteriormente recogería el legislador europeo. Su relevancia radica en haber situado, desde una fase temprana, la protección de datos y la dignidad de las personas en el centro del debate sobre la automatización de procesos judiciales.
Desde una perspectiva práctica, el uso de sistemas de inteligencia artificial en la justicia, obliga a prestar una atención especial a la forma en que se tratan los datos personales que alimentan estos sistemas. La utilización de grandes volúmenes de resoluciones judiciales y expedientes procesales plantea exigencias reforzadas en términos de calidad, seguridad y trazabilidad de la información, ya que cualquier sesgo, error o reutilización indebida de los datos puede trasladarse directamente a los resultados generados por la herramienta.
En este contexto, la protección de datos no puede abordarse como una obligación formal, sino como un elemento estructural que condiciona la legitimidad misma del uso de la inteligencia artificial en el ámbito judicial.
Esta necesidad de cautela se intensifica cuando los tratamientos afectan a datos especialmente sensibles, una circunstancia habitual en los procedimientos penales. La experiencia demuestra que la supresión de datos identificativos en resoluciones judiciales no siempre garantiza una anonimización efectiva, dado el elevado riesgo de reidentificación mediante el cruce con otras fuentes de información.
La utilización de estos datos por sistemas de inteligencia artificial puede favorecer prácticas de perfilado, generar efectos discriminatorios o comprometer la dignidad de las personas afectadas, lo que exige un control humano real y una aplicación especialmente estricta de los principios de minimización, limitación de la finalidad y proporcionalidad en el tratamiento de datos.
El Reglamento europeo de inteligencia artificial y el enfoque basado en el riesgo
La aprobación del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (REIA), supone un paso decisivo en la regulación de estas tecnologías. La norma adopta un enfoque basado en el riesgo, estableciendo obligaciones más estrictas cuanto mayor sea el impacto potencial de los sistemas sobre los derechos fundamentales.
En este marco, determinados usos de la inteligencia artificial en el ámbito judicial se encuadran dentro de la categoría de sistemas de alto riesgo, lo que implica exigencias reforzadas en materia de gobernanza, calidad de los datos, documentación, supervisión humana y control del funcionamiento de los sistemas.
Desde la práctica jurídica, uno de los elementos más relevantes de este nuevo marco normativo es que el REIA no altera ni desplaza el marco europeo de protección de datos, sino que lo complementa. El Reglamento de IA se aplica sin perjuicio del Reglamento General de Protección de Datos (RGPD), de la Directiva (UE) 2016/680 en el ámbito penal y del resto de normativa sectorial en materia de privacidad, más bien las refuerza en aquellos contextos en los que el uso de estas tecnologías puede generar mayores riesgos. En el ámbito judicial, donde los sistemas de inteligencia artificial suelen operar sobre datos personales de forma estructural, resulta imprescindible recordar que la utilización de estas herramientas no crea por sí misma una base jurídica autónoma para el tratamiento de datos, ni exonera del cumplimiento de los principios de licitud, minimización y limitación de la finalidad.
Esta exigencia cobra una especial intensidad cuando los sistemas de inteligencia artificial se alimentan de datos sensibles, una circunstancia habitual en procedimientos penales y en otros ámbitos del Derecho con fuerte impacto en la esfera personal de las personas afectadas. La reutilización masiva de resoluciones judiciales o la elaboración de perfiles a partir de antecedentes o patrones de comportamiento, pueden amplificar riesgos de discriminación y estigmatización si no se articulan salvaguardas adecuadas.
En este contexto, el enfoque basado en el riesgo obliga a integrar mecanismos efectivos de supervisión humana y a realizar evaluaciones previas que permitan identificar y mitigar los impactos del tratamiento de datos personales antes de que los sistemas sean desplegados, situando la protección de datos como un elemento central de la gobernanza de la inteligencia artificial en la justicia.
Retos prácticos para la abogacía y la administración de justicia
Desde la práctica jurídica, el uso de inteligencia artificial en el ámbito judicial plantea retos concretos que no pueden ignorarse. Entre ellos destacan:
- la delimitación de responsabilidades entre desarrolladores, proveedores y usuarios de los sistemas;
- la determinación de la base jurídica adecuada para los tratamientos de datos personales;
- la gestión de datos de terceros no directamente implicados en los procedimientos;
- la necesidad de documentar decisiones y evaluaciones de impacto de forma comprensible y trazable.
Estos retos exigen una implicación activa de los y las profesionales del Derecho, que deben participar en el diseño, selección y uso de estas herramientas, incorporando la protección de datos y los derechos fundamentales desde las fases iniciales.
Innovación sí, pero con garantías
La inteligencia artificial ofrece oportunidades reales para mejorar el funcionamiento de la justicia y la práctica de la abogacía, pero su despliegue no puede hacerse a costa de debilitar las garantías que protegen a las personas. El marco europeo actual, integrado por el RGPD y el REIA, proporciona instrumentos suficientes para avanzar hacia una innovación responsable.
La clave no reside en frenar el uso de estas tecnologías, sino en asegurar que su desarrollo y aplicación se realicen bajo principios de transparencia, control humano y respeto efectivo de los derechos fundamentales, especialmente en un ámbito tan sensible como el judicial.
Nota: El presente artículo ha contado con apoyo de IA en tareas de revisión y mejora del estilo, sin que ello afecte a la autoría ni al contenido jurídico del texto, que corresponde íntegramente a su autora
Los contenidos, opiniones o comentarios publicados en este sitio web son responsabilidad exclusiva de sus autores y no reflejan ni sustituyen las comunicaciones oficiales, visión o directrices de la AEPD.