Contacta con nuestro equipo y resuelve tus dudas

La inteligencia artificial en la UE y el Derecho Penal

image

La primera resolución del Parlamento Europeo en materia de IA es la de 6/10/2021 (2020/2016(INI)), donde la prioridad es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Para ello, se establece que todos los sistemas de IA sean supervisados por personas, prohibiendo que se realice por métodos automatizados.

La primera norma de IA en Europa y pionera mundial es el Reglamento 2024/1689 del Parlamento Europeo (UE) y del Consejo, de 13/06/2024, por el que se establecen normas en materia de IA. Su entrada en vigor se efectúa en tres etapas: a nivel general, a los 24 meses de su publicación (junio de 2026); salvo para los sistemas regulados de alto riesgo, cuya vigencia será a los 36 meses. La prohibición de sistemas de IA de riesgo inaceptable se aplica desde el 2/02/2025, y las partes esenciales más básicas entran en vigor en junio de 2025.

El reglamento califica como riesgo inaceptable y prohibido por la UE aquellos sistemas que supongan manipulación cognitiva, como juguetes activados por voz que fomentan comportamientos peligrosos en niños o el reconocimiento facial en espacios públicos. Se permite la identificación biométrica «a posteriori» solo para perseguir delitos graves y con autorización judicial.

Se consideran de alto riesgo aquellos sistemas que afecten negativamente a la seguridad o a los derechos fundamentales. Todos ellos serán evaluados antes de su comercialización y supervisados durante todo su ciclo de vida.

El tratamiento de datos mediante IA ha crecido exponencialmente, generando grandes beneficios en eficiencia y precisión, pero también enormes riesgos para los derechos fundamentales y el Estado de Derecho.

Desde esta perspectiva, la IA debe ser un instrumento al servicio de las personas, con el objetivo de promover su bienestar, capacidades y seguridad.

(Imagen: E&J)

Algunas aplicaciones de IA han alcanzado niveles de rendimiento equiparables a expertos humanos en tareas específicas, como la tecnología jurídica o “legal tech”, ofreciendo resultados a gran velocidad y escala.

En el ámbito penal, la IA puede ayudar a reducir la delincuencia y se percibe como objetiva al aplicar el mismo algoritmo a todos. Sin embargo, existe el riesgo de sesgos que se retroalimentan en su aprendizaje.

Es fundamental garantizar que los derechos y libertades fundamentales se respeten en todo el ciclo de vida de la IA, especialmente en su diseño, desarrollo, despliegue y uso.

Los Estados miembros deben asegurar que las aplicaciones de IA judiciales y policiales sean transparentes y estén libres de sesgos, siendo supervisadas por personas cualificadas.

Las posibilidades de la IA en el ámbito policial son evidentes para prevenir y perseguir delitos financieros, blanqueo de capitales o ciberdelitos.

El reglamento impone controles sobre algoritmos y sanciona penalmente aquellos que infrinjan derechos fundamentales. Se enfoca en tecnologías como reconocimiento facial, de matrículas, voz, habla, lectura de labios, vigilancia auditiva, análisis predictivos, detección de fraudes financieros y vigilancia de redes sociales.

También existe el riesgo de ciberataques o de que los algoritmos sean contaminados por virus o troyanos.

El Derecho Penal tradicional actúa tras la comisión del delito, pero cada vez hay más delitos de peligro abstracto donde se sancionan medios preparatorios.

Originalmente, se protegía el bien jurídico ante el riesgo del resultado, pero hoy la barrera se adelanta al desvalor de la acción “ex ante”, bastando con que implique un riesgo en abstracto (como en los delitos contra la seguridad vial).

(Imagen: E&J)

Integrar algoritmos que vigilen a personas con base en grandes volúmenes de datos podría suponer un control estatal excesivo que vulnera el Estado de Derecho.

Es indispensable exigir control final humano judicial sobre procesos automatizados, y garantizar el pleno respeto de los Derechos fundamentales en cualquier aplicación de IA penal o policial.

El legislador debe evitar la vigilancia masiva mediante IA por infringir principios de necesidad y proporcionalidad.

El uso de IA por autoridades policiales o judiciales no debe generar desigualdad, exclusión o fractura social. Se debe profundizar en su impacto sobre los derechos de defensa, especialmente por la dificultad de acceder a información significativa sobre su funcionamiento o de impugnar sus resultados ante tribunales.

Debe garantizarse el derecho a una segunda instancia cuando las resoluciones judiciales se basen en evaluaciones de sistemas de IA, y prohibirse sanciones fundadas exclusivamente en decisiones automatizadas.

Finalmente, los algoritmos empleados deben ser explicables, transparentes, trazables y comprobables, garantizando su supervisión y uso con respeto escrupuloso a los derechos fundamentales.