1
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
Entre algoritmos y garantías: una revisión ctica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
ESTUDIOS / STUDIES
Entre algoritmos y garantías: una revisión crítica
sobre la inteligencia artificial en el proceso penal
Between Algorithms and Guarantees: A Critical Review of Artificial Intelligence in Criminal Proceedings
Carlos Enrique Ruiz Rajo
1
*
*Autor corresponsal: carlosruizrajo@gmail.com
Recibido: 01 de julio del 2025 / Aceptado: 13 de octubre del 2025
RESUMEN
Este artículo de revisión ofrece una mirada crítica y multidisciplinaria sobre el uso de la inteligencia
artificial (IA) en el proceso penal, partiendo de una preocupación central: ¿en qué condiciones puede
integrarse esta tecnología sin comprometer las garantías procesales ni el principio de verdad jurídica? Para
abordar esta cuestión, se analizan tres dimensiones clave: (i) los principios éticos que deben guiar el diseño
y la implementación de sistemas de IA, con énfasis en la explicabilidad y la rendición de cuentas; (ii) los
criterios de justificación epistémica necesarios para validar el conocimiento producido por estos sistemas
en entornos judiciales; y (iii) los riesgos específicos asociados a su aplicación en decisiones predictivas que
pueden afectar derechos fundamentales. A partir de este análisis, se identifican los límites y posibilidades
de una IA “procesalmente confiable”, así como las condiciones normativas, éticas y epistémicas que
deberían orientar su integración en los sistemas de justicia penal contemporáneos.
Palabras clave: Inteligencia artificial, proceso penal, explicabilidad, justificación epistémica, garantías
procesales, legalidad, ética judicial.
ABSTRACT
This review article offers a critical and multidisciplinary perspective on the use of artificial intelligence
(AI) in criminal proceedings, based on a central concern: under what conditions can this technology be
integrated without compromising procedural safeguards or the principle of legal truth? To address this
question, the analysis focuses on three key dimensions: (i) the ethical principles that should guide the design
and implementation of AI systems, with an emphasis on explainability and accountability; (ii) the epistemic
justification criteria required to validate the knowledge produced by these systems in judicial settings; and
(iii) the specific risks associated with their application in predictive decisions that may affect fundamental
rights. Based on this analysis, the article identifies the limits and possibilities of a “procedurally
trustworthy” AI, as well as the normative, ethical, and epistemic conditions that should guide its integration
into contemporary criminal justice systems.
1
Universidad Nacional de Huancavelica, Huancavelica, Perú
Rev. investig. cient. Erga omnes 2025; Vol 5, Num 2: 01-08
DOI: https://doi.org/10.54943/rceo.v5i2.763
ESTUDIOS
Esta obra está bajo una Licencia
Creative Commons Atribución 4.0
2
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
ESTUDIOS / STUDIES
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
Keywords: Artificial intelligence, criminal proceedings, explainability, epistemic justification, procedural
safeguards, legality, judicial ethics.
I. INTRODUCCIÓN
En la era digital, la inteligencia artificial se
presenta como una herramienta potencialmente
revolucionaria para el sistema judicial. Sin
embargo, su integración al ámbito penal exige
algo más que eficiencia técnica: exige
legitimidad, garantismo y respeto por la verdad
procesal. Lo que en un inicio fue presentado
como una herramienta capaz de optimizar
procesos, se ha convertido en un objeto de
análisis critico por sus efectos sobre principios
medulares del derecho procesal penal, como la
presunción de Inocencia, la imparcialidad del
juzgador y la búsqueda de la verdad. En la
actualidad, el uso de algoritmos predictivos,
como COMPAS (Correctional Offender
Management Profiling for Alternative
Sanctions), PSA (Public Safety Assessment) o
PRISMA (Predicción de Reincidencia mediante
Indicadores Sociales y Modelos Automatizados),
ha comenzado a incidir en decisiones judiciales
sensibles tanto en Estados Unidos a través de
herramientas como COMPAS y PSA y en
Colombia mediante PRISMA. Estas son
empleadas para la concesión de beneficios
penitenciaros o la estimación de reincidencia
(Torres López, 2023). Si bien estas tecnologías
prometen aumentar la eficiencia y reducir sesgos
humanos, también trae consigo nuevos desafíos
vinculados a la opacidad de sus decisiones, la
posibilidad de discriminación algorítmica y la
rdida de control judicial sobre los fundamentos
de las sentencias (Ortiz de Zárate, 2022)
El presente artículo se propone responder a la
siguiente pregunta: ¿en qué condiciones puede
integrarse la inteligencia artificial al proceso
penal sin afectar las garantías procesales ni el
principio de verdad jurídica? Para ello, se
adoptará un enfoque crítico y multidisciplinario
partir de tres dimensiones fundamentales: (i) los
principios éticos que deben regir su diseño y
aplicación; (ii) los criterios de justificación
epistémica necesarios para validar el
conocimiento que producen estos sistemas; y (iii)
los riesgos específicos asociados a su uso en la
predicción integral y garantista de estos aspectos
que permita avanzar hacia un modelo de IA penal
compatible con los principios de un Estado de
Derecho.
La revisión se basa en una selección intencionada
de textos académicos doctrinales, artículos
especializados y estudios de caso clave (como
COMPAS y PRISMA), priorizando trabajos que
aborden la relación entre IA, garantías procesales
y epistemología jurídica.
II. APLICACIONES DE LA IA EN EL
PROCESO PENAL
En los últimos años, la inteligencia artificial (IA)
ha ganado terreno en el ámbito penal como una
herramienta de apoyo a la toma de decisiones
judiciales. Su uso se ha justificado
principalmente en nombre de la eficiencia
procesal, la racionalización de recursos y la
posibilidad de tomar decisiones más informadas
a partir de grandes volúmenes de datos (Torres
López, 2023, p. 2). Estas promesas han
impulsado la adopción de algoritmos predictivos
capaces de evaluar el riesgo de reincidencia,
recomendar medidas de aseguramiento o
anticipar zonas con mayor probabilidad de
comisión delictiva.
Entre los instrumentos más destacados se
encuentran COMPAS, PSA y PRISMA, este
último desarrollado por la Fiscalía General de la
Nación en Colombia, dichos sistemas procesan
información como antecedentes penales, nivel
educativo, historial laboral, lugar de residencia y
otros datos sociodemográficos, para predecir el
riesgo de reincidencia o recomendar medidas
procesales.
Estos sistemas se basan en modelos de
aprendizaje automático (machine learning), los
cuales aprenden a identificar patrones de
conducta a partir de grandes bases de datos. Bajo
esta lógica, la IA puede emitir evaluaciones
cuantificadas de peligrosidad que, en teoría,
ayudan a los jueces a adoptar decisiones más
objetivas, libres de prejuicios subjetivos o
intuiciones infundadas.
No obstante, esta aparente neutralidad
matemática enfrenta críticas profundas. En
palabras de Torres López, “la capacidad
3
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
ESTUDIOS / STUDIES
predictiva basada en el conocimiento [...]
incrementa su eficacia para prevenir delitos [...],
pero también enciende alarmas sobre el respeto a
los derechos de los ciudadanos” (Torres López,
2023, p. 3). La idea de que más datos implica
mejores decisiones omite una dimensión crucial:
la calidad, el sesgo y la trazabilidad de esos datos.
La IA no predice el futuro, sino que reproduce
patrones del pasado y esos patrones pueden estar
impregnados de desigualdad, discriminación
estructural y decisiones judiciales previas
injustas.
III. EXPLICABILIDAD Y RENDICIÓN DE
CUENTAS: UNA ÉTICA PARA
MÁQUINAS QUE JUZGAN
Uno de los desafíos más relevantes en la
incorporación de sistemas de inteligencia
artificial (IA) al ámbito penal es garantizar que
las decisiones automatizadas o asistidas por
algoritmos puedan ser comprendidas, auditadas y
eventualmente revisadas. En este marco, el
principio de explicabilidad (también conocido
como explainability o XAI) ha emergido como
una exigencia ética y jurídica central en los
debates sobre IA confiable, particularmente en
contextos donde están en juego derechos
fundamentales como la libertad personal, el
debido proceso o la presunción de inocencia.
Ortiz de Zárate (2022), en su trabajo sobre la
ética de la IA en el sector público europeo,
sostiene que la explicabilidad es uno de los
cuatro principios esenciales propuestos por la
Unión Europea para una IA “digna de
confianza”, junto con la justicia, el respeto por la
autonomía humana y la prevención del daño.
Según la autora, explicabilidad no solo implica
que los resultados producidos por un sistema
puedan ser comprendidos por expertos, sino que
deben ser inteligibles para los propios afectados
y para los actores jurídicos que los utilizan. Esto
se relaciona directamente con la legitimidad
democrática de las decisiones públicas, incluida
la penal.
En otras palabras, no puede haber rendición de
cuentas sin una comprensión razonable de cómo
se produjo la decisión. La llamada “caja negra
algorítmica”, es decir, la opacidad inherente a
algunos sistemas de aprendizaje profundo (deep
learning), representa una amenaza para el control
judicial y la garantía del debido proceso. Cuando
ni jueces, ni abogados, ni imputados pueden
comprender los criterios sobre los cuales una IA
sugiere o impone una decisión, se rompe el
principio de transparencia que sustenta la
racionalidad procesal penal.
Esta preocupación se materializó con especial
fuerza en el caso estadounidense State v. Loomis,
donde un juez basó parcialmente su decisión de
sentencia en las recomendaciones del sistema
COMPAS, sin que el imputado ni su defensa
pudieran conocer los factores utilizados por el
algoritmo para clasificar su “riesgo de
reincidencia”. os después, se descubrió que
COMPAS incorporaba variables de raza en su
modelo de análisis, generando discriminación
algorítmica sistemática (Ortiz de Zárate, 2022, p.
331). Este caso ilustra la importancia de la
explicabilidad no solo como valor ético, sino
como garantía procedimental.
Como lo reveló una investigación de Angwin et
al. (2016), el sistema COMPAS presentaba
sesgos raciales sistemáticos, clasificando
erróneamente a personas negras como de mayor
riesgo de reincidencia, en comparación con
personas blancas con historiales similares.
Además de la transparencia, la explicabilidad
también contribuye a la confianza institucional y
al principio de rendición de cuentas. Como
señala la autora, los sistemas de IA utilizados en
entornos públicos deben estar sometidos a
estándares similares o incluso superiores a los
exigidos a las decisiones humanas: revisión,
impugnación, motivación y corrección. De lo
contrario, corremos el riesgo de sustituir
decisiones humanas, falibles, pero racionalmente
justificables, por decisiones automáticas sin
posibilidad de examen crítico.
“Cuando se produce un sesgo [...] que vulnera
derechos fundamentales, ¿cómo dirimimos
responsabilidades?” (Ortiz de Zárate, 2022, p.
332).
En este mismo sentido, Floridi, L. et al. (2018)
destacan que la explicabilidad no solo facilita la
transparencia, sino que es un requisito esencial
para proteger la autonomía humana frente a
decisiones automatizadas. Así también, Wachter,
Mittelstadt y Floridi (2017) subrayan la
necesidad de una trazabilidad normativa y
4
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
ESTUDIOS / STUDIES
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
técnica que permita auditar los sistemas
inteligentes en decisiones públicas.
En suma, el principio de explicabilidad se revela
como una condición sine qua non para que la
inteligencia artificial pueda ser usada
legítimamente en el proceso penal. No basta con
que un sistema sea técnicamente eficaz: debe ser
normativamente transparente, jurídicamente
responsable y epistémicamente comprensible. La
justicia penal no puede basarse en
recomendaciones opacas ni en cálculos
incuestionables. La autoridad epistémica sigue
siendo del juez, no del algoritmo.
IV. VERDAD PROCESAL Y
JUSTIFICACIÓN EPISTÉMICA
La incursión de la inteligencia artificial (IA) en
el proceso judicial ha sido celebrada, en muchos
casos, como una oportunidad para modernizar
procedimientos y delegar tareas a sistemas más
rápidos y consistentes. No obstante, esta
narrativa encierra lo que Nicolás Baquero Rairán
(2023) denomina un “mito instrumental”: la idea
de que la IA debe ser utilizada simplemente
como una herramienta técnica, sin mayor
reflexión sobre los efectos epistémicos que
genera en la estructura misma del proceso
judicial.
Según el autor, esta concepción instrumental ha
desplazado la discusión hacia preguntas de tipo
operativo ¿cómo implementarla? ¿dónde
usarla? ¿qué tareas puede automatizar?
dejando de lado una interrogante mucho más
profunda y decisiva: ¿qué tipo de verdad se
construye cuando se integra IA al proceso penal?
El derecho procesal no es solo una maquinaria
formal que garantiza trámites, sino un sistema de
producción y validación de conocimiento
jurídico y fáctico. Esta dimensión epistémica del
proceso es, en palabras de Baquero, el “conjunto
de problemas relacionados con las formas en que
se produce, evalúa y usa el conocimiento en el
proceso judicial” (2023, p. 5). Por tanto, toda
tecnología que interviene en este espacio
incluida la IA debe ser evaluada en función de
cómo altera o condiciona esa producción de
verdad.
Uno de los mayores riesgos identificados es el
fenómeno del sesgo automatizado (automated
decision bias). La IA aprende a partir de datos
históricos, pero esos datos suelen estar
impregnados de decisiones humanas previas
cargadas de discriminación, prejuicios o
desigualdades estructurales. Al replicar esos
patrones sin contexto, los sistemas algorítmicos
no corrigen errores del pasado, sino que los
amplifican bajo una apariencia de neutralidad
estadística.
“Si los datos sobre los que la IA construye su
conocimiento y decisiones no son ética o
moralmente neutrales, sus respuestas [...] pueden
llegar a afectar la búsqueda de la verdad en el
proceso” (Baquero Rairán ,2023, p. 5).
Otro efecto crítico es la deshumanización del
juicio, que ocurre cuando los actores procesales
fiscales, jueces, defensores comienzan a
confiar ciegamente en las recomendaciones de la
IA sin ejercer un control crítico. Esto lleva a una
peligrosa transferencia de la autoridad
epistémica: el algoritmo, que carece de
comprensión semántica o contexto normativo,
empieza a sustituir el juicio racional y
argumentado del juez (Pérez, M, 2024, p. 307-
308).
Frente a este panorama, Baquero propone un giro
metodológico: abandonar la mirada puramente
funcionalista y construir una teoría epistémica
del proceso judicial adaptada a la era digital. Para
ello, sugiere el desarrollo de criterios de
justificación epistémica que permitan evaluar
cuándo el conocimiento generado por la IA es
confiable, en qué condiciones puede ser
admitido, y qué garantías deben acompañar su
uso. Estos criterios deben dialogar con los
principios del debido proceso, la presunción de
inocencia y la valoración crítica de la prueba.
Por tanto, no se trata de rechazar la IA en
misma, sino de evitar que su uso socave las reglas
epistémicas que sustentan la legitimidad del
proceso penal.
En esa línea, Hildebrandt (2015) sostiene que el
uso de tecnologías inteligentes debe ir
acompañado de una reconstrucción de los fines
normativos del derecho, en tanto modifican las
condiciones mismas de cognición jurídica.
También Kitchin (2014) ha subrayado que los
algoritmos configuran nuevas epistemologías,
5
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
ESTUDIOS / STUDIES
donde el control humano puede debilitarse sin
garantías adecuadas.
A partir de estas consideraciones, resulta
imperioso reconocer que el introito de la
inteligencia artificial en el ámbito jurídico penal
no puede asumirse únicamente como una
cuestión instrumental. La transformación que
implican estas tecnologías alcanza dimensiones
más profundas, pues alteran los modos en que se
construye, valida y comunica el conocimiento
jurídico. En este sentido, si el proceso judicial
pierde su capacidad deliberativa o se reduce a una
secuencia de cálculos automatizados, se corre el
riesgo de erosionar su legitimidad normativa y
epistémica.
Como señalan Citron y Pasquale (2014), las
decisiones automatizadas pueden volverse
inmunes al escrutinio blico cuando están
basadas en modelos opacos y privatizados. Del
mismo modo, Eubanks (2018) advierte sobre la
automatización de la desigualdad, donde las
poblaciones más vulnerables son precisamente
las más afectadas por decisiones algorítmicas
mal reguladas.
En ese sentido, la opacidad en los sistemas
algorítmicos representa una amenaza directa a la
transparencia y control democrático de las
decisiones judiciales. Cuando estos modelos no
pueden ser auditados ni comprendidos, se
debilita el principio de rendición de cuentas.
En conclusión, la IA no solo transforma la
mecánica del juicio penal, sino que afecta la
forma en que se construye la verdad judicial. Si
se la utiliza sin control epistémico ni garantías
normativas, no solo estaremos automatizando
tareas, sino automatizando injusticias. Por ello,
toda incorporación de IA al proceso penal debe
responder a criterios racionales de justificación
del conocimiento, no solo a promesas de
eficiencia tecnológica.
V. PROPUESTA INTEGRADORA
La creciente adopción de inteligencia artificial en
el ámbito penal plantea un escenario de
oportunidades, pero también de profundas
tensiones entre eficiencia tecnológica y garantías
procesales. Aunque los distintos estudios
abordan el tema desde perspectivas diversas
como la ética, epistemología y aplicación
práctica, todos coinciden en un punto esencial: el
uso de IA en justicia penal debe estar orientado
por un marco normativo, ético y epistémico
robusto, que asegure su compatibilidad con el
Estado de derecho y los derechos fundamentales.
En primer lugar, desde una perspectiva jurídica,
cualquier sistema de IA implementado en el
proceso penal debe cumplir con los principios de
legalidad, debido proceso, presunción de
inocencia y tutela judicial efectiva. Esto implica
que las decisiones sugeridas o apoyadas por
algoritmos no pueden sustituir el juicio humano
ni operar como instancias autónomas, carentes de
control jurisdiccional. Como advierte Torres
López (2023), si se permite que estos sistemas
determinen perfiles de reincidencia o sugieran
medidas de aseguramiento sin supervisión
judicial crítica, se corre el riesgo de instaurar un
modelo de “justicia automatizada” ajeno a la
deliberación democrática (p. 7).
En segundo lugar, desde el plano ético, el uso de
IA debe orientarse por los cuatro principios
propuestos por la Unión Europea para una IA
confiable: justicia, respeto por la autonomía
humana, prevención del daño y explicabilidad
(Ortiz de Zárate, 2022, p. 330). En especial, la
explicabilidad cobra una relevancia central en el
proceso penal, donde las decisiones deben estar
debidamente motivadas, ser comprensibles para
las partes y revisables por órganos superiores.
Sin estos requisitos, la confianza pública en la
justicia “ya de por frágil” podría deteriorarse
aún más frente a decisiones opacas e
incomprensibles.
Pero no basta con que un sistema sea legal y
ético; debe además ser epistémicamente
justificable. Como sostiene Baquero Rairán
(2023), se requiere un marco de justificación
epistémica que permita validar el conocimiento
generado por la IA en entornos procesales. La
información procesada por algoritmos debe ser
rastreable, sujeta a crítica y evaluada dentro del
estándar probatorio del sistema penal. Para ello,
es indispensable establecer criterios de
admisibilidad, transparencia de datos y
trazabilidad de los razonamientos automatizados
(pp. 56). La IA no puede convertirse en una
fuente incuestionable de verdad, sino en un
instrumento auxiliar que se somete a las mismas
6
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
ESTUDIOS / STUDIES
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
reglas de escrutinio que cualquier otro medio
probatorio.
A modo de síntesis, la IA penal del futuro deberá
estar sustentada en tres pilares complementarios:
Legalidad garantista: subordinación a la
Constitución, al debido proceso y a la
estructura judicial.
Ética algorítmica: respeto por los derechos
fundamentales, evitando sesgos, opacidad y
deshumanización.
Epistemología procesal: generación de
conocimiento válido, racional y verificable,
compatible con los estándares de prueba
judicial.
Este enfoque integrador no rechaza la IA, pero la
reubica como herramienta sujeta al derecho, y no
como un sustituto de la función jurisdiccional.
Solo así podrá lograrse un equilibrio entre
innovación tecnológica y legitimidad
democrática, entre eficiencia operativa y justicia
sustantiva. El desafío no es tecnológico, sino
jurídico y filosófico: construir una IA penal que
no solo “funcione”, sino que piense en clave de
derechos, de razones y de verdad.
VI. CONSIDERACIONES PARA EL
CONTEXTO PERUANO
Si bien el debate sobre la inteligencia artificial en
el proceso penal ha tenido mayor desarrollo en
sistemas judiciales de Estados Unidos y Europa,
resulta imprescindible reflexionar sobre su
aplicación en el ámbito peruano. En el Perú, los
avances formales en la incorporación de IA en
decisiones judiciales aún son incipientes y
excepcionales. Hasta la fecha, se han registrado
principalmente dos experiencias puntuales:
El primer precedente corresponde al juez
Frank Paul Flores García, del Juzgado Civil
Transitorio de San Juan de Miraflores,
quien en el marco del Expediente 00052-
2022-18-3002-JP-FC-01 utilizó ChatGPT,
un modelo de lenguaje desarrollado por
OpenAI, como herramienta de apoyo en
una sentencia de pensión de alimentos. El
magistrado empleó el chatbot para aplicar
una técnica de proporción matemática que
permitiera calcular el monto de la
obligación alimentaria según los ingresos
de los progenitores. Si bien el juez dejó
constancia de que la decisión final fue de
carácter humano, esta sentencia constituye
el primer caso documentado de asistencia
de IA en una resolución judicial peruana
(Nomberto, 2023).
El segundo caso se dio en Arequipa, donde
el juez Jorge Luis Linares Cuadros, del
Segundo Juzgado Constitucional, ha
incorporado la IA como una herramienta
para promover la accesibilidad de las
sentencias judiciales. Mediante el uso de la
aplicación NotebookLM, el magistrado
genera resúmenes automatizados en
lenguaje claro, especialmente dirigidos a
personas en situación de vulnerabilidad.
Estos resúmenes se incluyen en la parte
resolutiva de las decisiones judiciales, en
concordancia con el Plan de Gobierno del
Poder Judicial 20252026 y las Reglas de
Brasilia, que promueven un acceso efectivo
a la justicia (Grupo Lex, 2025).
Estas experiencias, aunque valiosas, no
representan aún un uso institucionalizado ni
estandarizado de la inteligencia artificial en el
proceso penal peruano. Sin embargo, el avance
tecnológico y la presión por modernizar el
sistema de justicia hacen que esta discusión no
sea meramente teórica.
El tránsito hacia un modelo procesal penal
acusatorio con énfasis en la oralidad,
inmediación y contradicción, plantea desafíos
únicos ante una eventual incorporación de
herramientas algorítmicas. En etapas críticas
como la prisión preventiva, la calificación del
riesgo procesal o la predicción de reincidencia, el
uso de IA podría comprometer garantías básicas
si no se somete a control jurisdiccional estricto, a
criterios claros de admisibilidad probatoria y a
condiciones de transparencia.
Además, el contexto peruano se caracteriza por
asimetrías estructurales en el acceso a la justicia,
brechas digitales y limitada capacitación técnica
de los operadores jurídicos, lo que incrementa el
riesgo de que la IA amplifique desigualdades
existentes o se utilice sin comprensión plena de
su funcionamiento.
Por ello, cualquier intento de incorporar
tecnologías predictivas en el proceso penal
peruano deberá estar precedido de una reforma
normativa específica, así como de una evaluación
7
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
ESTUDIOS / STUDIES
técnica, ética y epistémica rigurosa que garantice
su compatibilidad con el debido proceso y los
derechos fundamentales.
VII. CONCLUSIONES
Como se ha mostrado en esta revisión crítica, la
incorporación de la inteligencia artificial en la
justicia penal plantea desafíos que han sido
abordados desde distintas disciplinas y enfoques
teóricos. A partir del análisis de tres ejes
fundamentales: principios éticos (como la
explicabilidad y la rendición de cuentas),
criterios de justificación epistémica y riesgos
derivados de decisiones predictivas donde se
identifican tanto riesgos compartidos como
propuestas convergentes, que apuntan hacia una
integración procesalmente confiable, orientada
por condiciones normativas, éticas y epistémicas
claras.
En primera instancia, es innegable que los
algoritmos pueden ofrecer ventajas prácticas:
mayor rapidez en la gestión de expedientes,
predicción de riesgos con base estadística,
análisis automatizado de información masiva.
Sin embargo, como han advertido los autores
revisados, estas herramientas tienden a operar en
condiciones de opacidad, reproduciendo sesgos
estructurales y erosionando la posibilidad de
rendir cuentas, un principio básico en todo estado
constitucional de derecho.
En segundo término, se ha demostrado que el
razonamiento epistémico del juez no puede ser
delegada al algoritmo. La IA puede asistir en la
toma de decisiones, pero no reemplazar la
deliberación humana, ni mucho menos desplazar
el análisis probatorio fundado en el
contradictorio, la inmediación y la motivación
razonada. Pretender lo contrario implicaría
aceptar una forma tecnocrática de justicia
incompatible con los ideales del proceso penal
garantista.
Ahora bien, estas discusiones no son ajenas al
contexto peruano. El proceso penal en el Perú, en
su tránsito hacia un modelo acusatorio
adversarial, ha centrado sus esfuerzos en reforzar
los principios de oralidad, inmediación,
contradicción y publicidad. Justamente por ello,
cualquier intento de incorporar eventualmente la
IA en etapas sensibles del proceso penal como la
prisión preventiva, la valoración de peligrosidad
o la predicción de reincidencia debe someterse a
un estándar estricto de constitucionalidad y
control judicial.
VIII. REFERENCIAS
Angwin, J., Larson, J., Mattu, S. y Kirchner, L.
(2016). Sesgo de las máquinas: se
utiliza software en todo el país para
predecir futuros delincuentes. Y está
sesgado contra la población negra.
ProPublica, edición en línea.
Baquero Rairán, N. (2023). Criterios de
justificación epistémica para el uso de la
inteligencia artificial en el proceso
judicial. IIBDP.
Eubanks, Virginia. (2018). Automatización de la
desigualdad: cómo las herramientas de
alta tecnología perfilan, vigilan y
castigan a los pobres. Nueva York: St.
Martin´s Press.
Floridi, L. et al. (2018). Artificial Intelligence
and the “Good Society”: the US, EU,
and UK approach. Science and
Engineering Ethics, 24(2), 505528.
Grupo Lex. (2025). Juez usa inteligencia
artificial para explicar sentencias a
litigantes vulnerables. LP-Pasión por el
Derecho. https://lpderecho.pe/juez-
inteligencia-artificial-explicar-
sentencias-litigantes-vulnerables/
Hildebrandt M. (2020). La inteligencia artificial
del Derecho de la Unión Europea.
Revista de Derecho Alemán.21(1):74-
79. doi:10.1017/glj.2019.99.
Kitchin, R. (2014). ¿La ciudad en tiempo real?
Big data y urbanismo inteligente.
GeoJournal. 79, 114.
https://doi.org/10.1007/s10708-013-
9516-8
Nomberto, I. (2023). Primera sentencia en Perú
con uso de ChatGPT: ¿cómo se resolvió
este caso asistido por la IA? (internet)
La República.pe.
Ortiz de Zárate Alcarazo, L. (2022).
Explicabilidad (de la inteligencia
artificial). EUNOMÍA Revista en
8
Rev. investig. cient. Erga omnes 2025; Vol 5, Núm 2: 01-08
ESTUDIOS / STUDIES
Entre algoritmos y garantías: una revisión crítica sobre la
inteligencia artificial en el proceso penal
Ruiz C.
Cultura de la Legalidad, 22, 328344.
https://doi.org/10.20318/eunomia.2022.
6819
Pasquale, Frank A. y Daniell Keats Citron.
(2014). «La segunda sociedad: debido
proceso para predicciones
automatizadas». Legal Studies
Research Paper Washington Law
Review 1, número 89.
Pérez-Ugena, María. (2024). La inteligencia
artificial: definición, regulación y
riesgos para los derechos
fundamentales. Estudios de Deusto.
Revista de Derecho Público, vol. 72,
número 1, pp. 307-337. ISSN 0423-
4847 / eISSN 2386-9062. DOI:
10.18543/ed.3108
Torres López, J. A. (2023). Códigos y condenas:
La predicción de conductas punibles en
la era de la inteligencia artificial.
Diálogos Punitivos.
https://dialogospunitivos.com/wp-
content/uploads/2024/06/Columna-de-
interes-38.pdf.