INTELIGENCIA ARTIFICIAL Y PROCESO PENAL.
- Sinopsis
- Índice
La Inteligencia Artificial (IA) tiene innumerables ventajas, pero también problemas de gran calado ético a los que el derecho deberá dar respuesta porque su uso puede atacar derechos fundamentales básicos en el sistema de justicia penal. Los avances de las ciencias empíricas hacen que teorías como las de Lombroso recobren fuerza y que situaciones distópicas como Minority Report puedan llegar a predecirse con algoritmos. La pregunta que deberemos hacernos es hasta dónde estamos dispuestos a llegar por mantener la seguridad en las calles, sin olvidar que el artículo 24 CE hará de cortapisa a posibles avances de teorías de derecho penal del enemigo. La tensión entre identificar el riesgo y minimizar el daño no tiene una solución sencilla: ¿es posible minimizar el daño de aquellos que pueden ser erróneamente clasificados como de riesgo alto?, ¿es posible minimizar el daño de la sociedad si un infractor peligroso es clasificado erróneamente como riesgo bajo?
La IA en materia judicial se está desarrollando sin tener una base reflexiva suficiente sobre para qué y hasta dónde puede llegar. Es indispensable que pongamos el acento en los riesgos y en los límites de su uso. No porque partamos de una visión temerosa, sino porque la realidad apunta a que tanto la IA judicial como la IA policial nos van a acompañar y debemos ser capaces de marcar cómo lo harán no solo a partir de las posibilidades de su alcance, también deberemos identificar los peligros que su uso descontrolado puede traer consigo.
Predecir el futuro mirando al pasado conlleva el riesgo de que en el futuro se sigan repitiendo los mismos estereotipos de género, raza y religión que, poco a poco, vamos superando como sociedad. Debemos ser prudentes no solo en fase de aplicación de la IA, sino ir un paso más allá y preguntarnos quién hay detrás de la máquina, cómo se ha hecho el algoritmo, a quién beneficia y a quién perjudica -consciente o inconscientementeporque puede acabar por controlar el pensamiento.