Algoritmos para la predicción de la delincuencia

A medida que la tecnología expande su huella en casi todos los ámbitos de la vida contemporánea, algunas esferas plantean cuestiones particularmente acuciantes que revelan tendencias más amplias. El sistema de justicia penal es uno de esos ámbitos, en el que los sistemas automatizados se están adoptando de forma generalizada, y en el que los activistas y defensores están empezando a contraatacar con políticas alternativas que buscan mejorar las desigualdades existentes en lugar de fomentarlas y exacerbarlas.

Implementación de nuevos métodos en la Justicia Penal

Por ello, los llamamientos a la modernización y la reforma de la justicia penal se manifiestan a menudo como un rápido avance hacia los procesos automatizados en muchos sistemas penales. Numerosas jurisdicciones están adoptando herramientas digitales a todos los niveles, desde la policía hasta la libertad condicional, con el fin de promover la eficiencia y la equidad. Sin embargo, los críticos sostienen que los sistemas mecanizados -impulsados por el Big Data, la inteligencia artificial y los algoritmos codificados por humanos- están dando paso a una era de vigilancia policial expansiva, elaboración de perfiles digitales y métodos punitivos que pueden intensificar las desigualdades estructurales. Desde este punto de vista, los sesgos integrados en los algoritmos pueden servir para profundizar las desigualdades, a través de sistemas automatizados construidos en plataformas que son opacas y no reguladas; asimismo, las nuevas tecnologías policiales y de vigilancia a menudo se despliegan de manera desproporcionada hacia los segmentos vulnerables de la población. En una época de saturación digital y de rápidos cambios en las normas sociales, estas visiones contrapuestas de la eficiencia y la desigualdad se manifiestan por excelencia en el ámbito de la justicia penal.

Siguiendo este arco, los discursos críticos sobre la tecnología y el control social han sacado a la luz cómo los algoritmos de toma de decisiones pueden ser un mecanismo para reforzar las relaciones sociales opresivas y promulgar nuevos modos de perfil racial, como sostiene Safiya Umoja Noble en su libro de 2018, Algorithms of Oppression. Desde este punto de vista, el uso del aprendizaje automático y la inteligencia artificial como herramientas de justicia puede producir patrones de desigualdad racial y socioeconómica que se refuerzan a sí mismos. Como discierne Cathy O’Neil en Weapons of Math Destruction (2016), los modelos emergentes, como la «policía predictiva», pueden exacerbar los impactos dispares al perpetuar las políticas basadas en datos por las que, debido a la fuerte correlación entre la pobreza y la delincuencia denunciada, los pobres siguen quedando atrapados en estas redes digitales. Y en Automating Inequality (2018), Virginia Eubanks explica además cómo las comunidades marginadas se enfrentan a las cargas más pesadas del escrutinio de alta tecnología, incluso cuando el uso generalizado de estos sistemas impacta en la calidad de la democracia para todos nosotros. En charlas derivadas de su libro de próxima aparición Halfway Home, Reuben Miller avanza el concepto de supervisión masiva como una extensión de los sistemas de encarcelamiento masivo; mientras que este último ha suscitado un gran análisis crítico en los últimos años, el primero es potencialmente más peligroso como una consecuencia de los patrones de vigilancia masiva y la erosión de la privacidad en la era digital, que conduce a lo que Miller denomina una sociedad supervisada.

Vigilancia digital y supervisión de masas

Las técnicas de vigilancia digital repercuten en toda la población, pero la vanguardia de las tecnologías reguladoras y punitivas se aplica más directamente a las comunidades que ya están excesivamente vigiladas. Algunos estudiosos y críticos han descrito estas tendencias bajo el nombre de «encarcelación electrónica», llamando a los métodos que utilizan dispositivos de rastreo y vigilancia para ampliar las prácticas de control social que afectan doblemente a las comunidades vulnerables. Como escribió recientemente Michelle Alexander en el New York Times, estas modalidades de penalización digital se basan en secretos corporativos y en un impulso poco disimulado hacia la «criminalización perpetua», constituyendo lo que ella denomina «el nuevo Jim Crow«. Sin embargo, aunque los sectores marginados son los más directamente afectados, como uno de los informantes de Eubanks nos advirtió a todos: «Tú eres el siguiente».

Los defensores de los métodos de justicia automatizados y algorítmicos suelen pregonar la capacidad de estos sistemas para reducir o eliminar los sesgos humanos, lograr una mayor eficiencia y coherencia de los resultados y mejorar las desigualdades existentes mediante el uso de mejores datos y resultados más rápidos. Esta tendencia es evidente en una miríada de jurisdicciones de Estados Unidos en particular, ya que los tribunales de todo el país están haciendo un mayor uso de algoritmos informáticos para ayudar a determinar si los acusados deben ser liberados en la comunidad mientras esperan el juicio. En 2017, por ejemplo, Nueva Jersey introdujo un sistema de «evaluación de riesgos» en todo el estado que utiliza algoritmos y grandes conjuntos de datos para determinar la fianza, que en algunos casos sirve para suplantar potencialmente la discreción judicial por completo.

Muchos han criticado estos procesos, señalando que estas decisiones automatizadas sólo son tan buenas como los puntos de datos utilizados, que a menudo están contaminados tanto por los sesgos subjetivos preexistentes como por las acumulaciones previas de sesgos estructurales registrados en los registros de las personas basados en ellos. Los algoritmos desplegados para estos fines se conciben principalmente como «técnicas patentadas» que son en gran medida opacas y están ocultas al escrutinio público; como afirma un reciente artículo de la revista jurídica, podemos estar en proceso de abrir la caja negra algorítmica de Pandora. Al evaluar estas técnicas emergentes, los investigadores de la Universidad de Harvard han expresado así un par de preocupaciones relacionadas: (1) la crítica necesidad de que las decisiones algorítmicas sean explicables para satisfacer tanto los imperativos legales como los éticos, y (2) el hecho de que los sistemas de IA pueden no ser capaces de proporcionar razones interpretables por los humanos para sus decisiones, dada su complejidad y capacidad para dar cuenta de miles de factores. Esto plantea cuestiones fundamentales de justicia, ética y responsabilidad, pero en la práctica este debate corre el riesgo de quedar en suspenso por la aplicación generalizada.

¿Cuáles son los posibles efectos?

El efecto neto de la adopción de mecanismos digitales para la vigilancia y el control de la delincuencia sin un mayor escrutinio puede dar lugar a una sociedad dividida en la que el funcionamiento interno y las relaciones de poder asociadas de estas herramientas son casi completamente opacas y, por tanto, están protegidas de la crítica, mientras que las manifestaciones externas están concretamente inscritas y son socialmente omnipresentes. El programa de radio SPARK de la CBC examinó recientemente una serie de estas nuevas tecnologías policiales, desde las cámaras corporales y las aplicaciones virtuales Ride-Along hasta las que, como Shot Spotter, se basan en los datos obtenidos de una amplia red de dispositivos de grabación instalados en espacios públicos. Al evaluar críticamente los beneficios tan anunciados de estas nuevas herramientas como «Thin Blue Lie», Matt Stroud cuestiona la opinión predominante de que estas tecnologías son innovaciones intrínsecamente útiles, argumentando, en cambio, que en realidad han hecho que el trabajo policial sea más imprudente, discriminatorio y no rinda cuentas.

Esto ha provocado una reciente oleada de intervenciones críticas y esfuerzos de resistencia, incluyendo una red galvanizada bajo el lema «Challenging E-Carceration». En este léxico, se argumenta que la E-Carcelación puede ser la sucesora del encarcelamiento masivo, ya que cambiamos las celdas de las prisiones por el confinamiento en nuestros propios hogares y comunidades. Los impactos acumulados de esta potencial ampliación de la red de mecanismos de aplicación de la ley incluyen nuevas tecnologías que recopilan información sobre nuestra vida cotidiana, como los lectores de matrículas y el software de reconocimiento facial. Como sugirió Miller en su invocación de la «supervisión de masas» como la extensión lógica de tales patrones y prácticas, estos efectos pueden ser percibidos de forma más inmediata por aquellos que ya están sobrecargados por los sistemas de control de la delincuencia, pero los impactos son precursores de formas más amplias de control social.

Por ello, algunos defensores han empezado a reclamar una forma de «santuario digital». Una importante intervención en esta línea ha sido ofrecida por la Fundación Sunlight, que aboga por una gestión responsable de los datos municipales. Su detallada propuesta parte de las implicaciones de justicia más amplias inherentes a las tecnologías emergentes, y pide a las ciudades que establezcan políticas digitales sólida. En particular, se insta a que las ciudades no recojan información sensible a menos que sea absolutamente necesario hacerlo, y asimismo deben documentar públicamente todas las políticas, prácticas y solicitudes que den lugar a compartir información. A la luz del creciente uso de los sistemas de recopilación de datos, este marco reclama protecciones que beneficien a las poblaciones vulnerables y a todos los residentes.

A pesar de estos esfuerzos, nos quedan las preguntas críticas de si el debate se pondrá al día con las tendencias de utilización, y cómo la trayectoria de las herramientas seguirá evolucionando si no se controla. Como Adam Greenfield preguntó lastimosamente en su libro de 2017 Radical Technologies: «¿Podemos hacer otra política con estas tecnologías? Podemos utilizarlas de manera que no se limiten a reproducir acuerdos de poder demasiado conocidos?». Esta es la tarea general que tenemos entre manos, incluso cuando las oportunidades de supervisión pública parecen seguir siendo esquivas.

Amster, R. (2015). Peace Ecology. Paradigm.
The Society Pages. (s/f-c). Tracking changes: The digitization of justice – cyborgology. Thesocietypages.org. Recuperado el 9 de noviembre de 2021, de https://thesocietypages.org/cyborgology/2019/10/11/tracking-changes-the-digitization-of-justice/
¿Te ha gustado este artículo?