Algoritmos predictivos y perspectiva de género en el proceso penal

  1. Ana Montesinos García 1
  1. 1 Universitat de València
    info

    Universitat de València

    Valencia, España

    ROR https://ror.org/043nxc105

Revista:
IDP: revista de Internet, derecho y política = revista d'Internet, dret i política

ISSN: 1699-8154

Año de publicación: 2023

Título del ejemplar: "Digitalització i algoritmització de la justícia"

Número: 39

Tipo: Artículo

DOI: 10.7238/IDP.V0I39.416439 DIALNET GOOGLE SCHOLAR lock_openDialnet editor

Otras publicaciones en: IDP: revista de Internet, derecho y política = revista d'Internet, dret i política

Objetivos de desarrollo sostenible

Resumen

The introduction in the judicial process of algorithmic risk assessment tools to assist the judge must necessarily be preceded by a comprehensive analysis with a gender perspective about their impact on the fundamental rights of the parties that may be seriously affected, mainly that of equality. This work reflects on the possible incorporation of predictive tools at different stages of a criminal process to then examine the problem of gender biases that they may contain and their consequences in the framework of a process.

Referencias bibliográficas

  • AHN, S.; COSTIGAN, A. (2019, diciembre). «Trend Brief: How AI Reinforces Gender Stereotypes». Catalyst, n.º 5 [en línea]. Disponibe en: https://www.catalyst.org/research/ai-gender-stereotypes/
  • ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHNER, L. (2016, mayo). «Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks». ProPublica [en línea]. Disponible en: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  • BARONA VILAR, S. (2022). «Sistemas algorítmicos en el proceso penal. Su incidencia en The Judge Craft». En: PÉREZ JUAN, J.A. y SANJUAN ANDRES, F.J. (dirs.). La trasformación algorítmica del sistema de Justicia penal. Cizur Menor: Aranzadi, págs. 159-174.
  • BELLOSO MARTIN, N. (2022). «La problemática de los sesgos algorítmicos (con especial referencia a los de género). ¿Hacia un derecho a la protección contra los sesgos?». En: LLANO ALONSO, F. (dir.). Inteligencia artificial y filosofía del derecho, Murcia: Laborum, págs. 45-78.
  • CASTRO LIÑARES, D. (2019) Los instrumentos de valoración y gestión de riesgos en el modelo de penalidad español. Editorial Reus. DOI: https://doi.org/10.30462/9788429021882
  • CHANENSON, S.; HYATT, J. (2016). «The Use of Risk Assessment at Sentencing: Implications for Research and Policy». Working Paper Series, Villanova University Charles Widger School of Law [en línea]. Disponible en: https://digitalcommons.law.villanova.edu/cgi/viewcontent.cgi?article=1201&context=wps
  • CHRISTIN, A. (2017, diciembre). «The Mistrials of Algorithmic Sentencing». Logic, n.º 3, Justice [en línea]. Disponible en: https://logicmag.io/justice/the-mistrials-of-algorithmic-sentencing/
  • CORVALAN, J.; MACCHIAVELLI, N.; CINALLI, C.; DANESI, C.; DÁVILA, L.; TOLOSA, P.; SÁNCHEZ CAPARRÓS, M.; MAFUD, M. (2021). «Sesgos algorítmicos de género». IALAB/Universidad de Buenos Aires [en línea]. Disponible en: https://www.researchgate.net/publication/359115499_Sesgos_algoritmicos_de_genero
  • DANESI, C. (2021). «Sesgos algorítmicos de género con identidad iberoamericana: las técnicas de reconocimiento facial en la mira». Revista Derecho de Familia. n.º 100, págs. 159-168 [en línea]. Disponible en: https://www.ceciliadanesi.com/_files/ugd/e2918c_c961111f9656461986249acd26b49c2e.pdf
  • DE HOYOS SANCHOS, M. (2021). «Premisas y finalidades del Libro Blanco sobre Inteligencia Artificial de la Comisión Europea: perspectiva procesal del nuevo marco regulador». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho, Una mirada multidisciplinar. Valencia: Tirant Lo Blanch, págs. 129-155.
  • DESMARAIS, S.L.; ZOTTOLA, S.A. (2020). «Violence risk assessment: current status and contemporary issues». Marquette Law review, vol. 103, n.º 3, págs. 793- 817.
  • EUROPEAN UNION AGENCY FOR FUNDAMENTAL RIGHTS (2020). Facial recognition technology: fundamental rights considerations in the context of law enforcement. European Union Agency for Fundamental Rights [en línea]. Disponible en: http://fra.europa.eu/en/publication/2019/facial-recognition-technology-fundamental-rights-considerations-context-law
  • FERNÁNDEZ, A. (2019). «Inteligencia artificial en los servicios financieros». Boletín económico - Banco de España, n.º 2.
  • FERNÁNDEZ BENÉITEZ, A.; GARCÍA DEL BLANC, I. (2022, junio). «Inteligencia artificial, igualdad real». El país [en línea]. Disponible en: https://elpais.com/tecnologia/2022-06-01/inteligencia-artificial-igualdad-real.html
  • FREEMAN. K. (2016). «Algorithmic injustice: How the Wisconsin Supreme Court failed to protect due process rights in State v. Loomis». North Carolina Journal of Law & Technology, vol. 18, n.º 5 [en línea]. Disponible en: https://scholarship.law.unc.edu/cgi/viewcontent.cgi?article=1332&context=ncjolt
  • GARRETT, B.; MONAHAN, J. (2019). «Assessing Risk: The Use of Risk Assessment in Sentencing». Judicature, Bolch Judicial Institute Duke Law School, vol. 103, n.º 2 [en línea]. Disponible en: https://judicature.duke.edu/articles/assessing-risk-the-use-of-risk-assessment-in-sentencing/
  • HARCOURT, B.E. (2015). «Risk as a Proxy for Race. The Dangers of rosk assessment». Federal Sentencing reporter, vol. 27, n.º 4, págs. 237- 243. DOI: https://doi.org/10.1525/fsr.2015.27.4.237
  • HUERGO LORA, A. (2020). «Una aproximación a los algoritmos desde el Derecho administrativo». En: La regulación de los algoritmos. Cizur Menor: Aranzadi, págs. 23-87.
  • JULIÀN PIJOAN, M. (2020). Proceso penal y (Neuro) ciencia: una interacción desorientada. Una reflexión acerca de la nueropredicción. Madrid: Marcial Pons.
  • LLORENTE SÁNCHEZ-ARJONA, M. (2022). La inteligencia artificial como nueva estrategia de prevención en los delitos de violencia sexual. En: COLOMER HERNÁNDEZ, I. (dir.). Uso de la información y de los datos personales en los procesos: los cambios en la era digital. Cizur Menor: Thomson Reuters Aranzadi, págs. 259-282.
  • MACCHIAVELLI, N. (2022). «La violencia de género y el uso de algoritmos como herramienta efectiva para la protección de los derechos fundamentales». Anuario de filosofía del derecho, XXXVIII, págs. 59-74. DOI: https://doi.org/10.53054/afd.vi38.9738
  • MAYSON, S. G. (2018). «Bias In, Bias Out». Yale Law Journal, vol. 128, n.º 8, págs. 2218- 2300 [en línea]. Disponible en: https://www.yalelawjournal.org/article/bias-in-bias-out
  • MARTINEZ GARAY, L. (2022). «Paradojas de los algoritmos predictivos utilizados en el sistema de Justicia Penal». El Cronista, n.º 100, págs. 160-173.
  • MARTÍNEZ GARAY, L. (2018, julio). «Peligrosidad, algoritmos y Due Process: el Caso State V Loomis». Revista de Derecho Penal y Criminología, n.º 20, época. 3, págs 485-502. DOI: https://doi.org/10.5944/rdpc.20.2018.26484
  • MARTÍNEZ GARCÍA, E.; BORGES BLÁZQUEZ, R.; SIMÓ SOLER, E. (2021, enero). «Inteligencia artificial y perspectiva de género en la justicia penal». Diario La Ley, n.º 47, Sección Ciberderecho [en línea]. Disponible en: https://diariolaley.laleynext.es/dll/2021/01/20/inteligencia-artificial-y-perspectiva-de-genero-en-la-justicia-penal
  • MARTINEZ GARCÍA, E. (2021). «Justicia e Inteligencia Artificial sin género». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho. Valencia: Tirant Lo Blanch, págs. 209-227.
  • MIRÓ LLINARES, F. (2018). «Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots». Revista de Derecho Penal y Criminología, n.º 20, época. 3, págs. 87-130. DOI: https://doi.org/10.5944/rdpc.20.2018.26446
  • MONAHAN, J.; SKEEM, J.L. (2016). «Risk assessment in cirminal sentencing». Annual Review of Clinical Psycology, vol. 12, págs. 489- 513. DOI: https://doi.org/10.1146/annurev-clinpsy-021815-092945
  • MONTESINOS GARCÍA, A. (2023). «Afectación de los derechos y garantías procesales por el empleo de algoritmos predictivos». En: ASENCIO MELLADO y FUENTES SORIANO (dirs.). El proceso como garantía. Barcelona: Atelier, págs. 703-713.
  • NAVAS NAVARRO, S. (2021). «La perspectiva de género en la inteligencia artificial». La Ley digital. Ciberderecho, vol.1, n.º 1, págs. 1-7.
  • O’NEIL, C. (2017). Weapons of math destruction. Nueva York: Penguin.
  • ORTIZ DE ZÁRATE ALCARAZO, L.; GUEVARA GÓMEZ, A. (2021). «Inteligencia artificial e igualdad de género. Un análisis comparado entre la UE, Suecia y España». Fundación alternativas, n.º 101 [en línea]. Disponible en: https://fundacionalternativas.org/publicaciones/inteligencia-artificial-e-igualdad-de-genero-un-analisis-comparado-entre-la-ue-suecia-y-espana/
  • JULIÁN PIJOAN, M. (2020) Proceso penal y (Neuro) ciencia: una interacción desorientada. Una reflexión acerca de la nueropredicción. Madrid: Marcial Pons.
  • NIEVA FENOLL, J. (2018). Inteligencia artificia y proceso judicial, Madrid: Marcial Pons.
  • PLANCHADELL-GARGALLO, A. (2021). «Inteligencia Artificial y medidas cautelares». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho, Una mirada multidisciplinar. Valencia: Tirant Lo Blanch, págs. 389- 419.
  • SENDEN XENIDIS, R.; SENDEN, L. (2020). «EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination». En: BERNITZ, U. et al (eds.). General Principles of EU law and the EU Digital Order. Países Bajos: Kluwer Law International.
  • SIMÓN CASTELLANO, P. (2021). Justicia Cautelar e inteligencia artificial. Barcelona: Bosch. DOI: https://doi.org/10.2307/j.ctv1tqcxbh
  • SOLAR CAYÓN, J. I. (2020). «Inteligencia artificial en la justicia penal: los sistemas algorítmicos». En: Dimensiones éticas y jurídicas de la Inteligencia artificial en el marco del Estado de Derecho. Cuadernos de la Cátedra de Democracia y Derechos Humanos, 16. Universidad de Alcalá. Defensor del Pueblo, págs. 125-172.
  • SORIANO ARNANZ, A. (2021). «Decisiones automatizadas: problemas y soluciones jurídicas. más allá de la protección de datos». Revista de Derecho público: teoría y método, vol. 3, págs. 85-127. DOI: https://doi.org/10.37417/RPD/vol_3_2021_535
  • SORIANO ARNANZ, A.; SIMÓ SOLER, E. (2021). «Machine learning y Derecho: aprendiendo la (des) igualdad». En: BARONA VILAR, S. (ed.). Justicia algorítmica y neuroderecho. Valencia: Tirant Lo Blanch, págs.183-207.
  • SORIANO ARNANZ, A. (2022). «Discriminación algorítmica: garantías y protección jurídica». En: COTINO HUESO, L. (dir.). Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas. Cizur Menor: Aranzadi, págs.139-169.
  • STARR, S.B. (2014). «Evidence-based sentencing and the scientific rationalization of discrimination». Standford Law review, n.º 66, pás. 803-872 [en línea]. Disponible en: http://www.stanfordlawreview.org/wp-content/uploads/sites/3/2014/04/66_Stan_L_Rev_803-Starr.pdf
  • WARREN, R. (2010). «Evidence-Based Sentencing: Are We Up to the Task?». Federal Sentencing Reporter, vol. 23, n.º 2, págs. 153 - 158. DOI: https://doi.org/10.1525/fsr.2010.23.2.153
  • WORLD ECONOMIC FORUM. «Assessing Gender Gaps in Artificial Intelligence». The Global Gender Gap Report 2018 [en línea]. Disponible en: https://www.weforum.org/reports/reader-global-gender-gap-report-2018/in-full/assessing-gender-gaps-in-artificial-intelligence/
  • ZARSKY, T. (2013). «Transparent predictions». University of Illinois Law Review, n.º 4, págs. 1503-1570 [en línea]. Disponible en: https://www.illinoislawreview.org/wp-content/ilr-content/articles/2013/4/Zarsky.pdf.