Artificial intelligence and inclusionan analysis of bias against the poor
- Curto Rex, Georgina
- Flavio Comim Director
Defence university: Universitat Ramon Llull
Fecha de defensa: 13 May 2022
- Adela Cortina Orts Chair
- Ramón López de Mántaras Secretary
- Txetxu Ausín Díez Committee member
Type: Thesis
Abstract
La filósofa Adela Cortina acuñó el término aporofobia en 2017 para describir porqué los extranjeros ricos son bienvenidos mientras los pobres son ignorados, rechazados e incluso sufren ataques verbales y físicos. Mientras la erradicación de la pobreza es el primer Objetivo de Desarrollo Sostenible de las Naciones Unidas en la Agenda 2030, esta práctica discriminatoria ha pasado desapercibida a pesar de constituir un freno para el éxito de las políticas destinadas a mitigar la pobreza y tener efectos devastadores para la dignidad de las personas afectadas. Actualmente, la discriminación se produce tanto en el ámbito tangible como en el digital, reforzando uno al otro en la realidad onlife. La discriminación de los pobres en el ámbito digital va acompañada de factores agravantes porque, entre otros motivos, existe una sobrevaloración de la información proporcionada por los modelos de inteligencia artificial (IA), que sin embargo están entrenados a partir de datos históricos proporcionados por el comportamiento de los usuarios online. Mientras los modelos de IA replican, refuerzan y a menudo agravan los patrones de discriminación existentes en la sociedad, los proveedores de IA no reconocen abiertamente la existencia de sesgos en sus modelos y resulta difícil asignar responsabilidades cuando los sistemas de IA aprenden a partir de millones de datos obtenidos de usuarios anonimizados. En este contexto, las Directrices Éticas para IA Fiable de la Comisión Europea son parte de un marco regulador para los derechos humanos básicos en el entorno online. Pero el personal técnico especializado IA no tienen las herramientas necesarias para aplicar principios conceptuales como “diversidad, no discriminación y justicia, incluyendo la prevención del sesgo injusto” en la práctica cuando están programando los modelos de IA. Por otro lado, la bibliografía en el ámbito de discriminación y IA trata la temática desde el punto de vista de los algoritmos y en un entorno controlado, sin apoyarse en un marco ético robusto que clarifique la naturaleza y las causas del fenómeno así como la forma de lidiar con la discriminación de manera efectiva y realista en el onlife. La necesidad de un análisis académico sobre cómo identificar y mitigar el sesgo es incluso más urgente cuando la pobreza es el motivo de discriminación, ya que la aporofobia no se consideran un grupo históricamente discriminado en el marco europeo para una IA Fiable ni como un “atributo sensible” en la literatura de IA. En este contexto, esta tesis doctoral tiene el propósito de explicar, proporcionar evidencia empírica y mitigar el fenómeno de la aporofobia en el onlife. La estructura de la tesis doctoral consta de los siguientes capítulos: los capítulos 1 y 6 constituyen la introducción y conclusiones de la tesis; el capítulo 2 proporciona un marco conceptual de la aporofobia, identificando las circunstancias de esta práctica discriminatoria, el capítulo 3 analiza la relatividad de la percepción de la justicia en IA, explica cómo el orden de reconocimiento social del capitalismo constituye un agravante de la aporofobia, añadiendo el elemento de culpa por el hecho de ser pobre, y cómo la aporofobia se traslada al ámbito de IA; el capítulo 4 proporciona evidencia empírica sobre la existencia de la aporofobia en las redes sociales y también en los modelos de Procesamiento de Lenguaje Natural en IA que se utilizan para desarrollar aplicaciones digitales en sectores tan críticos como son la sanidad, la educación y la justicia; el capítulo 5 proporciona un Proceso de Mitigación del Sesgo en Inteligencia Artificial (PMSIA) que tiene el propósito de aplicar el principio de IA Fiable de “diversidad, no discriminación y justicia, incluyendo la prevención del sesgo injusto” proponiendo acciones pro-éticas durante cada paso del proceso de desarrollo de los modelos de IA; por último el capítulo 6 presenta una de las futuras líneas de investigación, concretamente un enfoque normativo de optimización mediante IA para generar simulaciones que permitan prever cómo la aporofobia afecta los niveles de pobreza, proporcionando información que podría guiar una nueva generación de políticas contra la pobreza, actuando no sólo a nivel redistributivo sino también en el ámbito de la discriminación.