La inteligencia synthetic se perfila como un aliado de gran valor en la lucha contra el crimen financiero. Su capacidad para detectar de forma temprana posibles actividades sospechosas, analizar grandes cantidades de datos en tiempo actual o automatizar la detección de fraudes, la convierte en una herramienta indispensable para las entidades financieras.
Para conseguir modelos confiables, que sean responsables y capaces de evolucionar, es basic tener un management absoluto sobre la información que utilizamos para generar alertas. Esto implica tener la capacidad de identificar sospechas sobre transacciones, eventos o clientes, y comprender las implicaciones morales que esto conlleva.
El riesgo utilizar sistemas discriminatorios
Entrenar modelos de predicción de aprendizaje supervisado con datos históricos, si no se toman las medidas requeridas, podrÃa generar algoritmos discriminatorios. Algo que el sector financiero ya ha experimentado en el pasado. No debemos olvidar que las máquinas también aprenden de los errores humanos, lo que puede llevar a tomar decisiones injustas para las personas.
El caso de Apple Card es un ejemplo de ello. Fue denunciado por asignar un mayor riesgo a una mujer frente a su marido cuando el matrimonio period de bienes compartidos y, por lo tanto, tenÃan exactamente las mismas caracterÃsticas financieras, a excepción del género, y aun asà obtuvieron créditos dispares[i]. Precisamente son este tipo de incidentes los que se pueden evitar, integrando evaluaciones de sesgo y su mitigación en las metodologÃas de desarrollo.
En este contexto, existen medidas de responsabilidad (Accountable Matrix) y de imparcialidad (Equity) que evalúan tanto la equidad de los grupos como la particular person. Por ejemplo, Equal Alternative, evalúa la ratio de falsos positivos y verifica que no esté vinculado al grupo smart al que perteneces, mientras que Equity by means of Consciousness mide si predicciones similares se asignan a individuos similares.
Es necesario realizar evaluaciones durante todo el ciclo de vida del modelo y no únicamente durante la fase de desarrollo, ya que el sesgo puede aparecer más adelante, a pesar de no haber sido detectado en el momento de la implementación.
Estas son solo algunas de las medidas que podemos implementar para asegurarnos de conocer los posibles sesgos de nuestros algoritmos. Es necesario realizar evaluaciones durante todo el ciclo de vida del modelo y no únicamente durante la fase de desarrollo, ya que el sesgo puede aparecer más adelante, a pesar de no haber sido detectado en el momento de la implementación. Por este motivo, resulta essential tener acceso a informes periódicos que monitoricen los modelos de la forma más clara e interpretable posible. AsÃ, seremos capaces de prevenir las irregularidades y reaccionar ante ellas.
Mitigando el sesgo algorÃtmico en la detección de fraude
Una vez que hayamos incorporado las evaluaciones, disponemos de numerosas herramientas para mitigar el sesgo detectado. Los métodos de mitigación se clasifican en tres grupos, según el momento del desarrollo en que se implementen:
Pre-processing: estos métodos se aplican a los datos antes de utilizarlos en el entrenamiento de algún modelo de IA. Algunos ejemplos de estos métodos serÃan balancear los datos en el momento de la recolección para garantizar que todos los grupos tienen una representación significativa, eliminar la información smart o realizar transformaciones de la base de datos. Aunque optar por este enfoque parece lo más efectivo para abordar el sesgo desde su origen, la realidad es que este puede ser muy complejo y esconderse en nuestros datos de maneras difÃciles de detectar. Como consecuencia, los métodos Pre-processing suelen ser insuficientes. No es posible garantizar la eliminación del sesgo, ni justificarlo ante un auditor. De hecho, ha llegado a prohibirse en algunas regulaciones, descartándolos como métodos de mitigación.
In-processing: se trata de métodos que se aplican durante el desarrollo o entrenamiento de los algoritmos. En este grupo gana popularidad el Adversarial Coaching, un método que combina el aprendizaje supervisado con un modelo “adversario” que se entrena al mismo tiempo. El modelo principal busca cumplir un objetivo especÃfico, como detectar fraude en transacciones, mientras que el modelo adversarial busca detectar información smart en las predicciones del modelo principal, como el género, la raza u otras caracterÃsticas discriminatorias. Si el modelo enfrentado logra relacionar las predicciones de mayor fraude con estas variables, significa que el modelo principal está sesgado. En ese caso, se vuelve al paso uno, se realizan las modificaciones pertinentes y se reentrena el modelo principal. Este proceso de reentrenamiento y enfrentamiento se repite hasta encontrar un equilibrio entre la capacidad predictiva de ambos modelos y un sesgo mitigado. Otro método dentro de este grupo es el Exponentiated Gradient Discount. Este algoritmo entrena los modelos de machine studying como un problema de optimización limitado por las métricas de Equity necesarias o aplicables en el caso de uso especÃfico. Ambos métodos son muy acertados para mantener controlado el steadiness entre la precisión y efectividad de los modelos y sus métricas de Equity. Sin embargo, para hacerlo, debemos cambiar la metodologÃa de desarrollo y entrenamiento.
Put up-processing: son soluciones aplicadas directamente al resultado del modelo predictivo. Entre ellas se encuentran la modificación de los pesos del algoritmo para grupos de población smart, o modificar las predicciones basándonos en medidas de Equity. Al contrario que los métodos In-processing, esta técnica ofrece la ventaja de no requerir modificaciones en el desarrollo de los modelos, que pueden permanecer como cajas negras. Por otra parte, puede suponer una pérdida de capacidad predictiva al tener un management limitado sobre el equilibrio entre las medidas de precisión y equidad.
Estas son algunas de las posibilidades a la hora de evaluar y mitigar el sesgo y la discriminación cuando desarrollamos nuestros modelos de predicción de fraude. La falta de atención a este aspecto puede tener graves consecuencias legales, reputacionales y de confianza, no solo para la entidad financiera, sino también para la tecnologÃa de inteligencia synthetic en basic.
¿Quieres saber más sobre cómo utilizar la IA de forma responsable en la detección de fraude? ¡No dejes de leer este artÃculo de nuestro weblog!
[i] Vigdor, Neil (2019) Apple Card investigated After Gender Discrimination Complaints. https://www.nytimes.com/2019/11/10/enterprise/Apple-credit-card-investigation.html