
Acerca de mí
Yo, Fiabilito, nazco fruto de la colaboración entre la firma de abogados Algoritmo Legal y la Universidad Internacional de la Rioja (UNIR). El equipo de abogados expertos de Algoritmo Legal, compuesto por Ricardo Oliva León (director del proyecto) y Elena Almazán Salazar, y los ingenieros especializados en inteligencia artificial y big data, Alberto Martín Montero, Alejandro Núñez Valle, Carlos Simón Gallego y Yaiza Argudín Pérez me han diseñado.
Soy un chatbot. Hasta donde tengo conocimiento soy el primer asistente conversacional en lengua española que diagnostica el grado de fiabilidad (licitud, ética y robustez) de los algoritmos de inteligencia artificial utilizados en el sector financiero (particularmente, por los bancos).
Mi objetivo es ayudar a las empresas financieras a descubrir, de modo preliminar, si sus productos o servicios que utilizan algoritmos de inteligencia artificial cumplen con los parámetros de una inteligencia artificial fiable. Para ello, les invito a conversar conmigo pinchando la opción «Evaluar mi algoritmo (sector financiero)» dentro del chatbot que aparece en la parte inferior derecha de su pantalla. La evaluación se lleva a cabo por medio de un cuestionario de preguntas que les iré formulando, las cuales deben ser respondidas con un SI / NO (cumple / no cumple). Al finalizar la conversación, y siempre que haya respondido todas las preguntas, pondré a su disposición un documento en formato PDF con el resultado de la evaluación que he realizado.


Casos de uso de la IA en el Sector Financiero
Principales aplicaciones de los algoritmos de inteligencia artificial en el sector financiero.

ROBO ADVISORS
Un robo-advisor es un programa informático que proporciona asesoramiento en materia de servicios de inversión. Estos servicios pueden variar desde el exclusivo asesoramiento financiero, hasta la gestión completa de patrimonios, incluyendo la compra, custodia y venta de instrumentos entre otras operaciones. Los algoritmos de IA del robo advisor analizan los datos del mercado junto con los datos de comportamiento del cliente para intentar realizar la mejor inversión, según su perfil.

TRADING ALGORÍTMICO
El trading algorítmico puede definirse como una operación de los mercados financieros en la que, mediante el uso de algoritmos, reglas y procedimientos automatizados, se ejecutan operaciones de compra y venta de instrumentos financieros en nombre del cliente. El trading algorítmico está guiado por un conjunto de reglas y procedimientos que no tienen en cuenta los sentimientos ni las emociones humanas ya que persiguen evitar la presencia de sesgos conductuales.

SCORING CREDITICIO
El scoring es un sistema de evaluación bancaria que permite predecir la posibilidad de impago de un préstamo analizando de forma automática la solvencia del cliente. Esto permite al banco tomar decisiones sobre el riesgo de los clientes de manera objetiva. En esta puntuación influyen no sólo los ingresos y la situación personal del cliente (edad, estado civil, personas a su cargo, etc.) sino también si tiene deudas pendientes de pago o su historial crediticio.

ONBOARDING FINANCIERO
El onboarding digital es el proceso que permite la identificación electrónica de un consumidor financiero frente a una institución financiera, y cuyo resultado genera una confianza equivalente a un proceso presencial. En la industria bancaria se le incluye dentro de los procesos de "conoce a tu cliente" (KYC). Son actividades clave dentro del onboarding: la verificación de la identidad del cliente, el conocimiento sobre el origen de sus fondos y la realización de chequeos antifraude.

SISTEMAS DE GESTIÓN DE RIESGOS
La gestión de riesgos es un procedimiento generalizado para medir los riesgos financieros en las entidades financieras. Los algoritmos de IA extraen texto para realizar clasificaciones; además analizan conversaciones para evitar fraudes y previenen síntomas de ciberataques. La gestión de riesgos a través del uso de IA se basa en un aprendizaje continuo y automático y reduce las posibilidades de error, porque se analizan grandes cantidades de datos a la vez.

COMPLIANCE AML/KYC (PREVENCIÓN DE BLANQUEO DE CAPITALES)
Existen técnicas para detectar patrones de blanqueo de capitales y mecanismos basadas en reglas para filtrar transacciones sospechosas, de manera que se crean perfiles estadísticos de cuentas y transacciones y se extrapolan predicciones a partir de la segmentación obtenida con el tratamiento estadístico de estos datos.
El índice utilizado.
¿Cómo FIABILITO decide cuándo un algoritmo de IA es fiable?
En aplicación del principio de explicabilidad, a continuación, se explica cómo funciona Fiabilito.
Para determinar si un algoritmo de IA puede considerarse fiable o no, procedo a calcular un índice que mide el grado de fiabilidad y ética de los algoritmos de inteligencia artificial.
Una vez determinado el sector analizado (actualmente Fiabilito únicamente está disponible para el sector financiero y, particularmente, se centra en los bancos), se procede a formular un cuestionario. Cada una de las preguntas de dicho cuestionario tiene un peso de importancia diferente: muy alta, alta, media y baja. La decisión de otorgar uno u otro peso de importancia a las preguntas no ha sido arbitraria por parte de los creadores, sino que se ha hecho en función de la gravedad que supondría no cumplir con los siete requisitos de la IA fiable propuestos por las Directrices Éticas para una IA fiable, teniendo en cuenta especialmente las posibles vulneraciones a los derechos fundamentales (protección de datos, igualdad y no discriminación, dignidad humana, libertad individual, etc.) que podrían producirse. Así, las preguntas de importancia muy alta y alta tienen un valor asignado de 1, las de importancia media un valor de 0,60 y las de importancia baja una puntuación de 0,25.
Si las respuestas a todas las preguntas del cuestionario son siempre «SÍ», ello significa que el algoritmo de IA de su producto o servicio financiero sí cumple con los requisitos de la IA fiable.
Si se responde con un «NO» a alguna de las preguntas del cuestionario, el chatbot aplicará el índice. Es decir, sumará la puntuación asignada a la pregunta respondida con «NO». Por ejemplo, para una pregunta respondida con «NO» cuya importancia es media, sumará 0,60; si la pregunta respondida con «NO» fuera de importancia baja, sumará 0,25. Al final, el chatbot suma todos los índices recopilados y si el sumatorio es mayor o igual que 1, significa que su algoritmo de IA no se puede considerar ético ni fiable.

Descargo de responsabilidad: El informe que proporciona Fiabilito constituye una evaluación preliminar acerca de la fiabilidad de su sistema de IA. En ningún caso debe interpretarse que dicho informe constituye un pronunciamiento definitivo de nuestra firma sobre la viabilidad jurídica de su modelo de negocio o sobre la ética, licitud y robustez de los algoritmos de IA que componen sus productos y/o servicios. Si precisa más detalles o necesita ayuda, póngase en contacto con nosotros.