
¿Qué es un Sistema de Inteligencia Artificial fiable?
En abril de 2019, la Comisión Europea publicó las Directrices Éticas para una Inteligencia Artificial Fiable (en adelante, las Directrices Éticas). Este magnífico documento, que le recomendamos leer, ha sido elaborado por un grupo de expertos independientes constituido en junio de 2018.
El objetivo de este documento es establecer las bases de un marco regulatorio en la Unión Europea (UE) para lograr un ecosistema de confianza que permita el desarrollo seguro de la inteligencia artificial (lo que incluye a los algoritmos de inteligencia artificial) en los diferentes sectores, respetando plenamente los valores y los derechos de los ciudadanos de la UE, de modo que esta IA pueda considerarse fiable.
De acuerdo con las Directrices Éticas, la fiabilidad de la IA se apoya en tres componentes que deben estar presentes a lo largo de todo el ciclo de vida del sistema de IA:
- La IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables
- La IA debe ser ética, de modo que se garantice el respeto de los principios y valores éticos
- La IA debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales.
Las Directrices Éticas, cuyos destinatarios son todas las partes interesadas (desarrolladores y proveedores en general de sistemas de IA; usuarios de sistemas de IA; el Estado y la sociedad en su conjunto), buscan ofrecer algo más que una simple lista de principios éticos. Proporcionan una orientación sobre cómo poner en práctica esos principios en la vida real. Las orientaciones establecidas por estas Directrices, que es lo que nos interesa, se desarrollan en tres niveles de abstracción que van desde el Capítulo I (el más abstracto) hasta el Capítulo III (el más concreto).
En el Capítulo I se articulan los derechos fundamentales y un conjunto de principios éticos asociados que resultan cruciales de aplicarse en contextos de IA (Fundamentos de una IA fiable). En el Capítulo II se enumeran los siete requisitos clave que deberían cumplir los sistemas de IA para hacer realidad la IA fiable. En este capítulo se proponen métodos técnicos y no técnicos que pueden contribuir a su aplicación (Realización de una IA fiable). Finalmente, en el Capítulo III se incluye una lista de evaluación de la IA fiable que puede ayudar a poner en práctica esos siete requisitos (Evaluación de la IA fiable).

Fundamentos de una Inteligencia Artificial fiable
Los fundamentos de una IA fiable están basados en cuatro principios éticos esenciales, arraigados todos ellos en los derechos fundamentales, que deben cumplirse para garantizar que los sistemas de IA se desarrollen, desplieguen y utilicen de manera fiable.
Los sistemas de IA no deberían subordinar, coaccionar, engañar, manipular, condicionar o dirigir a los seres humanos de manera injustificada. En lugar de ello, los sistemas de IA deberían diseñarse de forma que aumenten, complementen y potencien las aptitudes cognitivas, sociales y culturales de las personas. Los sistemas de IA deberían seguir principios de diseño centrados en las personas, y dejar amplias oportunidades para la elección humana. Esto implica garantizar la supervisión y el control humano sobre los procesos de trabajo de los sistemas de IA.
Los sistemas de IA no deberían provocar daños (o agravar los existentes) ni perjudicar de cualquier otro modo a los seres humanos. Los sistemas de IA deben ser seguros. Debería garantizarse que no puedan destinarse a usos malintencionados. La prevención del daño implica asimismo tener en cuenta el entorno natural y a todos los seres vivos.
El desarrollo, despliegue y utilización de sistemas de IA debe ser equitativo. Esto significa garantizar una distribución justa e igualitaria de los beneficios y costes y asegurar que las personas y grupos no sufran sesgos injustos, discriminación ni estigmatización.
La explicabilidad es crucial para conseguir que los usuarios confíen en los sistemas de IA y para mantener dicha confianza. Los procesos han de ser transparentes. Las decisiones deben poder explicarse. No siempre resulta posible explicar por qué un modelo ha generado un resultado o una decisión particular (ni qué combinación de factores contribuyeron a ello). Esos casos, que se denominan algoritmos de «caja negra», requieren especial atención. El grado de necesidad de explicabilidad depende en gran medida del contexto y la gravedad de las consecuencias derivadas de un resultado erróneo o inadecuado (por ejemplo, un sistema de IA que genere unas recomendaciones de compra poco acertadas no despertará excesivas preocupaciones desde el punto de vista ético, a diferencia de los sistemas de IA que evalúan si se debiese conceder la libertad condicional a una persona condenada por un delito penal).
Realización de una IA fiable
Para garantizar el cumplimiento de la IA fiable se debe evaluar y abordar constantemente siete requisitos a lo largo del ciclo de vida de los sistemas de IA. Pese a que todos estos requisitos tienen la misma importancia, es necesario tener en cuenta el contexto y las tensiones que pueden surgir entre ellos a la hora de aplicarlos en diferentes ámbitos y sectores. Estos requisitos se enumeran a continuación:
1) Acción y supervisión humanas
Los sistemas de IA deberían respaldar la autonomía y la toma de decisiones de las personas, tal como prescribe el principio del respeto de la autonomía humana. Esto exige que los sistemas de IA actúen tanto como facilitadores de una sociedad democrática, próspera y equitativa, apoyando la acción humana y promoviendo los derechos fundamentales, además de permitir la supervisión humana.
2) Solidez técnica y seguridad
Este requisito está estrechamente vinculado al principio de prevención del daño. La solidez técnica requiere que los sistemas de IA se desarrollen con un enfoque preventivo en relación con los riesgos, de modo que se comporten siempre según lo esperado y minimicen los daños involuntarios e imprevistos, evitando asimismo causar daños inaceptables. Lo anterior debería aplicarse también a los cambios potenciales en su entorno operativo o a la presencia de otros agentes (humanos y artificiales), que puedan interactuar con el sistema de manera contenciosa. Además, debería garantizarse la integridad física y mental de los seres humanos.
3) Gestión de la privacidad y de los datos
La privacidad es un derecho fundamental que se ve especialmente afectado por los sistemas de IA, y que guarda una estrecha relación con el principio de prevención del daño. La prevención del daño a la privacidad también requiere una adecuada gestión de los datos, que abarque la calidad y la integridad de los datos utilizados, su pertinencia en contraste con el ámbito en el que desplegarán los sistemas de IA, sus protocolos de acceso y la capacidad para procesar datos sin vulnerar la privacidad.
4) Transparencia
Este requisito guarda una relación estrecha con el principio de explicabilidad, e incluye la transparencia de los elementos pertinentes para un sistema de IA: los datos, el sistema y los modelos de negocio.
5) Diversidad, no discriminación y equidad
Una IA fiable exige que se garantice la inclusión y la diversidad a lo largo de todo el ciclo de vida de los sistemas de IA. Además de tener en cuenta a todos los afectados y garantizar su participación en todo el proceso, también es necesario garantizar la igualdad de acceso mediante procesos de diseño inclusivo, sin olvidar la igualdad de trato. Este requisito está estrechamente relacionado con el principio de equidad.
6) Bienestar social y ambiental
En armonía con los principios de equidad y prevención del daño, es necesario que se tenga en cuenta también a la sociedad en su conjunto, al resto de seres sensibles y al medio ambiente como partes interesadas a lo largo de todo el ciclo de vida de la IA. Es recomendable que se fomente la sostenibilidad y la responsabilidad ecológica de los sistemas de IA, así como impulsar la investigación de soluciones de inteligencia artificial para hacer frente a los temas que suscitan preocupación a escala mundial, como los Objetivos de Desarrollo Sostenible. Lo ideal es que la IA se utilice en beneficio de todos los seres humanos, incluidas las generaciones futuras.
7) Rendición de cuentas
Este requisito complementa los anteriores y se encuentra estrechamente relacionado con el principio de equidad. Exige establecer mecanismos que permitan garantizar la responsabilidad y la rendición de cuentas sobre los sistemas de IA y sus resultados, tanto antes de su implementacion como después de esta.
Evaluación de la IA fiable
Las Directrices Éticas para una IA fiable ofrecen también una lista no exhaustiva para la evaluación de la fiabilidad de la IA, con el fin de poner en práctica la IA fiable. Dicha lista es de aplicación, en particular, a los sistemas de IA que interactúan directamente con los usuarios, y va dirigida fundamentalmente a desarrolladores y responsables del despliegue de sistemas de IA, ya sean desarrollados internamente o adquiridos por terceros.
Con el fin de que pueda comprender cómo se realiza una evaluación para determinar si un sistema de IA es fiable, partiendo de las Directrices, hemos diseñado nuestra propia lista de evaluación que vamos a aplicar a un sector concreto: el sector financiero. Hemos escogido este sector porque el uso de algoritmos de inteligencia artificial es muy común en esta industria y por la interacción directa con los usuarios aquí es recurrente y cotidiana.
Por ello hemos creado FIABILITO, un chatbot que se encuentra instalado en este sitio web, con el que usted podrá entablar una amigable conversación escrita directa y, en caso de trabajar en el sector financiero como desarrollador o responsable de un sistema de IA, verifique de modo preliminar si su sistema de IA puede ser considerado fiable o no.
Para la creación de Fiabilito, además de las Directrices Éticas, hemos tenido en cuenta también los siguientes documentos y textos legales:
- El Libro Blanco sobre la Inteligencia Artificial – un enfoque europeo orientado a la excelencia y la confianza, publicado el 19 de febrero de 2020 y elaborado por la Comisión Europea.
- The Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self assessment, publicada el 17 de julio de 2020, elaborada por el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial, por encargo de la Comisión Europea.
- La Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial, elaborada por la Comisión Europea y publicada el 21 de abril de 2021 y sus Anexos.
- El Dictamen conjunto 5/2021 sobre la propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial, elaborado por el Comité Europeo de Protección de Datos y el Supervisor Europeo de Protección de Datos, publicado el 18 de junio de 2021.
- La Recomendación sobre la Ética de la Inteligencia Artificial, aprobada por la UNESCO el 18 de noviembre de 2021.
- El Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que representa al tratamiento de datos personales y a la libre circulación de estos datos (el Reglamento General de Protección de Datos).
- El documento Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción, de la Agencia Española de Protección de Datos, publicado en febrero de 2020.
- El documento Requisitos para Auditorías de Tratamientos que incluyan IA, de la Agencia Española de Protección de Datos, publicado de enero de 2021.