La comunidad europea ha publicado las DIRECTRICES ÉTICAS para una IA FIABLE. Este documento ha sido redactado por el Grupo de expertos de alto nivel sobre inteligencia artificial también llamada (IA). A continuación, hacemos un resumen de los aspectos más importantes de estas directrices en relación a una INTELIGENCIA ARTIFICIAL fiable:
La fiabilidad de la inteligencia artificial se apoya en 3 COMPONENTES que deben satisfacerse a lo largo de todo el ciclo de vida del sistema:
1) LICITA La Inteligencia Artificial debe ser LÍCITA, es decir, cumplir todas las leyes y reglamentos aplicables;
2) ÉTICA Ha de ser ÉTICA, de modo que se garantice el respeto de los principios y valores éticos;
3) ROBUSTA Debe ser ROBUSTA, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales.
LOS FUNDAMENTOS para una IA fiable que deben garantizar el respeto de los principios éticos basados en los derechos fundamentales está basado en 4 PRINCIPIOS BÁSICOS, Se trata de los principios de:
1) RESPETO DE LA AUTONOMÍA HUMANA: Los derechos fundamentales en los que se apoya la Unión europea van dirigidos a garantizar el respeto de la libertad y la autonomía de los seres humanos. Las personas que interactúen con sistemas de Inteligencia Artificial deben poder mantener una autonomía plena y efectiva sobre sí mismas. Los sistemas de IA no deberían subordinar, coaccionar, engañar, manipular, condicionar o dirigir a los seres humanos de manera injustificada. En lugar de ello, los sistemas de IA deberían diseñarse de forma que aumenten, complementen y potencien las aptitudes cognitivas, sociales y culturales de las personas. La distribución de funciones entre los seres humanos y los sistemas de IA debería seguir principios de diseño centrados en las personas, y dejar amplias oportunidades para la elección humana. Esto implica garantizar la supervisión y el control humanos sobre los procesos de trabajo de los sistemas de IA. Deberían ayudar a las personas en el entorno laboral y aspirar a crear empleos útiles.
2) PREVENCIÓN DEL DAÑO: Los sistemas de Inteligencia Artificial no deberían provocar daños (o agravar los existentes) ni perjudicar de cualquier otro modo a los seres humanos. Esto conlleva la protección de la dignidad humana, así como de la integridad física y mental. Todos los sistemas y entornos de Inteligencia Artificial en los que operan estos deben ser seguros. También deberán ser robustos desde el punto de vista técnico, y debería garantizarse que no puedan destinarse a usos malintencionados. Se deberá prestar también una atención particular a las situaciones en las que los sistemas de IA puedan provocar efectos adversos (o agravar los existentes) debido a asimetrías de poder o de información, por ejemplo, entre empresarios y trabajadores, entre empresas y consumidores o entre gobiernos y ciudadanos
3) EQUIDAD: El desarrollo, despliegue y utilización de sistemas de Inteligencia Artificial debe ser equitativo. Pese a que reconocemos que existen muchas interpretaciones diferentes de la equidad, creemos que esta tiene tanto una dimensión sustantiva como procedimental. La dimensión sustantiva implica un compromiso de: garantizar una distribución justa e igualitaria de los beneficios y costes, y asegurar que las personas y grupos no sufran sesgos injustos, discriminación ni estigmatización. También se debería fomentar la igualdad de oportunidades en términos de acceso a la educación, los bienes los servicios y la tecnología. Además, el uso de sistemas de Inteligencia Artificial no debería conducir jamás a que se engañe a los usuarios (finales) ni se limite su libertad de elección. Asimismo, la equidad implica que los profesionales de la Inteligencia Artificial deberían respetar el principio de proporcionalidad entre medios y fines.
4) EXPLICABILIDAD: La explicabilidad es crucial para conseguir que los usuarios confíen en los sistemas de Inteligencia Artificial y para mantener dicha confianza. Esto significa que los procesos han de ser transparentes, que es preciso comunicar abiertamente las capacidades y la finalidad de los sistemas de Inteligencia artificial y que las decisiones deben poder explicarse en la medida de lo posible a las partes que se vean afectadas por ellas de manera directa o indirecta. Sin esta información, no es posible impugnar adecuadamente una decisión. No siempre resulta posible explicar por qué un modelo ha generado un resultado o una decisión particular (ni qué combinación de factores contribuyeron a ello). Esos casos, que se denominan algoritmos de «caja negra», requieren especial atención. En tales circunstancias, puede ser necesario adoptar otras medidas relacionadas con la explicabilidad (por ejemplo, la trazabilidad, la auditabilidad y la comunicación transparente sobre las prestaciones del sistema), siempre y cuando el sistema en su conjunto respete los derechos fundamentales.
Para garantizar el cumplimiento de la Inteligencia Artificial fiable se debe evaluar y abordar constantemente 7 REQUISITOS a lo largo del ciclo de vida de los sistemas de Inteligencia Artificial a través de MÉTODOS TÉCNICOS Y MÉTODOS NO TÉCNICOS.
1) ACCIÓN Y SUPERVISIÓN HUMANAS: Los sistemas de Inteligencia Artificial deberían respaldar la autonomía y la toma de decisiones de las personas, tal como prescribe el principio del respeto de la autonomía humana. Esto requiere que los sistemas de IA actúen tanto como facilitadores de una sociedad democrática, próspera y equitativa, apoyando la acción humana y promoviendo los derechos fundamentales, además de permitir la supervisión humana.
2) SOLIDEZ TÉCNICA Y SEGURIDAD: Un componente crucial de la Inteligencia Artificial fiable es la solidez técnica, que está estrechamente vinculada al principio de prevención del daño. La solidez técnica requiere que los sistemas de Inteligencia Artificial se desarrollen con un enfoque preventivo en relación con los riesgos, de modo que se comporten siempre según lo esperado y minimicen los daños involuntarios e imprevistos, evitando asimismo causar daños inaceptables. Además, debería garantizarse la integridad física y mental de los seres humanos. Resistencia a los ataques y seguridad: Los sistemas de Inteligencia Artificial, como todos los sistemas de software, deben protegerse frente a las vulnerabilidades que puedan permitir su explotación por parte de agentes malintencionados. Plan de repliegue y seguridad general: Los sistemas de IA deberían contar con salvaguardias que posibiliten un plan de repliegue en el caso de que surjan problemas. Esto puede significar que los sistemas de IA pasen de un procedimiento basado en estadísticas a otro basado en normas, o que soliciten la intervención de un operador humano antes de proseguir con sus actuaciones. Precisión. La precisión está relacionada con la capacidad de un sistema de Inteligencia Artificial para realizar juicios correctos, como, por ejemplo, clasificar correctamente información en las categorías adecuadas, o con su capacidad para efectuar predicciones, formular recomendaciones o tomar decisiones correctas basándose en datos o modelos. Fiabilidad y reproducibilidad. Es esencial que los resultados de los sistemas de IA sean reproducibles, además de fiables. Un sistema de IA fiable es aquel que funciona adecuadamente con un conjunto de información y en diversas situaciones.
3) GESTIÓN DE LA PRIVACIDAD Y DE LOS DATOS: La privacidad es un derecho fundamental que se ve especialmente afectado por los sistemas de Inteligencia artificial, y que guarda una estrecha relación con el principio de prevención del daño. La prevención del daño a la privacidad también requiere una adecuada gestión de los datos, que abarque la calidad y la integridad de los datos utilizados, su pertinencia en contraste con el ámbito en el que se desplegarán los sistemas de Inteligencia Artificial, sus protocolos de acceso y la capacidad para procesar datos sin vulnerar la privacidad. Protección de la intimidad y de los datos: Los sistemas de IA deben garantizar la protección de la intimidad y de los datos a lo largo de todo el ciclo de vida de un sistema. Calidad e integridad de los datos: La calidad de los conjuntos de datos utilizados es primordial para el desempeño de los sistemas de Inteligencia Artificial. Cuando se recopilan datos, estos pueden contener sesgos sociales, imprecisiones y errores. Este problema debe abordarse antes de llevar a cabo cualquier tipo de formación en la que se utilice cualquier conjunto de datos. Además, es necesario garantizar la integridad de los datos. Acceso a los datos: En cualquier organización que maneje datos personales deberían establecerse protocolos que rijan el acceso a los datos. Solamente debería permitirse acceder a los datos personales a personal debidamente cualificado, poseedor de las competencias adecuadas y que necesite acceder a la información pertinente.
4) TRANSPARENCIA: Este requisito guarda una relación estrecha con el principio de explicabilidad e incluye la transparencia de los elementos pertinentes para un sistema de Inteligencia Artificial: los datos, el sistema y los modelos de negocio. Trazabilidad: Los conjuntos de datos, deberían documentarse con arreglo a la norma más rigurosa posible con el fin de posibilitar la trazabilidad y aumentar la transparencia. Explicabilidad: concierne a la capacidad de explicar tanto los procesos técnicos de un sistema de Inteligencia Artificial como las decisiones humanas asociadas. Cuando un sistema de IA tenga un impacto significativo en la vida de las personas, debería ser posible reclamar una explicación adecuada del proceso de toma de decisiones del sistema de IA. Comunicación: Los sistemas de Inteligencia Artificial no deberían presentarse a sí mismos como humanos ante los usuarios; las personas tienen derecho a saber que están interactuando con un sistema de IA. Por lo tanto, los sistemas de IA deben ser identificables como tales. Además, cuando sea necesario, se debería ofrecer al usuario la posibilidad de decidir si prefiere interactuar con un sistema de IA o con otra persona, con el fin de garantizar el cumplimiento de los derechos fundamentales. Más allá de lo expuesto, se debería informar sobre las capacidades y limitaciones del sistema de IA a los profesionales o usuarios finales; dicha información debería proporcionarse de un modo adecuado según el caso de uso de que se trate y debería incluir información acerca del nivel de precisión del sistema de Inteligencia Artificial, así como de sus limitaciones.
5) DIVERSIDAD, NO DISCRIMINACIÓN Y EQUIDAD: Para hacer realidad la Inteligencia Artificial fiable, es preciso garantizar la inclusión y la diversidad a lo largo de todo el ciclo de vida de los sistemas de inteligencia artificial. Además de tener en cuenta a todos los afectados y garantizar su participación en todo el proceso, también es necesario garantizar la igualdad de acceso mediante procesos de diseño inclusivos, sin olvidar la igualdad de trato. Necesidad de evitar sesgos injustos: Los conjuntos de datos que utilizan los sistemas de Inteligencia Artificial pueden presentar sesgos históricos inadvertidos, lagunas o modelos de gestión incorrectos. La explotación intencionada de los sesgos (de los consumidores) o la competencia desleal también pueden provocar situaciones perjudiciales, como la homogeneización de los precios mediante la colusión o la falta de transparencia del mercado. Siempre que sea posible, los sesgos identificables y discriminatorios deberían eliminarse en la fase de recopilación de la información. Accesibilidad y diseño universal: En el ámbito específico de las relaciones entre empresas y consumidores, los sistemas deberían estar centrados en el usuario y diseñarse de un modo que permitan que todas las personas utilicen los productos o servicios de Inteligencia Artificial con independencia de su edad, género, capacidades o características. La accesibilidad de esta tecnología para las personas con discapacidad, que están presentes en todos los grupos sociales, reviste una importancia particular. Los sistemas de IA deben ser adaptables y tener en cuenta los principios del Diseño Universal para servir al mayor número posible de usuarios. Participación de las partes interesadas. Con el fin de desarrollar sistemas de Inteligencia Artificial fiables, es recomendable consultar a las partes interesadas que se pueden ver afectadas de manera directa o indirecta por el sistema a lo largo de todo su ciclo de vida.
6) BIENESTAR SOCIAL Y AMBIENTAL: Se debería fomentar la sostenibilidad y la responsabilidad ecológica de los sistemas de Inteligencia Artificial, así como impulsar la investigación de soluciones de inteligencia artificial para hacer frente a los temas que suscitan preocupación a escala mundial, como los Objetivos de Desarrollo Sostenible. Lo ideal es que la IA se utilice en beneficio de todos los seres humanos, incluidas las generaciones futuras. Una IA sostenible y respetuosa con el medio. Los sistemas de inteligencia artificial prometen ayudar a abordar algunas de las preocupaciones sociales más urgentes. Se deberían promover medidas que garanticen el respeto del medio ambiente. Impacto social: Aunque los sistemas de Inteligencia Artificial se pueden utilizar para mejorar las competencias sociales, también pueden contribuir a su deterioro. Esto puede afectar al bienestar físico y mental de las personas. Por lo tanto, será necesario tener en cuenta y llevar a cabo un seguimiento exhaustivo de los efectos de esos sistemas. Sociedad y democracia: El uso de sistemas de IA debería ser objeto de un estudio pormenorizado, sobre todo en situaciones relacionadas con el proceso democrático, no solo en el terreno de la adopción de decisiones políticas sino también en contextos electorales.
7) RENDICIÓN DE CUENTAS. Los requisitos anteriores se complementan con el de rendición de cuentas, estrechamente relacionado con el principio de equidad. Este requisito exige establecer mecanismos que permitan garantizar la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados, tanto antes de su implantación como después de esta. Auditabilidad. La auditabilidad es la capacidad para evaluar los algoritmos, los datos y los procesos de diseño. Esto no implica necesariamente que siempre deba disponerse de forma inmediata de la información sobre los modelos de negocio y la propiedad intelectual del sistema de IA. En aplicaciones que afecten a los derechos fundamentales, incluidas las aplicaciones esenciales desde el punto de vista de la seguridad, los sistemas de IA deberían poder someterse a auditorías independientes. Minimización de efectos negativos y notificación de estos. La identificación, evaluación, notificación y minimización de los posibles efectos negativos de los sistemas de IA resulta especialmente crucial para quienes resulten (in)directamente afectados por ellos. Debe protegerse debidamente a los denunciantes anónimos, las ONG, los sindicatos u otras entidades que trasladen preocupaciones legítimas en relación con un sistema basado en IA. Búsqueda de equilibrios. Se deberían identificar los intereses y valores subyacentes al sistema de IA y que, en el caso de que surjan conflictos, se deberá explicitar cómo se ha intentado buscar el equilibrio entre ellos y evaluar dicho equilibrio en términos del riesgo que plantea para los principios éticos, incluidos los derechos fundamentales. En las situaciones en que no sea posible identificar equilibrios aceptables desde el punto de vista ético, no se debería continuar con el desarrollo, despliegue y utilización del sistema de IA en la forma prevista. Cualquier decisión sobre la búsqueda de equilibrios debe razonarse y documentarse convenientemente. Compensaciones. Cuando se produzcan efectos adversos injustos, deberían preverse mecanismos accesibles que aseguren una compensación adecuada. Se debería prestar atención a las personas o grupos vulnerables.
MÉTODOS TÉCNICOS Y NO TÉCNICOS PARA HACER REALIDAD LA IA FIABLE
Para cumplir los requisitos anteriormente expuestos, cabe utilizar tanto métodos técnicos como de otro tipo. Dichos métodos abarcan todas las fases del ciclo de vida de un sistema de IA. La realización de la IA fiable es un proceso continuo.
MÉTODOS TÉCNICOS: Arquitecturas para una inteligencia artificial fiable, ética y estado de derecho desde el diseño, métodos de explicación, realización de ensayos y validación, indicadores de calidad del servicio.
MÉTODOS NO TÉCNICOS: normativa, códigos de conducta, normalización, certificación, rendición de cuentas a través de marcos de gobernanza, educación y concienciación para fomentar una mentalidad ética, participación de las partes interesadas y diálogo social, diversidad y equipos de diseño inclusivos.
EVALUACIÓN DE LA INTELIGENCIA ARTIFICIAL FIABLE
La guía de “DIRECTRICES ÉTICAS PARA UNA IA FIABLE” ofrece una lista no exhaustiva para la evaluación de la fiabilidad de la IA (versión piloto) con el fin de poner en práctica la IA fiable. La lista es de aplicación, en particular, a los sistemas de IA que interactúen directamente con los usuarios, y va dirigida fundamentalmente a desarrolladores y responsables del despliegue de sistemas de IA (sean desarrollados internamente o adquiridos a terceros). La lista de evaluación no aborda la puesta en práctica del primer componente de la IA fiable (la IA lícita). La utilización de esta lista no constituye una prueba del cumplimiento legal ni pretende servir como guía para garantizar el cumplimiento de la legislación vigente. Dado el carácter específico de las aplicaciones de los sistemas de IA, será necesario adaptar la lista de evaluación a los casos de uso y contextos específicos en los que operen dichos sistemas. Puedes encontrar está lista en el siguiente ENLACE