Skip to main content

La inteligencia artificial (IA) es una tecnología que tiene el potencial de transformar nuestra sociedad y nuestro planeta de formas positivas y negativas. La IA puede ayudarnos a resolver problemas complejos, mejorar la educación y la salud, crear oportunidades económicas y sociales, y proteger el medio ambiente. Pero también puede generar riesgos y desafíos éticos, como la discriminación, la violación de la privacidad, la manipulación, la pérdida de control y la responsabilidad.

No obstante, la IA puede generar de peligros e impactos generales para la humanidad y estructurales para la sociedad, así como afectar de modo importante a los derechos fundamentales y los principios democráticos y constitucionales.

Es importante reflexionar sobre la ética de la IA, es decir, sobre los valores y principios que deben guiar el desarrollo y el uso de la IA para que sea beneficiosa para la humanidad y respetuosa con los derechos humanos y la dignidad humana. Algunos ejemplos de dilemas éticos que plantea la IA son: ¿cómo evitar o minimizar el sesgo y la estereotipación en los algoritmos y los datos? ¿Cómo garantizar que los coches autónomos tomen decisiones justas y seguras en situaciones de emergencia? ¿Cómo reconocer y proteger la autoría y la creatividad de las obras generadas por la IA? ¿Cómo asegurar que los sistemas de IA sean transparentes, explicables y auditables? ¿Cómo regular el uso de la IA en el ámbito judicial y garantizar el derecho al debido proceso?

Ética y regulación de la IA

Es por ello que el desarrollo y uso de la IA deben guiarse por la ética y la regulación, para que sea beneficiosa para la humanidad y respetuosa con los derechos humanos y la dignidad humana. En este sentido, se han establecido una serie de valores y principios comunes para orientar el desarrollo saludable y responsable de la IA, como el respeto a la diversidad cultural, la igualdad de género, la solidaridad, la justicia, la participación, el bienestar humano y el desarrollo sostenible. Son incontables las declaraciones internacionales relativas a los principios de la IA. Destacan en todo caso iniciativas en la Unión Europea y la UNESCO. El Grupo de expertos de alto nivel sobre inteligencia artificial de l a Comisión Europea, en junio de 2018 asentó sus Directrices éticas para una IA fiable, con más de 100 elementos para evaluar si un sistema IA cumple los “Criterios de un sistema confiable”. A partir de los mismos se han desarrollado herramientas como ALTAI para evaluar el cumplimiento de tales criterios.

El desarrollo y uso de la IA deben guiarse por la ética y la regulación, para que sea beneficiosa para la humanidad y respetuosa con los derechos humanos y la dignidad humana.

También, la UNESCO ha elaborado el primer marco ético mundial sobre la IA, que fue adoptado por sus 193 Estados miembros en noviembre de 2021. La Recomendación sobre la Ética de la Inteligencia Artificial establece una serie de valores y principios comunes para orientar el desarrollo saludable y responsable de la IA. Miembros de Valgrai hemos explicado y difundido los elementos básicos de este instrumento internacional

Más allá de la ética y documentos voluntarios y no obligatorios, la regulación actual en la UE y en España ya se proyecta de modo concreto para la IA. Por ejemplo, siempre que el sistema de IA trate datos personales, algo nada extraño en las diversas fases de un sistema IA, es aplicable la normativa del derecho de protección de datos a la inteligencia artificial. Ello condiciona y mucho ya los desarrollos de IA y los usos de la misma, y la Agencia Española de Protección de datos ya ha generado algunas guías de como cumplir con la actual normativa. Ello es de imprescindible seguimiento no sólo para no lesionar la privacidad y la protección de datos de las personas, sino también para evitar que un proyecto de IA caiga como un castillo de naipes y no pueda seguir empleándose, así como para evitar posibles sanciones que pueden llegar a ser millonarias. Hay que cumplir en general con el régimen de protección de datos para la IA, especialmente en el caso de los datos especialmente protegidos (art. 9 RGPD). Y en muchos supuestos habrán de aplicarse las garantías especiales del derecho a no ser sometido a decisiones automatizadas con IA (art. 22 RGPD). La normativa de la UE ciberseguridad cada vez es mayor y también puede incidir en muchos casos en sistema

También en la UE se está regulando la responsabilidad de los sistemas de IA que generen daños a las personas o lesiones a los derechos. Y, por supuesto, el futuro Reglamento de IA que se aprobará en 2023. Este reglamento para todos los países de la UE, establece requisitos específicos para los sistemas de alto riesgo, como la gestión de riesgos, calidad y gobernanza de datos, documentación, registros, precisión y solidez, entre otros. Ninguna inversión en IA puede dejar de tener en cuenta esta futura regulación.

También hay que tener en cuenta el impacto de la IA en los derechos digitales y la no discriminación algorítmica, De modo genérico, la Carta de Derechos digitales es un documento que sintetiza los elementos clave a tener en cuenta, incluyendo la posible regulación de los neuroderechos, en razón de sistemas que muchas veces cuentan con IA.

Así pues, la ética de la IA no sólo queda en una serie de principios cada vez más consensuados internacionalmente, sino que ha inspirado y guía la regulación obligatoria a la que se someten proveedores, desarrolladores y usuarios de sistemas IA así como la que protege a los afectados por estos sistemas. Esto se refleja en el nuevo Reglamento de IA de la Unión Europea y en la evaluación del impacto de la IA en diversos ámbitos, desde la privacidad y la seguridad hasta los derechos digitales y la no discriminación

Desde ValgrAI apostamos por incluir la ética y los valores en nuestras enseñanzas y cursos (IA para DocentesAI Content Generation o AI for ICT Professionals), para formar a profesionales responsables y comprometidos con el bien común. Creemos que la ética de la IA no es solo una cuestión de normas y regulaciones, sino también de actitudes y comportamientos. Esto se logra fomentando el pensamiento crítico, el diálogo intercultural, el respeto a los derechos humanos y la diversidad y la participación ciudadana. Pero también es importante que los profesionales en IA estén formados en ética y valores y conozcan que ya se aplica toda una regulación en la UE. El sector público y privado no tiene que esperar a la futura adopción del Reglamento de IA, sino que ya debe estar atento al cumplimiento normativo.