Cinco aspectos fundamentales de la nueva normativa sobre IA aplicable en la Unión Europea desde el inicio de agosto

A partir del primer día de agosto, entra en función dentro de los países miembros de la Unión Europea la legislación pionera en regulación de la Inteligencia Artificial (IA), impulsando no solo la precisión y eficacia en numerosos sectores gracias a estos sistemas, sino también la innovación. A su vez, esta nueva legislación aborda los riesgos significativos asociados con el uso de la IA, con el objetivo de mitigarlos.

Los cinco puntos esenciales del nuevo reglamento de IA son:

PROPÓSITOS

Crear una base legal unificada para el fomento, comercialización, implementación y empleo de soluciones de Inteligencia Artificial dentro de la Unión Europea, teniendo en cuenta la dualidad de sus beneficios potenciales y sus riesgos inherentes. Este marco regulatorio también busca consolidar a Europa como un referente en el ámbito de la IA, adaptando la normativa al nivel de riesgo que cada sistema puede presentar.

La incorporación de estas regulaciones no solo buscan establecer un equilibrio entre el avance tecnológico y la protección de los ciudadanos, sino también facilitar un entorno seguro que promueva la confianza en la utilización de sistemas de IA, procurando que este desarrollo beneficie al conjunto de la sociedad europea sin comprometer los derechos individuales o colectivos.

ALCANCE DE APLICACIÓN

Estas directrices están dirigidas a aquellos que ofrecen o utilizan sistemas de IA dentro del territorio de la UE, sin importar el lugar de origen de dichos sistemas. Se extiende su aplicación a cualquier usuario que opere con tecnologías de IA.

Se excluye del ámbito de aplicación a entidades gubernamentales de países no pertenecientes a la UE y a organizaciones internacionales en contextos de colaboración policial o judicial con estados miembros de la UE. Además, quedan fuera de esta regulación los sistemas de IA destinados a fines militares o de seguridad nacional, así como aquellos utilizados exclusivamente para investigación y desarrollo científico.

Clasificación de los Sistemas de IA

PROHIBIDOS:

Ciertas aplicaciones de la IA serán vetadas cuando contravengan los principios y valores fundamentales de la UE, como la integridad personal y la privacidad de datos. Ejemplos de ello incluyen sistemas que manipulen de forma subrepticia la conducta de personas hasta el punto de infligir daño físico o psicológico.

Esta normativa excluye el uso de herramientas de IA para el perfilamiento biométrico basado en convicciones políticas, rasgos raciales, orientación sexual, entre otros, por considerarse una violación a los derechos humanos. La utilización de tecnologías de reconocimiento facial utilizando imágenes sin consentimiento claro o bajo vigilancia indebida también queda prohibida.

Además, se fortalece el compromiso con la transparencia y el consentimiento de los individuos, limitando expresamente la creación de sistemas de IA diseñados para influir o explotar las vulnerabilidades de las personas para propósitos que pudieran considerarse éticamente reprobables o directamente perjudiciales para su bienestar.

ALTO RIESGO:

Los sistemas de IA clasificados como de alto riesgo se enfrentarán a regulaciones más estrictas dada su capacidad de impactar significativamente en los derechos y libertades individuales. Las áreas sensibles como la infraestructura crítica, la educación, o el empleo caen dentro de esta clasificación.

Estos sistemas deberán garantizar la minimización y evaluación de riesgos, asegurar la transparencia en sus operaciones, mantener un registro detallado de su funcionamiento y estar sujetos a supervisión humana constante, reafirmando así el compromiso de la UE por un uso ético y seguro de la IA en ámbitos que afectan directamente a la vida de las personas.

Requisitos de Transparencia y Multas

TRANSPARENCIA:

Aquellos responsables de sistemas de IA deben adherirse a rigurosos estándares de transparencia, especialmente cuando existe el riesgo de que los usuarios puedan ser engañados acerca de la naturaleza de su interacción, como en el caso de los chatbots o la generación de ‘deepfakes’.

Esta medida busca prevenir malentendidos y usos fraudulentos de la tecnología de IA, enfatizando la importancia de una comunicación clara sobre la naturaleza automatizada o artificial de las interacciones, con el objetivo de fomentar un entorno digital más seguro y confiable.

SANCIONES:

Las sanciones por incumplimiento serán proporcionales y tomarán en cuenta la magnitud de la empresa proveedora, con multas que podrían oscilar entre los 35 millones de euros o el 7% del volumen de negocio global, dependiendo de la gravedad de la infracción.

TEl establecimiento de este régimen sancionador subraya la seriedad con la que la UE enfoca la regulación de la inteligencia artificial, proporcionando un marco legal claro que garantiza la rendición de cuentas y la protección efectiva contra el uso indebido de la tecnología de IA.

Implementación Progresiva de la Ley

APLICACIÓN FASEADA:

La ley se hace efectiva desde su fecha de entrada en vigor, con un periodo hasta su aplicación completa de veinticuatro meses, aunque ciertas disposiciones, como las prohibiciones de prácticas específicas, comenzarán a aplicarse seis meses tras esta fecha.

Con miras a una transición ordenada y efectiva hacia la plena aplicación de la ley, se prevén etapas progresivas que permiten a las entidades afectadas adecuarse a los requerimientos legales, asegurando así una implementación coherente y sin contratiempos de las disposiciones regulatorias.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad