728 x 90

La Unión Europea endurece su legislación y prohibirá las IA utilizadas para crear ‘deepfakes’ sexuales

La Unión Europea endurece su legislación y prohibirá las IA utilizadas para crear ‘deepfakes’ sexuales

La Unión Europea dio un nuevo paso en la regulación de la inteligencia artificial al alcanzar un acuerdo político que permitirá prohibir los sistemas capaces de generar contenido sexual manipulado sin consentimiento mediante tecnologías de IA. La decisión, pactada entre el Parlamento Europeo y el Consejo de la UE, también incluye restricciones a herramientas que

La Unión Europea dio un nuevo paso en la regulación de la inteligencia artificial al alcanzar un acuerdo político que permitirá prohibir los sistemas capaces de generar contenido sexual manipulado sin consentimiento mediante tecnologías de IA. La decisión, pactada entre el Parlamento Europeo y el Consejo de la UE, también incluye restricciones a herramientas que faciliten la creación de pornografía infantil y refuerza el control sobre plataformas que distribuyan este tipo de material.

La medida surge tras meses de presión política y social por el aumento de los llamados deepfakes, imágenes o videos alterados digitalmente para simular escenas falsas con personas reales. España fue uno de los países que impulsó la modificación normativa, argumentando la necesidad de proteger la dignidad humana y los derechos fundamentales frente al avance acelerado de estas tecnologías.

Con la nueva regulación, quedará prohibida la comercialización dentro del territorio europeo de sistemas de inteligencia artificial diseñados específicamente para producir contenido sexualizado no consentido. Además, la restricción también alcanzará a herramientas que, aun teniendo otro propósito, puedan ser utilizadas para generar este tipo de imágenes si no cuentan con mecanismos de seguridad suficientes para impedirlo.

La normativa igualmente contempla sanciones para operadores y plataformas que empleen estos sistemas con fines de explotación sexual digital o difusión de contenido manipulado sin autorización de las víctimas.

Auge de los ‘deepfakes’ y preocupación en Europa

El endurecimiento de la legislación se produjo después de la controversia registrada a finales del año pasado en la red social X, donde circularon millones de imágenes alteradas mediante inteligencia artificial. Muchas de ellas mostraban a mujeres reales en situaciones sexualizadas creadas artificialmente, sin su consentimiento.

Datos del Centro para Contrarrestar el Odio Digital revelaron que en apenas 11 días los usuarios de la plataforma llegaron a producir cerca de tres millones de imágenes manipuladas. El fenómeno encendió las alarmas en Bruselas sobre el impacto de la IA en la privacidad, la seguridad digital y la violencia de género.

Para las autoridades europeas, el crecimiento de estas prácticas evidenció vacíos regulatorios que requerían una respuesta urgente antes de que la tecnología alcanzara un nivel aún más difícil de controlar.

Entrada en vigor y nuevos plazos

Las restricciones contra los sistemas destinados a producir contenido sexual falso comenzarán a aplicarse desde el 2 de diciembre de este año. El acuerdo todavía debe ser ratificado formalmente tanto por el Parlamento Europeo como por el Consejo, aunque ambas instituciones prevén completar el trámite antes del receso legislativo de verano.

El eurodiputado irlandés Michael McNamara, quien participó en las negociaciones finales, celebró el consenso alcanzado y aseguró que la normativa permitirá actuar con mayor contundencia contra proveedores de inteligencia artificial que vulneren derechos fundamentales o representen riesgos para la dignidad humana.

Sin embargo, el acuerdo también incluye una flexibilización de los plazos para otras disposiciones clave de la Ley de Inteligencia Artificial europea, especialmente aquellas relacionadas con los sistemas catalogados como “de alto riesgo”.

Retraso para las obligaciones de sistemas de alto riesgo

La Comisión Europea había planteado desde finales del año pasado la necesidad de aplazar parcialmente la implementación de algunas obligaciones regulatorias para dar mayor margen de adaptación a las compañías tecnológicas.

Con el nuevo pacto, los sistemas de IA considerados de alto riesgo deberán cumplir las obligaciones legales únicamente a partir del 2 de diciembre de 2027. Entre ellos se encuentran herramientas relacionadas con identificación biométrica remota, categorización biométrica, infraestructuras críticas, educación, empleo, acceso a servicios públicos, vigilancia y gestión migratoria.

Además, los sistemas utilizados como componentes de seguridad dentro de sectores regulados por la legislación europea tendrán plazo hasta agosto de 2028 para adaptarse completamente a las exigencias del reglamento.

La normativa también retrasa parcialmente la obligación del denominado watermarking o marcado digital, mecanismo que permite identificar contenidos generados mediante inteligencia artificial. No obstante, Bruselas decidió aplicar esta exigencia antes de lo inicialmente previsto por la Comisión Europea: comenzará a regir en diciembre de 2026.

Equilibrio entre innovación y seguridad

Desde la Comisión Europea defendieron el acuerdo como un intento de equilibrar el desarrollo tecnológico con la protección de los ciudadanos frente a los riesgos derivados de la IA.

La vicepresidenta para Soberanía Tecnológica, Henna Virkkunen, afirmó que las nuevas reglas buscan ofrecer garantías tanto a las empresas innovadoras como a la población europea.

Con este movimiento, la Unión Europea refuerza su posición como uno de los bloques más estrictos del mundo en regulación tecnológica, en momentos en que gobiernos y organismos internacionales debaten cómo controlar el impacto de la inteligencia artificial en la vida pública, la privacidad y la seguridad digital.

Circuito Abierto
ADMINISTRATOR
PROFILE

Posts Carousel

Leave a Comment

Your email address will not be published. Required fields are marked with *

Latest Posts

Top Authors

Most Commented

Featured Videos