El impacto de la IA Generativa (Gen AI) en el ecosistema de la información ha saltado a los titulares.
Esta charla explora las consideraciones jurídicas asociadas a la IA Generativa y la desinformación. Se analiza cómo ha evolucionado el marco jurídico de la UE para responder a los retos planteados por la IA Generativa y cómo las nuevas disposiciones del arsenal jurídico de la UE pueden ayudar a abordar el uso de la IA Generativa con fines de desinformación, incluida la Ley de IA y la Ley de Servicios Digitales (DSA). En la charla se comparten los resultados del proyecto AI4Media, financiado por la UE, y de recientes publicaciones de investigación colaborativa.
En España se crea la Agencia Española de Supervisión de Inteligencia Artificial (IA) siendo uno de los primeros países europeos en tener un organismo de tales características, anticipándose a la entrada en vigor del Reglamento Europeo de IA. La Agencia representa un papel clave en la gestión y el liderazgo de la IA, fomentando además relaciones con el ecosistema europeo para fomentar el Pacto por la Inteligencia Artificial y el Código de Buenas Prácticas de Inteligencia Artificial Generativa.
Fue aprobado por Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. La Agencia es una entidad de derecho público cuyo objetivo fundamental será asumir todas aquellas materias y competencias en materia de inteligencia artificial que corresponden a España como parte del Estado Miembro de la UE.
Siendo sus principales funciones:
Nueva política de YouTube sobre contenidos alterados o sintéticos
Revelación de contenido alterado o sintético:
Excepciones a la regla:
Sistema de honor:
Futuras actualizaciones sobre privacidad:
Cambios en la política de Meta sobre contenidos generados por IA
Etiquetas para contenidos de IA:
Contextualización en contenidos de alto riesgo:
Reducción de eliminaciones de contenido:
Menor visibilidad para contenido falso:
Enfoque en etiquetado y transparencia:
En España, el Consejo de Ministros aprobó el 15 de mayo la Estrategia de Inteligencia Artificial 2024, que da continuidad y refuerza la Estrategia de Inteligencia Artificial (ENIA) publicada en 2020, en cumplimiento del Plan de Recuperación, Transformación y Resiliencia (PRTR), y la adapta a los nuevos avances tecnológicos. El impulso de la inteligencia artificial también está contemplado en la Agenda España Digital 2026 como un elemento clave de carácter transversal para transformar el modelo productivo e impulsar el crecimiento de la economía española.
La estrategia se desarrollará durante los años 2024-2025 y está diseñado para desarrollar y expandir el uso de la inteligencia artificial de forma transparente y ética, y está enfocado a facilitar su uso en los sectores público y privado.
El Diario Oficial de la Unión Europea (DOUE) ha publicado el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.
Esta Ley Europea de Inteligencia Artificial constituye la primera regulación general y con rango de ley de IA a nivel mundial. Establece un marco normativo para garantizar que la IA se desarrolle y utilice de manera segura, ética y conforme a los valores y derechos fundamentales de la UE. La ley aborda tanto los beneficios como los riesgos de la IA y busca promover la innovación tecnológica mientras protege los derechos de la ciudadanía. Desempeñando de este modo un papel de liderazgo a nivel mundial.
La Ley de IA de la Unión Europea establece unos requisitos de transparencia y documentación en el caso de los proveedores de estos sistemas deben cumplir con estándares específicos que garantizan la transparencia en el funcionamiento del sistema de IA, así como una documentación técnica exhaustiva que asegure y facilite la evaluación por parte de las autoridades competentes.
Existen para ello un conjunto de obligaciones, que afecta tanto a :
La Comisión plantea un enfoque basado en el riesgo. Determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial:
Los Estados miembros tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La Oficina de IA, creada en febrero de 2024 en el seno de la Comisión, será el principal organismo de aplicación de la Ley de IA a escala de la UE, así como la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general.
El objetivo de la Oficina de IA es crear un entorno en el que las tecnologías de IA respeten la dignidad humana, los derechos y la confianza. También fomenta la colaboración, la innovación y la investigación en IA entre varias partes interesadas. Además, participa en el diálogo y la cooperación internacionales sobre cuestiones de IA, reconociendo la necesidad de una alineación global en la gobernanza de la IA. A través de estos esfuerzos, la Oficina Europea de IA se esfuerza por posicionar a Europa como líder en el desarrollo ético y sostenible de las tecnologías de IA.
La mayoría de las normas de la Ley de IA empezarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se considere que presentan un riesgo inaceptable se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán al cabo de 12 meses.
Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre la IA, una iniciativa voluntaria que pretende apoyar la futura aplicación e invita a los desarrolladores de IA de Europa y de fuera de ella a cumplir con antelación las obligaciones clave de la Ley de IA