Ir al contenido principal

Desinformación / Fake News: Inteligencia Artificial y Ética

IA y desinformación: una perspectiva legal

El impacto de la IA Generativa (Gen AI) en el ecosistema de la información ha saltado a los titulares.

 Esta charla explora las consideraciones jurídicas asociadas a la IA Generativa y la desinformación. Se analiza cómo ha evolucionado el marco jurídico de la UE para responder a los retos planteados por la IA Generativa y cómo las nuevas disposiciones del arsenal jurídico de la UE pueden ayudar a abordar el uso de la IA Generativa con fines de desinformación, incluida la Ley de IA y la Ley de Servicios Digitales (DSA). En la charla se comparten los resultados del proyecto AI4Media, financiado por la UE, y de recientes publicaciones de investigación colaborativa.

Normativa Española

En España se crea la Agencia Española de Supervisión de Inteligencia Artificial (IA) siendo uno de los primeros países europeos en tener un organismo de tales características, anticipándose a la entrada en vigor del Reglamento Europeo de IA.  La Agencia representa  un papel clave en la gestión y el liderazgo de la IA, fomentando además  relaciones con el ecosistema europeo para fomentar el Pacto por la Inteligencia Artificial y el Código de Buenas Prácticas de Inteligencia Artificial Generativa.

Fue aprobado por Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. La Agencia  es una entidad de derecho público cuyo objetivo fundamental será asumir todas aquellas materias y competencias en materia de inteligencia artificial que corresponden a España como parte del Estado Miembro de la UE.

Siendo sus principales funciones:

  • Realizar tareas de supervisión, asesoramiento, concienciación y formación dirigidas a entidades de derecho público y privado en el desarrollo de los sistemas de inteligencia artificial y los algoritmos.
  • Llevar a cabo la inspección, comprobación y sanción.
  • Eliminar o reducir los riesgos para la integridad, la intimidad, la igualdad de trato y la no discriminación

 

 

Nueva política de YouTube sobre contenidos alterados o sintéticos

Revelación de contenido alterado o sintético:

  • Desde marzo de 2024, los creadores deben informar cuando un contenido realista generado con IA o medios alterados podría confundirse con personas, lugares, escenas o eventos reales.

Excepciones a la regla:

  • No se exige revelación en contenidos claramente irreales, animados, con efectos especiales o donde la IA generativa se use como apoyo en la producción.

Sistema de honor:

  • YouTube confía en la buena fe de los creadores para cumplir esta política, aunque se reserva el derecho de añadir etiquetas de IA si un contenido puede confundir o engañar al público.

Futuras actualizaciones sobre privacidad:

  • YouTube planea implementar un proceso para que las personas soliciten la eliminación de contenido generado por IA que simule a una persona identificable, incluyendo su rostro o voz.

      

Cambios en la política de Meta sobre contenidos generados por IA

  1. Etiquetas para contenidos de IA:

    • Desde febrero, Meta etiqueta imágenes generadas por IA en Facebook, Instagram y Threads.
    • Hasta mayo, usaba la etiqueta «Imaginadas con IA».
    • A partir de mayo, adopta la etiqueta «Hecho con IA» para imágenes, videos y audios que cumplan con estándares de la industria o sean marcados como IA por sus creadores.
  2. Contextualización en contenidos de alto riesgo:

    • Meta agregará información contextual a publicaciones de temas sensibles, como contenido político, para alertar sobre posibles intenciones engañosas.
  3. Reducción de eliminaciones de contenido:

    • Desde julio, Meta no eliminará contenido generado por IA bajo su política de videos manipulados, salvo que infrinja otras normas (interferencia electoral, violencia, acoso, etc.).
  4. Menor visibilidad para contenido falso:

    • Contenidos de IA marcados como falsos por verificadores de hechos se mostrarán más abajo en el feed.
    • Estos contenidos incluirán etiquetas superpuestas con información adicional para los usuarios.
  5. Enfoque en etiquetado y transparencia:

    • Meta prioriza el etiquetado y la contextualización sobre la eliminación, buscando mitigar el impacto de la desinformación generada por IA.

 

¿Qué es la Estrategia de Inteligencia Artificial 2024?

En España, el Consejo de Ministros aprobó el 15 de mayo la Estrategia de Inteligencia Artificial 2024, que da continuidad y refuerza la Estrategia de Inteligencia Artificial (ENIA) publicada en 2020, en cumplimiento del Plan de Recuperación, Transformación y Resiliencia (PRTR), y la adapta a los nuevos avances tecnológicos. El impulso de la inteligencia artificial también está contemplado en la Agenda España Digital 2026 como un elemento clave de carácter transversal para transformar el modelo productivo e impulsar el crecimiento de la economía española.

La estrategia se desarrollará durante los años 2024-2025 y está diseñado para desarrollar y expandir el uso de la inteligencia artificial de forma transparente y ética, y está enfocado a facilitar su uso en los sectores público y privado.

 

 

Normativa Europea: Futura Ley Europea

El Diario Oficial de la Unión Europea (DOUE) ha publicado el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.

Esta  Ley Europea de Inteligencia Artificial constituye la primera regulación general y con rango de ley de IA a nivel mundial.  Establece un marco normativo para garantizar que la IA se desarrolle y utilice de manera segura, ética y conforme a los valores y derechos fundamentales de la UE. La ley aborda tanto los beneficios como los riesgos de la IA y busca promover la innovación tecnológica mientras protege los derechos de la ciudadanía. Desempeñando de este modo un papel de liderazgo a nivel mundial.

La Ley de IA de la Unión Europea establece unos requisitos de transparencia y documentación en el caso de los proveedores de estos sistemas deben cumplir con estándares específicos que garantizan la transparencia en el funcionamiento del sistema de IA, así como una documentación técnica exhaustiva que asegure y facilite la evaluación por parte de las autoridades competentes.

Existen para ello un conjunto de obligaciones, que afecta  tanto a :

  • Los proveedores:  que tienen la responsabilidad de implementar sistemas de seguimiento, estando obligados a informar a las autoridades sobre cualquier irregularidad. Así como a cooperar plenamente en las investigaciones y evaluaciones llevadas a cabo por estas autoridades.
  •  Los usuarios:  que se les exige utilizar los sistemas de IA de forma responsable, lo que implica comprender las limitaciones y sus potenciales riesgos. Así como una colaboración activa entre todos los actores involucrados

 

La Comisión plantea un enfoque basado en el riesgo. Determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial:

  1. Riesgo Mínimo o Nulo: La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de correo no deseado, entran en esta categoría. Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos
  2. Riesgo Limitado: Se refiere a los riesgos asociados con la falta de transparencia en el uso de la IA, ya que esta ley introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario
  3. Alto Riesgo:  La ley entiende todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas. Para identificarlos, el texto establece en un anexo una lista de sistemas de alto riesgo que sirvan como referencia. En este catálogo aparecen algunos sistemas de identificación biométrica, determinados sistemas de uso policial o de control de fronteras y ciertas herramientas enfocadas a la evaluación educativa, entre otros. La Comisión se compromete a mantener el listado actualizado
  4. Riesgo Inadmisible: Se refiere a un conjunto muy limitado de prácticas de IA especialmente nocivas que se oponen a los valores de la UE porque vulneran los derechos fundamentales y, en consecuencia, quedarán prohibidas

 

Los Estados miembros tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La  Oficina de IA, creada en febrero de 2024 en el seno de la Comisión, será el principal organismo de aplicación de la Ley de IA a escala de la UE, así como la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general.

El objetivo de la Oficina de IA es crear un entorno en el que las tecnologías de IA respeten la dignidad humana, los derechos y la confianza. También fomenta la colaboración, la innovación y la investigación en IA entre varias partes interesadas. Además, participa en el diálogo y la cooperación internacionales sobre cuestiones de IA, reconociendo la necesidad de una alineación global en la gobernanza de la IA. A través de estos esfuerzos, la Oficina Europea de IA se esfuerza por posicionar a Europa como líder en el desarrollo ético y sostenible de las tecnologías de IA.

La mayoría de las normas de la Ley de IA empezarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se considere que presentan un riesgo inaceptable se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán al cabo de 12 meses.

Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre la IA, una iniciativa voluntaria que pretende apoyar la futura aplicación e invita a los desarrolladores de IA de Europa y de fuera de ella a cumplir con antelación las obligaciones clave de la Ley de IA