El Consejo Europeo de Editores (EPC) se une a los principales grupos mediáticos para pedir la regulación de IA

IA regulacion

El Consejo Europeo de Editores (European Publishers Council) se une a las principales organizaciones mundiales de prensa y comunicación para firmar una carta abierta dirigida a los responsables políticos y a los líderes del sector en todo el mundo en la que se proponen principios para el crecimiento regulado y responsable de los modelos generativos de IA.

Además de esbozar las consecuencias para la industria de los medios de comunicación y el público, en caso de que el panorama normativo mundial no evolucione con la misma rapidez que la innovación de la IA, la carta también expresa su apoyo a la creación de un marco jurídico adecuado en torno a la tecnología.

En concreto, se esbozan acciones reguladoras que puede llevar a cabo la industria para impulsar prácticas de IA responsables, que protejan los contenidos generados por las aplicaciones de IA, preservando al mismo tiempo la confianza del público en los medios de comunicación, incluyendo:

  • La divulgación de los conjuntos de entrenamiento utilizados para crear modelos generativos de IA.

  • La protección de la propiedad intelectual de quienes elaboran los contenidos utilizados para entrenar la IA.

  • La capacidad de las empresas de medios de comunicación para negociar colectivamente con los operadores y desarrolladores de modelos de IA sobre el uso de la propiedad intelectual.

  • Obligación de que los modelos y usuarios de IA generativa identifiquen de forma clara, específica y coherente sus resultados e interacciones como contenidos generados por IA.

  • El requisito de que los proveedores de modelos generativos de IA limiten la parcialidad, la desinformación y el abuso de los servicios de IA.

Entre los firmantes de la carta figuran Agence France-Presse, European Pressphoto Agency, European Publishers Council, Gannett | USA TODAY Network, Getty Images, National Press Photographers Association, National Writers Union, News Media Alliance, The Associated Press y The Authors Guild.

Las peticiones de la carta abierta

Preservar la confianza del público en los medios de comunicación

La carta comienza con la afirmación de que la democracia se sustenta en la confianza en un ecosistema de medios de comunicación libres, fiables, independientes y fuertes. “Creemos que la inteligencia artificial (IA) y los modelos generativos tienen el potencial de proporcionar beneficios significativos a la humanidad; sin embargo, si no se controlan, también creemos que estas tecnologías pueden amenazar la sostenibilidad del ecosistema de los medios de comunicación en su conjunto, erosionando significativamente la confianza del público en la independencia y la calidad de los contenidos y amenazando la viabilidad financiera de sus creadores”, expresan los firmantes.

El ECP y los medios de comunicación alertan en la carta de que el ritmo de desarrollo y adopción de la IA supera con creces el de los saltos tecnológicos anteriores, “y lo hace a expensas de los derechos de propiedad intelectual fundamentales, así como de las inversiones de los creadores en contenidos mediáticos de alta calidad”.

“Nosotros, las organizaciones abajo firmantes, apoyamos el avance responsable y el despliegue de la tecnología de IA generativa, al tiempo que creemos que debe desarrollarse un marco legal para proteger el contenido que impulsa las aplicaciones de IA, así como para mantener la confianza pública en los medios de comunicación que promueven los hechos y alimentan nuestras democracias”, prosigue.

Los costes de la inacción

“La IA generativa y los grandes modelos lingüísticos hacen posible que cualquier actor, sin tener en cuenta su intención, produzca y distribuya contenidos sintéticos a una escala que supera con creces nuestra experiencia pasada”, dice la carta, que señala asimismo que “tal avalancha de contenidos puede distorsionar los hechos y dejar al público sin base para discernir lo que es verdad y lo que es inventado”. “Incluso en ausencia de intenciones maliciosas, muchas aplicaciones de IA generativa y grandes modelos lingüísticos producen errores factuales e información ficticia, además de propagar prejuicios arraigados”, declaran.

“La IA generativa y los grandes modelos lingüísticos también se entrenan a menudo utilizando contenidos multimedia patentados, en cuya producción los editores y otros invierten grandes cantidades de tiempo y recursos. A continuación, estos modelos pueden difundir esos contenidos e información a sus usuarios, a menudo sin ninguna consideración, remuneración o atribución a los creadores originales”, continúa la petición.

“Tales prácticas socavan los principales modelos de negocio de la industria de los medios de comunicación, que se basan en el número de lectores y espectadores (como las suscripciones), la concesión de licencias y la publicidad. Además de violar la ley de derechos de autor, el impacto resultante es reducir significativamente la diversidad de los medios de comunicación y socavar la viabilidad financiera de las empresas para invertir en la cobertura mediática, reduciendo aún más el acceso del público a una información de alta calidad y fiable”.

El camino a seguir

A su juicio, la acción reguladora e industrial debe incluir:

  • Transparencia en cuanto a la composición de todos los conjuntos de entrenamiento utilizados para crear modelos de IA.

  • Consentimiento de los titulares de los derechos de propiedad intelectual para el uso y la copia de sus contenidos en los datos de entrenamiento y los resultados.

  • Permitir a las empresas de medios de comunicación negociar colectivamente con los operadores y desarrolladores de modelos de IA las condiciones de acceso y uso de su propiedad intelectual por parte de los operadores.

  • Exigir a los modelos generativos de IA y a los usuarios que identifiquen de forma clara, específica y coherente sus resultados e interacciones como contenidos generados por IA.

  • Exigir a los proveedores de modelos generativos de IA que tomen medidas para eliminar la parcialidad y la desinformación de sus servicios.

“También apoyamos firmemente los esfuerzos de los gobiernos y los grupos industriales para crear un conjunto de normas globales coherentes aplicables al desarrollo y despliegue de la IA.

La IA generativa es un avance apasionante que puede reportar grandes beneficios a la sociedad si se desarrolla y aplica de forma responsable. Aplaudimos a los miembros de la comunidad de la IA que han tomado medidas para resolver estos problemas y agradecemos a los gobiernos y organismos de todo el mundo que hayan estudiado detenidamente estas cuestiones y elaborado normativas al respecto”, apuntan.

Para terminar, la carta concluye: “Esperamos formar parte de la solución para garantizar que las aplicaciones de IA sigan prosperando al tiempo que se respetan los derechos de las empresas de medios de comunicación y de los periodistas individuales que producen contenidos que protegen la verdad y mantienen a nuestras comunidades informadas y comprometidas”.

Fuente: EPC

Anterior
Anterior

Los publishers se vuelven más exigentes: el sector AdTech se enfrenta a un mayor control

Siguiente
Siguiente

Radiografía del empleo en el sector AdTech: más de 500 puestos vacantes en la primera mitad de 2023