La industria intensifica las negociaciones para definir cómo la IA podría monetizar contenidos editoriales
El debate sobre cómo los modelos de inteligencia artificial utilizan y monetizan los contenidos editoriales ha entrado en una fase decisiva. La semana pasada, en Nueva York, más de 70 compañías (entre ellas Amazon, Google, Microsoft y Meta) participaron en la reunión del LLM Working Group impulsado por IAB Tech Lab, que ha decidido intensificar el ritmo y pasar a encuentros semanales para definir estándares de uso y compensación por contenidos editoriales.
En la cita participaron 35 publishers (algunos europeos) junto a grandes tecnológicas, proveedores AdTech y empresas de infraestructura como Cloudflare y Fastly, que han adoptado un rol mucho más activo. Ambas compañías, tradicionalmente en segundo plano como habilitadores técnicos, están emergiendo como ‘gatekeepers’ frente a bots no autorizados, desarrollando herramientas para ayudar a los publishers a controlar quién accede a sus contenidos.
Aunque la presencia de Amazon, Google, Microsoft y Meta no sorprende por sus lazos con IAB y los medios, OpenAI y Perplexity volvieron a ausentarse, un hecho que algunos publishers interpretan como falta de compromiso por parte de dos de los players que más están capitalizando el acceso a contenidos para entrenar modelos generativos.
El CEO de IAB Tech Lab, Anthony Katsur, celebraba la gran participación editorial, aunque reconoció que quiere ver un peso aún mayor. La reunión inaugural del grupo, celebrada el 23 de julio, estuvo dominada por diversos players AdTech, lo que generó cierta desconfianza entre algunos publishers. “Esto tiene que ser una conversación entre publishers y LLMs, no con los vendors en medio”, dijo, según Digiday, un directivo editorial presente en el grupo. Katsur reconocía ese desequilibrio inicial, pero recalcaba que dieron una “vuelta al guion” en esta última sesión.
La intención del grupo es clara: no repetir errores del pasado. En la última década, la industria ha vivido múltiples intentos fallidos de estandarización (desde las guerras de wrappers en el header bidding antes de la hegemonía de Prebid en 2019, hasta las dificultades de adopción del TCF con la llegada del GDPR). La fragmentación ha sido también evidente en vídeo, con más de una década de superposición entre VAST y VPAID.
Bloquear o negociar: ese es el dilema
Uno de los debates más tensos de la sesión giró en torno a la estrategia frente a los crawlers de IA. Algunos publishers abogan por bloquear el acceso de los modelos a sus contenidos para forzar acuerdos económicos, mientras que otros temen que una postura demasiado dura pueda dejarlos fuera de futuras conversaciones comerciales o tecnológicas.
Katsur aclaraba que el propósito del grupo no es resolver este dilema individual, sino definir un marco técnico (Content Monetization Protocols Framework) y un conjunto de APIs comunes que permitan estructurar cómo los LLMs acceden y utilizan contenidos, estableciendo las bases para futuros modelos económicos sostenibles. Antes de discutir tarifas o licencias, el foco está en crear una taxonomía común y sistemas de clasificación de contenidos que faciliten a las IA identificar, citar y rastrear información correctamente.
“El salvaje Oeste del crawling solo escala hasta cierto punto. Si queremos que los modelos se sumen, necesitamos una estructura clara que beneficie primero a los publishers y luego a los LLMs”, advertía Katsur.
Conversaciones en Europa
Este debate no es exclusivo de Estados Unidos. En septiembre, Katsur llevó la conversación a Alemania en DMEXCO, donde se reunió con una veintena de grandes grupos editoriales en un encuentro organizado por la BVDW. “Los temas fueron prácticamente los mismos, pero los publishers alemanes estaban muy comprometidos”, explicaba el profesional. En noviembre, Londres acogerá una mesa redonda con publishers británicos durante el ‘IAB Tech Lab International Summit’, consolidando así la dimensión internacional del marco.
Mientras tanto, Digiday señala que otras organizaciones están avanzando en paralelo. La IETF trabaja en estándares para la identificación de bots y permisos de acceso, y el W3C desarrolla sistemas de etiquetado y verificación de orígenes digitales. Por su parte, Cloudflare lanzó una herramienta que permite a los publishers actualizar robots.txt en bloque con reglas para crawlers de IA, y el estándar Really Simple Licensing (RSL), apoyado por Condé Nast, Ziff Davis, Reddit y Yahoo, entre otros, permite definir términos de licencia legibles por máquinas, incluyendo pago por rastreo o por inferencia.
Asimismo, Katsur señalaba que el objetivo de IAB Tech Lab es más amplio que RSL: mientras este se centra en el lenguaje de licencias, el framework de IAB aborda todo el ciclo de acceso, categorización y monetización, llegando desde modelos de “pay per crawl” hasta licencias por resultados en Search o por tipo de contenido.
Los publishers piden neutralidad y estándares claros
Stefan Betzold, CMO de Bauer Media Group, insistía en que el liderazgo en esta materia debe venir de un organismo neutral: “No importa si viene de IAB u otro organismo independiente, lo importante es que no provenga de un único proveedor. Necesitamos una identificación clara y con propósito para gestionar los crawlers de forma segura y responsable”.
Desde Bertelsmann, Achim Schlosser, VP de Global Data Standards, recordaba que “los estándares son la forma más efectiva de escalar soluciones sin reinventar la rueda cada vez. Nadie tiene todas las respuestas; lo importante es participar activamente y adaptarse a los nuevos ecosistemas”.
La aceleración de las reuniones (que desde ahora serán semanales) subraya la urgencia de alcanzar consensos. Con algunos publishers bloqueando crawlers, otros firmando acuerdos y unos pocos demandando a empresas de IA, la falta de una postura unificada amenaza con debilitar el poder negociador colectivo del sector justo cuando la estandarización podría convertirse en una palanca para definir cómo se comparte y monetiza el contenido en la era de la IA generativa.
Puntos clave:
El LLM Working Group de IAB Tech Lab pasará a reunirse semanalmente para definir cómo los modelos de IA acceden y pagan por los contenidos editoriales.
Se busca evitar errores pasados y establecer un marco técnico común (CoMP framework) que priorice sus intereses frente a la fragmentación actual.
Con los publishers bloqueando, negociando o litigando, la falta de una postura unificada podría debilitar su poder negociador en un momento clave para definir reglas comunes.
Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.
