Las nuevas reglas de IA de IAB ofrecen un marco inicial a los anunciantes, aunque persisten muchas incógnitas

El uso de IA generativa en publicidad ya no es una hipótesis ni una ventaja competitiva puntual. Es una capa transversal que atraviesa procesos creativos, producción, optimización y distribución. Copy generado, imágenes retocadas, voces sintéticas, fondos creados desde cero. Todo eso ocurre hoy, de forma cotidiana, en agencias grandes y pequeñas. Lo que no ha ocurrido hasta ahora es un consenso mínimamente estable sobre cuándo ese uso debe ser explícito ante el consumidor.

El marco presentado por IAB intenta cubrir ese vacío, no desde una lógica punitiva ni maximalista, sino desde una aproximación pragmática que asume algo que dentro de la industria nadie discute en privado: prescindir de la IA ya no es una opción realista. El objetivo declarado no es etiquetarlo todo, sino evitar el engaño material y proteger la confianza del usuario sin generar saturación informativa.

Ese matiz es clave: no todo uso de IA altera la autenticidad de un mensaje publicitario. De hecho, buena parte de las técnicas que hoy se consideran “estándar” en producción ya incorporan sistemas algorítmicos sin que nadie cuestione su legitimidad. El problema no es la herramienta, sino el efecto que produce en la percepción de la realidad.

Aquí es donde el marco empieza a mostrar tanto su valor como sus límites. La norma central es clara: cualquier uso de IA que pueda inducir a error razonable debe ser divulgado. Por ejemplo, una persona generada artificialmente en un antes y después cosmético no admite demasiada discusión; tampoco lo hacen las recreaciones de personas fallecidas o las voces sintéticas de individuos reales diciendo cosas que nunca dijeron. En esos casos, la línea entre creatividad y engaño se cruza sin demasiados matices. La dificultad aparece en las zonas grises, que son precisamente las más frecuentes en la práctica diaria. ¿Qué ocurre cuando una imagen es técnicamente falsa pero conceptualmente verosímil? ¿O cuando una persona real aparece en un contexto que no ocurrió, pero que encaja con su imagen pública? La propia IAB reconoce que ahí no hay una respuesta automática, sino que el criterio final recae en revisores humanos que deben evaluar la “materialidad” del uso de IA caso a caso.

Desde el punto de vista operativo, esto introduce un tema relevante. Las agencias y los anunciantes no solo deben decidir si etiquetan o no una pieza, sino documentar esa decisión en metadatos y estar preparados para defenderla ante plataformas o publishers. No es un cambio menor porque supone formalizar algo que hasta ahora se resolvía muchas veces por intuición, por prudencia excesiva o, directamente, por omisión.

El contexto regulatorio añade otra capa de complejidad. En EE. UU. la fragmentación es evidente: hay estados con criterios extremadamente conservadores y otros sin apenas directrices. Ante ese escenario, muchas marcas optan por alinearse con el estándar más restrictivo para reducir riesgos, aunque eso implique sobrerregularse. El marco de IAB no elimina ese problema, pero sí ofrece una referencia común que puede reducir la dispersión de criterios internos y facilitar la conversación con plataformas y socios tecnológicos.

Conviene no perder de vista que IAB no legisla y que su marco no sustituye obligaciones legales ni protege frente a sanciones. Lo que hace es algo más sutil y a largo plazo, probablemente más influyente: establece una expectativa de comportamiento sectorial. Además, introduce incentivos claros para su adopción, como la posibilidad de que los propios publishers revisen o remitan creatividades que no cumplan con las recomendaciones de divulgación. Hay otro elemento que el documento de IAB aborda con cautela y que suele quedar fuera del debate público: el riesgo de la “sobretransparencia”. Etiquetar todo como “IA” no solo es poco operativo, sino que puede vaciar de significado la propia etiqueta. Si cada pieza creativa incluye un aviso genérico, el consumidor deja de procesarlo. La comparación con técnicas tradicionales de producción no es casual, nadie espera que un anuncio detalle cada filtro, cada retoque o cada artificio utilizado para construir una escena. El problema es que la percepción social de la IA no es estable; los propios datos de IAB muestran una división clara, especialmente entre audiencias jóvenes, entre quienes ven la IA como una herramienta creativa legítima y quienes la asocian directamente con la falta de autenticidad. Esto obliga a asumir que cualquier marco de transparencia es, por definición, provisional. Lo que hoy parece aceptable puede no serlo mañana, y viceversa.

Uno de los puntos más interesantes, y probablemente más incómodos es el del tratamiento de los llamados “gemelos digitales”. La obligación de divulgar cuando una persona real es representada en eventos o situaciones que nunca ocurrieron introduce un criterio que va más allá del producto y entra de lleno en la representación simbólica. No se trata solo de si algo es falso, sino de si construye una narrativa que el público puede interpretar como real. Llevado al terreno político o reputacional, las implicaciones son evidentes. Una representación verosímil puede ser más influyente que una declaración explícitamente falsa. El marco de IAB no resuelve ese dilema, pero al menos lo reconoce y lo incorpora como un riesgo a gestionar, no como una excepción marginal.

Desde dentro de nuestra industria, el valor del documento de IAB no está en ofrecer respuestas cerradas, sino en obligar a formular las preguntas correctas: introduce un lenguaje común, con criterios compartidos y sobre todo, deja claro que la evaluación humana sigue siendo insustituible: la automatización no elimina la responsabilidad editorial ni ética.

El uso de IA en publicidad no va a retroceder y tampoco lo hará el escrutinio sobre cómo se utiliza. En este contexto, contar con un punto de partida estructurado es una ventaja, aunque venga acompañado de incertidumbre. La alternativa es seguir operando en un “free-for-all” donde cada actor decide en silencio y reza para no ser el siguiente caso polémico. El marco de IAB no cierra el debate, pero lo profesionaliza y en una industria acostumbrada a moverse más rápido que sus propias reglas, esto ya es un avance significativo.

Puntos clave:

  • El nuevo marco de IAB no prohíbe ni limita el uso de IA en publicidad, sino que intenta estandarizar cuándo ese uso debe ser divulgado para evitar engaño material al consumidor.

  • La mayor dificultad no está en los casos extremos, sino en las zonas grises donde la verosimilitud, el contexto y la percepción pública obligan a una evaluación humana caso a caso.

  • Más que una solución cerrada, el documento establece un punto de partida sectorial que reduce fragmentación, pero no elimina la incertidumbre ni la responsabilidad editorial de anunciantes y agencias.

Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.

 
El Insider

Publicista en activo. Lo ha visto todo desde dentro de una Big 6. Escribe lo que otros no pueden decir con nombre y apellido. Análisis serio, datos reales y cero humo.

Siguiente
Siguiente

El storytelling perdido de la programática: vender la película, no la cámara