De audiencias a algoritmos: cómo hablar con los agentes... y que te hagan caso
En 2024 Google llevó sus AI Overviews a más de 100 países y superó los 1.000 millones de usuarios mensuales, señal inequívoca de que la consulta clásica se está convirtiendo en una respuesta generada que compone fuentes, productos y acciones en un único bloque.
En paralelo, OpenAI convirtió ChatGPT Search en un producto mainstream, con despliegues progresivos desde octubre de 2024 y apertura global por fases durante 2024-2025. La propuesta: respuestas con citas y navegación web integrada. Fuera del duopolio, Perplexity consolidó el patrón “answer engine con fuentes”, donde la citación explícita es parte del producto, no un extra.
Traducción para marketing: ya no gritamos palabras clave; alimentamos motores de composición... El ranking de 10 enlaces cede paso a paneles que deciden por el usuario qué ver, qué comprar y qué ignorar.
Los nuevos interlocutores: agentes que buscan, comparan y actúan
El 2025 marcará la normalización de agentes que operan interfaces por nosotros. Google presentó capacidades de Gemini “Computer Use”, que navegan como un humano (rellenan formularios, hacen clicks, arrastran elementos) sin depender de APIs propietarias. Este tipo de agente es capaz de completar flujos reales de compra o tramitación. A nivel de producto, Google empuja su visión “agentic” con Agent Mode/Project Mariner, orientada a tareas multistep (buscar alquileres, ajustar filtros, completar acciones) desde el propio ecosistema. OpenAI, por su parte, ha ido integrando búsqueda y comercio dentro de ChatGPT; las últimas iteraciones de shopping incorporan reseñas, imágenes y enlaces directos, con énfasis en metadatos estructurados y sin incentivos de afiliación en la recomendación.
Esto no es “SEO conversacional” sin más, se trata de una orquestación transaccional, es decir, agentes que consultan, validan y ejecutan. Si tu marca no es fácil de consultar por un modelo (estructura, frescura, permisos), no existes para quien decide qué mostrar.
Legibilidad de máquinas: el nuevo SEO es operativo
En este contexto, el “copy” inspira, pero lo que posiciona es la estructura. Google es explícito: el marcado structured data habilita rich results y mejores experiencias de búsqueda (productos, precios, disponibilidad, reviews). La legibilidad no acaba en el HTML. Sitemaps con lastmod correcto ayudan a priorizar el recrawl (Google ha afinado recomendaciones y retiró el endpoint de “ping”). Mantener el lastmod honesto y granular es crítico para la frescura percibida.
Para ecommerce, la coherencia entre feed de Merchant Center, markup y landing es condición de elegibilidad: los mismatches de precio o stock desactivan listados y degradan confianza algorítmica. Si el feed dice “InStock” a 39,90€ y la página marca “SoldOut” a 42,00€, el sistema te desaprueba.
¿Cual es la métrica que más importa hoy? Coverage & Freshness (porcentaje de URLs con schema válido, errores por tipo, latencia de actualización, tasa de disapproval en Merchant, % de rich results ganados por plantilla) por encima de CTRs agregados sin contexto.
Reputación algorítmica: señales que no olvidan
Los sistemas afinan su confianza combinando calidad de contenido, autoridad temática y señales de experiencia (E-E-A-T). No es un “ranking factor” aislado, pero sí un marco de evaluación transversal sobre el que se alinean múltiples señales. A esto se le suma una capa aún más estructural: procedencia verificable. El estándar C2PA/Content Credentials, ya integrado en cámaras, Publishers y CDN’s como Cloudflare permite firmar activos (imagen, vídeo, audio) y preservar su historial de ediciones. Es una señal objetiva que los agentes pueden leer. En el frente editorial-publicitario, IAB Tech Lab ha lanzado el grupo CoMP (AI Content Monetization Protocols) para estandarizar cómo los LLM descubren y usan contenido y cómo se remunera a los publishers en un entorno de AI-driven search y agentes, es decir, reuniones semanales con grandes plataformas reflejan la urgencia del tema.
Conclusión operativa: tu “brand safety” ya no es sólo evitar entornos, sino garantizar trazabilidad de lo que publicas y consistencia de lo que declaras. Las incoherencias quedan registradas; los agentes aprenden de ellas.
De storytelling a contratos de datos
El relato sigue importando, pero la persuasión se desplaza a la arquitectura:
Esquemas exhaustivos (Product, Organization, FAQ, HowTo) mantenidos por ingeniería de contenidos, no “SEO on page” al final del proceso.
Catálogos con SLOs: tiempos máximos de propagación de cambios (precio/stock) del PIM al front, al schema, al feed y al Merchant. Cuando fallas, el coste es desindexación o desaprobación.
Sitemaps versionados por secciones críticas (productos, pricing, políticas), con lastmod fiable.
Provenance por defecto (C2PA) en creatividades y fichas sensibles, listo para ser leído por crawlers y agentes.
En programática ya aprendimos a declarar y firmar la cadena de suministro con ads.txt / app-ads.txt, sellers.json y schain. Las mismas lecciones aplican a Search y agentes: quién eres, qué vendes y a qué precio tienen que ser verificables.
Implicaciones organizativas
Para las marcas el equipo “SEO + Contenidos” debe moverse a un modelo Dev-Data: ownership de esquemas, pipelines de feeds, validación de Merchant y control de Sitemaps. Esto funciona cuando hay data contracts entre PIM, CMS y AdTech/MarTech (quién publica qué atributo, con qué SLA y cómo se audita). Para las agencias el valor se desplaza de “optimizar CTR” a operar plataformas de legibilidad y resolver incoherencias. La analogía ya no es el planner creativo, sino el SRE de datos: alertas por roturas de schema, diffs entre feed y landing, trazabilidad de cambios y rollback. Basado en patrones observados en clientes de la industria, las cuentas que tratan el catálogo y el schema como infraestructura (no como “tarea SEO”) tienden a ganar visibilidad estable en paneles generativos y a reducir desapprovals en Merchant. No puedo verificar tu caso concreto sin acceso a tus datos internos.
Qué hacer mañana por la mañana
Audita tu Product schema y tus ofertas (price, priceCurrency, availability, variantes) y corrige warnings.
Cierra el bucle PIM→CMS→schema→feed→Merchant: mismo precio, mismo stock, misma moneda, siempre.
Arregla los sitemaps: separa catálogos grandes, asegura lastmod significativo y elimina pings obsoletos.
Activa C2PA en creatividades clave y políticas sensibles; documenta el “cómo” para compliance.
Reconfigura el reporting: menos “CTR medio”, más salud de datos (errores por plantilla, latencia, tasas de desaprobación).
Epílogo (incómodo pero honesto)
Los agentes no sienten ni padecen… ni “leen entre líneas”, evalúan coherencia, procedencia y vigencia. La creatividad seguirá abriendo puertas, pero la arquitectura decide si te presentan en la sala.
Quien quiera influencia en la era Agentic tendrá que programar su reputación para que sea legible, verificable y fresca.
Puntos clave:
El search se ha vuelto agentic: respuestas compuestas y agentes que actúan, no sólo “buscan”.
Gana quien es legible para máquinas: structured data, sitemaps “lastmod” honesto, coherencia feed↔landing y provenance (C2PA).
La nueva ventaja competitiva es operativa: data contracts, SLOs de frescura y gobierno de catálogo por encima de métricas vanidosas. (No requiere citación adicional; síntesis de las fuentes anteriores.)
Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.
