‘Digital Fairness Act: ¿Equidad para el consumidor o un nuevo laberinto regulatorio?’, por Paula Ortiz

Resulta casi un ejercicio de supervivencia profesional mantenerse al día del tsunami regulatorio que emana de Bruselas. Con los equipos legales trabajando en la implantación de la DSA, la DMA, la Data Act, y con el Reglamento de IA aún resonando en los planes estratégicos, la Comisión Europea plantea una nueva propuesta: la Digital Fairness Act o Ley de Equidad Digital. Se presenta para proteger al consumidor de las prácticas más oscuras del entorno online. Sin embargo, al analizarla, surge una pregunta: ¿aporta esta ley la claridad y seguridad jurídica que el ecosistema necesita, o es un nuevo marco que puede generar solapamientos e incertidumbre duplicando exigencias ya contempladas en otras normas?

Mi tesis, tras analizar la propuesta y haber vivido de cerca las negociaciones de la DSA (en las que ya se planteó prohibir la publicidad personalizada), es que bajo la bandera de la equidad subyace una desconfianza profunda, casi ideológica, hacia la personalización y los mecanismos de engagement que sustentan el modelo de negocio del internet abierto. Lo analizamos brevemente.

La superposición normativa en los "Patrones oscuros"

Un eje central de la DFA es la prohibición de los dark patterns. La normativa se refiere a ellos como interfaces diseñadas para distorsionar o perjudicar, de manera sustancial, la capacidad del usuario para tomar una decisión autónoma, libre e informada. El objetivo de erradicarlos es compartido por todos.

Sin embargo, es fundamental analizar el contexto legal existente. El Artículo 25 de la Digital Services Act ya prohíbe el diseño de interfaces online que "engañen o manipulen" a los destinatarios. Previamente, el Reglamento General de Protección de Datos estableció que el consentimiento para el tratamiento de datos debe ser "libre, específico, informado e inequívoco". Cualquier interfaz que presione o confunda al usuario para obtenerlo es, por definición, contraria al RGPD.

Ante este panorama, la pregunta que surge es qué valor añadido específico aporta la DFA en este ámbito, y si este justifica el riesgo de crear inconsistencias interpretativas con el marco ya establecido. Una aplicación rigurosa de las normas existentes podría ser una vía más directa para alcanzar el mismo fin.

La vulnerabilidad algorítmica

La protección de los consumidores, especialmente en situaciones de vulnerabilidad, es un objetivo social y regulatorio incuestionable. La Comisión baraja la prohibición de prácticas comerciales que exploten "vulnerabilidades" de los consumidores, citando factores muy complejos de definir en este entorno como el estado emocional, la aflicción, la precariedad económica o la soledad.

Aquí el desafío es cómo trasladar este principio a un texto legal preciso. El RGPD ya cuenta con las "categorías especiales de datos" (salud, religión, etnia, orientación sexual, etc.), definidas con claridad y con un régimen de protección máximo. La propuesta de la DFA parece moverse hacia una nueva noción de "datos de vulnerabilidad" sin una delimitación jurídica concreta, lo que genera dudas sobre su alcance y aplicación.

Esto nos sitúa ante un dilema complejo para la publicidad digital, cuyo valor reside en la relevancia. Pensemos en un usuario que busca información sobre ansiedad. ¿Mostrarle un anuncio de un servicio de apoyo profesional es una ayuda contextual o una práctica que explota su estado? La falta de una línea divisoria clara podría inhibir la capacidad de ofrecer publicidad pertinente, afectando la eficiencia del modelo y la utilidad para el propio usuario.

El "diseño adictivo" y el equilibrio con el modelo de contenido abierto

La propuesta también pone el foco en elementos de diseño como el infinite scroll o la reproducción automática, vinculándolos a un "diseño adictivo". El debate sobre el tiempo de pantalla y los hábitos de consumo digital, especialmente entre los menores, es de máxima importancia y requiere una atención seria. La dificultad radica en regular estas mecánicas sin afectar la estructura que sostiene el contenido abierto. El término "adicción", de connotación clínica, puede resultar impreciso en un contexto legal aplicado al diseño de interfaces. Estas funcionalidades forman parte de lo que la industria denomina engagement, la métrica que permite a muchos editores monetizar sus contenidos a través de la publicidad y, gracias a ello, ofrecerlos sin coste para el lector.

La regulación debe, por tanto, encontrar un punto de equilibrio: proteger a los usuarios de usos excesivos o problemáticos, sin desmantelar el modelo de negocio que financia una gran parte del ecosistema de información y entretenimiento gratuito en internet.


Paula Ortiz, Co-CEO de TheLegal.School

Anterior
Anterior

‘Más allá del revenue, 6 filtros a usar antes y después de implementar formatos publicitarios nuevos’, por Adrián Villellas

Siguiente
Siguiente

‘Del dato a la decisión: cómo las Data Clean Rooms están redefiniendo el valor del marketing’, por Mario Torija