Los investigadores advierten: las marcas de agua no son suficientes para combatir la desinformación en IA

En medio de los esfuerzos de la industria tecnológica por implementar marcas de agua en contenido generado por inteligencia artificial (IA), los investigadores señalan que se necesita más trabajo para abordar adecuadamente los riesgos asociados con la desinformación. En un informe reciente de Mozilla, se destaca que los métodos actuales para divulgar y detectar contenido de IA no son suficientemente efectivos para prevenir la propagación de información falsa.

El informe, indica que las salvaguardias utilizadas por muchos proveedores de contenido de IA y plataformas de redes sociales no son lo bastante sólidas para combatir a los actores maliciosos. Además de los métodos tradicionales, como etiquetar el contenido de IA con advertencias visuales o auditivas, los investigadores exploraron técnicas de marcaje legibles por máquinas, incluyendo el uso de criptografía, los metadatos o incluir patrones estadísticos.

Además, la publicación señala riesgos inherentes relacionados con la distribución masiva de contenido generado por IA y su impacto en Internet. Según los expertos, centrarse únicamente en soluciones técnicas podría distraer de la necesidad de abordar problemas sistémicos más amplios, como la hipersegmentación de anuncios o mensajes políticos.

"Las redes sociales, siendo una infraestructura clave para la circulación de contenido, no solo aceleran sino también amplifican su impacto", destacaron los autores del informe, tal y como recoge Digiday. En este sentido, enfatizaron que la transparencia y la mejorar la educación o formación de los usuarios en este ámbito son esenciales, junto con la promulgación de regulaciones adecuadas.

Además de las marcas de agua, algunas empresas están desarrollando herramientas propias para detectar deepfakes u otro sistema de desinformación generada por IA. Pindrop, un proveedor de seguridad de audio IA, ha lanzado una nueva herramienta basada en patrones encontrados en llamadas telefónicas, mientras que Reddit reveló planes para utilizar modelos de machine learning con fines de entrenamiento. Sin embargo, los expertos subrayan la importancia de mantenerse ágiles y rápidos en la adaptación a nuevas amenazas y la necesidad de transparencia en el desarrollo y aplicación de estas tecnologías.

Fuente: Digiday

Anterior
Anterior

La inversión publicitaria en España crece un 10,3% en enero de 2024

Siguiente
Siguiente

El 19,4% de las webs en España no han implementado un banner de consentimiento acorde a la guía de cookies de la AEPD