La regulación de la IA divide a expertos y players del sector
El debate en torno a la regulación de la inteligencia artificial sigue intensificándose a medida que la tecnología avanza más rápido que a normativa. En este contexto, una reciente discusión entre líderes del sector pone de manifiesto las tensiones estructurales entre innovación, responsabilidad y control. Según recoge Adweek, en un encuentro celebrado durante el Isaac Asimov Memorial Debate en Nueva York, el ex CEO de Google, Eric Schmidt, defendió que los sistemas de IA presentan comportamientos emergentes difíciles de anticipar, lo que limita la capacidad de aplicar mecanismos preventivos de gobernanza.
Schmidt argumentó que una regulación demasiado estricta (como, por ejemplo, prohibir modelos más avanzados) podría frenar el progreso tecnológico. En su intervención, subrayó que estos sistemas desarrollan capacidades inesperadas que no siempre son “testeables” previamente, lo que obliga a las compañías a lanzar productos y corregir errores a posteriori. En este sentido, defendió que las empresas deben rendir cuentas cuando incumplen la ley, pero también insistió en que los fallos forman parte del desarrollo de sistemas complejos. Frente a esta visión, Latanya Sweeney, profesora en Harvard y ex CTO de la Federal Trade Commission (FTC), cuestionó la confianza en la autorregulación de las grandes tecnológicas. Durante el debate, señaló que históricamente estas compañías han tendido a ignorar o reinterpretar las normativas en función de sus intereses comerciales. Sweeney comentó también que los problemas asociados a la IA, como los sesgos algorítmicos o los daños derivados de los datos de entrenamiento, no pueden resolverse únicamente mediante correcciones posteriores. A su juicio, requieren cambios más estructurales en el diseño y desarrollo de estas tecnologías. “Existen interrogantes sobre los posibles daños existenciales a futuro, pero muchos de esos impactos ya se están produciendo hoy. Y no tiene por qué ser así… Todo depende de a quién sirva esta IA y, especialmente, de cómo se diseñe: las decisiones que se toman en esa fase son las que realmente determinan los valores que acaba reflejando”, afirmó Sweeney.
Por su parte, Schmidt cuestionó la idea de que todos los problemas puedan prevenirse mediante un mejor diseño o entrenamiento. A su juicio, los sistemas de IA más avanzados no funcionan como máquinas convencionales, sino como entornos complejos y no lineales que pueden desarrollar capacidades imprevistas. Sin embargo, coincidió con Sweeney en señalar que, en ocasiones se ha priorizado la velocidad de lanzamiento frente a la cautela. “Han detectado todo tipo de problemas una vez que los productos ya estaban en el mercado, y ahora están centrados en corregirlos. Ese es el ciclo, y es muy difícil de romper” y añadió que los desarrolladores de IA ya utilizan herramientas como tarjetas de evaluación y equipos de testing para anticipar y mitigar riesgos antes del lanzamiento. Sin embargo, Nate Soares, presidente del Machine Intelligence Research Institute, consideró que estas medidas son claramente insuficientes. Según explicó, los principales laboratorios centran hoy sus esfuerzos en la interpretabilidad (entender cómo funcionan internamente los sistemas) y en evaluar su peligrosidad, pero advirtió de que este enfoque no garantiza un control real. Soares mostró así su preocupación por una tecnología que, como también señaló Schmidt, puede desarrollar comportamientos no previstos. Aun así, el ex CEO de Google defendió una visión más optimista: las compañías son conscientes de los riesgos y, en su opinión, los beneficios de la IA terminarán superándolos.
El debate refleja una tensión clave para el ecosistema AdTech y tecnológico.
Puntos clave:
El reto de la regulación frente a la innovación: Eric Schmidt defiende que la IA tiene comportamientos emergentes difíciles de prever, lo que limita la capacidad de aplicar regulaciones preventivas sin frenar el progreso tecnológico.
Críticas a la autorregulación en el sector tecnológico: Latanya Sweeney cuestiona la confianza en la autorregulación de las grandes tecnológicas, argumentando que los problemas de la IA, como los sesgos algorítmicos, requieren cambios estructurales y no solo correcciones posteriores.
Medidas de seguridad insuficientes según expertos: Nate Soares critica las actuales medidas de seguridad en IA, como la interpretabilidad y las tarjetas de evaluación, advirtiendo que no garantizan un control real frente a los riesgos emergentes de la tecnología.
Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.
