La Unión Europea se dispone a adoptar una postura más laxa en la regulación de la inteligencia artificial, en línea con una propuesta desreguladora presentada por la Comisión Europea en noviembre de 2025. El plan, ya ampliamente respaldado por los países de la UE pero aún pendiente de finalización, acercaría a la UE al enfoque generalmente favorecido por Estados Unidos. Como era de esperar, las grandes tecnológicas lo apoyan. Los responsables políticos europeos esperan que esta iniciativa ayude a reducir la brecha de rendimiento entre los mercados tecnológicos europeos y estadounidenses.
El plan implica un debilitamiento de los derechos de los usuarios de tecnología. Facilita que las empresas de IA utilicen datos sensibles para entrenar sus algoritmos. Los europeos podrían quedar más expuestos a la discriminación –por ejemplo, si un algoritmo utiliza información sobre su orientación sexual o creencias religiosas en su contra. También elimina algunos requisitos de transparencia: si un desarrollador considera por sí mismo que un sistema de IA no es de alto riesgo, ya no estará obligado a registrar su aplicación en una base de datos pública de la UE. Además, amplía las circunstancias en las que las decisiones totalmente automatizadas son legales, incluso cuando estas supongan que los trabajadores sean despedidos por máquinas en lugar de por personas.
Sin embargo, no hay pruebas convincentes de que la protección de los derechos fundamentales en la UE sea responsable del modesto rendimiento de los mercados europeos de IA. La situación actual del sector tecnológico europeo dice más sobre decisiones industriales pasadas que sobre el impacto de la regulación digital. Por ejemplo, en 2003 la cuota europea del gasto mundial en I+D de alta tecnología era del 22%, frente al 55% de Estados Unidos. Diez años después, había caído al 18% en la UE y al 53% en EEUU. En lugar de apostar por la alta tecnología, Europa se centró en sectores de tecnología media, como la automoción. Esto no tiene relación con las leyes europeas de protección de datos –vigentes desde 2018– ni con el Reglamento de IA (Reglamento (UE) 2024/1689), que aún no se ha aplicado plenamente.
Otro indicio de que la regulación no es decisiva para el rendimiento tecnológico proviene de China –a menudo considerada el único rival creíble de Estados Unidos en IA. Se estima que los principales modelos fundacionales chinos están ahora a solo dos meses de los estadounidenses. Sin embargo, la regulación tecnológica en China dista mucho de ser laxa. Las empresas deben cumplir un conjunto creciente de normas complejas.
Las compañías están obligadas a entrenar sus chatbots exclusivamente con información aprobada por el gobierno. China aplica leyes muy estrictas de moderación de contenidos y limita significativamente los flujos transfronterizos de datos. En lugar de ofrecer estabilidad mediante normas duraderas, el enfoque chino se basa en decretos gubernamentales continuos para abordar problemas emergentes, como los deepfakes. Esto genera incertidumbre –y la incertidumbre desincentiva la inversión.
China demuestra que, incluso en un entorno regulatorio aparentemente desfavorable, los mercados pueden prosperar. Otros factores, como los costes energéticos –considerados un obstáculo importante por aproximadamente la mitad de las empresas europeas– o el acceso a financiación, pueden ser más determinantes. En 2024, los precios industriales de la electricidad en la UE duplicaban los de China. Entre 2013 y 2024, la inversión privada en IA alcanzó los 471.000 millones de dólares en Estados Unidos, frente a 119.000 millones en China y unos 50.000 millones en la UE.
Entonces, ¿merece la pena reducir la protección regulatoria en la UE? Dado el papel limitado de la regulación para explicar el rendimiento tecnológico, no está claro qué obtendría la economía europea a cambio. La protección de la privacidad, por ejemplo, puede orientar a las empresas hacia innovaciones más respetuosas con los datos, pero es poco probable que tenga efectos agregados sobre la productividad comparables a los derivados del acceso a recursos clave, infraestructuras o financiación.
De hecho, reducir las protecciones podría erosionar la confianza en la economía digital europea y deprimir la demanda de servicios tecnológicos –aunque la demanda de IA probablemente seguirá creciendo con independencia de la regulación. Por ello, los responsables políticos de la UE deberían centrarse en garantizar que la normativa proteja a los usuarios frente a daños, en lugar de sobredimensionar la débil relación entre regulación e innovación.
Por supuesto, el marco regulatorio europeo tiene margen de mejora. La regulación puede distorsionar la competencia y favorecer la concentración del mercado –por ejemplo, imponiendo cargas desproporcionadas a las pequeñas empresas. También puede quedarse rezagada respecto a los mercados, sin anticipar nuevos riesgos.
La mayoría de los requisitos del Reglamento de IA se basan en el riesgo previsto de cada aplicación según su finalidad. Esto deja un vacío ante usos imprevistos que resultan perjudiciales en la práctica –como los algoritmos de “nudificación” o los efectos aún inciertos, potencialmente dañinos, de la llamada “IA agentiva”. Además, las autoridades públicas pueden tener dificultades para hacer cumplir la ley y necesitar herramientas más eficaces de supervisión de la IA. Pero aunque el marco regulatorio europeo requiere ajustes, no debería debilitarse bajo la errónea creencia de que una regulación más laxa beneficiaría a la economía europea.
Artículo traducido del inglés, publicado originalmente en Bruegel el 24 de marzo de 2026.
