Ley de IA 132/2025 de Italia: ¿Puede la realidad empresarial alcanzar a la regulación?
Mientras Italia se apresura a regular la inteligencia artificial, las empresas luchan por cerrar una brecha cada vez mayor entre los mandatos legales y la realidad operativa.
Datos clave
- La tasa de adopción de IA en Italia es solo del 8,2%, por detrás del promedio de la UE del 13,5% (ISTAT 2024).
- La Ley 132/2025 introduce nuevas reglas estrictas, responsabilidad penal por el uso indebido de la IA y requisitos sectoriales específicos.
- La mayoría de las pequeñas y medianas empresas (PYMES) italianas carecen de la infraestructura y las competencias necesarias para un despliegue de IA conforme a la ley.
- Las empresas se enfrentan a sanciones severas por incumplimiento, incluidas multas de hasta 35 millones de euros o el 7% de la facturación global.
Introducción: El terremoto del cumplimiento
Imagine una villa italiana centenaria, cuyos cimientos se ven sacudidos por un temblor repentino. Así es el impacto que se siente en el panorama empresarial italiano con la entrada en vigor de la Ley 132/2025 sobre inteligencia artificial. Justo cuando se asentaba el polvo del amplio Reglamento de IA de la UE, la nueva ley italiana suma requisitos nacionales únicos, convirtiendo el cumplimiento normativo en un acto de equilibrio de alto riesgo para empresas grandes y pequeñas.
Ley de IA 132/2025: Ambición y complejidad
La Ley 132/2025, vigente desde octubre de 2025, no reemplaza el Reglamento Europeo de IA: lo complementa, añadiendo reglas nacionales detalladas para sectores críticos como la sanidad, la justicia, el trabajo y la administración pública. La ley introduce nuevos delitos penales por el uso indebido de la IA, como la difusión de deepfakes o la manipulación de mercados mediante IA, con sanciones que van desde penas de prisión hasta cuantiosas multas.
Para las empresas italianas, especialmente las PYMES (que representan el 92% de la economía), el verdadero reto no es solo entender la ley, sino hacerla funcionar en la práctica. Muchas siguen operando con sistemas informáticos obsoletos y carecen del talento híbrido necesario para afrontar las exigencias legales, técnicas y éticas de la IA. La exigencia de la ley de una “supervisión humana significativa” y una transparencia exhaustiva resulta especialmente intimidante en entornos donde la alfabetización digital es desigual y los recursos son escasos.
Las cifras detrás de la lucha
A pesar de un mercado italiano de IA en auge (se prevé que alcance los 1.800 millones de euros en 2027), la adopción real sigue siendo lenta. Las grandes empresas lideran el camino, pero solo alrededor del 7,7% de las PYMES utilizan IA en absoluto. Mientras tanto, el gasto en ciberseguridad se dispara, reflejando tanto el potencial de la IA como el temor a su mal uso.
Informes de Anitec-Assinform e ISTAT ponen de relieve una crisis de competencias: hay una grave escasez de profesionales que dominen tanto la tecnología de IA como los requisitos regulatorios. Sin estos expertos “bilingües”, las empresas corren el riesgo de costosos fracasos de cumplimiento y de perder oportunidades de negocio.
De la ley a la acción: el desafío del cumplimiento
La Ley 132/2025 establece una hoja de ruta exigente: las empresas deben mapear todos los sistemas de IA en uso (incluso los que pasan desapercibidos), evaluar riesgos, actualizar los modelos organizativos y garantizar una supervisión humana robusta. Esto implica construir nuevas estructuras de gobernanza, reciclar al personal, documentar cada decisión influida por algoritmos y elaborar una comunicación clara tanto para empleados como para clientes.
Pero el terreno sigue cambiando. Muchos detalles - como los estándares técnicos y las reglas de aplicación - aún dependen de futuros decretos. Esta incertidumbre deja a las empresas en un limbo, obligadas a anticipar requisitos más estrictos y posibles auditorías sin una orientación clara.
¿Oportunidad o sobrecarga?
Mientras que algunos ven la ley como una carga burocrática, otros vislumbran una oportunidad. Las empresas que se adelanten en el cumplimiento pueden ganar reputación por una IA confiable, acceder más fácilmente a fondos públicos y atraer a los mejores talentos. El fondo italiano de mil millones de euros para una IA responsable podría ser un factor decisivo, pero solo para quienes puedan demostrar que sus sistemas son seguros y justos.
Sin embargo, la brecha entre regulación y realidad sigue siendo amplia. Sin una inversión urgente en competencias, infraestructura y una cultura de colaboración, las empresas italianas corren el riesgo de quedarse aún más atrás respecto a sus pares europeos, o peor aún, de enfrentarse a desastres legales y reputacionales.
WIKICROOK
- Gobernanza de IA: La gobernanza de IA es el proceso de gestionar y asegurar los sistemas de IA para garantizar que operen de manera segura, ética y conforme a las regulaciones.
- Deepfake: Un deepfake es un contenido generado por IA que imita la apariencia o la voz de personas reales, a menudo utilizado para engañar mediante la creación de videos o audios falsos convincentes.
- DPIA (Evaluación de Impacto en la Protección de Datos): Una DPIA es una revisión formal para identificar y reducir riesgos de privacidad al procesar datos sensibles, a menudo requerida por ley para nuevos proyectos o sistemas de IA.
- Humano: Un humano es un individuo que interactúa con sistemas digitales, proporcionando a menudo supervisión, validación y toma de decisiones en procesos de ciberseguridad como HITL.
- Sistemas informáticos heredados: Los sistemas informáticos heredados son plataformas informáticas obsoletas que aún se utilizan, a menudo carentes de seguridad moderna, lo que las hace más vulnerables a ciberataques.