La Nueva Ley de IA europea aborda los elementos esenciales para garantizar un desarrollo ético de la tecnología
AltoDirectivo
La Unión Europea ha dado un paso histórico con la entrada en vigor de la nueva Ley de Inteligencia Artificial (IA) el 1 de agosto de 2024. Tras años de intensas negociaciones, los 27 Estados Miembros lograron un consenso sobre esta normativa pionera que busca regular el desarrollo y uso de la IA, abordando aspectos críticos como la propiedad intelectual, la privacidad de los datos y la eliminación de sesgos en los modelos de lenguaje. La Ley de IA europea es la primera de su tipo en el mundo, estableciendo un marco regulador global con principios éticos y obligaciones jurídicas para el desarrollo, despliegue y uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión. La normativa entrará en plena vigencia en agosto de 2026, y las obligaciones se implementarán de manera progresiva, con sanciones de hasta el 7% de la facturación anual para quienes incumplan.
Importancia de la regulación
En este contexto, Jordi Damià, CEO de Setesca y de LiceoTIC, la mayor comunidad de CIO’s y directivos TIC, considera “la nueva Ley de IA europea es crucial porque aborda temas fundamentales como la propiedad intelectual de los contenidos utilizados para entrenar las IA, la privacidad de los datos de los usuarios y la necesidad de asegurar que las respuestas generadas por los modelos no contengan sesgos,” a lo que añade “estos elementos son esenciales para garantizar un desarrollo ético y responsable de la tecnología”.
Riesgos y desafíos
Sin embargo, Damià también advierte sobre los riesgos asociados a la falta de soluciones europeas competitivas en el ámbito de la IA. “Es evidente que la ausencia de una alternativa europea sólida representa un riesgo significativo. No solo en términos de disponibilidad, sino también porque información personal y empresarial muy sensible podría ser gestionada por soluciones no europeas”.
Oportunidad de Europa
Por otro lado, tal y como expresa Damià “la innovación en las infraestructuras y los modelos de lenguaje de la IA está liderada por los principales fabricantes globales. A nivel europeo, tenemos poco que decir en ese aspecto. No obstante, Europa está haciendo un excelente trabajo en el desarrollo de innumerables soluciones para resolver problemas empresariales y científicos basados en IA. Esta es la gran oportunidad para Europa: desarrollar soluciones basadas en IA”.
Desafíos en la implementación
La implementación y cumplimiento de esta ley presenta desafíos significativos tanto para las empresas tecnológicas como para los gobiernos. “El gran riesgo es que la ley limite iniciativas o proyectos en Europa que podrían mejorar la competitividad empresarial, mientras que en Estados Unidos o China no existen tales restricciones. Esto representa un riesgo considerable para nuestras empresas y para el desarrollo económico europeo,” advirtió Damià.
La Unión Europea ha dado un paso histórico con la entrada en vigor de la nueva Ley de Inteligencia Artificial (IA) el 1 de agosto de 2024. Tras años de intensas negociaciones, los 27 Estados Miembros lograron un consenso sobre esta normativa pionera que busca regular el desarrollo y uso de la IA, abordando aspectos críticos como la propiedad intelectual, la privacidad de los datos y la eliminación de sesgos en los modelos de lenguaje. La Ley de IA europea es la primera de su tipo en el mundo, estableciendo un marco regulador global con principios éticos y obligaciones jurídicas para el desarrollo, despliegue y uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión. La normativa entrará en plena vigencia en agosto de 2026, y las obligaciones se implementarán de manera progresiva, con sanciones de hasta el 7% de la facturación anual para quienes incumplan.
Importancia de la regulación
En este contexto, Jordi Damià, CEO de Setesca y de LiceoTIC, la mayor comunidad de CIO’s y directivos TIC, considera “la nueva Ley de IA europea es crucial porque aborda temas fundamentales como la propiedad intelectual de los contenidos utilizados para entrenar las IA, la privacidad de los datos de los usuarios y la necesidad de asegurar que las respuestas generadas por los modelos no contengan sesgos,” a lo que añade “estos elementos son esenciales para garantizar un desarrollo ético y responsable de la tecnología”.
Riesgos y desafíos
Sin embargo, Damià también advierte sobre los riesgos asociados a la falta de soluciones europeas competitivas en el ámbito de la IA. “Es evidente que la ausencia de una alternativa europea sólida representa un riesgo significativo. No solo en términos de disponibilidad, sino también porque información personal y empresarial muy sensible podría ser gestionada por soluciones no europeas”.
Oportunidad de Europa
Por otro lado, tal y como expresa Damià “la innovación en las infraestructuras y los modelos de lenguaje de la IA está liderada por los principales fabricantes globales. A nivel europeo, tenemos poco que decir en ese aspecto. No obstante, Europa está haciendo un excelente trabajo en el desarrollo de innumerables soluciones para resolver problemas empresariales y científicos basados en IA. Esta es la gran oportunidad para Europa: desarrollar soluciones basadas en IA”.
Desafíos en la implementación
La implementación y cumplimiento de esta ley presenta desafíos significativos tanto para las empresas tecnológicas como para los gobiernos. “El gran riesgo es que la ley limite iniciativas o proyectos en Europa que podrían mejorar la competitividad empresarial, mientras que en Estados Unidos o China no existen tales restricciones. Esto representa un riesgo considerable para nuestras empresas y para el desarrollo económico europeo,” advirtió Damià.
*Si te ha resultado interesante este artículo, te animamos a seguirnos en TWITTER
y a suscribirte a nuestra NEWSLETTER DIARIA.
Alto Directivo