El pasado 1 de agosto entró en vigor el Reglamento de Inteligencia Artificial (IA) de la Unión Europea, una normativa que regula la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA en la Unión Europea. Su principal objetivo es fomentar el desarrollo y la utilización segura de la IA en la UE, así como garantizar un alto nivel de protección de la salud, la seguridad y los derechos fundamentales
AltoDirectivo
La pregunta es clara, ¿conocemos realmente lo que implica esta normativa? Según datos de la encuesta publicada por Entelgy, The Business Tech Consultancy, un 51% de los españoles afirma tener un conocimiento de la existencia de una Ley aprobada para establecer reglas claras en el uso de la Inteligencia Artificial; sin embargo, sólo el 7,3% entiende en qué afecta dicha regulación.
En los últimos años, la inteligencia artificial ha avanzado a pasos agigantados, transformando la sociedad y generando grandes oportunidades para las empresas y los ciudadanos. Sin embargo, estos avances también han traído consigo preocupaciones sobre la privacidad, la seguridad y la ética. La proliferación de aplicaciones de IA sin una supervisión adecuada ha expuesto vulnerabilidades, como el sesgo algorítmico, la discriminación y la falta de transparencia.
Y es que la misma encuesta señala que el 93,1% de los ciudadanos españoles considera que es necesario contar con una regulación para empresas y particulares sobre el uso de la Inteligencia Artificial.
Ante este escenario, Entelgy repasa los principales aspectos de la nueva normativa europea en materia de Inteligencia Artificial y cómo afecta tanto a empresas como a particulares.
El principal objetivo del Reglamento de IA es garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA. Para ello, la normativa clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA.
Las empresas proveedoras de IA en la UE deben modificar sus procesos para cumplir con el nuevo reglamento, lo que implica realizar evaluaciones exhaustivas de riesgos y asegurar la conformidad con los requisitos técnicos y de transparencia, preparar documentación técnica detallada y someterse a auditorías de conformidad, así como incorporar principios éticos y de seguridad en todas las fases del desarrollo de sistemas de IA.
Esta nueva regulación tiene un impacto significativo y positivo en los ciudadanos de la UE, ya que garantiza una protección de sus derechos fundamentales, mejorando la transparencia y la seguridad de las aplicaciones de IA, y fomentando la confianza en las tecnologías emergentes.
Pero no solo eso, la influencia de esta normativa podría extenderse más allá de Europa, estableciendo un estándar internacional para la regulación de la IA. De esta forma las empresas que operan a nivel global deberán adaptarse a estos nuevos requisitos para acceder al mercado europeo, lo que podría incentivar la adopción de prácticas responsables en todo el mundo.
''Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no solo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello, las empresas debemos facilitar la adopción de las medidas y prácticas propuestas'', afirman desde Entelgy.
*Si te ha resultado interesante este artículo, te animamos a seguirnos en TWITTER y a suscribirte a nuestra NEWSLETTER DIARIA.
Alto Directivo