Empresas Premium
La futura Ley de Inteligencia Artificial tiene como objetivo garantizar unas mejores condiciones para el desarrollo y uso de esta tecnología, además de estimular la inversión y la innovación en este ámbito a nivel europeo. Desde ERNI España destacan que, por un lado, la ley actúa como una garantía de “filtro de calidad” para los proyectos de IA destinados al uso comercial, sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación.
La implementación de la nueva ley europea de Inteligencia Artificial ha puesto de manifiesto la necesidad de definir límites legales y éticos para esta tecnología. El propósito principal de la norma es asegurar que los sistemas de inteligencia artificial comercializados en Europa cumplan con estándares de seguridad y respeten los valores y derechos fundamentales de la Unión Europea (UE).
Desde la firma suiza de software especializada en soluciones deep tech, ERNI Consulting España, Alberto Martín, director de Tecnología e Innovación, explica que “si bien esta ley de IA representa un hito histórico, es necesario establecer normas concretas y sin lagunas, ya que la ambigüedad en estas podría ralentizar el proceso y limitar el potencial transformador de la IA”.
Y es que esta ley, pionera a nivel mundial, aspira a regular el uso de la IA adaptando un enfoque “basado en el riesgo” y aplicando reglas más estrictas según de qué manera pueda afectar a la seguridad los sistemas de IA comercializados en el mercado europeo.
Desde ERNI (empresa líder en el sector de la salud - diagnóstico médico, farmacéutica, biotecnología, servicios de salud y seguros de salud-) señalan que esta nueva normativa presenta una dualidad importante.
Por un lado, la norma actúa como una garantía de “filtro de calidad” para los proyectos de IA aprobados y destinados al uso comercial, sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación, especialmente para las pequeñas empresas y startups.
Paralelamente, la ley pone sobre la mesa una clasificación del riesgo que pueden llegar a representar los diferentes sistemas de IA (riesgo mínimo, alto riesgo, riesgo inadmisible). Por ejemplo, la ley contempla como “alto riesgo” los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, incluyendo los dispositivos médicos.
En este caso, desde ERNI Consulting explican que en el ámbito médico, una IA no podrá tomar decisiones para los pacientes, y en cualquier caso, un sistema de inteligencia artificial siempre se considerará de alto riesgo si elabora perfiles de personas físicas.
Finalmente, dependiendo de la infracción y el tamaño de la empresa, el incumplimiento de esta ley en la UE implicará multas que oscilan entre los 35 millones de euros o el 7% de la facturación global y los 7,5 millones o el 1,5% de la facturación.