La primera Ley de Inteligencia Artificial del mundo continúa su tramitación con una votación en un Comité de legisladores de la UE que tendrá lugar el próximo el 13 de febrero. A esta le seguirá una votación en el Parlamento Europeo en marzo o abril. Aunque se espera que se aplique a partir de 2026, la norma tiene disposiciones específicas que entrarán en vigor antes de esta fecha.
La norma supone un hito a nivel legislativo, pues se trata de la primera norma a nivel mundial que regula el uso de la inteligencia artificial. Por ello, es interesante entender los puntos clave del nuevo Reglamento sobre Inteligencia Artificial (IA), que se resumen en los cuatro siguientes:
Definición de Sistema de IA
El primer punto que trata de esclarecer el nuevo Reglamento es la definición de IA. Esta definición establece criterios claros para diferenciar la IA de sistemas de software más básicos. De esta forma, un “Sistema de IA” es aquel software desarrollado mediante una o varias técnicas y estrategias (como aprendizaje automático, programación inductiva, estadísticas), capaz de generar salidas (contenidos, predicciones, recomendaciones, decisiones) que afecten a su entorno, basándose en objetivos definidos por humanos.
Ámbito de Aplicación
El segundo de los puntos de delimita la norma es el ámbito de aplicación de la misma. El nuevo Reglamento se aplicará a los proveedores de sistemas de IA, independientemente de su ubicación, siempre y cuando el sistema de IA se comercialice en la UE o afecte a personas dentro de la misma. Esto incluye a usuarios de sistemas de IA tanto dentro como fuera de la UE, en casos donde la salida generada por el sistema se utilice dentro de la Unión.
Obligaciones de Transparencia para Sistemas Específicos de IA
La norma prevé unas obligaciones especiales de transparencia para sistemas que interactúen con humanos, detecten emociones, determinen categorías sociales a partir de datos biométricos, o generen/manipulen contenido.
Clasificación del Riesgo:
El Reglamento adopta un enfoque basado en el riesgo, categorizando los sistemas de IA en cuatro niveles de riesgo, con regulaciones específicas para cada uno de ellos.
- Riesgo Mínimo: es el de la mayoría de los sistemas de IA actuales, como asistentes virtuales, sujetos a requisitos mínimos de transparencia.
- Alto Riesgo: es el de sistemas de IA con impacto potencial adverso en la seguridad o derechos fundamentales, sujetos a obligaciones específicas y con una evaluación de la misma precomercialización.
Ejemplos de alto riesgo incluyen sistemas para identificación biométrica, gestión de infraestructuras críticas, educación, empleo, acceso a servicios públicos esenciales, aplicación de la ley, gestión migratoria, y asuntos judiciales.
Algunos de los usos inaceptables y prohibidos en la UE incluyen la puntuación social, explotación de vulnerabilidades humanas, identificación biométrica remota en espacios públicos (con excepciones limitadas), y categorización biométrica para inferir características sensibles.
Puedes consultar el texto completo en el siguiente enlace.
En resumen, el nuevo Reglamento de Inteligencia Artificial de la UE establece definiciones claras de los Sistemas de IA, los ámbitos de aplicación e incluye una clasificación de riesgos para regular el uso de la IA. Con un enfoque en proteger la seguridad y derechos fundamentales, esta normativa pionera a nivel mundial, entrará en vigor progresivamente hasta 2026, marca un precedente crucial en la regulación de tecnologías emergentes a nivel global que como todas las legislaciones deberá ir adaptándose al nuevo contexto social y tecnológico.