+34 93 218 40 00 info@gimenez-salinas.es

Versión en PDF

Recientemente, la Comisión Europea publicó las directrices para ayudar a los diferentes operadores del entorno de inteligencia artificial a analizar si se encuentran ante un sistema de inteligencia artificial en los términos del Reglamento (UE) 2024/1689 de Inteligencia Artificial.

En atención de las previsiones establecidas en el artículo 96.1. f) del Reglamento IA, la Comisión Europea publicó las directrices sobre la definición de sistema de inteligencia artificial, que se unen a las publicadas días antes sobre las prácticas prohibidas de inteligencia artificial.

Estas nuevas directrices tienen por objetivo tratar de ayudar a los diferentes operadores a identificar si se encuentran ante un sistema de inteligencia artificial que se encuentre regulado por el Reglamento de IA.

Las directrices vienen a tratar de concretar la definición de “sistema de inteligencia artificial” contenida en el artículo 3 (1) del Reglamento IA. Como se desprende de este artículo, y se matiza en las directrices, a la hora de analizar si estamos ante un sistema de inteligencia artificial, debemos encontrarnos ante un sistema cumpla todos estos requisitos:

  • Basado en una máquina(hardware y software).
  • Diseñado para funcionar con diferentes niveles de autonomía, es decir, que pueda actuar con cierto grado de independencia con respecto a la actuación humana y tenga ciertas capacidades para funcionar sin intervención humana.
  • Que pueda mostrar capacidad de adaptación tras el despliegue, un elemento que no es requisito indispensable para estar dentro del ámbito de aplicación del Reglamento IA. Es decir, un sistema de inteligencia artificial puede tener tal consideración a efectos del Reglamento IA incluso aunque no tengan capacidad de adaptación tras el despliegue.
  • Que tenga objetivos explícitos o implícitos, es decir, tanto objetivos establecidos claramente que se codifican directamente por el desarrollador del sistema (por ejemplo, optimización de costes en una función) como objetivos que no se establecen explícitamente, pero se pueden deducir del comportamiento o asunciones subyacentes del sistema.
  • Que infierade la información de entrada que recibe la manera de generar resultados de salida, es decir, no se basa en reglas predefinidas por humanos para ejecutar automáticamente operaciones.
  • Las directrices citan algunos ejemplos que no cumplirían este elemento y, por tanto, no serían un sistema de inteligencia artificial a los efectos del Reglamento de IA: sistemas de gestión de bases de datos para filtrar o seleccionar según determinado criterio o sistemas de análisis meramente descriptivo como podría ser un software que utiliza técnicas de estadística sobre datos de encuestas.
  • Los resultados de salida generados puedan ser, entre otros, predicciones, contenido, recomendaciones o decisiones. El Reglamento IA utiliza la expresión “como”, lo que quiere decir que el resultado de salida puede ser otro.
  • Que el resultado de salida pueda influir en entornos físicos o virtuales. La propia redacción del reglamento determina que esta influencia no es esencial para la calificación de un sistema como IA.

Si bien estas directrices aún no están formalmente aprobadas y no tienen carácter vinculante, pueden ayudar a interpretar alguno de los múltiples términos indefinidos contenidos en el artículo 3 del Reglamento de IA. Esto puede ser de especial utilidad, teniendo en cuenta que la mayor parte del tejido empresarial se encuentra revisando y clasificando, contrarreloj, los sistemas de inteligencia artificial que utilizan desarrollan o introducen en el mercado.

IA DE USO GENERAL

El otro documento publicado por la Comisión Europea al que nos referimos es el tercer borrador del Código de Buenas Prácticas para la Inteligencia Artificial (IA) de Uso General, elaborado por expertos independientes. Este documento es fundamental para detallar las obligaciones establecidas en el Reglamento de IA, proporcionando a los proveedores directrices claras para garantizar el cumplimiento normativo y fomentar el desarrollo de modelos de IA seguros y fiables.

Este tercer borrador presenta una estructura más simplificada y precisa en comparación con versiones anteriores. Se centra en una serie de compromisos de alto nivel, acompañados de medidas detalladas para su implementación efectiva. Entre los aspectos más destacados, se incluyen:

  • Transparencia y derechos de autor: todos los proveedores de modelos de IA de uso general deben cumplir con obligaciones específicas en materia de transparencia y respeto a los derechos de autor. Para facilitar este proceso, se ha incorporado un formulario de documentación estandarizado que permite recopilar y presentar la información requerida de manera coherente y accesible.
  • Evaluación y mitigación de riesgos sistémicos: para los proveedores de modelos de IA que puedan representar riesgos sistémicos (definidos en el Reglamento de IA), el código establece medidas específicas. Estas incluyen la realización de evaluaciones exhaustivas de los modelos, la implementación de estrategias de mitigación de riesgos, la notificación obligatoria de incidentes graves y el cumplimJiento de estrictas normas de ciberseguridad.

Para los profesionales del derecho especializados en el mundo digital, este código representa una herramienta esencial. Ofrece un marco detallado sobre las responsabilidades y mejores prácticas para los proveedores de modelos de IA de uso general, facilitando la interpretación y aplicación del Reglamento de IA.

ENFOQUE BASADO EN EL RIESGO

El Reglamento IA aborda la inteligencia artificial desde los riesgos que puede entrañar para las personas y procura adaptar el tipo y contenido de las obligaciones de conformidad con el alcance y gravedad de los riesgos que pueda suponer.

Este planteamiento parte de la premisa de que no todos los sistemas de inteligencia artificial generan el mismo nivel de amenaza para los derechos fundamentales, la seguridad o los intereses legítimos de las personas, por lo que no resulta proporcionado imponer idénticas obligaciones a todos ellos.

Sobre esta base, el Reglamento clasifica los sistemas de IA en distintas categorías de riesgo, a las que asocia un régimen jurídico diferenciado:

  • Riesgo inaceptable: engloba aquellas prácticas de inteligencia artificial que se consideran contrarias a los valores fundamentales de la Unión Europea y, por tanto, quedan directamente prohibidas. Se trata de usos que pueden afectar gravemente a los derechos fundamentales, como determinadas técnicas de manipulación o de vigilancia masiva.
  • Alto riesgo: incluye sistemas de IA que, sin estar prohibidos, pueden tener un impacto significativo en ámbitos especialmente sensibles (empleo, educación, crédito, sanidad, justicia, entre otros). Estos sistemas quedan sometidos a un estricto conjunto de obligaciones previas y posteriores a su puesta en el mercado, como evaluaciones de riesgos, controles de calidad de los datos, documentación técnica, supervisión humana y mecanismos de gobernanza.
  • Riesgo limitado: se refiere a sistemas que requieren principalmente obligaciones de transparencia, de modo que las personas usuarias sean conscientes de que están interactuando con un sistema de inteligencia artificial (por ejemplo, chatbots o sistemas de generación de contenido sintético).
  • Riesgo mínimo o nulo: comprende la mayoría de aplicaciones de IA actualmente existentes, que no generan riesgos relevantes y que, por tanto, pueden desarrollarse y utilizarse sin nuevas obligaciones específicas, sin perjuicio del cumplimiento de otra normativa aplicable.

Este enfoque gradual permite equilibrar la protección de los derechos fundamentales con el fomento de la innovación, evitando una sobrerregulación innecesaria y proporcionando seguridad jurídica a empresas y desarrolladores. Al mismo tiempo, obliga a los operadores económicos a realizar un análisis previo riguroso de los sistemas de IA que utilizan, desarrollan o comercializan, con el fin de identificar su nivel de riesgo y las obligaciones que les resultan exigibles.

En definitiva, el enfoque basado en el riesgo convierte al Reglamento de IA en una norma dinámica y adaptable, que no se centra tanto en la tecnología en sí misma como en los efectos reales que su uso puede generar sobre las personas y la sociedad, reforzando así su carácter preventivo y garantista.

El presente artículo es meramente divulgativo y no supone asesoramiento. Para más información: info@gimenez-salinas.es

Versión en PDF

Escríbenos un email

Politica de privacidad