Artículo 15

Precisión, solidez y ciberseguridad

1.   Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que alcancen un nivel adecuado de precisión, solidez y ciberseguridad y funcionen de manera uniforme en esos sentidos durante todo su ciclo de vida.

2.   Para abordar los aspectos técnicos sobre la forma de medir los niveles adecuados de precisión y solidez establecidos en el apartado 1 y cualquier otro parámetro de rendimiento pertinente, la Comisión, en cooperación con las partes interesadas y organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, fomentará, según proceda, el desarrollo de parámetros de referencia y metodologías de medición.

3.   En las instrucciones de uso que acompañen a los sistemas de IA de alto riesgo se indicarán los niveles de precisión de dichos sistemas, así como los parámetros pertinentes para medirla.

4.   Los sistemas de IA de alto riesgo serán lo más resistentes posible en lo que respecta a los errores, fallos o incoherencias que pueden surgir en los propios sistemas o en el entorno en el que funcionan, en particular a causa de su interacción con personas físicas u otros sistemas. Se adoptarán medidas técnicas y organizativas a este respecto.

La solidez de los sistemas de IA de alto riesgo puede lograrse mediante soluciones de redundancia técnica, tales como copias de seguridad o planes de prevención contra fallos.

Los sistemas de IA de alto riesgo que continúan aprendiendo tras su introducción en el mercado o puesta en servicio se desarrollarán de tal modo que se elimine o reduzca lo máximo posible el riesgo de que los resultados de salida que pueden estar sesgados influyan en la información de entrada de futuras operaciones (bucles de retroalimentación) y se garantice que dichos bucles se subsanen debidamente con las medidas de reducción de riesgos adecuadas.

5.   Los sistemas de IA de alto riesgo serán resistentes a los intentos de terceros no autorizados de alterar su uso, sus resultados de salida o su funcionamiento aprovechando las vulnerabilidades del sistema.

Las soluciones técnicas encaminadas a garantizar la ciberseguridad de los sistemas de IA de alto riesgo serán adecuadas a las circunstancias y los riesgos pertinentes.

Entre las soluciones técnicas destinadas a subsanar vulnerabilidades específicas de la IA figurarán, según corresponda, medidas para prevenir, detectar, combatir, resolver y controlar los ataques que traten de manipular el conjunto de datos de entrenamiento («envenenamiento de datos»), o los componentes entrenados previamente utilizados en el entrenamiento («envenenamiento de modelos»), la información de entrada diseñada para hacer que el modelo de IA cometa un error («ejemplos adversarios» o «evasión de modelos»), los ataques a la confidencialidad o los defectos en el modelo.

Frequently Asked Questions

Los sistemas de inteligencia artificial de alto riesgo deben ser diseñados para mantener niveles adecuados y constantes de precisión, robustez y ciberseguridad durante toda su vida útil, usando técnicas tales como copias de seguridad, prevención de fallos y medidas específicas para la protección contra ataques informáticos que buscan manipular los datos o resultados del sistema.
La Comisión Europea, junto con especialistas y organismos relevantes, definirá métodos claros y parámetros de medición para evaluar los niveles adecuados de precisión y solidez de los sistemas de inteligencia artificial de alto riesgo, asegurando así estándares técnicos comunes y confiables para garantizar que estos sistemas sean seguros y efectivos.
Los usuarios de los sistemas de inteligencia artificial de alto riesgo recibirán claramente indicados los niveles de precisión que el sistema logra, además de los parámetros específicos utilizados para medir esta precisión, permitiendo entender mejor la fiabilidad y efectividad esperadas en situaciones reales al utilizar esa IA.
Los sistemas de inteligencia artificial de alto riesgo deben contar con protección frente a intrusiones o ataques digitales malintencionados, incluyendo métodos para prevenir, detectar y corregir ataques que busquen envenenar datos o modelos, o inducir errores específicos, evitando así daños o malfuncionamiento debido a vulnerabilidades existentes en el sistema.

Alfabetización en materia de IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!