Propuesta de reglamento de Inteligencia Artificial de la Unión Europea: qué es y todo lo que tienes que saber

La Unión Europea (UE) no está en el grupo de cabeza en cuanto al desarrollo de herramientas de inteligencia artificial (IA) se refiere, pero a nivel regulatorio nadie nos gana y prueba de ello es que la Unión Europea lidera la regulación global de la inteligencia artificial.

El Impacto Exponencial de la Inteligencia Artificial

Todos estamos comprobando que la inteligencia artificial es una tecnología de crecimiento e impacto exponencial, con un gran potencial para transformar nuestras vidas, nuestros empleos y la sociedad tal y como la conocemos con una velocidad nunca experimentada. Esta tecnología y sus aplicaciones plantean una serie de riesgos potenciales, como, por ejemplo, la discriminación, la manipulación y la pérdida de control.

Un Enfoque Pionero en la Regulación de la IA

En respuesta a estos riesgos, la UE ha adoptado un enfoque pionero en la regulación de la IA. En abril de 2021, la Comisión Europea presentó una propuesta de Reglamento de Inteligencia Artificial (IA Act), que fue adoptada recientemente por el Consejo de la UE y el Parlamento Europeo en diciembre de 2023.

Categorización de Sistemas de IA

El acuerdo alcanzado entre las instituciones europeas es un hito histórico, ya que constituye la primera regulación global de la IA, basada en un enfoque en el riesgo, que clasifica los sistemas de IA en cuatro categorías en función de la probabilidad y la gravedad de los daños que podrían llegar a causar.

Requisitos para Sistemas de Alto Riesgo

Los sistemas de alto riesgo son aquellos que podrían causar daños graves a los derechos fundamentales o a la seguridad pública. Algunos ejemplos de sistemas de alto riesgo incluyen:

  • Los sistemas de IA que se utilizan para tomar decisiones que afectan a los derechos fundamentales de las personas, como la contratación, la concesión de préstamos o la detención.
  • Los que se utilizan para controlar o vigilar a las personas, tales como los sistemas de reconocimiento facial o los sistemas de seguimiento de la ubicación.
  • Aquellos que se pueden utilizar para manipular o influir en el comportamiento de las personas, como los sistemas de publicidad dirigida o los sistemas de propaganda.

Estos sistemas de alto riesgo estarán sujetos a los requisitos obligatorios:

  • Evaluación de impacto en derechos fundamentales, que debe llevarse a cabo antes de la puesta en servicio del sistema.
  • Auditoría periódica de seguridad.
  • La transparencia, que debe garantizarse mediante la información adecuada a los usuarios.
  • La responsabilidad, que debe recaer en el operador del sistema.

Requisitos para Sistemas de Riesgo Medio y Bajo

Los sistemas de riesgo medio y bajo son aquellos que podrían causar daños moderados a los derechos fundamentales o a la seguridad pública. Algunos ejemplos de sistemas de riesgo medio incluyen:

  • Los sistemas de IA que se utilizan para procesar datos personales sensibles, como los datos de salud o los datos financieros.
  • Los que se utilizan para automatizar tareas que podrían tener un impacto significativo en las personas, como la conducción autónoma o la evaluación del rendimiento laboral.

Los sistemas de riesgo medio están sujetos a los siguientes requisitos obligatorios:

  • Una evaluación de impacto en derechos fundamentales, que debe llevarse a cabo antes de la puesta en servicio del sistema.
  • La transparencia, que debe garantizarse mediante la información adecuada a los usuarios.

Requisitos para Sistemas de Riesgo Bajo

Los sistemas de riesgo bajo son aquellos que no podrían causar daños significativos a los derechos fundamentales o a la seguridad pública. Algunos ejemplos de sistemas de riesgo bajo incluyen:

  • Aquellos que se utilizan para proporcionar recomendaciones o sugerencias, como los sistemas de recomendaciones de productos o los sistemas de recomendación de películas.
  • Los destinados a automatizar tareas sencillas, como los sistemas de chatbot, IVR o los sistemas de reconocimiento de voz.

Los sistemas de riesgo bajo están sujetos a requisitos de transparencia que deben garantizarse mediante la información adecuada a los usuarios.

Prohibiciones y Consideraciones Especiales

Además de los requisitos obligatorios, el Reglamento de IA también incluye una serie de prohibiciones:

  • El uso de la IA para la manipulación cognitiva y del comportamiento.
  • El reconocimiento de emociones.
  • El uso de la IA para la puntuación social.
  • La categorización biométrica.
  • La predicción policial.

Y hablando de policía, teniendo en cuenta las particularidades de las autoridades policiales y la necesidad de preservar su capacidad para utilizar la IA en sus labores esenciales, se acordaron varias modificaciones en la propuesta de la Comisión en relación con el uso de sistemas de IA con dichos fines. Estas modificaciones deberán estar sujetas a las salvaguardias oportunas.

Supervisión y Cumplimiento

Con el fin de garantizar el cumplimiento de estas normas en toda la UE, se crea otra oficina en la Comisión, la oficina de IA, encargada de supervisar estos modelos de IA, de contribuir a fomentar las normas y las prácticas de ensayo. Un panel científico de expertos independientes asesorará a la oficina de IA sobre los modelos de la IA de uso general, contribuyendo al desarrollo de metodologías para evaluar las capacidades de los modelos fundacionales.

Exclusiones Militares y Entrada en Vigor del Reglamento

Este Reglamento no se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa. El Reglamento de IA entrará en vigor en 2024. Una vez que se aplique, la Comisión Europea será responsable de su aplicación y supervisión. La Comisión también será responsable de desarrollar directrices y normas técnicas para ayudar a las empresas a cumplir con el Reglamento.