Icono del sitio Asesores Financieros – Efpa

Propuesta de la comisión europea sobre el reglamento por el que se establecen normas armonizadas sobre la inteligencia artificial

Recientemente, la Comisión Europea ha publicado la primera propuesta del Reglamento por el que se establecen normas armonizadas sobre la Inteligencia Artificial. Esto marca un importante hito para la regulación europea en materias como Fintech.

Esta normativa pretende garantizar la seguridad de los sistemas de inteligencia artificial y respeto por los derechos fundamentales. Asimismo, con esta propuesta, no solo se pretende dar seguridad jurídica con el fin de favorecer la inversión e innovación en inteligencia artificial, sino que también busca fortalecer la gobernanza y aplicación los requisitos de seguridad incluidos en la normativa vigente de los sistemas basados en la Inteligencia Artificial (en adelante, IA).

Principales propuestas

La propuesta se basa en distintos niveles de riesgo en el uso de la inteligencia artificial. De tal modo, se distingue entre aplicaciones de IA prohibidas, aplicaciones de IA sujetas a autorización, aplicaciones IA con requisitos específicos y aplicaciones IA de “alto riesgo”.

En cuanto a las aplicaciones de IA prohibidas, el artículo 4 de la propuesta de Reglamento establece la prohibición de su uso en aquellos casos en los que materialmente se distorsione el comportamiento de un individuo pudiendo causar un daño físico o psicológico; cuando los sistemas de IA usen información personal con el objetivo de detectar las vulnerabilidades de individuos y en consecuencia, derivarles a actuar en su propio perjuicio; aquellos métodos de IA en los que se utilice información personal para así establecer una perfilación de los individuos basándose en su comportamiento social o características personales con el objetivo de darles un trato discriminatorio en entornos diferentes de aquellos en que se ha obtenido la información; y, por último, se prohíben los sistemas de vigilancia indiscriminada y general.

Respecto a las aplicaciones de IA sujetas a autorización, el Reglamento establece que, de forma excepcional, aquellas aplicaciones IA prohibidas pueden llevarse a cabo por una autoridad pública cuando una norma lo autorice, siempre y cuando se trate de garantizar la seguridad pública. Esta autorización estará sometida, en cualquier caso, a límites y garantías.

En términos de gobernanza, la Comisión propone crear un Comité Europeo de Inteligencia Artificial formado por autoridades nacionales supervisoras representantes de cada Estado Miembro y el Supervisor Europeo de Protección de Datos. Las mencionadas autoridades nacionales tendrán encomendadas actividades de supervisión y ejecución del reglamento, además de actividades de vigilancia del mercado. Además, está presente la creación de códigos de conducta voluntarios para aquellas aplicaciones de IA de bajo riesgo.

Relevancia Fintech

En la propuesta de Reglamento, tal y como hemos mencionado anteriormente, se realiza una clasificación de las aplicaciones de la IA de alto riesgo, enumeradas en el Anexo III y reguladas en los artículos 6 a 29.

Dentro de esta categoría de alto riesgo, se incluyen los servicios financieros, en concreto, aquellos sistemas de IA que se destinen a ser utilizados para evaluar la solvencia de las personas tales como la implementación de un sistema de gestión de riesgos que deberá ser aplicado y documentado en estos sistemas (artículo 9).

De igual modo, se establece que “los conjuntos de datos de entrenamiento, validación y prueba se someterán a prácticas adecuadas de gobernanza y gestión de datos.” (artículo 10) y se deberá disponer de medidas apropiadas de supervisión humana para minimizar el riesgo (artículo 14), y este tipo de aplicaciones de alto riesgo deberán constar de “precisión, solidez y ciberseguridad” (artículo 15).

El proveedor de esta tecnología de alto riesgo será, en virtud del artículo 43, el encargado de controlar el cumplimiento de los mencionados requisitos de forma responsable mediante una evaluación de conformidad.

Además, en el artículo 52, se regulan obligaciones específicas de transparencia, se establece que aquellos sistemas de IA que utilicen robots conversacionales “se diseñen y desarrollen de manera que se notifique a las personas físicas que están interactuando con un sistema de IA, a menos que esto sea obvio por las circunstancias y el contexto de uso.”

Asimismo, establece que “toda persona física cuyos datos personales sean tratados por un sistema de categorización deberá ser notificada de que está expuesta a dicho sistema.”

Por último…

Cabe mencionar que esta Propuesta integra en su título IV medidas concretas con el objetivo de fomentar la innovación responsable en el ámbito de la Inteligencia Artificial, en concreto, en los artículos 53 a 55 se contempla la posibilidad de que los Estados Miembros puedan establecer un espacio controlado de prueba (sandbox).


Entrevista a Fernando Zunzunegui, Presidente de Zunzunegui Abogados y coordinador de Regulación de EFPA España.

Rate this post
Salir de la versión móvil