top of page

LUCES Y SOMBRAS DE LA FUTURA REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL


En un hito significativo hacia la regulación de la Inteligencia Artificial (IA) en la Unión Europea (UE), el Parlamento y del Consejo alcanzaron el día 8 de diciembre un acuerdo provisional sobre la Ley de Inteligencia Artificial. No obstante, el camino hacia la implementación total aún requiere la aprobación formal tanto del Parlamento como del Consejo, estando previstas las votaciones definitivas para la aprobación en el año 2024.


Sin embargo, no todos los países están conformes con las líneas adoptadas en la regulación por el posible freno que puede suponer para la innovación. El Presidente de Francia ha llegado a señalar la posibilidad de bloquear la regulación, y varias empresas del sector tecnológico como OpenAI se plantean no prestar servicios en la Unión Europea.


Por el momento, los expertos técnicos y jurídicos del sector de la inteligencia artificial están tratando de adentrarse en esta regulación, con el fin de vislumbrar los retos y desafíos que su implementación práctica nos traerá.


¿Cuáles son los objetivos del reglamento de la IA?


Esta futura normativa busca avanzar en el necesario equilibrio la innovación tecnológica con la protección de los derechos fundamentales y el estado de derecho. El acuerdo provisional establece que la regulación se centra en el objetivo de mitigar impactos negativos en los derechos fundamentales y la sociedad en general, a la vez que se fomenta la innovación y consolidación de Europa como líder en el ámbito de la IA.


La línea de la normativa se centra en 4 claves:

a) Establecer las condiciones adecuadas de desarrollo

b) Hacer de la Unión Europea un lugar seguro

c) Conseguir que la tecnología trabaje para la gente

d) Definir estrategias de liderazgo en varios sectores: como sostenibilidad ambiental, sector de salud, inmigración, robótica y agricultura.


¿Qué aspectos de interés abarca la futura regulación de la IA?


Uno de los puntos más debatidos respecto a la IA fue el establecimiento de un concepto neutro que pudiese abarcar técnicas que aún no se conocen o desarrollan. El objetivo general era incluir toda la inteligencia artificial, incluyendo la inteligencia artificial simbólica tradicional, el aprendizaje automático, así como los sistemas híbridos.


En este sentido, se ha definido como todo "software que se desarrolla con una o más de las técnicas y enfoques enumerados en el Anexo I y que puede, para un conjunto dado de objetivos definidos por humanos, generar salidas como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan." Así podríamos entender que un sistema de IA es una máquina que, para un conjunto definido de objetivos explícitos o implícitos, infiere cómo generar resultados que pueden influir en entornos reales o virtuales, con distintos niveles de autonomía y adaptabilidad.


Por otro lado, es crucial destacar que las aplicaciones de IA con mayor impacto en los derechos de los ciudadanos se integrarán con otras normativas adicionales, como la Directiva sobre responsabilidad por productos defectuosos y la Directiva sobre responsabilidad extracontractual por usos derivados de la inteligencia artificial.


Por lo que respecta a las obligaciones para los sistemas de IA, éstas se determinarán según sus riesgos potenciales y el nivel de impacto que puedan tener. Cabe puntualizar que en la práctica gran parte de los sistemas de inteligencia artificial no serán de alto riesgo, teniendo éstos obligaciones diferentes que los que sí lo sean, y así podrían distinguirse, por ejemplo:


a) Obligaciones de sistemas que no impliquen alto riesgo (Títulos IV, IX):

1. Notificar a los usuarios que están interactuando con un sistema de inteligencia artificial.

2. Informar a los usuarios que se les aplican sistemas de reconocimiento emocional o categorización biométrica.

3. Identificar etiquetas a deep fakes (a menos que sea necesario para el ejercicio de un derecho o libertad fundamental o por razones de interés público).


b) Requisitos para los sistemas de alto riesgo (Título III):

1. Establecer documentación y funciones de registro de diseño (trazabilidad y auditabilidad). Garantizar un cierto grado apropiado de transparencia y proporcionar a los usuarios información (sobre cómo utilizar el sistema).

2. Asegurar la supervisión human.

3. Garantizar la precisión y la ciberseguridad.


Otro de los aspectos controvertidos recogidos en el reglamento es el relativo a las funciones prohibidas, como la manipulación subliminal susceptible de causar daño físico o psicológico, la explotación de menores o personas con discapacidad, la calificación social de propósito general y el uso de la tecnología biométrica que sólo se podría realizar para garantizar la seguridad nacional con autorización judicial previa y ante una amenaza genuina y previsible.


De hecho, este último punto es especialmente sensible, pues las tecnologías biométricas tendrán que cumplir requisitos legales sumamente rigurosos, lo que puede implicar para las empresas la necesidad de destinar elevados presupuestos a aspectos jurídicos, en lugar de la innovación, para lo que no todas las tecnológicas están dispuestas.


Asimismo, la normativa aborda la llamada IA generativa, como ChatGPT de OpenAI a los que se exigirá medidas adicionales de transparencia en su funcionamiento, entre otros fines para prevenir futuros conflictos relacionados con la propiedad intelectual.




¿Qué podemos esperar del futuro de la regulación de la IA?


Aunque aún debe pasar por la aprobación formal, el enfoque de la nueva regulación del Reglamento de inteligencia artificial centrado en la protección de derechos fundamentales y la innovación sostenible sienta las bases para un marco normativo que promueva una IA fiable, ética y robusta en la Unión Europea.


No obstante, aún es pronto para atisbar si al igual que ocurrió con el Reglamento general de protección de datos, esta normativa de la IA se convertirá en una guía inspiracional europea para la regulación en otros países. Sin embargo, viendo los posicionamientos iniciales de algunas empresas estadounidenses, que precisamente son las más punteras actualmente en sistemas de inteligencia artificial, parece que la cuestión será más controvertida.

 

36 visualizaciones0 comentarios
bottom of page