En un hecho sin precedentes, los miembros de la Unión Europea han logrado un acuerdo sobre una legislación pionera a nivel mundial para supervisar el uso de la inteligencia artificial (IA). El comisario europeo de Mercado Interno, Thierry Breton, encargado de asuntos digitales, lo describió como un evento “histórico” en su cuenta de Twitter.
Con este acuerdo político, Europa se convierte en el primer continente en establecer reglas claras para la utilización de la inteligencia artificial, según Breton, quien hizo el anuncio después de tres días de intensas negociaciones entre los Estados miembros y el Parlamento Europeo. Destacó que esta legislación no es simplemente un conjunto de reglas, sino más bien una plataforma que permitirá a las empresas y los investigadores de la UE liderar la carrera hacia una IA confiable.
Ursula von der Leyen, presidenta de la Comisión Europea, elogió el acuerdo en redes sociales, calificándolo como un “marco legal único para el desarrollo de una IA en la que podamos confiar”.
Representantes de los países miembros y del Parlamento Europeo sostuvieron agotadoras jornadas de negociaciones para dar forma a este ambicioso proyecto de legislación. La última ronda de conversaciones comenzó el miércoles y, después de 22 horas de negociación, las partes acordaron reanudar las reuniones el viernes por la mañana.
El lanzamiento de esta iniciativa data de 2021 por parte de la Comisión Europea, con el objetivo de prevenir el uso indebido de la inteligencia artificial y, al mismo tiempo, fomentar la innovación en el sector. Sin embargo, las discusiones se vieron sorprendidas por la aparición del programa ChatGPT a finales de 2022, generando preocupaciones sobre el mal uso de la tecnología.
Aunque el acuerdo sellado el viernes representa un paso significativo para la UE, este proyecto de legislación aún debe ser aprobado tanto en el Parlamento Europeo como en los países del bloque.
En el núcleo del proyecto se encuentran un conjunto de reglas aplicables a sistemas considerados de alto riesgo, como los utilizados en infraestructura esencial o educación. Estos sistemas estarán sujetos a obligaciones fundamentales, como asegurar el control humano sobre los procesos, establecer documentación técnica y la implementación de un sistema de gestión de riesgos.
Además, la legislación contempla una supervisión específica de los sistemas de IA que interactúan con humanos, exigiendo que informen a cada usuario cuando estén en contacto con una máquina.