Por Enrique Pons Franco
El viernes pasado, la Unión Europea (UE) se convirtió en la primera región del mundo en promulgar una legislación horizontal sobre inteligencia artificial (IA). Esto respalda, al menos conceptualmente, el compromiso de Europa de garantizar que los derechos y libertades sean fundamentales para el desarrollo de esta innovadora tecnología. Los negociadores del Parlamento Europeo llegaron así a un acuerdo provisional sobre la Ley de Inteligencia Artificial, del que me gustaría hablarte hoy.
El objetivo de esta legislación es garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental estén protegidos frente a la IA de alto riesgo, fomentando al mismo tiempo la innovación y convirtiendo a Europa en líder en este campo. De igual forma, establece obligaciones para la IA en función de sus riesgos potenciales y el alcance de su impacto.
Reconociendo la amenaza potencial a las libertades civiles y la democracia que plantean ciertas aplicaciones de IA, aceptamos prohibir:
Los negociadores pueden, sujeto a la aprobación previa de un tribunal y a una lista estrictamente definida de delitos, utilizar sistemas de identificación biométrica (RBI) en espacios públicos accesibles con fines de aplicación de la ley. Se acordó una serie de salvaguardias y excepciones limitadas para su uso. La RBI “post-remota” solo se utilizará para búsquedas dirigidas a personas que han sido condenadas por un delito o que se sospecha que han cometido un delito grave. La RBI “en tiempo real” cumple condiciones estrictas y su uso está limitado en tiempo y espacio para los siguientes propósitos:
Te puede interesar: Vidas hackeadas: cómo el mal uso de WhatsApp y Facebook terminó en una orden aprehensión
Para los sistemas de IA clasificados como de alto riesgo (debido a su potencial daño significativo a la salud, seguridad, derechos fundamentales, medio ambiente, democracia y Estado de derecho), se acordaron obligaciones claras. Los eurodiputados lograron incluir una evaluación de impacto obligatoria en derechos fundamentales, entre otros requisitos, aplicable también a los sectores de seguros y banca. Los sistemas de IA utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre sistemas de IA y recibir explicaciones sobre decisiones basadas en sistemas de IA de alto riesgo que afecten sus derechos.
Para tener en cuenta la amplia gama de tareas que pueden realizar los sistemas de IA y la rápida expansión de sus capacidades, se acordó que los sistemas de IA de propósito general (GPAI) y los modelos de GPAI en los que se basan, tendrán que adherirse a los requisitos de transparencia inicialmente propuestos por el Parlamento. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.
Para modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron asegurar obligaciones más estrictas. Si estos modelos cumplen con ciertos criterios, tendrán que realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas adversarias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen normas armonizadas de la UE, los GPAI con riesgo sistémico pueden basarse en códigos de práctica para cumplir con la regulación.
Los eurodiputados querían asegurarse de que las empresas, especialmente las pymes, puedan desarrollar soluciones de IA sin una presión indebida de los gigantes de la industria que controlan la cadena de valor. Con este fin, el acuerdo promueve los llamados “sandbox” regulatorios y pruebas en el mundo real, establecidos por autoridades nacionales para desarrollar y capacitar IA innovadora antes de su colocación en el mercado.
Lee también: La expulsión de un grupo de WhatsApp que terminó en tribunales
El incumplimiento de las normas puede llevar a multas que van desde 7.5 millones de euros o el 1.5% del volumen de negocios hasta 35 millones de euros o el 7% del volumen de negocios global, dependiendo de la infracción y el tamaño de la empresa. No obstante, el texto acordado ahora tendrá que ser formalmente adoptado por el Parlamento y el Consejo de Europa para convertirse en ley de la UE. Los comités de Mercado Interior y Libertades Civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.
Así, en espera que te sea útil esta información, nos leemos la próxima semana. Pronto te estaré compartiendo el proyecto que será votado. Mientras tanto, te espero en Twitter como @enrique_pons.
Esta web usa cookies.