¿Estás preparado?: la nueva Ley de Inteligencia Artificial que cambiará el juego

Foto: Reuters

Introducción

Hoy vamos a explorar un documento por demás relevante: la propuesta de regulación de la Unión Europea (UE) sobre inteligencia artificial. Este proyecto, presentado el 21 de abril de 2021, busca establecer reglas armonizadas para el uso de la inteligencia artificial en la UE. El plan tiene como objetivo abordar los riesgos asociados con la inteligencia artificial y garantizar su empleo ético y seguro. Se centra en sistemas de inteligencia artificial de alto riesgo, como aquellos utilizados en sectores como la salud, el transporte y la seguridad. Estos sistemas estarán sujetos a evaluaciones de riesgos, obligaciones de transparencia y mecanismos de supervisión.

El proceso legislativo para consolidar el proyecto en ley implica la participación de varios comités del Parlamento Europeo, como el Comité de Mercado Interior y Protección del Consumidor y el Comité de Libertades Civiles, Justicia y Asuntos de Interior. No obstante, todavía se encuentra en la fase de discusión y presentación de una versión definitiva que deberá ser votada en la UE.

Entérate: La revolución de ChatGPT en el ejercicio de la abogacía: reflexión sobre sus implicaciones, beneficios y retos

Un equipo especial está trabajando en la elaboración de un informe sobre el documento y de inicio, la iniciativa ha generado opiniones diversas entre los interesados, con debates sobre las definiciones utilizadas y las posibles implicaciones para las inversiones y las pequeñas y medianas empresas. Sin embargo, se reconoce la importancia de equilibrar la protección y la innovación en el campo de la inteligencia artificial.

Una definición legal de inteligencia artificial

No existe una única definición aceptada por la comunidad científica para la inteligencia artificial. El término “inteligencia artificial” se utiliza como un término general para diferentes aplicaciones informáticas basadas en diversas técnicas que exhiben capacidades asociadas comúnmente con la inteligencia humana.

Por ello, en la UE, un grupo de expertos de alto nivel propuso una definición básica de inteligencia artificial que se utiliza cada vez más en la literatura científica. Además, otras agencias europeas han establecido una definición operativa de inteligencia artificial basada en una taxonomía que mapea todos los subdominios de la inteligencia artificial desde una perspectiva política, de investigación e industrial.

Sin embargo, la UE considera que es necesario definir de manera más clara lo que se entiende por “sistema de inteligencia artificial” para garantizar la certeza jurídica, ya que la determinación de lo que constituye un “sistema de inteligencia artificial” es crucial para asignar responsabilidades legales dentro del nuevo marco de inteligencia artificial.

Te puede interesar: Me lleva la veda: una reflexión sobre el silencio

La definición legal que surja de allí, ayudará a clarificar qué tipos de sistemas se consideran “inteligencia artificial” y estarán sujetos a las regulaciones y requisitos establecidos en la propuesta de ley.

La pirámide de riesgos de la IA

La propuesta introduce el concepto de “pirámide de riesgos” como un enfoque para abordar los riesgos asociados con los sistemas de IA. Este modelo es una representación visual de los diferentes niveles de riesgo que pueden estar presentes en los sistemas de inteligencia artificial.

Así, en la parte superior de la pirámide se encuentran los sistemas de inteligencia artificial que presentan un “riesgo inaceptable”. Estos son sistemas que podrían causar daños graves o irreversibles a los derechos fundamentales o la seguridad de las personas y, por lo tanto, están sujetos a una regulación más estricta. Algunas de estas prácticas prohibidas incluyen: El uso de técnicas manipuladoras “subliminales” que buscan influir en las personas de manera engañosa; la explotación de grupos vulnerables específicos, ya sea por discapacidad física o mental; el uso de sistemas de inteligencia artificial por parte de autoridades públicas, o en su nombre, con fines de puntuación social; la utilización de sistemas de identificación biométrica en tiempo real en espacios públicos accesibles para fines de aplicación de la ley, excepto en casos limitados. Estas prácticas se consideran inaceptables debido al riesgo que representan para la seguridad, los derechos y los medios de vida de las personas. La propuesta busca prohibir y regular estas prácticas para garantizar un empleo ético y seguro de la inteligencia artificial en la Unión Europea.

Justo debajo se encuentran los sistemas de inteligencia artificial de “alto riesgo“. Estos son sistemas que pueden tener un impacto significativo en los derechos fundamentales o la seguridad de las personas, pero no alcanzan el nivel de riesgo inaceptable. Estos sistemas también están sujetos a requisitos y obligaciones específicos para garantizar su seguridad y cumplimiento normativo.

En el siguiente nivel se encuentran los sistemas de inteligencia artificial de “riesgo limitado”. Estos sistemas presentan un riesgo menor en comparación con los sistemas de alto riesgo, pero aún pueden tener un impacto en los derechos fundamentales o la seguridad de las personas. Los requisitos y obligaciones para estos sistemas son menos estrictos que para los sistemas de alto riesgo.

Lee también: ¿Podemos desaparecer de internet?: el derecho al olvido

En la base de la pirámide se encuentran los sistemas de inteligencia artificial de “bajo o mínimo riesgo”. Estos sistemas presentan un riesgo insignificante o muy bajo y, por lo tanto, están sujetos a regulaciones más flexibles.

El enfoque de la pirámide de riesgos implica que la regulación de la inteligencia artificial se adapte de manera proporcional al nivel de riesgo que presenta cada sistema, evitando una regulación excesiva para sistemas de bajo riesgo y garantizando una regulación más rigurosa para sistemas de alto riesgo.

Los objetivos del proyecto

Para finalizar, te presento un resumen de puntos que explican los objetivos de la propuesta de ley de inteligencia artificial de la UE:

  1. El objetivo general de la propuesta de ley es garantizar el correcto funcionamiento del mercado único mediante la creación de condiciones para el desarrollo y uso de sistemas de inteligencia artificial confiables en la Unión Europea.
  2. La legislación busca establecer un marco legal armonizado para el desarrollo, colocación en el mercado y uso de productos y servicios de inteligencia artificial.
  3. Se pretende asegurar que los sistemas de inteligencia artificial que se pongan en el mercado de la UE sean seguros y respeten la legislación existente de la UE.
  4. La propuesta busca brindar certeza jurídica para facilitar la inversión y la innovación en inteligencia artificial;
  5. Se busca mejorar la gobernanza y la aplicación efectiva de la legislación de la UE sobre derechos fundamentales y requisitos de seguridad aplicables a los sistemas de inteligencia artificial.
  6. Se establece una definición tecnológicamente neutral de los sistemas de inteligencia artificial.
  7. Se adopta un enfoque basado en el riesgo, que establece diferentes requisitos y obligaciones para los diferentes sistemas de inteligencia artificial.
  8. Se busca garantizar la transparencia y el cumplimiento de los requisitos de información, al tiempo que se protegen los derechos de propiedad intelectual y los secretos comerciales.
  9. Se reconoce la necesidad de mecanismos de coordinación adecuados entre las autoridades, especialmente en casos de infracciones transfronterizas.
  10. Se destaca la importancia de proporcionar orientación sobre cómo garantizar el cumplimiento de los requisitos de transparencia e información.

Así, en espera que te sea útil esta información, nos leemos la próxima semana. Recuerda siempre buscar información y asesoramiento legal calificado antes de tomar cualquier decisión importante. Mientras tanto, te espero en Twitter como @enrique_pons.

Comparte esta nota