La inteligencia artificial y el derecho: ¿hay riesgos?

Por Enrique Pons Franco

La inteligencia artificial (IA) es una tecnología que cada vez se utiliza más en diversos ámbitos de la sociedad. Sin embargo, su uso también implica riesgos legales que deben ser abordados para garantizar la seguridad y la vida de las personas, así como la ética en la toma de decisiones. Lo anterior, porque su rápido avance ha llevado a un aumento significativo en la utilización de estas herramientas en el campo del derecho, lo que pone en el radar los riesgos legales, éticos y de seguridad antes citados.

Una de las principales preocupaciones es el impacto que la inteligencia artificial puede tener en las decisiones judiciales y su capacidad para actuar con imparcialidad. La inteligencia artificial puede estar sesgada y puede perpetuar ciertos prejuicios, lo que puede llevar a decisiones injustas. Esto puede ser especialmente problemático en los casos en los que se trata de la protección de los derechos humanos o la vida de las personas.

Entérate: ¿A quién sirve la justicia en la era digital?: el caso Thomson Reuters vs Ross Intelligence

Otro aspecto para destacar es que el uso de la inteligencia artificial en el ámbito del derecho también puede plantear problemas éticos. Por ejemplo, en algunos casos, los algoritmos utilizados en la inteligencia artificial pueden no ser transparentes, lo que dificulta la comprensión de cómo se han tomado las decisiones. Esto puede socavar la confianza en el sistema judicial y plantear preguntas sobre la responsabilidad y la rendición de cuentas en caso de errores o violaciones de derechos.

De esta forma, uno de los primeros riesgos legales que se asocian con la IA es la responsabilidad civil. En términos legales, la responsabilidad civil se entiende como la obligación que tiene una persona o entidad de reparar el daño causado a otra persona o entidad. En el caso de la IA, esto puede ser especialmente complejo, ya que la tecnología está diseñada para tomar decisiones autónomas, lo que dificulta establecer quién es el responsable del daño causado. Un claro ejemplo de esto es el accidente de un coche autónomo de Uber en Arizona en 2018, en el que falleció una persona. La investigación del accidente concluyó que el sistema de la IA no identificó adecuadamente a la persona que cruzaba la calle y no tomó medidas para evitar la colisión. Esto plantea la pregunta de quién es el responsable del accidente: ¿Uber, el fabricante del vehículo, el programador del sistema de la IA o el conductor que estaba en el vehículo?

Una investigación posterior reveló que el software del vehículo no estaba programado para detectar peatones que no cruzaban por el paso de cebra y que el conductor no estaba prestando atención en el momento del accidente. La falta de regulación y supervisión adecuadas de los sistemas de inteligencia artificial en vehículos autónomos es uno de los principales riesgos legales que se plantean actualmente.

Otro riesgo legal asociado con la IA es la privacidad y protección de datos. Las tecnologías de IA recopilan enormes cantidades de datos de los usuarios, lo que puede poner en riesgo su privacidad. Por ejemplo, un caso que ha generado controversia es el del uso de sistemas de reconocimiento facial por parte de la policía en Estados Unidos. Se han denunciado casos de discriminación racial y errores de identificación que han llevado a detenciones injustas, lo que exalta las preocupaciones en cuanto a la privacidad y la protección de datos personales de los ciudadanos.

Te puede interesar: Transferencias electrónicas no reconocidas: ¿cómo ganarle a los bancos?

En el ámbito de la salud, también se han producido riesgos legales relacionados con el uso de la inteligencia artificial. Por ejemplo, en 2019 se dio a conocer el caso de un algoritmo de detección de cáncer de mama desarrollado por Google que tenía un alto índice de falsos positivos. Esto llevó a cuestionar la fiabilidad de los sistemas de diagnóstico basados en inteligencia artificial y a plantear la necesidad de una regulación más rigurosa.

Todo esto nos lleva a preguntarnos en dónde estamos parados ahora. En la Unión Europea (UE), el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) establece normas y directrices sobre el uso de la IA y la protección de datos personales. La UE también está trabajando en una propuesta de marco regulador para la IA que abarca áreas como la transparencia, la responsabilidad y la supervisión humana.

En Estados Unidos, varios estados han implementado leyes relacionadas con la IA, como la Ley de Privacidad del Consumidor de California (CCPA, por sus siglas en inglés) y la Ley de Privacidad de la Información Biométrica de Illinois (BIPA, por sus siglas en inglés). Además, la Comisión Federal de Comercio (FTC, por sus siglas en inglés) ha emitido orientaciones sobre el uso de la IA en publicidad y marketing.

Sin embargo, por lo que toca a México, todavía el trabajo en ese sentido no pasa de recomendaciones emitidas por el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), sin que a la fecha se tenga registro, de al menos proyectos legislativos presentados ante el Congreso que nos pongan un paso delante para prevenir los riesgos que representa la incorporación de esta tecnología en nuestras vidas.

Lee también: Vigilancia “SAT-elital” para cobrar impuestos

En definitiva, la inteligencia artificial presenta numerosos desafíos legales y éticos que deben ser abordados de manera cuidadosa y responsable. Es necesario establecer pronto marcos regulatorios adecuados y específicos.

Así, en espera que te sea útil esta información, nos leemos la próxima semana. Recuerda siempre buscar información y asesoramiento legal calificado antes de tomar cualquier decisión importante. Mientras tanto, te espero en Twitter como @enrique_pons.

Esta web usa cookies.