Microsoft, Google, Anthropic y OpenAI deben garantizar la seguridad en sus productos con inteligencia artificial: Casa Blanca

La Casa Blanca advirtió a desarrolladores de inteligencia artificial que deben de garantizar la seguridad de sus productos
Foto: EFE

 EFE.- La vicepresidenta de Estados Unidos, Kamala Harris, advirtió este jueves a los directivos de las cuatro firmas estadounidenses al frente del desarrollo de la inteligencia artificial (IA), con los que se reunió en la Casa Blanca, que deben garantizar la seguridad de los productos que usen ese sistema.

“El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense”, dijo la vicepresidenta en un comunicado.

Te interesa: Republicanos responden al anuncio de reelección de Biden con un video creado con inteligencia artificial que llama a derrotarlo

Harris se pronunció tras haber recibido en la Casa Blanca a los consejeros delegados de Microsoft, Satya Nadella; Alphabet y Google, Sundar Pichai; Anthropic, Dario Amodei, y OpenAI, Sam Altman.

“Los avances en tecnología siempre han presentado oportunidades y riesgos, y la IA no es diferente. Es una de las tecnologías más poderosas de la actualidad, con el potencial de mejorar la vida de las personas y abordar algunos de los mayores desafíos de la sociedad”, ha remarcado la vicepresidenta.

Al mismo tiempo, según ha destacado, esa tecnología “tiene el potencial de aumentar drásticamente las amenazas a la seguridad y la protección, infringir los derechos civiles y la privacidad, y erosionar la confianza pública y la fe en la democracia”.

Por la reunión se pasó el presidente de Estados Unidos, Joe Biden, para “subrayar que las compañías tienen una responsabilidad fundamental de garantizar que sus productos son seguros antes de distribuirlos o presentarlos en público”, indicó otro comunicado de la Casa Blanca.

Tanto Biden como Harris hicieron hincapié en la importancia de mitigar los riesgos actuales y potenciales que la IA pueda suponer para los individuos, la sociedad y la seguridad nacional.

Lee ahora: Estados Unidos usará inteligencia artificial para combatir el tráfico de fentanilo

La reunión se centró en tres áreas: la necesidad de que las compañías sean más transparentes con los políticos y el público sobre sus sistemas de IA; la importancia de evaluar, verificar y validar la seguridad de dichos sistemas; y la importancia de garantizar que la IA no cae en manos de “actores maliciosos” y es blanco de ataques.

La portavoz de la Casa Blanca, Karine Jean-Pierre, añadió en su rueda de prensa diario que la conversación con los cuatro directivos fue franca y honesta, y ha incidido en que es necesario que las plataformas que desarrollan la IA sean más transparentes sobre sus sistemas tanto con los políticos como con el público

Antes de la cita, la administración de Joe Biden ya había adelantado que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de hackers DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.

Lee: Musk planea crear empresa de inteligencia artificial y entrar a la carrera de los chatbots

Previo a la reunión, Estados Unidos avanzó este jueves que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances sirven al bien común, lo que elevará a 25 la cifra total en el país de ese tipo de centros.

El gobierno emitirá también nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales, para asegurar que respetan los derechos y la seguridad de los ciudadanos estadounidenses.

Comparte esta nota