29 países firman la Declaración de Bletchley para garantizar seguridad en el uso de la Inteligencia Artificial

29 países firman la Declaración de Bletchley para garantizar seguridad en el uso de la Inteligencia Artificial

Cerca de 30 países firmaron la Declaración de Bletchley para promover la seguridad en el uso de la inteligencia artificial desde la colaboración científica para detectar los riesgos y la elaboración de políticas que promuevan la transparencia en el desarrollo y comercialización de esta tecnología. De manera simultánea, la vicepresidenta de EU, Kamala Harris, anunció la creación del Instituto de Seguridad en IA.

Esta martes [1.1.23] 29 países  firmaron la Declaración de Bletchley sobre seguridad en el uso de la Inteligencia Artificial (IA), en el marco de la cumbre en esta materia, que se realiza en el Reino Unido del 1 al 2 de noviembre.

Entre los países firmantes se encuentran Chile y Brasil de América Latina. Rishi Sunak, primer ministro del Reino Unido consideró la firma de esta declaración como histórica y un esfuerzo global para generar confianza pública.

«Esta declaración histórica marca el inicio de un nuevo esfuerzo global para generar confianza pública en la IA asegurándose de que sea segura», expresó.

El acuerdo se enfoca en dos aspectos relacionados con el desarrollo e implementación de la IA y los riesgos potenciales en su uso indebido. El primer aspecto se centra en identificar los riesgos a la seguridad a través de una red para compartir evidencia científica.

El segundo aspecto, se orienta al desarrollo de políticas que garanticen la seguridad en el uso de esta tecnología; también se busca fomentar la transparencia por parte de los actores privados que desarrollan IA de vanguardia, a través de la exigencia de evaluaciones e investigación relevante para el sector público.

RIESGOS ADMITIDOS

En el acuerdo se reconoce que la IA implica riesgos de seguridad, por lo que es necesario identificar su impacto potencial. Para esta tarea, los firmantes se comprometieron a monitorear el impacto potencial de los sistemas de IA y reconocieron la necesidad de proteger los derechos humanos, la transparencia, la equidad, la rendición de cuentas y la regulación.

Asimismo, reconocieron la necesidad de abordar los problemas que la IA implica en términos de supervisión humana, ética, prejuicios, privacidad y protección de datos. Otro aspecto que genera preocupación es la capacidad de generar contenidos engañosos con el fin de manipular.

Las tecnologías y herramientas de IA que consternan a los países firmantes engloban modelos altamente capaces que podrían realizar varias tareas en el campo de la ciberseguridad, la biotecnología y la comunicación y que pueden representar riesgos por su uso indebido, o problemas en el control de estas a causa de que sus capacidades no han sido comprendidas por completo.

EU CREA INSTITUTO DE SEGURIDAD DE IA

Kamala Harris, vicepresidenta de los Estados Unidos, anunció durante su visita a la Embajada estadounidense en Londres, que el Gobierno federal creó el Instituto de Seguridad de Inteligencia Artificial (IA) para prevenir riesgos que implica esta tecnología para la población.

La nueva institución delimitará estándares para garantizar la seguridad de los modelos de IA en su uso público. De acuerdo con la vicepresidenta, antes de que el uso de la IA generativa escalara durante el 2023 a nivel global, se reunió con el presidente estadounidense, Joe Biden, y líderes en el campo de aplicación de esta tecnología, entre ellos científicos, informáticos, activistas, ejecutivos y abogados, para abordar las amenazas potenciales de la IA.

Antes del boom de la IA, Kamala Harris se sentía preocupada por los deep fakes (falsificaciones a través de la clonación de voz, imagen y otros datos biométricos para generar información falsa o difamatoria), la intromisión en los datos personales y la discriminación algorítmica. Con base en estas preocupaciones Biden ordenó al Gobierno estadounidense promover el uso seguro de la IA.

El Gobierno estadounidense ejerció presión para que las empresas tecnológicas proporcionarán herramientas para que los consumidores puedan identificar contenidos creados con IA. En tanto que, los desarrolladores estarán obligados a presentar informes sobre la seguridad de sus productos.

De acuerdo con Kamala Harris, 10 organizaciones de la sociedad civil colaborarán en la protección de derechos de trabajadores, promoción de la transparencia, prevención de la discriminación, impulso de la innovación y otras tareas para las que han realizado una aportación de 200 millones de dólares.

«Estos compromisos voluntarios son un paso inicial hacia un futuro de IA más seguro y con más por venir, porque, como ha demostrado la historia, en ausencia de regulación y de una fuerte supervisión gubernamental, algunas empresas de tecnología optan por priorizar las ganancias sobre el bienestar de sus clientes, la seguridad de nuestras comunidades y la estabilidad de nuestras democracias», expresó la vicepresidenta de EU.