El Gobierno de los Estados Unidos intenta meter en cintura al desarrollo de la Inteligencia Artificial (IA) frente a los riesgos que conlleva. Tras la Órden Ejecutiva que el presidente Joe Biden emitió en octubre, las agencias de EU implementaron en un plazo de 240 días una serie de medidas para combatir riesgos a la población y a la seguridad nacional.
Frente a los riesgos que implica el desarrollo de la Inteligencia Artificial (IA), el Gobierno de los Estados Unidos ha implementado a marchas forzadas una serie de medidas urgentes de seguridad. En octubre de 2023, el presidente Joe Biden firmó una Órden Ejecutiva para regular a la IA en un contexto en el que las legislaciones eran insuficientes frente al avance desenfrenado de los modelos de la IA generativa.
En marzo, el Parlamento Europeo aprobó la Ley de IA en la que se estipularon cuatro categorías de riesgo. Esta legislación entrará en vigor un año después de su aprobación, es decir, hasta mayo de 2025. La Unión Europea también contempla la creación de agencias nacionales de supervisión.
Mientras tanto, la Administración del presidente Joe Biden busca desarrollar criterios de regulación a vapor. Este viernes, la Casa Blanca informó que durante 270 días las agencias estadounidenses echaron a andar una serie de medidas piloto para establecer lineamientos para mitigar el riesgo de la IA, tanto para las personas como para el Gobierno y la seguridad nacional.
Según el documento publicado por Washington, las agencias del Gobierno de los Estados Unidos cumplimentaron todas las acciones integradas en la Órden Ejecutiva, que fue firmada en octubre, en materia de seguridad.
Las acciones estuvieron orientadas a mitigar riesgos de seguridad y protección de la IA, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y trabajadores, promover la innovación y la competencia, e impulsar el liderazgo estadounidense en todo el mundo.
En el informe se destacó que el Instituto de Seguridad de IA (AISI, por sus siglas en inglés) que pertenece a Departamento de Ciencia, Innovación y Tecnología del Reino Unido, publicó nuevas directrices para que los desarrolladores de IA eviten que los modelos de doble uso puedan afectar a las personas, la seguridad pública o la seguridad nacional y fomenten la transparencia.
El Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) amplió los marcos en materia de gestión de riesgos de la IA generativa y los modelos de doble uso. El Marco de Gestión de Riesgos de IA ha sido ampliamente utilizado en EU y en el mundo para gestionar los riesgos de la IA.
En el Departamento de Energía de EU se desarrollaron y ampliaron los bancos de pruebas de la IA y herramientas de evaluación de modelos.
El Departamento de Defensa y el Departamento de Seguridad Nacional realizaron una serie de pruebas piloto para identificar vulnerabilidades en el software gubernamental esencial.
El Consejo de Política de Género y la Oficina de Política Científica y Tecnológica emitieron un llamado a la acción para frenar el uso de imágenes para la explotación sexual infantil a través de contenido sintético generado por la IA.