Estados Unidos, Gran Bretaña y más de una docena de otros países han anunciado la firma de un acuerdo internacional, el primero de su tipo, para proteger los sistemas de inteligencia artificial de los atacantes.
El documento pide la creación de plataformas de IA que estén diseñadas teniendo en cuenta la seguridad desde el inicio de su desarrollo.
El documento de 20 páginas exige que las empresas que desarrollan y operan sistemas de inteligencia artificial cumplan con políticas destinadas a proteger a los usuarios y al público del uso indebido.
El contenido del documento incluye una serie de recomendaciones generales, como monitorear los sistemas de inteligencia artificial para detectar su uso indebido, proteger los datos del acceso no autorizado y examinar minuciosamente a los proveedores de software.
Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA), enfatizó la importancia del consenso internacional sobre el tema. Esta es la primera vez, dijo, que tantos países han acordado que el foco del desarrollo de la IA debe centrarse en la seguridad y no sólo en las características innovadoras o la reducción de costos.
Este acuerdo es parte de iniciativas globales destinadas a dar forma al futuro de la IA. El impacto de la IA es tan grande que regular su desarrollo se está convirtiendo en una cuestión central para la sociedad.
Además de Estados Unidos y Reino Unido, también se han sumado al acuerdo países como Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur. La medida muestra un compromiso global para establecer estándares en IA.
El documento también analiza medidas para combatir las amenazas de los piratas informáticos. Las recomendaciones incluyen la publicación únicamente de modelos de IA después de exhaustivas pruebas de seguridad. Sin embargo, el acuerdo no aborda las complejas cuestiones que rodean el uso adecuado de la IA y los métodos de recopilación de datos.
La Unión Europea (UE) ya está trabajando activamente para regular la IA. Los legisladores de la UE están desarrollando normas en esta área, y Francia, Alemania e Italia llegaron recientemente a un acuerdo sobre la regulación de la IA, incluida la autorregulación obligatoria a través de códigos de conducta para grandes modelos de IA.
Al mismo tiempo, en Estados Unidos, el proceso de regulación de la IA se ha ralentizado debido a la polarización en el Congreso.
La administración de Joe Biden está pidiendo una mayor regulación de la IA, y en octubre la Casa Blanca emitió una orden ejecutiva destinada a reducir los riesgos de la IA para los consumidores y al mismo tiempo fortalecer la seguridad nacional.