La supervisión gubernamental sobre la inteligencia artificial: Un paso hacia la regulación
El gobierno de EE. UU. da un paso hacia la regulación de la inteligencia artificial al anunciar pruebas a los nuevos modelos de IA de Google, Microsoft y xAI antes de su lanzamiento.

La agencia nacional de estándares del Departamento de Comercio de Estados Unidos ha dado un paso significativo hacia la regulación de la inteligencia artificial (IA) al anunciar que realizará pruebas a los nuevos modelos de IA de Google, Microsoft y xAI, la empresa de Elon Musk, antes de su lanzamiento. Este acuerdo se basa en un acuerdo alcanzado en 2024 por la administración Biden para las pruebas previas al lanzamiento de la tecnología de IA de las startups OpenAI y Anthropic.
Las empresas han acordado proporcionar acceso anticipado a su tecnología al Centro de Estándares e Innovación de IA del Instituto Nacional de Estándares y Tecnología (NIST). El centro llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de la IA de vanguardia y mejorar la seguridad de la IA. La ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional, según declaró Chris Fall, director de CAISI.
Los acuerdos no establecen estándares específicos que las empresas deban cumplir. Sin embargo, marcan un cambio en la postura de la administración Trump sobre la IA y la regulación del sector. Al inicio de su segundo mandato el año pasado, el presidente Donald Trump revocó los requisitos introducidos por la administración Biden que obligaban a las empresas de IA a presentar al gobierno los resultados de sus propias pruebas. Trump ha sido un firme defensor de dar a las empresas de IA espacio para innovar libremente, emitiendo una orden ejecutiva en diciembre que instruía al Departamento de Justicia a demandar a los estados que aprobaran nuevas leyes de IA que el gobierno no aprobara.
Las encuestas han demostrado que los estadounidenses son cada vez más escépticos respecto a la IA y, en general, apoyan los planes para regular esta tecnología en constante evolución. Políticos de ambos partidos principales han criticado duramente la actitud conciliadora de Trump hacia la industria de la IA. Los acuerdos para supervisar las nuevas tecnologías de IA se producen después de que Anthropic sacudiera al sector de la seguridad nacional el mes pasado con el anuncio de Mythos, un modelo de IA que puede utilizarse para encontrar, corregir o explotar fallos de seguridad en el software.
Anthropic solo ha proporcionado Mythos a un número selecto de otras empresas tecnológicas, alegando el temor de que un lanzamiento público otorgara una nueva y poderosa herramienta a los ciberdelincuentes. El anuncio de la compañía desató una intensa actividad entre los funcionarios gubernamentales para comprender con exactitud la capacidad actual y potencial de los modelos de IA para realizar ataques informáticos. Los acuerdos anunciados no parecen obligar a las empresas a modificar su tecnología bajo las directrices del gobierno. Estos acuerdos fomentan el intercambio de información, impulsan mejoras voluntarias en los productos y garantizan una comprensión clara por parte del gobierno de las capacidades de la IA y del estado de la competencia internacional en este campo, según declaró el Departamento de Comercio.
La respuesta de la industria y el gobierno
La industria de la IA ha estado bajo escrutinio en los últimos años debido a preocupaciones sobre la seguridad, la privacidad y la ética. Los gobiernos de todo el mundo han comenzado a tomar medidas para regular la IA y garantizar que se utilice de manera responsable. El acuerdo anunciado por el Departamento de Comercio es un paso en esta dirección y puede tener implicaciones significativas para la industria de la IA en el futuro.
Implicaciones para la seguridad nacional
La capacidad de la IA para realizar ataques informáticos es una preocupación creciente para la seguridad nacional. Los modelos de IA como Mythos pueden utilizarse para encontrar y explotar fallos de seguridad en el software, lo que podría tener consecuencias devastadoras para la infraestructura crítica y la seguridad nacional. El acuerdo anunciado por el Departamento de Comercio puede ayudar a mitigar este riesgo al proporcionar una comprensión más clara de las capacidades de la IA y del estado de la competencia internacional en este campo.
Explora más noticias en nuestra sección: Mundo



