Aproximadamente cinco semanas antes de que el presidente Donald Trump anuncie la política de IA de su administración, las principales compañías de IA continúan fortaleciendo sus lazos con el gobierno, específicamente para los clientes de seguridad nacional.
El jueves, Anthrope anunció a Claude Gov, una familia de modelos «exclusivamente para clientes de seguridad nacional de EE. UU.», Dijo en el comunicado. Claude Gov está destinado a todo, desde operaciones hasta análisis de inteligencia y amenazas, y está diseñado para interpretar documentos clasificados y contextos de defensa. También presenta una mayor competencia del lenguaje y el dialecto, así como una mejor interpretación de los datos de ciberseguridad.
«Las agencias ya implementan los modelos en el nivel más alto de seguridad nacional estadounidense, y el acceso a estos modelos se limita a aquellos que operan en tales entornos clasificados», dijo la compañía.
Desarrollado con comentarios de los usuarios gubernamentales de Anthrope, la compañía dijo que Claude Gov ha sufrido su estándar de pruebas de seguridad (que la compañía aplica a todos los modelos de Claude). En el comunicado, Anthrope reiteró su compromiso con la IA segura y responsable, asegurando que Claude Gov no sea diferente.
El anuncio se produce varios meses después de que Operai lanzó el gobierno de ChatGPT en enero de este año, lo que indica un cambio público más amplio en los principales laboratorios de IA para atender explícitamente casos de uso del gobierno con productos ajustados. La Guardia Nacional ya usa Google AI para mejorar su respuesta a desastres.
(Divulgación: Ziff Davis, la empresa matriz de Zdnet, presentó una demanda de abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
Antes de la administración Trump, los contratos militares y otros contratos relacionados con la defensa entre las compañías de IA y el gobierno de los Estados Unidos no eran tan publicitados, especialmente en medio de las pautas de uso cambiantes en compañías como OpenAI, que originalmente habían prometido no participar en la creación de armas. Google recientemente ha pasado por revisiones de guías similares, a pesar de mantener reclamos a la IA responsable.
Los crecientes lazos entre el gobierno y las empresas de IA se están llevando a cabo en el contexto más amplio del inminente plan de acción de IA de la administración Trump, programado para el 19 de julio. Desde que Trump asumió el cargo, las compañías de IA han ajustado los compromisos de responsabilidad de la era de Biden, originalmente hechos con el Instituto de Seguridad de la IA US, cuando Trump retrocedió cualquier reglamento de regulación en su lugar. Openai ha abogado por una menor regulación a cambio del acceso gubernamental a los modelos. Junto con Anthrope, también se ha acercado al gobierno de nuevas maneras, incluso a través de asociaciones científicas y la iniciativa Stargate de $ 500 mil millones, mientras que la administración Trump reduce el personal y los fondos para la IA y otras iniciativas relacionadas con la ciencia dentro del gobierno de los Estados Unidos.
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.