La administración Trump publicó su plan de acción de IA, un documento de 28 páginas que describe las políticas propuestas para todo, desde la construcción del centro de datos hasta cómo las agencias gubernamentales usarán la IA, el miércoles. Como se esperaba, el plan enfatiza la desregulación, la velocidad y el dominio global, al tiempo que evita en gran medida muchos de los conflictos que afectan el espacio de IA, incluidos los debates sobre los derechos de autor, las protecciones ambientales y los requisitos de pruebas de seguridad.
«Estados Unidos debe hacer más que promover la IA dentro de sus propias fronteras», dice el plan. «Estados Unidos también debe impulsar la adopción de sistemas de IA estadounidenses, hardware informático y estándares en todo el mundo».
Aquí están las principales conclusiones del plan y cómo podrían afectar el futuro de la IA, a nivel nacional e internacional.
AI upskilling sobre las protecciones de los trabajadores
Las empresas dentro y fuera de la industria de la tecnología ofrecen cada vez más cursos de aceleración de la IA para mitigar el impacto laboral de la IA. En una sección titulada «Empoderar a los trabajadores estadounidenses en la era de la IA», el Plan de Acción de AI continúa esta tendencia, proponiendo varias iniciativas construidas en dos órdenes ejecutivas de abril de 2025 para la educación de IA.
Específicamente, el Plan propone que el Departamento de Trabajo (DOL), el Departamento de Educación (ED), la National Science Foundation y el Departamento de Comercio dejen de lado los fondos para los programas de reentrenamiento y estudien el impacto de la IA en el mercado laboral.
El plan también crea incentivos fiscales para que los empleados ofrezcan programas de desarrollo de habilidades y alfabetización. «En situaciones aplicables, esto permitirá a los empleadores ofrecer un reembolso libre de impuestos para la capacitación relacionada con la IA y ayudar a escalar la inversión del sector privado en el desarrollo de habilidades de IA», aclara el plan.
En ninguna parte del documento la administración propone regulaciones o protecciones para los trabajadores que no sean reemplazados por AI. Al ir todo en Upskilling sin ajustar las leyes laborales a la realidad de la IA, la administración Trump pone la responsabilidad de los trabajadores para mantenerse al día. No está claro qué tan efectivamente ascendente solo evitará el desplazamiento.
Los modelos de IA gubernamentales pueden ser censurados
Múltiples cifras dentro de la administración Trump, incluidos el presidente y el zar de Ai David David Sacks, han acusado a los modelos de IA populares de Google, Anthrope y OpenAi de ser «despertado» o demasiado ponderado hacia los valores liberales. El Plan de Acción de IA codifica esa sospecha al proponer «referencias a la información errónea, la diversidad, la equidad y la inclusión (DEI) y el cambio climático» del Marco de Gestión de Riesgos de AI (AI RMF).
(Divulgación: Ziff Davis, la empresa matriz de Zdnet, presentó una demanda de abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
Lanzado en enero de 2023, el AI RMF es un recurso de implementación público-privado destinado a «mejorar la capacidad de incorporar consideraciones de confiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y sistemas de IA», similar al repositorio de riesgos del MIT. Actualmente, no incluye referencias a la información errónea o al cambio climático, pero recomienda que las iniciativas de la fuerza laboral sean consideradas por organizaciones que introducen nuevos sistemas de IA.
La propuesta del Plan de Acción de IA de eliminar estas menciones, por más ampliamente definidas, censuraría efectivamente los modelos utilizados por el gobierno.
A pesar de varias inconsistencias lógicas en la protección de la libertad de expresión, la misma sección señala que el Centro de Normas e Innovación de IA (CAISI) recientemente renombrado, anteriormente el Instituto de Seguridad de AI de EE. UU., «Realizará investigaciones y, según corresponda, las evaluaciones de los modelos fronterizos de la República Popular de China por alineación con puntos de conversación del Partido Comunista Chino y censura».
«Debemos asegurarnos de que la libertad de expresión florezca en la era de la IA y que la IA adquirida por el gobierno federal refleje objetivamente la verdad en lugar de las agendas de ingeniería social», dice el plan.
Las amenazas de legislación estatal pueden devolver
A principios de este verano, el Congreso propuso una moratoria de 10 años sobre la legislación estatal de IA, que las empresas, incluida Operai, habían abogado públicamente. Escondido en la factura de impuestos «grande y hermosa» de Trump, la prohibición fue eliminada en el último segundo antes de que se aprobara el proyecto de ley.
Sin embargo, las secciones del Plan de Acción de AI sugieren que la legislación estatal de IA permanecerá bajo el microscopio a medida que se implementen las políticas federales, probablemente de manera que impone la financiación de la IA de los estados.
El plan tiene la intención de «trabajar con agencias federales que tienen programas de financiación discrecional relacionados con la IA para garantizar, de acuerdo con la ley aplicable, que consideren el clima regulatorio de IA de un estado al tomar decisiones de financiación y limitar la financiación si los regímenes regulatorios de IA del estado pueden obstaculizar la efectividad de esa financiación o adjudicación».
El lenguaje no indica qué tipos de regulación se analizarían, pero dada la actitud de la administración Trump hacia la seguridad de la IA, el sesgo, la responsabilidad y otros esfuerzos de protección, es justo asumir que los estados que intentan regular la IA a lo largo de estos temas serían más dirigidos. Me viene a la mente el proyecto de ley recientemente aprobado de Nueva York, que propone requisitos de seguridad y transparencia para los desarrolladores.
«El gobierno federal no debería permitir que los fondos federales relacionados con la IA se dirigan a los estados con regulaciones de IA onerosas que desperdician estos fondos, pero tampoco deben interferir con los derechos de los estados para aprobar leyes prudentes que no son excesivamente restrictivas para la innovación», continúa el plan, lo que se mantiene subjetivo.
Para muchos, la legislación estatal de IA sigue siendo crucial. «En ausencia de la acción del Congreso, a los Estados se les debe permitir avanzar con las reglas que protegen a los consumidores», dijo un portavoz de Consumer Reports a ZDNET en un comunicado.
Infraestructura de seguimiento rápido: a cualquier costo
El plan nombró varias iniciativas para acelerar los permisos para la construcción de centros de datos, lo que se ha convertido en una prioridad como parte del Proyecto Stargate y una reciente inversión energética centrada en el centro de datos en Pensilvania.
«Necesitamos construir y mantener una vasta infraestructura de IA y la energía para alimentarla. Para hacerlo, continuaremos rechazando el dogma climático radical y la burocracia burocrática», dice el plan. El gobierno tiene la intención de «acelerar el permiso ambiental al racionalizar o reducir las regulaciones promulgadas bajo la Ley de Aire Limpio, la Ley de Agua Limpia, la Ley integral de respuesta ambiental, compensación y responsabilidad, y otras leyes relacionadas relevantes».
Dado el impacto ambiental que pueden tener los centros de datos de escala, esto plantea preocupaciones ecológicas naturalmente. Pero algunos son optimistas de que el crecimiento fomentará los esfuerzos de eficiencia energética.
«A medida que AI continúa escala, también lo harán sus demandas sobre recursos naturales vitales como la energía y el agua», dijo a ZDNET Emilio Tenuta, vicepresidente sénior y director de sostenibilidad de Ecolab, una compañía de soluciones de sostenibilidad. «Al diseñar e implementar la IA con la eficiencia en mente, podemos optimizar el uso de recursos mientras satisfacemos la demanda. Las compañías que lideran y ganan en la era de la IA serán aquellas que priorizan el rendimiento del negocio mientras optimizan el uso de agua y energía».
Si eso sucede aún es incierto, especialmente dado la contaminación del centro de datos de efectos adversos activamente que está teniendo hoy.
Las protecciones restantes de la era de Biden aún se pueden eliminar
Cuando Trump revirtió la orden ejecutiva de Biden en enero, muchas de sus directivas ya habían sido horneadas en agencias específicas y, por lo tanto, estaban protegidos. Sin embargo, el plan indica que el gobierno continuará revisando las regulaciones existentes para eliminar las reliquias de la era Biden.
El plan propone que la Oficina de Gestión y Presupuesto (OMB) investigue «las regulaciones federales actuales que obstaculizan la innovación y la adopción de la IA y trabajan con las agencias federales relevantes para tomar las medidas apropiadas». Continúa que OMB «identificará, revisará o derogará las regulaciones, las reglas, los memorandos, las órdenes administrativas, los documentos de orientación, las declaraciones de políticas y los acuerdos interinstitucionales que obstaculizan innecesariamente el desarrollo o el despliegue de la IA».
El plan también tiene la intención de «revisar todas las investigaciones de la Comisión Federal de Comercio (FTC) iniciado bajo la administración anterior para garantizar que no avancen las teorías de responsabilidad que cargan excesivamente la innovación de IA», lo que significa que las investigaciones de la era de Biden en los productos de IA podrían ser revisados, potencialmente liberando a las empresas de la responsabilidad.
«Este lenguaje podría interpretarse para dar rienda suelta a los desarrolladores de IA para crear productos dañinos sin tener en cuenta las consecuencias», dijo el portavoz de Consumer Reports a ZDNET. «Si bien muchos productos de IA ofrecen beneficios reales para los consumidores, muchos plantean amenazas reales también, como generadores de imágenes íntimas de profundos, chatbots de terapia y servicios de clonación de voz».
Menciones honoríficas
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.



