Los líderes tecnológicos sonan de alarma sobre los disparos de IA de Dege, impacto en la tubería de talentos estadounidenses

Publicado el:

spot_img
- Advertisment -spot_img

El Departamento de Eficiencia del Gobierno de Elon Musk (DOGE) sigue despidiendo a los investigadores de IA, y está haciendo que la industria tecnológica sea cada vez más nerviosa por la tubería de talento de IA estadounidense.

El 3 de marzo, los recortes de larga data al personal del Instituto Nacional de Normas y Tecnología (NIST) finalmente aterrizaron. Múltiples fuentes informaron que fueron despedidos 73 empleados de prueba, muchos de los cuales trabajaron en la iniciativa Chips for America, como se anticipó. La Ley Chips tiene como objetivo aumentar el desarrollo de chips en los Estados Unidos.

Los disparos siguen recortes relacionados en la National Science Foundation, donde se dejaron ir a 170 empleados que trabajan en proyectos relacionados con la IA, aunque Axios informó que NSF ha restablecido a 84 de esos empleados.

- Advertisement -[wpcode id="699"]

La semana pasada, los defensores y los líderes tecnológicos respondieron a los disparos con una carta abierta al Secretario de Comercio Howard Lutnick. La carta señaló que el enfoque de NIST en la IA se inició durante el primer mandato de Trump e instó a la administración a considerar las consecuencias de los rápidos recortes de Doge.

«Hacemos hincapié en que el trabajo de NIST representa una inversión de alto valor que contribuye directamente al crecimiento económico de los Estados Unidos,
competitividad y liderazgo tecnológico «, dice la carta». Tenemos advertencias que reducen el tamaño o eliminando
Estas iniciativas tendrán ramificaciones para la capacidad de la industria de la IA estadounidense para continuar liderando a nivel mundial «.

Los Cosigners de la carta, que incluyen la Asociación de la Industria de Software e Información, los estadounidenses para la innovación responsable, el Centro de Política de AI, la Coalición de Infraestructura de Internet y Technet, entre otros, también ofrecen su experiencia para llenar el vacío de política de AI de la Administración Trump.

Leer  Antrópico presenta 'agentes de auditoría' para evaluar la desalineación de la IA

«Las partes interesadas en toda la industria, la academia y la sociedad civil están listas para trabajar con usted en la configuración de esta visión, asegurando que Estados Unidos permanezca a la vanguardia de los avances tecnológicos mientras mantiene salvaguardas contra las amenazas emergentes», dijeron.

- Advertisement -[wpcode id="699"]

Es notable que la carta reitera la necesidad de «salvaguardas». La administración Trump ha deprimido la seguridad y la responsabilidad de la IA en varios frentes en nombre de la innovación más rápida. El viernes, Wired informó que NIST había emitido nuevas directrices para los científicos que se asocian con el Instituto de Seguridad de IA de EE. UU., Cuyo destino aún no está claro, que ahora carecen de menciones de «seguridad de la IA», «IA responsable» y «AI de justicia».

En cambio, las instrucciones ahora enfatizan «reducir el sesgo ideológico», una frase que también apareció en la orden ejecutiva de Trump que revertía las políticas de AI de la era Biden que se centraron en reducir el sesgo de IA, la discriminación y otros daños. Específicamente, el orden requería sistemas de IA que están «libres de sesgo ideológico o agendas sociales diseñadas». Los términos que incluyen «seguridad», «consumidor», «datos» y «privacidad» no aparecen en absoluto.

Jason Corso, profesor de robótica e informática en la Universidad de Michigan, señala que la nueva directiva de NIST «crea una falsa dicotomía entre innovación y responsabilidad».

«Eliminar las precauciones de seguridad no fomenta la innovación», agrega. «Por contraste completo, lo socava al erosionar la confianza pública esencial para la adopción generalizada de la IA. La historia del avance tecnológico muestra repetidamente que la seguridad y el progreso no son fuerzas competidoras sino complementarias».

Leer  El ex CEO de Intel lanza un punto de referencia para medir la alineación de AI

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img