A medida que la IA generativa se ha extendido en los últimos años, también lo ha hecho el temor sobre el mal uso y el abuso de la tecnología.
Herramientas como CHATGPT pueden producir texto realista, imágenes, videos y discursos. Los desarrolladores detrás de estos sistemas prometen ganancias de productividad para las empresas y una creatividad humana mejorada, mientras que muchos expertos en seguridad y responsables políticos se preocupan por el inminente aumento de la información errónea, entre otros peligros, que estos sistemas permiten.
Openai, posiblemente el líder en esta carrera de IA en curso, publica un informe anual que destaca las innumerables formas en que los malos actores utilizan sus sistemas de IA. «Las investigaciones de IA son una disciplina en evolución», escribió la compañía en la última versión de su informe, publicada el jueves. «Cada operación que interrumpimos nos da una mejor comprensión de cómo los actores de amenaza están tratando de abusar de nuestros modelos y nos permite refinar nuestras defensas».
(Divulgación: Ziff Davis, la empresa matriz de Zdnet, presentó una demanda de abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
El nuevo informe detalló 10 ejemplos de abuso del año pasado, cuatro de los cuales parecen provenir de China.
Lo que encontró el informe
En cada uno de los 10 casos descritos en el nuevo informe, OpenAI describió cómo detectó y abordó el problema.
Uno de los casos con probables orígenes chinos, por ejemplo, encontró cuentas de chatgpt que generan publicaciones en redes sociales en inglés, chino y urdu. Una «cuenta principal» publicaría una publicación, luego otros seguirían con comentarios, todos diseñados para crear una ilusión de compromiso humano auténtico y atraer la atención sobre temas con carga política.
Según el informe, esos temas, incluidos Taiwán y el desmantelamiento de USAID, están «todos estrechamente alineados con los intereses geoestratégicos de China».
Otro ejemplo de abuso, que según OpenAI tenía enlaces directos con China, involucrados al usar CHATGPT para participar en actividades cibernéticas nefastas, como la contraseña de «fuerza bruta», probando una gran cantidad de contraseñas generadas por IA en un intento de entrar en cuentas en línea e investigar registros disponibles públicamente con respecto a la industria militar y de defensa de los Estados Unidos.
El Ministerio de Relaciones Exteriores de China ha negado cualquier participación en las actividades descritas en el informe de OpenAi, según Reuters.
Otros usos amenazantes de la IA descritos en el nuevo informe supuestamente estaban vinculados a actores en Rusia, Irán, Camboya y en otros lugares.
Gato y ratón
Es probable que los modelos de generación de texto como ChatGPT sean solo el comienzo del espectro de información errónea de AI.
Los modelos de texto a video, como Veo 3 de Google, pueden generar cada vez más videos realistas a partir de indicaciones de lenguaje natural. Mientras tanto, los modelos de texto a voz, como el nuevo V3 de Elevenlabs, pueden generar voces en forma de humano con una facilidad similar.
Aunque los desarrolladores generalmente implementan algún tipo de barandas antes de desplegar sus modelos, los malos actores, como aclara el nuevo informe de OpenAI, se están volviendo cada vez más creativos en su mal uso y abuso. Las dos partes están encerradas en un juego de gato y ratón, especialmente porque actualmente no existen políticas de supervisión federales robustas en los Estados Unidos.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.