Los desarrolladores obtienen importantes ahorros de velocidad y costos con la nueva actualización GPT-5.1

Publicado el:

spot_img
- Advertisment -spot_img

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • GPT-5.1 acelera la codificación con modos adaptativos y sin razonamiento.
  • El nuevo almacenamiento en caché de avisos reduce los costos de API para los desarrolladores de aplicaciones integradas.
  • Las nuevas herramientas hacen que los agentes de IA sean más capaces dentro de los IDE modernos.

OpenAI está de regreso con una nueva actualización 5.1 de su anterior modelo de lenguaje grande GPT-5. GPT-5 se introdujo en agosto, hace décadas en la versión de nuestro universo de velocidad de distorsión temporal de la IA.

- Advertisement -[wpcode id="699"]

OpenAI, por supuesto, utiliza IA para codificar más rápido. Después de todo, está en una carrera con otros grandes jugadores para conseguir esa valoración de un billón de dólares. Además, se ha demostrado sin lugar a dudas que la codificación con IA, en manos de un codificador profesional, es un multiplicador de fuerza y ​​un acelerador de proyectos casi mágico.

(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).

Para obtener una descripción general de los beneficios de GPT-5.1 para los usuarios de chatbots de consumo, lea la explicación de la editora sénior Sabrina Ortiz. Pero si está interesado en utilizar la IA en su codificación o integrarla en su software, siga leyendo. Esta versión tiene algunos beneficios tangibles de velocidad y ahorro de costos.

En este artículo, hablamos de GPT-5.1 en la API. En otras palabras, estamos considerando enviar indicaciones a la IA a través de una llamada a función de un programa y obtener un resultado como valor de retorno de esa llamada.

- Advertisement -[wpcode id="699"]

Esta funcionalidad de IA basada en API funciona dentro de los productos de software que crean los desarrolladores, pero dado que las propias herramientas de desarrollo también utilizan la API para proporcionar inteligencia, aumenta la utilidad de esas herramientas. Esto también beneficia a los desarrolladores que utilizan el agente de codificación Codex de OpenAI, porque Codex ahora está disponible en una versión 5.1.

JetBrains, por ejemplo, es un fabricante de excelentes herramientas de desarrollo. Aunque dejé la plataforma JetBrains porque VS Code se usa mucho más (y a menudo necesito hablar con usted sobre ello), los productos JetBrains siguen siendo algunos de mis favoritos. De hecho, al usar VS Code, a veces extraño algunas de las funciones de JetBrains.

Por eso fue tan interesante cuando Denis Shiryaev, jefe del ecosistema AI DevTools de JetBrains, describió la experiencia de la compañía con esta nueva versión de GPT-5.1 en una publicación de blog de OpenAI. Dijo: «GPT 5.1 no es simplemente otro LLM: es genuinamente agente, el modelo más naturalmente autónomo que jamás haya probado».

Leer  El hombre presenta una queja contra chatgpt después de que afirmó falsamente que asesinó a sus hijos

«Escribe como usted, codifica como usted, sigue sin esfuerzo instrucciones complejas y sobresale en tareas iniciales, encajando perfectamente en su base de código existente», dijo.

Veamos algunas de las razones por las que GPT-5.1 está obteniendo una respuesta tan entusiasta.

Razonamiento adaptativo

Descubrí que codificar con GPT-5 es sorprendentemente poderoso, pero en ocasiones tedioso. No importa lo que le pregunté a la IA, la respuesta tomó tiempo. Incluso la pregunta más simple puede tardar unos minutos en obtener una respuesta. Esto se debe a que todas las consultas enviaron la solicitud al mismo modelo.

GPT-5.1 evalúa la indicación dada y, en función de si la pregunta es básicamente fácil o difícil, ajusta cuánto esfuerzo cognitivo pone en la respuesta. Esto significa que las preguntas sencillas ya no tendrán el retraso que resultaba tan frustrante cuando se utilizaba el modelo de codificación anterior.

- Advertisement -[wpcode id="699"]

Aquí hay un mensaje que le di a GPT-5 hace solo unos días: «Por favor revise mi trabajo. He estado cambiando el nombre de EDD_SL_Plugin_Updater para que cada complemento que lo use tenga un nombre único para evitar conflictos. Actualicé el nombre de la clase en el archivo de actualización, actualicé el nombre del archivo de actualización y luego actualicé las referencias al archivo y la clase en el archivo principal del complemento. ¿Puede verificar los complementos y asegurarse de que no haya errores? Infórmeme si encuentra algo y No hagas ningún cambio.»

Esa es una gran solicitud, ya que requiere que la IA escanee unos 12.000 archivos y me haga un análisis. Debería utilizar todo el poder de pensamiento que pueda reunir.

Por el contrario, un mensaje como «¿Qué comando WP-CLI muestra la lista de complementos instalados?» Es una petición realmente sencilla. Es básicamente una búsqueda de documentación que no requiere ningún tipo de inteligencia real. Es solo un mensaje rápido para ahorrar tiempo, por lo que no tengo que cambiar al navegador y hacer una búsqueda en Google.

Las respuestas a la pregunta rápida son más rápidas y el proceso utiliza menos tokens. Los tokens son la medida de la cantidad de procesamiento utilizado. Las llamadas a la API se cobran en función de los tokens, lo que significa que las preguntas sencillas y de conveniencia costarán menos.

Hay otro aspecto de esto que es bastante poderoso, que es lo que OpenAI describe como «razonamiento profundo más persistente». Nada apesta más que tener una larga conversación con la IA y luego hacer que pierda la noción de lo que estabas hablando. Ahora, OpenAI dice que la IA puede mantener el rumbo por más tiempo.

Modo ‘sin razonamiento’

Este es otro de esos casos en los que creo que OpenAI podría beneficiarse de una gestión sólida de productos para la denominación de sus productos. Este modo no desactiva la comprensión del contexto, la escritura de código de calidad ni la comprensión de instrucciones. Simplemente desactiva el análisis de estilo profundo y en cadena de pensamiento. Deberían llamarlo modo «no pensar demasiado».

Leer  Cómo el equipo rojo de OpenAI convirtió al agente de chatgpt en una fortaleza de IA

Piénselo de esta manera. Todos tenemos un amigo que piensa demasiado en cada tema o acción. Los atasca, les lleva una eternidad hacer cosas simples y, a menudo, les lleva a la parálisis del análisis. Hay un momento para pensar en grande y hay un momento para simplemente elegir papel o plástico y seguir adelante.

Este nuevo modo sin razonamiento permite a la IA evitar su habitual deliberación paso a paso y simplemente saltar a una respuesta. Es ideal para búsquedas simples o tareas básicas. Esto reduce drásticamente la latencia (tiempo de respuesta). También crea una experiencia de codificación más receptiva, rápida y fluida.

Combinar el modo sin razonamiento con el razonamiento adaptativo significa que la IA puede tomarse el tiempo para responder preguntas difíciles, pero puede responder rápidamente a las más simples.

Almacenamiento en caché de avisos extendido

Otro aumento de velocidad (con la consiguiente reducción de costos) es el almacenamiento en caché extendido. Cuando a una IA se le da un mensaje, primero tiene que usar sus capacidades de procesamiento del lenguaje natural para analizar ese mensaje y descubrir qué es lo que se le pregunta.

Esta no es una hazaña pequeña. A los investigadores de IA les ha llevado décadas lograr que las IA lleguen al punto en que puedan comprender el lenguaje natural, así como el contexto y los significados sutiles de lo que se dice.

Entonces, cuando se emite un mensaje, la IA tiene que hacer un trabajo real para tokenizarlo, para crear una representación interna a partir de la cual construir una respuesta. Esto no está exento de costos en la utilización de recursos.

Si se vuelve a hacer una pregunta durante una sesión y es necesario reinterpretar la misma pregunta o una similar, se incurre nuevamente en ese costo. Tenga en cuenta que no solo estamos hablando de indicaciones que un programador proporciona a una API, sino también de indicaciones que se ejecutan dentro de una aplicación, que a menudo pueden repetirse durante el uso de la aplicación.

Tomemos, por ejemplo, un mensaje detallado para un agente de atención al cliente, que tiene que procesar el mismo conjunto de reglas iniciales básicas para cada interacción con el cliente. Ese mensaje podría requerir miles de tokens solo para analizarse y debería realizarse miles de veces al día.

Al almacenar en caché el mensaje (y OpenAI ahora lo hace durante 24 horas), el mensaje se compila una vez y luego está disponible para su reutilización. Las mejoras de velocidad y el ahorro de costos podrían ser considerables.

Mejores argumentos comerciales para los diseños

Todas estas mejoras brindan a OpenAI un mejor caso de negocios para presentar a los clientes para sus diseños. Design-in es un término técnico bastante antiguo que se utiliza para describir cuándo se diseña un componente en un producto.

Probablemente el diseño más famoso (y más trascendental) fue cuando IBM eligió la CPU Intel 8088 para la PC IBM original en 1981. Esa decisión lanzó todo el ecosistema x86 e impulsó el éxito de Intel en procesadores durante décadas.

Leer  Cómo detener la IA que representa iPhones en épocas pasadas

Hoy en día, Nvidia es la beneficiaria de enormes decisiones de diseño por parte de los operadores de centros de datos, ávidos de la mayor potencia de procesamiento de IA que puedan encontrar. Esa demanda ha empujado a Nvidia a convertirse en la empresa más valiosa del mundo en términos de capitalización de mercado, en algún lugar por encima de los 5 billones de dólares.

OpenAI también se beneficia de los diseños. CapCut es una aplicación de video con 361 millones de descargas en 2025. Temu es una aplicación de compras con 438 millones de descargas en 2025. Si, por ejemplo, cualquiera de las empresas incorporara IA en su aplicación, y si lo hiciera utilizando llamadas API de OpenAI, OpenAI podría ganar una tonelada de efectivo con el volumen acumulado de llamadas API y su facturación asociada.

Pero al igual que ocurre con los componentes físicos, el costo de los bienes vendidos siempre es un problema con los diseños. Cada fracción de centavo en COGS puede aumentar el precio final general o afectar peligrosamente los márgenes.

Entonces, en resumen, si OpenAI puede reducir sustancialmente el costo de las llamadas API y aun así ofrecer valor de IA, como parece haberlo hecho con GPT-5.1, hay muchas más posibilidades de que pueda justificar la inclusión de GPT-5.1 en los productos de los desarrolladores.

Más capacidades nuevas

La versión GPT-5.1 también incluye un mejor rendimiento de codificación. La IA es más dirigible y manejable, lo que significa que sigue mejor las instrucciones. Si mi cachorro pudiera ser más dócil, no tendríamos los constantes y dolorosos ladridos cuando se entrega el correo.

La IA de codificación piensa menos innecesariamente, es más conversacional durante las secuencias de llamada de herramientas y tiene un comportamiento más amigable en general durante las interacciones de secuencia. También hay una nueva herramienta apply_patch que ayuda con secuencias de codificación de varios pasos y acciones agentes, junto con una nueva herramienta de shell que funciona mejor cuando se le pide que genere comandos de línea de comandos y evalúe y actúe en función de las respuestas.

Estoy bastante entusiasmado con este nuevo lanzamiento. Como ya estoy usando GPT-5, será bueno ver cuánto mejor responde ahora con GPT-5.1.

¿Qué pasa contigo? ¿Ha intentado utilizar GPT-5 o los nuevos modelos GPT-5.1 en su flujo de trabajo de codificación o desarrollo? ¿Está viendo los tipos de mejoras de velocidad o costos que OpenAI promete, o todavía está evaluando si estos cambios son importantes para sus proyectos? ¿Qué importancia tienen características como el razonamiento adaptativo, el modo sin razonamiento o el almacenamiento en caché de avisos a la hora de decidir qué modelo de IA incorporar a sus herramientas o productos? Háganos saber en los comentarios a continuación.


Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanal y sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, en Bluesky en @DavidGewirtz.com y en YouTube en YouTube.com/DavidGewirtzTV.

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img