¿Pensará la IA como humanos? Ni siquiera estamos cerca, y estamos haciendo la pregunta equivocada

Publicado el:

spot_img
- Advertisment -spot_img

La inteligencia artificial puede tener poderes de inferencia impresionantes, pero no cuente con ello para tener nada cercano a los poderes de razonamiento humano en el corto plazo. La marcha a la llamada inteligencia general artificial (AGI), o IA capaz de aplicar razonamiento a través de tareas o entornos cambiantes de la misma manera que los humanos, aún está muy lejos. Grandes modelos de razonamiento (LRM), aunque no son perfectos, ofrecen un paso tentativo en esa dirección.

En otras palabras, no cuente con su robot de servicio de preparación para la comida para reaccionar adecuadamente a un fuego de cocina o una mascota que salta sobre la mesa y sorbe la comida.

El santo grial de la IA ha sido durante mucho tiempo pensar y razonar lo más humanamente posible, y los líderes y expertos de la industria están de acuerdo en que todavía tenemos un largo camino por recorrer antes de alcanzar esa inteligencia. Pero los modelos de lenguaje grande (LLM) y su descendencia LRM ligeramente más avanzada operan en análisis predictivos basados en patrones de datos, no un razonamiento complejo de forma humana.

- Advertisement -[wpcode id="699"]

Sin embargo, la charla alrededor de AGI y LRMS sigue creciendo, y era inevitable que el bombo superara con creces la tecnología disponible real.

«Actualmente estamos en medio de una plaga de teatro de éxito de IA», dijo Robert Blumofe, director de tecnología y vicepresidente ejecutivo de Akamai. «Hay una ilusión de progreso creada por demostraciones de aceleración de titulares, victorias anecdóticas y capacidades exageradas. En realidad, verdaderamente inteligente, pensamiento AI está muy lejos «.

Un artículo reciente escrito por los investigadores de Apple minimizó la preparación de LRMS. Los investigadores concluyeron que LRMS, como están actualmente, en realidad no están llevando a cabo mucho razonamiento más allá de los LLM estándar ahora en uso generalizado. (Mis colegas de Zdnet Lester Mapp y Sabrina Ortiz proporcionan excelentes descripciones de los hallazgos del documento).

- Advertisement -[wpcode id="699"]
Leer  CHATGPT: Todo lo que necesitas saber sobre el chatbot con AI

Los LRM se «derivan de LLM durante la fase posterior a la capacitación, como se ve en modelos como Deepseek-R1», dijo XueDong Huang, director de tecnología de Zoom. «La generación actual de LRMS se optimiza solo para la respuesta final, no para el proceso de razonamiento en sí, lo que puede conducir a pasos intermedios defectuosos o alucinados».

Los LRM emplean cadenas de pensamiento paso a paso, pero «debemos reconocer que esto no equivale a la cognición genuina, simplemente lo imita», dijo Ivana Bartoletti, directora de gobierno de AI en Wipro. «Es probable que mejoren las técnicas de la cadena de pensamiento, pero es importante mantenerse basado en nuestra comprensión de sus limitaciones actuales».

LRMS y LLM son motores de predicción, «no solucionadores de problemas», dijo Blumofe. «Su razonamiento se realiza imitando patrones, no por resolver problemas algorítmicamente. Por lo tanto, parece que la lógica, pero no se comporta como la lógica. El futuro del razonamiento en AI no provendrá de LLM o LRM que acceden a mejores datos o gastan más tiempo en el razonamiento.

En este momento, un término mejor para las capacidades de razonamiento de la IA puede ser «inteligencia irregular», dijo Caiming Xiong, vicepresidente de AI Research en Salesforce. «Aquí es donde los sistemas de IA se destacan en una tarea, pero fallan espectacularmente en otra, particularmente dentro de los casos de uso empresarial».

¿Cuáles son los posibles casos de uso para LRM? ¿Y cuál es el beneficio de adoptar y mantener estos modelos? Para empezar, los casos de uso pueden parecerse más a las extensiones de los LLM actuales. Surgirán en varias áreas, pero es complicado. «La siguiente frontera de los modelos de razonamiento son las tareas de razonamiento que, a diferencia de las matemáticas o la codificación, son difíciles de verificar automáticamente», dijo Daniel Hoske, CTO de Cresta.

Leer  Cómo la IA de agente está transformando las bases de la estrategia comercial

Actualmente, los LRM disponibles cubren la mayoría de los casos de uso de LLM clásicos, como «escritura creativa, planificación y codificación», dijo Petros Efstathopoulos, vicepresidente de investigación de la Conferencia RSA. «A medida que los LRM continúen mejorando y adoptando, habrá un techo de lo que los modelos pueden lograr de forma independiente y cuáles serán los límites de colapso del modelo. Los sistemas futuros aprenderán mejor cómo usar e integrar herramientas externas como motores de búsqueda, entornos de simulación física y herramientas de codificación o seguridad».

Los casos de uso temprano para LRM de empresas incluyen centros de contacto y trabajo de conocimiento básico. Sin embargo, estas implementaciones «están llenas de problemas subjetivos», dijo Hoske. «Los ejemplos incluyen la resolución de problemas técnicos, o planificar y ejecutar una tarea de varios pasos, dadas solo objetivos de nivel superior con conocimiento imperfecto o parcial». A medida que evolucionan los LRM, estas capacidades pueden mejorar, predijo.

- Advertisement -[wpcode id="699"]

Por lo general, «los LRMS se destacan en las tareas que son fácilmente verificables pero difíciles de generar para los humanos: áreas como codificación, control de control complejo, planificación formal y resolución de problemas basados en escalones», dijo Huang. «Estos son precisamente los dominios donde el razonamiento estructurado, incluso si es sintético, puede superar la intuición o la predicción de token de fuerza bruta».

Efstathopoulos informó haber visto usos sólidos de IA en investigación médica, ciencia y análisis de datos. «Los resultados de la investigación de LRM son alentadores, con modelos ya capaces de resolver problemas de una sola vez, abordar los rompecabezas de razonamiento complejos, la planificación y las respuestas de refinación a mitad de la generación». Pero todavía es temprano en el juego para LRMS, que puede o no ser el mejor camino para razonar completamente la IA.

Leer  Los agentes de IA amenazarán a los humanos para alcanzar sus objetivos, el informe antrópico encuentra

La confianza en los resultados que salen de los LRM también pueden ser problemáticos, como lo ha sido para LLMS clásicos. «Lo que importa es si, más allá de las capacidades solo, estos sistemas pueden razonar de manera consistente y confiable para ser confiado más allá de las tareas de bajo riesgo y en la toma de decisiones comerciales críticas», dijo Xiong de Salesforce. «Las LLM de hoy, incluidas las diseñadas para el razonamiento, aún se quedan cortas».

Esto no significa que los modelos de idiomas son inútiles, enfatizados Xiong. «Los estamos implementando con éxito para la asistencia de codificación, la generación de contenido y la automatización del servicio al cliente, donde sus capacidades actuales proporcionan un valor genuino».

El razonamiento humano tampoco está exento de fallas y sesgos inmensos. «No necesitamos una IA para pensar como nosotros, necesitamos que piense con nosotros», dijo Huang de Zoom. «La cognición de estilo humano trae sesgos cognitivos e ineficiencias que podemos no querer en las máquinas. El objetivo es la utilidad, no la imitación. Un LRM que puede razonar de manera diferente, más rigurosa o incluso más transparente de lo que los humanos pueden ser más útiles en muchas aplicaciones del mundo real».

El objetivo de LRMS y, en última instancia, AGI, es «construir hacia la IA que sea transparente sobre sus limitaciones, confiables dentro de las capacidades definidas y diseñado para complementar la inteligencia humana en lugar de reemplazarla», dijo Xiong. La supervisión humana es esencial, al igual que «el reconocimiento de que el juicio humano, la comprensión contextual y el razonamiento ético siguen siendo insustituibles», agregó.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img