Home Tecnología OpenAI actualiza su API de Respuestas para admitir las habilidades de los...

OpenAI actualiza su API de Respuestas para admitir las habilidades de los agentes y un terminal completo

18
0

Hasta hace poco, la práctica de crear agentes de IA period un poco como entrenar a un corredor de larga distancia con una memoria de treinta segundos.

Sí, podrías darle a tus modelos de IA herramientas e instrucciones, pero después de unas pocas docenas de interacciones (varias vueltas alrededor de la pista, para ampliar nuestra analogía con la carrera), inevitablemente perdería el contexto y comenzaría a alucinar.

Con Las últimas actualizaciones de OpenAI A su API Responses, la interfaz de programación de aplicaciones que permite a los desarrolladores de la plataforma OpenAI acceder a múltiples herramientas de agente como búsqueda internet y búsqueda de archivos con una sola llamada, la compañía está indicando que la period del agente limitado está disminuyendo.

Las actualizaciones anunciadas hoy incluyen la compactación del lado del servidor, los contenedores Shell alojados y la implementación del nuevo “Habilidades“estándar para agentes.

Con estas tres actualizaciones importantes, OpenAI les está brindando a los agentes un escritorio permanente, una terminal y una memoria que no se desvanece y debería ayudar a los agentes a evolucionar aún más hasta convertirse en trabajadores digitales confiables y a largo plazo.

Tecnología: superar la ‘amnesia contextual’

El obstáculo técnico más importante para los agentes autónomos siempre ha sido el “desorden” de tareas de larga duración. Cada vez que un agente llama a una herramienta o ejecuta un script, el historial de conversaciones crece.

Finalmente, el modelo alcanza su límite de tokens y el desarrollador se ve obligado a truncar el historial, eliminando a menudo el “razonamiento” que el agente necesita para terminar el trabajo.

La respuesta de OpenAI es la compactación del lado del servidor. A diferencia del easy truncamiento, la compactación permite que los agentes funcionen durante horas o incluso días.

Datos iniciales de la plataforma de comercio electrónico Triple Ballena sugiere Este es un gran avance en la estabilidad: su agente, Moby, navegó con éxito en una sesión que involucró 5 millones de tokens y 150 llamadas a herramientas sin una disminución en la precisión.

En términos prácticos, esto significa que el modelo puede “resumir” sus propias acciones pasadas en un estado comprimido, manteniendo vivo el contexto esencial mientras se aclara el ruido. Transforma el modelo de un asistente olvidadizo a un proceso de sistema persistente.

Zonas de pruebas en la nube administradas

La introducción de la herramienta Shell lleva a OpenAI al ámbito de la computación administrada. Los desarrolladores ahora pueden optar por container_auto, que aprovisiona un entorno Debian 12 alojado en OpenAI.

Esto no es sólo un intérprete de código: le brinda a cada agente su propio entorno de terminal completo precargado con:

  • Entornos de ejecución nativos incluidos Python 3.11, Node.js 22, Java 17, Go 1.23 y Ruby 3.1.

  • Almacenamiento persistente a través de /mnt/knowledgelo que permite a los agentes generar, guardar y descargar artefactos.

  • Capacidades de pink que permiten a los agentes acceder a Web para instalar bibliotecas o interactuar con API de terceros.

El Hosted Shell y su persistente /mnt/knowledge El almacenamiento proporciona un entorno administrado donde los agentes pueden realizar transformaciones de datos complejas utilizando Python o Java sin necesidad de que el equipo cree y mantenga middleware ETL (Extracción, Transformación, Carga) personalizado para cada proyecto de IA.

Al aprovechar estos contenedores alojados, los ingenieros de datos pueden implementar tareas de procesamiento de datos de alto rendimiento y al mismo tiempo minimizar las “múltiples responsabilidades” que conlleva la gestión de infraestructura personalizada, eliminando los gastos generales de construcción y asegurando sus propios entornos sandbox. OpenAI esencialmente cube: “Danos las instrucciones; nosotros te proporcionaremos la computadora”.

Las habilidades de OpenAI versus las habilidades de Anthropic

Tanto OpenAI como Anthropic ahora admiten “habilidades,” instrucciones para que los agentes ejecuten operaciones específicas y han convergido en el mismo estándar abierto: un SKILL.md (rebaja) manifiesto con frontmatter YAML.

En teoría, una habilidad creada para cualquiera de los dos puede trasladarse a VS Code, Cursor o cualquier otra plataforma que adopte la especificación.

De hecho, el nuevo y exitoso agente de inteligencia synthetic de código abierto OpenClaw adoptó exactamente esto SKILL.md empaquetado basado en manifiestos y carpetas, lo que le permite heredar una gran cantidad de conocimientos de procedimientos especializados diseñados originalmente para Claude.

Esta compatibilidad arquitectónica ha impulsado un “auge de habilidades” impulsado por la comunidad en plataformas como ClawHub, que ahora alberga más de 3000 extensiones creadas por la comunidad que van desde integraciones de hogares inteligentes hasta complejas automatizaciones de flujos de trabajo empresariales.

Esta polinización cruzada demuestra que la “habilidad” se ha convertido en un activo versionado y portátil en lugar de una característica bloqueada por el proveedor. Debido a que OpenClaw admite múltiples modelos, incluida la serie GPT-5 de OpenAI y las instancias locales de Llama, los desarrolladores ahora pueden escribir una habilidad una vez e implementarla en un panorama heterogéneo de agentes.

BPero las estrategias subyacentes de OpenAI y Anthropic revelan visiones divergentes para el futuro del trabajo.

El enfoque de OpenAI prioriza un “sustrato programable” optimizado para la velocidad del desarrollador. Al agrupar el shell, la memoria y las habilidades en la API de Responses, ofrecen una experiencia “llave en mano” para crear agentes complejos rápidamente.

Ya es una startup de búsqueda empresarial de IA Espigar informó un aumento en la precisión de la herramienta del 73% al 85% al ​​utilizar el marco de habilidades de OpenAI.

BAl combinar el estándar abierto con su API Responses patentada, la empresa proporciona un sustrato llave en mano de alto rendimiento.

No se trata sólo de leer la habilidad; lo aloja dentro de un shell administrado de Debian 12, maneja las políticas de pink y aplica la compactación del lado del servidor para garantizar que el agente no pierda el rumbo durante una sesión de cinco millones de tokens. Esta es la opción de “alto rendimiento” para los ingenieros que necesitan implementar trabajadores autónomos de larga duración sin los gastos generales de crear un entorno de ejecución personalizado.

Mientras tanto, Anthropic se ha centrado en el “mercado de experiencia”. Su fortaleza radica en un directorio maduro de guías de socios preempaquetadas como Atlassian, Figma y Stripe.

Implicaciones para los tomadores de decisiones técnicas empresariales

Para los ingenieros centrados en “implementación rápida y ajuste”, la combinación de compactación y habilidades del lado del servidor proporciona un enorme impulso de productividad.

En lugar de crear una gestión de estado personalizada para cada ejecución de agente, los ingenieros pueden aprovechar la compactación integrada para manejar tareas de varias horas.

Las habilidades permiten “IP empaquetada”, donde se pueden modularizar y reutilizar conocimientos de procedimientos especializados o ajustes específicos en diferentes proyectos internos.

Para aquellos encargados de trasladar la IA de un “cuadro de chat” a un flujo de trabajo de nivel de producción, el anuncio de OpenAI marca el closing de la period de la “infraestructura a medida”.

Históricamente, orquestar un agente requería una importante estructura handbook: los desarrolladores tenían que crear una lógica de gestión de estado personalizada para manejar largas conversaciones y entornos limitados seguros y efímeros para ejecutar código.

El desafío ya no es “¿Cómo le doy una terminal a este agente?” sino “¿Qué habilidades están autorizadas para qué usuarios?” y “¿Cómo auditamos los artefactos producidos en el sistema de archivos alojado?” OpenAI ha proporcionado el motor y el chasis; El trabajo del orquestador ahora es definir las reglas del camino.

Para los gerentes de operaciones de seguridad (SecOps), darle a un modelo de IA un shell y acceso a la pink es una evolución de alto riesgo. El uso de OpenAI de secretos de dominio y listas de organizaciones permitidas proporciona una estrategia de defensa en profundidad, lo que garantiza que los agentes puedan llamar a las API sin exponer las credenciales sin procesar al contexto del modelo.

Pero a medida que los agentes se vuelven más fáciles de implementar a través de “habilidades”, SecOps debe estar atento a las “habilidades maliciosas” que podrían introducir vulnerabilidades de inyección rápida o rutas de filtración de datos no autorizadas.

¿Cómo deberían decidir las empresas?

OpenAI ya no se limita a vender un “cerebro” (el modelo); está vendiendo la “oficina” (el contenedor), la “memoria” (compactación) y el “handbook de capacitación” (habilidades). Para los líderes empresariales, la elección es cada vez más clara:

Elija la API de respuestas de OpenAI si sus agentes requieren una ejecución intensa y con estado. Si necesita un contenedor en la nube administrado que pueda funcionar durante horas y manejar más de 5 millones de tokens sin degradación del contexto, la pila integrada de OpenAI es el “SO de alto rendimiento” para el estándar agenteskills.io.

Elige antrópico si su estrategia se basa en la conectividad inmediata de los socios. Si su flujo de trabajo se centra en integraciones existentes y preempaquetadas de un amplio directorio de proveedores externos, el ecosistema maduro de Anthropic proporciona una experiencia más “plug-and-play” para el mismo estándar abierto.

En última instancia, esta convergencia indica que la IA ha salido de la period del “jardín amurallado”. Al estandarizar Agentskills.io, la industria está convirtiendo los “espaguetis rápidos” en una arquitectura compartida, versionada y verdaderamente portátil para el futuro del trabajo digital.

Actualización 10 de febrero a las 6:52 pm ET: Desde entonces, este artículo se actualizó para corregir errores en una versión anterior con respecto a la portabilidad de las habilidades de OpenAI en comparación con las de Anthropic. Lamentamos los errores.

avotas

LEAVE A REPLY

Please enter your comment!
Please enter your name here