Home Tecnología Claude Code acaba de actualizarse con una de las funciones más solicitadas...

Claude Code acaba de actualizarse con una de las funciones más solicitadas por los usuarios

6
0

El estándar de código abierto de Anthropic, el Mannequin Context Protocol (MCP), lanzado a finales de 2024, permite a los usuarios conectar modelos de IA y los agentes encima de ellos a herramientas externas en un formato estructurado y confiable. Es el motor detrás del exitoso arnés de programación agente de IA de Anthropic, Claude Code, que le permite acceder a numerosas funciones como navegación internet y creación de archivos inmediatamente cuando se le solicita.

Pero había un problema: Claude Code normalmente tenía que “leer” el guide de instrucciones de cada herramienta disponible, independientemente de si period necesaria para la tarea inmediata, utilizando el contexto disponible que de otro modo podría llenarse con más información a partir de las indicaciones del usuario o las respuestas del agente.

Al menos hasta anoche. El equipo de Claude Code lanzó una actualización que altera fundamentalmente esta ecuación. La función, denominada MCP Software Search, introduce una “carga diferida” para las herramientas de IA, lo que permite a los agentes buscar dinámicamente definiciones de herramientas solo cuando sea necesario.

Es un cambio que lleva a los agentes de IA de una arquitectura de fuerza bruta a algo parecido a la ingeniería de software program moderna y, según los primeros datos, resuelve efectivamente el problema de la “inflación” que amenazaba con sofocar el ecosistema.

El ‘impuesto inicial’ a los agentes

Para comprender la importancia de la búsqueda de herramientas, es necesario comprender la fricción del sistema anterior. El Mannequin Context Protocol (MCP), lanzado en 2024 por Anthropic como estándar de código abierto, fue diseñado para ser un estándar common para conectar modelos de IA a fuentes de datos y herramientas, desde repositorios de GitHub hasta sistemas de archivos locales.

Sin embargo, a medida que el ecosistema crecía, también lo hacía el “impuesto inicial”.

Thariq Shihipar, miembro del private técnico de Anthropic, destacó la magnitud del problema en el anuncio.

“Hemos descubierto que los servidores MCP pueden tener hasta más de 50 herramientas”, escribió Shihipar. “Los usuarios estaban documentando configuraciones con más de 7 servidores que consumían más de 67.000 tokens”.

En términos prácticos, esto significaba que un desarrollador que utilizara un conjunto sólido de herramientas podría sacrificar el 33% o más de su límite de ventana de contexto disponible de 200.000 tokens incluso antes de escribir un solo carácter de un mensaje, como El autor del boletín AI, Aakash Gupta, señaló en una publicación en X.

El modelo estaba efectivamente “leyendo” cientos de páginas de documentación técnica en busca de herramientas que quizás nunca usaría durante esa sesión.

El análisis comunitario proporcionó ejemplos aún más claros.

Gupta señaló además que un único servidor Docker MCP podría consumir 125.000 tokens solo para definir sus 135 herramientas.

“La antigua restricción obligó a una compensación brutal”, escribió. “Limite sus servidores MCP a 2 o 3 herramientas principales o acepte que la mitad de su presupuesto de contexto desaparezca antes de comenzar a trabajar”.

Cómo funciona la búsqueda de herramientas

La solución que lanzó Anthropic, que Shihipar llamó “una de nuestras funciones más solicitadas en GitHub” — es elegante en su moderación. En lugar de precargar cada definición, Claude Code ahora monitorea el uso del contexto.

Según las notas de la versión, el sistema detecta automáticamente cuando las descripciones de las herramientas consumirían más del 10% del contexto disponible.

Cuando se cruza ese umbral, el sistema cambia de estrategia. En lugar de volcar documentación sin procesar en el mensaje, carga un índice de búsqueda liviano.

Cuando el usuario solicita una acción específica (por ejemplo, “implementar este contenedor”), Claude Code no escanea una lista masiva precargada de 200 comandos. En cambio, consulta el índice, encuentra la definición de herramienta relevante y extrae solo esa herramienta específica al contexto.

“La búsqueda de herramientas cambia la arquitectura”, analizó Gupta. “El ahorro de tokens es espectacular: de ~134.000 a ~5.000 en las pruebas internas de Anthropic. Eso es una reducción del 85% manteniendo el acceso completo a las herramientas”.

Para los desarrolladores que mantienen servidores MCP, esto cambia la estrategia de optimización.

Shihipar señaló que el campo “instrucciones del servidor” en la definición de MCP (anteriormente “bueno tenerlo”) ahora es basic. Actúa como metadatos que ayudan a Claude a “saber cuándo buscar sus herramientas, similares a las habilidades”.

‘Carga diferida’ y aumento de precisión

Si bien los ahorros simbólicos son la métrica principal (ahorrar dinero y memoria siempre es fashionable), el efecto secundario de esta actualización podría ser más importante: el enfoque.

Los LLM son notoriamente sensibles a la “distracción”. Cuando la ventana de contexto de un modelo está repleta de miles de líneas de definiciones de herramientas irrelevantes, su capacidad de razonar disminuye. Crea un problema de “aguja en un pajar” donde el modelo lucha por diferenciar entre comandos similares, como “notificación-envío-usuario” versus “notificación-envío-canal”.

Boris Cherny, director de Claude Code, lo destacó en su reacción al lanzamiento de X: “Cada usuario de Claude Code obtuvo mucho más contexto, mejor seguimiento de instrucciones y la capacidad de conectar aún más herramientas”.

Los datos respaldan esto. Los puntos de referencia internos compartidos por la comunidad indican que habilitar la búsqueda de herramientas mejoró la precisión del modelo Opus 4 en las evaluaciones de MCP del 49 % al 74 %.

Para el Opus 4.5 más nuevo, la precisión saltó del 79,5% al ​​88,1%.

Al eliminar el ruido de cientos de herramientas no utilizadas, el modelo puede dedicar sus mecanismos de “atención” a la consulta actual del usuario y a las herramientas activas relevantes.

Madurar la pila

Esta actualización indica una maduración en la forma en que tratamos la infraestructura de IA. En los inicios de cualquier paradigma de software program, la fuerza bruta period común. Pero a medida que los sistemas crecen, la eficiencia se convierte en el principal desafío de ingeniería.

Aakash Gupta trazó un paralelo con la evolución de los entornos de desarrollo integrados (IDE) como VSCode o JetBrains. “El cuello de botella no fue ‘demasiadas herramientas’.

Estaba cargando definiciones de herramientas como importaciones estáticas de la period 2020 en lugar de carga diferida de la period 2024″, escribió. “VSCode no carga todas las extensiones al inicio. JetBrains no inyecta todos los documentos de los complementos en la memoria”.

Al adoptar la “carga diferida”, una de las mejores prácticas estándar en el desarrollo internet y de software program, Anthropic reconoce que los agentes de IA ya no son sólo novedades; son plataformas de software program complejas que requieren disciplina arquitectónica.

Implicaciones para el ecosistema

Para el usuario closing, esta actualización es perfecta: Claude Code simplemente se siente “más inteligente” y retiene más memoria de la conversación. Pero para el ecosistema de desarrolladores, abre las compuertas.

Anteriormente, había un “límite suave” sobre la capacidad que podía tener un agente. Los desarrolladores tuvieron que seleccionar cuidadosamente sus conjuntos de herramientas para evitar lobotomizar el modelo con un contexto excesivo. Con Software Search, ese límite se elimina de manera efectiva. En teoría, un agente puede tener acceso a much de herramientas (conectores de bases de datos, scripts de implementación en la nube, contenedores de API, manipuladores de archivos locales) sin pagar una penalización hasta que esas herramientas realmente se utilicen.

Convierte la “economía de contexto” de un modelo de escasez a un modelo de acceso. Como resumió Gupta: “No sólo están optimizando el uso del contexto. Están cambiando lo que pueden significar ‘agentes ricos en herramientas'”.

La actualización se implementará de inmediato para los usuarios de Claude Code. Para los desarrolladores que crean clientes MCP, Anthropic recomienda implementar `ToolSearchTool` para admitir esta carga dinámica, asegurando que cuando llegue el futuro agente, no se quede sin memoria antes de saludar.

avotas

LEAVE A REPLY

Please enter your comment!
Please enter your name here