Durante décadas, nos hemos adaptado al software program. Aprendimos comandos de shell, memorizamos nombres de métodos HTTP y conectamos SDK. Cada interfaz suponía que hablaríamos es idioma. En la década de 1980, escribíamos ‘grep’, ‘ssh’ y ‘ls’ en un shell; a mediados de la década de 2000, invocamos puntos finales REST como GET /customers; en la década de 2010, importamos SDK (shopper.orders.checklist()) para no tener que pensar en HTTP. Pero detrás de cada uno de esos pasos había la misma premisa: exponer las capacidades en una forma estructurada para que otros puedan invocarlas.
Pero ahora estamos entrando en el siguiente paradigma de interfaz. Los LLM modernos están desafiando la noción de que un usuario debe elegir una función o recordar la firma de un método. En lugar de “¿A qué API debo llamar?” la pregunta es: “¿Qué resultado estoy tratando de lograr?” En otras palabras, la interfaz está pasando del código → al lenguaje. En este cambio, el Protocolo de Contexto Modelo (MCP) emerge como la abstracción que permite a los modelos interpretar la intención humana, descubrir capacidades y ejecutar flujos de trabajo, exponiendo efectivamente las funciones del software program no como las conocen los programadores, sino como solicitudes de lenguaje pure.
MCP no es un término exagerado; Múltiples estudios independientes identifican el cambio arquitectónico requerido para la invocación de herramientas “consumibles LLM”. Un weblog de ingenieros de akamai describe la transición de las API tradicionales a las “integraciones basadas en lenguajes” para los LLM. Otro trabajo academico sobre “Flujos de trabajo de agentes de IA y API empresariales” habla sobre cómo la arquitectura de API empresarial debe evolucionar para admitir agentes orientados a objetivos en lugar de llamadas impulsadas por humanos. En resumen: ya no nos limitamos a diseñar API para código; Estamos diseñando capacidades para la intención.
¿Por qué esto es importante para las empresas? Porque las empresas se están ahogando en sistemas internos, expansión de la integración y costos de capacitación de los usuarios. Los trabajadores luchan no porque no tengan herramientas, sino porque tienen demasiadas herramientas, cada una con su propia interfaz. Cuando el lenguaje pure se convierte en la interfaz principal, la barrera de “¿a qué función llamo?” desaparece. Un blog de negocios reciente observó que las interfaces de lenguaje pure (NLI) están permitiendo el acceso de autoservicio a datos para los especialistas en advertising and marketing que antes tenían que esperar a que los analistas escribieran SQL. Cuando el usuario simplemente declara su intención (como “obtener ingresos del último trimestre para la región X y marcar anomalías”), el sistema subyacente puede traducir eso en llamadas, orquestación, memoria de contexto y entregar resultados.
El lenguaje pure se convierte no en una comodidad, sino en una interfaz.
Para comprender cómo funciona esta evolución, considere la escalera de la interfaz:
|
Period |
Interfaz |
Para quién fue construido |
|
CLI |
Comandos de shell |
Usuarios expertos escribiendo texto |
|
API |
Puntos finales internet o RPC |
Desarrolladores integrando sistemas |
|
SDK |
Funciones de biblioteca |
Programadores que usan abstracciones. |
|
Lenguaje pure (MCP) |
Solicitudes basadas en la intención |
Agentes humanos + IA que indican qué ellos quieren |
En cada paso, los humanos tuvieron que “aprender el lenguaje de la máquina”. Con MCP, la máquina absorbe el lenguaje humano y resuelve el resto. No se trata solo de una mejora de UX, es un cambio arquitectónico.
Bajo MCP, las funciones del código siguen ahí: acceso a datos, lógica empresarial y orquestación. Pero se descubren en lugar de invocarse manualmente. Por ejemplo, en lugar de llamar a “billingApi.fetchInvoices(customerId=…)”, diga “Mostrar todas las facturas de Acme Corp desde enero y resaltar los pagos atrasados”. El modelo resuelve las entidades, llama a los sistemas correctos, filtra y devuelve información estructurada. El trabajo del desarrollador pasa del cableado de puntos finales a la definición de superficies de capacidad y barandillas.
Este cambio transforma la experiencia de los desarrolladores y la integración empresarial. Los equipos a menudo tienen dificultades para incorporar nuevas herramientas porque requieren esquemas de mapeo, escribir código adhesivo y capacitar a los usuarios. Con un lenguaje pure, la incorporación implica definir nombres de entidades comerciales, declarar capacidades y exponerlas a través del protocolo. El humano (o el agente de IA) ya no necesita conocer los nombres de los parámetros ni el orden de las llamadas. Los estudios muestran que el uso de LLM como interfaces para API puede reducir el tiempo y los recursos necesarios para desarrollar chatbots o flujos de trabajo invocados por herramientas.
El cambio también trae beneficios de productividad. Las empresas que adoptan interfaces basadas en LLM pueden convertir la latencia de acceso a datos (horas/días) en latencia de conversación (segundos). Por ejemplo, si un analista anteriormente tenía que exportar archivos CSV, ejecutar transformaciones e implementar diapositivas, una interfaz de lenguaje permite “Resumir los cinco principales factores de riesgo de abandono durante el último trimestre” y generar narrativa + imágenes de una sola vez. Luego, el ser humano revisa, ajusta y actúa, pasando de ser un fontanero de datos a tomar decisiones. Eso importa: según una encuesta realizada por McKinsey y compañíael 63% de las organizaciones que utilizan IA de generación ya están creando resultados de texto y más de un tercio están generando imágenes o código. (Si bien muchos todavía están en los primeros días de capturar el retorno de la inversión en toda la empresa, la señal es clara: el lenguaje como interfaz desbloquea un nuevo valor.
En términos arquitectónicos, esto significa que el diseño del software program debe evolucionar. MCP exige sistemas que publiquen metadatos de capacidadapoyo enrutamiento semántico, mantener memoria de contexto y hacer cumplir barandillas. El diseño de una API ya no necesita preguntar “¿Qué función llamará el usuario?”, sino “¿Qué intención podría expresar el usuario?”. Un marco publicado recientemente para mejorar las API empresariales para LLM muestra cómo las API se pueden enriquecer con metadatos amigables en lenguaje pure para que los agentes puedan seleccionar herramientas dinámicamente. La implicación: el software program se vuelve modular alrededor de superficies de intención en lugar de superficies de función.
Los sistemas que dan prioridad al lenguaje también conllevan riesgos y requisitos. El lenguaje pure es ambiguo por naturaleza, por lo que las empresas deben implementar autenticación, registro, procedencia y management de acceso, tal como lo hicieron con las API. Sin estas barreras de seguridad, un agente podría llamar al sistema equivocado, exponer datos o malinterpretar la intención. Una publicación en “colapso rápido” advierte del peligro: a medida que la interfaz de usuario en lenguaje pure se vuelve dominante, el software program puede convertirse en “una capacidad a la que se accede a través de la conversación” y la empresa en “una API con una interfaz en lenguaje pure”. Esa transformación es poderosa, pero sólo segura si los sistemas están diseñados para la introspección, la auditoría y la gobernanza.
El cambio también tiene ramificaciones culturales y organizativas. Durante décadas, las empresas contrataron ingenieros de integración para diseñar API y middleware. Con modelos impulsados por MCP, las empresas contratarán cada vez más ingenieros de ontología, arquitectos de capacidad y especialistas en habilitación de agentes. Estos roles se centran en definir la semántica de las operaciones comerciales, mapear entidades comerciales con capacidades del sistema y curar la memoria contextual. Debido a que la interfaz ahora está centrada en el ser humano, habilidades como el conocimiento del dominio, el encuadre rápido, la supervisión y la evaluación se vuelven centrales.
¿Qué deberían hacer los líderes empresariales hoy? Primero, piense en el lenguaje pure como la capa de la interfaz, no como un complemento sofisticado. Mapee los flujos de trabajo de su empresa que puedan invocarse de forma segura a través del lenguaje. Luego catalogue las capacidades subyacentes que ya tiene: servicios de datos, análisis y API. Luego pregunte: “¿Son detectables? ¿Se pueden llamar mediante intención?” Finalmente, pruebe una capa estilo MCP: cree un dominio pequeño (clasificación de atención al cliente) donde un usuario o agente pueda expresar los resultados en un lenguaje y dejar que los sistemas se encarguen de la orquestación. Luego itere y escale.
El lenguaje pure no es sólo la nueva interfaz. Se está convirtiendo en la capa de interfaz predeterminada para el software program, reemplazando a la CLI, luego a las API y luego a los SDK. MCP es la abstracción que hace esto posible. Los beneficios incluyen una integración más rápida, sistemas modulares, mayor productividad y nuevos roles. Para aquellas organizaciones que todavía están atadas a llamar a los puntos finales manualmente, el cambio será como aprender una nueva plataforma de nuevo. La pregunta ya no es “¿a qué función llamo?” sino “¿qué quiero hacer?”
Dhyey Mavani está acelerando la IA genética y las matemáticas computacionales.
¡Bienvenido a la comunidad VentureBeat!
Nuestro programa de publicaciones invitadas es donde los expertos técnicos comparten conocimientos y brindan análisis profundos neutrales y no adquiridos sobre inteligencia synthetic, infraestructura de datos, ciberseguridad y otras tecnologías de vanguardia que dan forma al futuro de las empresas.
Leer más de nuestro programa de publicaciones de invitados y consulte nuestro pautas ¡Si estás interesado en contribuir con un artículo propio!











