Startup china de IA minimaxcon sede en Shanghai, ha causado conmoción en la industria de la IA hoy con el lanzamiento de su nuevo Modelo de lenguaje M2.5 en dos variantes, que prometen hacer que la inteligencia synthetic de alta gama sea tan barata que podrías dejar de preocuparte por completo por la factura.
Se hizo de código abierto en Hugging Face bajo un Licencia MIT modificada exigiendo que quienes utilicen el modelo (o variantes personalizadas) con fines comerciales “muestren de manera destacada ‘MiniMax M2.5’ en la interfaz de usuario de dicho producto o servicio”.
Pero eso casi no viene al caso dado lo barato que MiniMax lo ofrece a través de su API y las de sus socios.
Durante los últimos años, utilizar la IA más poderosa del mundo period como contratar a un consultor costoso: period brillante, pero vigilabas el reloj (y el conteo de tokens) constantemente. M2.5 cambia esa matemática, reduciendo el costo de la frontera hasta en un 95%.
Al ofrecer un rendimiento que rivaliza con los modelos de primer nivel de Google y Anthropic a una fracción del costo, particularmente en el uso de herramientas de agente para tareas empresariales, incluyendo crear archivos de Microsoft Phrase, Excel y PowerPointMiniMax apuesta a que el futuro no se trata sólo de lo inteligente que sea un modelo, sino de la frecuencia con la que puedas permitirte utilizarlo.
De hecho, con este fin, MiniMax cube que trabajó “con profesionales de alto nivel en campos como las finanzas, el derecho y las ciencias sociales” para garantizar que el modelo pudiera realizar un trabajo actual de acuerdo con sus especificaciones y estándares.
Este lanzamiento es importante porque señala un cambio de la IA como “chatbot” a la IA como “trabajador”. Cuando la inteligencia se vuelve “demasiado barata para medirla”, los desarrolladores dejan de crear herramientas simples de preguntas y respuestas y comienzan a crear “agentes”, software program que puede pasar horas codificando, investigando y organizando proyectos complejos de forma autónoma sin gastar mucho dinero.
De hecho, MiniMax ya ha implementado este modelo en sus propias operaciones. Actualmente, El 30% de todas las tareas en MiniMax HQ se completan con M2.5y una asombrosa ¡El 80% de su código recién confirmado es generado por M2.5!
Como escribe el equipo de MiniMax en la publicación de su weblog, “creemos que M2.5 ofrece posibilidades prácticamente ilimitadas para el desarrollo y operación de agentes en la economía”.
Tecnología: escasez de energía y el avance de CISPO
El secreto de la eficiencia del M2.5 reside en su arquitectura de Mezcla de Expertos (MoE). En lugar de ejecutar todos sus 230 mil millones de parámetros para cada palabra que genera, el modelo sólo “activa” 10 mil millones. Esto le permite mantener la profundidad de razonamiento de un modelo masivo mientras se mueve con la agilidad de uno mucho más pequeño.
Para entrenar este complejo sistema, MiniMax desarrolló un marco patentado de aprendizaje por refuerzo (RL) llamado Forge. ingeniero minimax Canción de oliva indicado en el Podcast del jueves AI en YouTube que esta técnica fue elementary para escalar el rendimiento incluso usando una cantidad relativamente pequeña de parámetros, y que el modelo fue entrenado durante un período de dos meses.
Forge está diseñado para ayudar al modelo a aprender de los “entornos del mundo actual”, esencialmente permitiendo que la IA practique la codificación y el uso de herramientas en miles de espacios de trabajo simulados.
“Lo que nos dimos cuenta es que hay mucho potencial con un modelo pequeño como este si entrenamos el aprendizaje por refuerzo con una gran cantidad de entornos y agentes”, dijo Music. “Pero no es algo muy fácil de hacer”, y añadió que a eso dedicaron “mucho tiempo”.
Para mantener estable el modelo durante este intenso entrenamiento, utilizaron un enfoque matemático llamado CISPO (Optimización de la política de muestreo de importancia de recorte) y compartieron la fórmula en su weblog.
Esta fórmula garantiza que el modelo no se corrija excesivamente durante el entrenamiento, lo que le permite desarrollar lo que MiniMax llama una “mentalidad de arquitecto”. En lugar de saltar directamente a escribir código, M2.5 ha aprendido a planificar primero de forma proactiva la estructura, las características y la interfaz de un proyecto.
Puntos de referencia de última generación (y cercanos)
Los resultados de esta arquitectura se reflejan en las últimas tablas de clasificación de la industria. M2.5 no sólo ha mejorado; ha saltado al nivel superior de modelos de codificación, acercándose al último modelo de Anthropic, Claude Opus 4.6, lanzado hace apenas una semana, y mostrando que las empresas chinas están ahora a solo unos días de alcanzar a los laboratorios estadounidenses con muchos mejores recursos (en términos de GPU).
Éstos son algunos de los aspectos más destacados del nuevo punto de referencia MiniMax M2.5:
-
SWE-Bench verificado: 80,2% — Coincide con las velocidades de Claude Opus 4.6
-
NavegarComp: 76,3 %: búsqueda y uso de herramientas líderes en la industria.
-
Banco Multi-SWE: 51,3%: SOTA en codificación multilingüe
-
BFCL (llamada de herramientas): 76,8 %: flujos de trabajo agentes de alta precisión.
En el podcast de ThursdAI, el presentador Alex Volkov señaló que MiniMax M2.5 funciona extremadamente rápido y, por lo tanto, utiliza menos tokens para completar las tareas, del orden de $0,15 por tarea en comparación con $3,00 para Claude Opus 4.6.
Rompiendo la barrera de los costos
MiniMax ofrece dos versiones del modelo a través de su API, ambas enfocadas al uso de producción de alto volumen:
-
M2.5-Relámpago: Optimizado para la velocidad, entregando 100 tokens por segundo. Cuesta $0,30 por 1 millón de tokens de entrada y $2,40 por 1 millón de tokens de salida.
-
Estándar M2.5: Optimizado para costos, funcionando a 50 tokens por segundo. Cuesta la mitad que la versión Lightning ($0,15 por 1 millón de tokens de entrada / $1,20 por 1 millón de tokens de salida).
En lenguaje sencillo: MiniMax afirma que se pueden ejecutar cuatro “agentes” (trabajadores de IA) de forma continua durante un año entero por aproximadamente 10.000 dólares.
Para los usuarios empresariales, este precio es aproximadamente entre 1/10 y 1/20 del costo de los modelos propietarios de la competencia como GPT-5 o Claude 4.6 Opus.
|
Modelo |
Aporte |
Producción |
Costo whole |
Fuente |
|
Qwen3 Turbo |
$0.05 |
$0.20 |
$0.25 |
|
|
chat de búsqueda profunda (V3.2-Exp) |
$0.28 |
$0.42 |
$0.70 |
|
|
razonador de búsqueda profunda (V3.2-Exp) |
$0.28 |
$0.42 |
$0.70 |
|
|
Grok 4.1 Rápido (razonamiento) |
$0.20 |
$0.50 |
$0.70 |
|
|
Grok 4.1 Rápido (sin razonamiento) |
$0.20 |
$0.50 |
$0.70 |
|
|
Minimax M2.5 |
$0.15 |
$1.20 |
$1.35 |
|
|
MiniMax M2.5-Rayo |
$0.30 |
$2.40 |
$2.70 |
|
|
Vista previa flash de Géminis 3 |
$0.50 |
$3.00 |
$3.50 |
|
|
Kimi-k2.5 |
$0.60 |
$3.00 |
$3.60 |
|
|
GLM-5 |
$1.00 |
$3.20 |
$4.20 |
|
|
ERNIE 5.0 |
$0.85 |
$3.40 |
$4.25 |
|
|
Claude Haiku 4.5 |
$1.00 |
$5.00 |
$6.00 |
|
|
Qwen3-Max (23/01/2026) |
$1.20 |
$6.00 |
$7.20 |
|
|
Géminis 3 Professional (≤200K) |
$2.00 |
$12.00 |
$14.00 |
|
|
GPT-5.2 |
$1.75 |
$14.00 |
$15.75 |
|
|
Soneto de Claudio 4.5 |
$3.00 |
$15.00 |
$18.00 |
|
|
Géminis 3 Professional (>200K) |
$4.00 |
$18.00 |
$22.00 |
|
|
Claude Opus 4.6 |
$5.00 |
$25.00 |
$30.00 |
|
|
GPT-5.2 Professional |
$21.00 |
$168.00 |
$189.00 |
Implicaciones estratégicas para empresas y líderes
Para los líderes técnicos, M2.5 representa más que una easy API más económica. Cambia el guide operativo para las empresas en este momento.
La presión de “optimizar” las indicaciones para ahorrar dinero ha desaparecido. Ahora puede implementar modelos de alto contexto y alto razonamiento para tareas rutinarias que antes tenían un costo prohibitivo.
La mejora del 37% en la velocidad en la finalización de tareas de un extremo a otro significa que los canales “agentes” valorados por los orquestadores de IA (donde los modelos hablan con otros modelos) finalmente se mueven lo suficientemente rápido para las aplicaciones de usuario en tiempo actual.
Además, las altas puntuaciones de M2.5 en modelos financieros (74,4% en MEWC) sugieren que puede manejar el “conocimiento tácito” de industrias especializadas como el derecho y las finanzas con una supervisión mínima.
Debido a que M2.5 se posiciona como un modelo de código abierto, las organizaciones pueden potencialmente ejecutar auditorías de código automatizadas e intensivas a una escala que antes period imposible sin una intervención humana masiva, al mismo tiempo que mantienen un mejor management sobre la privacidad de los datos.
MiniMax M2.5 es una señal de que la frontera de la IA ya no se trata solo de quién puede construir el cerebro más grande, sino de quién puede convertir ese cerebro en el trabajador más útil y asequible de la sala.











