Muchos en la industria piensan que los ganadores del mercado de modelos de IA ya están decididos: las grandes tecnológicas serán las propietarias (Google, Meta, Microsoft, un poco de Amazon) junto con sus fabricantes de modelos preferidos, en gran medida OpenAI y Anthropic.
Pero Arcee AI, la pequeña startup de 30 personas, no está de acuerdo. La compañía acaba de lanzar un modelo de base de propósito basic verdaderamente y permanentemente abierto (licencia Apache) llamado Trinity, y Arcee afirma que, con parámetros de 400B, se encuentra entre los modelos de base de código abierto más grandes jamás entrenados y lanzados por una empresa estadounidense.
Arcee cube que Trinity se compara con Llama 4 Maverick 400B de Meta y Z.ai GLM-4.5, un modelo de código abierto de alto rendimiento de la Universidad Tsinghua de China, según pruebas comparativas realizadas utilizando modelos base (muy poca capacitación posterior).
Al igual que otros modelos de última generación (SOTA), Trinity está diseñado para codificación y procesos de varios pasos como agentes. Aun así, a pesar de su tamaño, todavía no es un verdadero competidor de SOTA porque actualmente sólo admite texto.
Se están trabajando más modos: actualmente se está desarrollando un modelo de visión y una versión de voz a texto está en la hoja de ruta, dijo el CTO Lucas Atkins a TechCrunch (en la foto de arriba, a la izquierda). En comparación, Llama 4 Maverick de Meta ya es multimodal y admite texto e imágenes.
Pero antes de agregar más modos de IA a su lista, cube Arcee, quería un LLM básico que impresionara a sus principales clientes objetivo: desarrolladores y académicos. El equipo quiere especialmente convencer a las empresas estadounidenses de todos los tamaños para que no elijan modelos abiertos de China.
“En última instancia, los ganadores de este juego, y la única forma de ganarse realmente el uso, es tener el mejor modelo de peso abierto”, dijo Atkins. “Para ganarse los corazones y las mentes de los desarrolladores, hay que darles lo mejor”.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
Los puntos de referencia muestran que el modelo base Trinity, actualmente en versión preliminar mientras se lleva a cabo más capacitación posterior, se mantiene en gran medida y, en algunos casos, supera ligeramente a Llama en pruebas de codificación y matemáticas, sentido común, conocimiento y razonamiento.
El progreso que Arcee ha logrado hasta ahora para convertirse en un laboratorio de IA competitivo es impresionante. El gran modelo Trinity sigue dos modelos pequeños anteriores lanzado en diciembre: el Trinity Mini de parámetros 26B, un modelo de razonamiento completamente entrenado para tareas que van desde aplicaciones net hasta agentes, y el Trinity Nano de parámetros 6B, un modelo experimental diseñado para superar los límites de los modelos que son pequeños pero conversadores.
Lo bueno es que Arcee los entrenó a todos en seis meses por un whole de 20 millones de dólares, utilizando 2.048 GPU Nvidia Blackwell B300. Esto de los aproximadamente 50 millones de dólares que la compañía ha recaudado hasta ahora, dijo el fundador y director ejecutivo Mark McQuade (en la foto de arriba, a la derecha).
Esa cantidad de dinero fue “mucho para nosotros”, dijo Atkins, quien dirigió el esfuerzo de construcción del modelo. Aún así, reconoció que palidece en comparación con lo que están gastando los laboratorios más grandes en este momento.
El cronograma de seis meses “fue muy calculado”, dijo Atkins, cuya carrera antes de obtener un LLM involucró la creación de agentes de voz para automóviles. “Somos una startup más joven que está muy hambrienta. Tenemos una enorme cantidad de talento y jóvenes investigadores brillantes que, cuando se les dio la oportunidad de gastar esta cantidad de dinero y entrenar un modelo de este tamaño, confiamos en que estarían a la altura de las circunstancias. Y ciertamente lo hicieron, con muchas noches de insomnio, muchas horas largas”.
McQuade, anteriormente uno de los primeros empleados del mercado de modelos de código abierto HuggingFace, cube que Arcee no comenzó con el deseo de convertirse en un nuevo laboratorio de inteligencia synthetic de EE. UU.: originalmente, la compañía estaba haciendo personalización de modelos para grandes clientes empresariales como SK Telecom.
“Sólo estábamos haciendo post-entrenamiento. Así que tomaríamos el gran trabajo de otros: tomaríamos un modelo Llama, tomaríamos un modelo Mistral, tomaríamos un modelo Qwen que fuera de código abierto, y lo entrenaríamos posteriormente para mejorarlo” para el uso previsto de una empresa, dijo, incluyendo el aprendizaje por refuerzo.
Pero a medida que su lista de clientes crecía, dijo Atkins, la necesidad de tener su propio modelo se estaba convirtiendo en una necesidad, y McQuade estaba preocupado por depender de otras empresas. Al mismo tiempo, muchos de los mejores modelos abiertos procedían de China, algo que las empresas estadounidenses desconfiaban o tenían prohibido utilizar.
Fue una decisión angustiosa. “Creo que hay menos de 20 empresas en el mundo que alguna vez hayan entrenado previamente y hayan lanzado su propio modelo” al tamaño y nivel que Arcee buscaba, dijo McQuade.
Al principio, la empresa comenzó siendo pequeña, probando un modelo diminuto de 4.500 millones creado en asociación con la empresa de capacitación DatologyAI. El éxito del proyecto alentó entonces esfuerzos más grandes.
Pero si Estados Unidos ya tiene Llama, ¿por qué necesita otro modelo de peso abierto? Atkins cube que al elegir la licencia Apache de código abierto, la startup se compromete a mantener siempre abiertos sus modelos. Esto se produce después de que el director ejecutivo de Meta, Mark Zuckerberg, indicara el año pasado que es posible que su empresa no siempre haga que todos sus modelos más avanzados sean de código abierto.
“Se puede considerar que Llama no es verdaderamente de código abierto, ya que utiliza una licencia metacontrolada con salvedades comerciales y de uso”, afirma. Esto ha causado algunas organizaciones de código abierto para reclamar que Llama no es appropriate en absoluto con el código abierto.
“Arcee existe porque Estados Unidos necesita una alternativa de vanguardia permanentemente abierta, con licencia Apache y que realmente pueda competir en la frontera precise”, dijo McQuade.
Todos los modelos Trinity, grandes y pequeños, se pueden descargar de forma gratuita. La versión más grande se lanzará en tres versiones. Trinity Giant Preview es un modelo de instrucción ligeramente entrenado, lo que significa que ha sido entrenado para seguir instrucciones humanas, no solo para predecir la siguiente palabra, lo que lo prepara para el uso basic del chat. Trinity Giant Base es el modelo base sin entrenamiento posterior.
Luego tenemos TrueBase, un modelo con datos de instrucción o capacitación posterior para que las empresas o investigadores que quieran personalizarlo no tengan que desarrollar ningún dato, regla o suposición.
Acree AI eventualmente ofrecerá una versión alojada de su modelo de lanzamiento basic a un precio de API competitivo, según cube. Faltan hasta seis semanas para ese lanzamiento, ya que la startup continúa mejorando el entrenamiento de razonamiento del modelo.
El precio API para Trinity-Mini es de $0,045/$0,15, y también hay disponible un nivel gratuito con tarifa limitada. Mientras tanto, la empresa todavía vende opciones de personalización y post-formación.











