La startup alemana de IA Black Forest Labs (BFL), fundada por antiguos ingenieros de Stability AI, continúa desarrollando su conjunto de generadores de imágenes de IA de código abierto con el lanzamiento de FLUJO.2 [klein]un nuevo par de modelos pequeños (uno abierto y otro no comercial) que enfatizan la velocidad y los menores requisitos de cómputo, y los modelos generan imágenes en menos de un segundo en una Nvidia GB200.
El [klein] La serie, publicada ayer, incluye dos recuentos de parámetros principales: 4 mil millones (4B) y 9 mil millones (9B).
Los pesos del modelo están disponibles en abrazando la cara y codificar GitHub.
Mientras que los modelos más grandes de la familia FLUX.2 ([max] y [pro]), lanzado en noviembre de 2025, persigue los límites del fotorrealismo y las capacidades de “búsqueda de conexión a tierra”, [klein] está diseñado específicamente para {hardware} de consumo y flujos de trabajo de latencia crítica.
Una gran noticia para las empresas es que la versión 4B está disponible bajo una licencia Apache 2.0, lo que significa que ellas (o cualquier organización o desarrollador) pueden usar la versión 4B. [klein] modelos para sus fines comerciales sin pagar ni un centavo a BFL ni a ningún intermediario.
Sin embargo, varias plataformas de creación de medios e imágenes de IA, incluidas Fal.ai han comenzado a ofrecerlo a un costo extremadamente bajo también a través de sus interfaces de programación de aplicaciones (API) y como una herramienta directa al usuario. Ya ha recibido grandes elogios de los primeros usuarios por su velocidad. Lo que le falta en calidad de imagen common, parece compensarlo con su capacidad de generación rápida, licencia abierta, asequibilidad y tamaño reducido, lo que beneficia a las empresas que desean ejecutar modelos de imágenes en su propio {hardware} o a un costo extremadamente bajo.
Entonces, ¿cómo lo hizo BFL y en qué puede beneficiarle? Continúe leyendo para obtener más información.
La “frontera de Pareto” de la latencia
La filosofía técnica detrás [klein] es lo que la documentación de BFL describe como la definición de la “frontera de Pareto” entre calidad y latencia. En términos simples, han intentado exprimir la máxima fidelidad visible posible en un modelo lo suficientemente pequeño como para ejecutarse en una PC de juegos doméstica sin un retraso notable.
Las métricas de rendimiento publicadas por la empresa muestran una imagen de un modelo creado para la interactividad en lugar de solo la generación por lotes.
Según las cifras oficiales de Black Forest Labs, el [klein] Los modelos son capaces de generar o editar imágenes en menos de 0,5 segundos en {hardware} moderno.
Incluso en GPU de consumo estándar como RTX 3090 o 4070, el modelo 4B está diseñado para caber cómodamente en aproximadamente 13 GB de VRAM.
Esta velocidad se logra mediante la “destilación”, un proceso en el que un modelo más grande y complejo “enseña” a uno más pequeño y más eficiente a aproximar sus resultados en menos pasos. el destilado [klein] Las variantes requieren solo cuatro pasos para generar una imagen. Esto efectivamente convierte el proceso de generación de una tarea de pausa para el café a una tarea casi instantánea, permitiendo lo que BFL describe en X (anteriormente Twitter) como “desarrollar concepts de 0 → 1” en tiempo actual.
Bajo el capó: arquitectura unificada
Históricamente, la generación y edición de imágenes a menudo han requerido diferentes canalizaciones o adaptadores complejos (como ControlNets). FLUJO.2 [klein] intentos de unificarlos.
La arquitectura admite de forma nativa conversión de texto a imagen, edición de referencia única y composición de referencias múltiples sin necesidad de intercambiar modelos.
Según la documentación publicada en GitHub, los modelos admiten:
-
Edición de referencias múltiples: Los usuarios pueden cargar hasta cuatro imágenes de referencia (o diez en el patio de juegos) para guiar el estilo o la estructura del resultado.
-
Management de colour de código hexadecimal: Un problema frecuente para los diseñadores es conseguir “ese tono exacto de rojo”. Los nuevos modelos aceptan códigos hexadecimales específicos en las indicaciones (por ejemplo, #800020) para forzar una reproducción cromática precisa.
-
Indicaciones estructuradas: El modelo analiza entradas estructuradas tipo JSON para composiciones rigurosamente definidas, una característica claramente dirigida a la generación programática y los canales empresariales.
La división de licencias: pesos abiertos versus código abierto
Para las empresas emergentes y los desarrolladores que se basan en la tecnología de BFL, es basic comprender el panorama de licencias de esta versión. BFL ha adoptado una estrategia dividida que separa el uso “aficionado/investigador” de la “infraestructura comercial”.
-
FLUJO.2 [klein] 4B: Publicado bajo Apache 2.0. Esta es una licencia de software program libre permisiva que permite el uso, modificación y redistribución comercial. Si está creando una aplicación paga, una plataforma SaaS o un juego que integra la generación de IA, puede usar el modelo 4B sin regalías.
-
FLUJO.2 [klein] 9B y [dev]: Publicado bajo la licencia no comercial FLUX. Estos pesos están abiertos para que investigadores y aficionados los descarguen y experimenten, pero no se pueden utilizar para aplicaciones comerciales sin un acuerdo por separado.
Esta distinción posiciona al modelo 4B como un competidor directo de otros modelos de peso abierto como Steady Diffusion 3 Medium o SDXL, pero con una arquitectura más moderna y una licencia permisiva que elimina la ambigüedad authorized para las startups.
Integración del ecosistema: ComfyUI y más allá
BFL es claramente consciente de que un modelo es tan bueno como las herramientas que lo ejecutan. Coincidiendo con la caída del modelo, el equipo lanzó plantillas de flujo de trabajo oficiales para Cómoda interfaz de usuariola interfaz basada en nodos que se ha convertido en el entorno de desarrollo integrado (IDE) estándar para los artistas de IA.
Los flujos de trabajo, específicamente image_flux2_klein_text_to_image.json y las variantes de edición: permiten a los usuarios arrastrar y soltar las nuevas capacidades en los canales existentes inmediatamente.
La reacción de la comunidad en las redes sociales se ha centrado en esta integración del flujo de trabajo y la velocidad. En una publicación en X, la cuenta oficial de Black Forest Labs destacó la capacidad del modelo para “explorar rápidamente una estética específica”, mostrando un video donde el estilo de una imagen cambiaba instantáneamente a medida que el usuario buscaba entre las opciones.
Por qué es importante para los responsables de la toma de decisiones sobre IA empresarial
El lanzamiento de FLUX.2 [klein] Señala una maduración en el mercado de la IA generativa, pasando de la fase inicial de novedad a un período definido por la utilidad, la integración y la velocidad.
Para los ingenieros líderes de IA que constantemente hacen malabarismos con la necesidad de equilibrar la velocidad con la calidad, este cambio es basic. Estos profesionales, que gestionan el ciclo de vida completo de los modelos, desde la preparación de los datos hasta la implementación, a menudo enfrentan el desafío diario de integrar herramientas en rápida evolución en los flujos de trabajo existentes.
La disponibilidad de un modelo 4B destilado bajo una licencia Apache 2.0 ofrece una solución práctica para quienes se centran en una implementación rápida y ajustes para lograr objetivos comerciales específicos, permitiéndoles evitar los cuellos de botella de latencia que normalmente afectan a la generación de imágenes de alta fidelidad.
Para los ingenieros sénior de IA centrados en la orquestación y la automatización, las implicaciones son igualmente significativas. Estos expertos son responsables de crear canales de IA escalables y mantener la integridad del modelo en diferentes entornos, a menudo mientras trabajan bajo estrictas restricciones presupuestarias.
La naturaleza ligera del [klein] household aborda directamente el desafío de implementar sistemas eficientes con recursos limitados. Al utilizar un modelo que se adapta a la VRAM de nivel de consumidor, los especialistas en orquestación pueden diseñar canales de inferencia locales rentables que eviten los elevados costos operativos asociados con modelos propietarios masivos.
Incluso para el Director de Seguridad de TI, el avance hacia modelos abiertos, capaces y ejecutables localmente ofrece una clara ventaja. Con la tarea de proteger a la organización de las ciberamenazas y gestionar las operaciones de seguridad con recursos limitados, la dependencia de API externas para flujos de trabajo creativos sensibles puede ser una vulnerabilidad.
Un modelo de alta calidad que se ejecuta localmente permite a los líderes de seguridad aprobar herramientas de inteligencia synthetic que mantienen datos propietarios dentro del firewall corporativo, equilibrando las demandas operativas del negocio con las sólidas medidas de seguridad que deben mantener.











