Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Las herramientas gratuitas de inteligencia synthetic Goose y Qwen3-coder pueden reemplazar un costoso plan Claude Code.
- La configuración es sencilla pero requiere una máquina native potente.
- Las primeras pruebas son prometedoras, aunque persisten problemas con la precisión y los reintentos.
Jack Dorsey es el fundador de Twitter (ahora X), Sq. (ahora Block) y Bluesky (aún azul). En julio, publicó un declaración bastante críptica sobre Xdiciendo “ganso + qwen3-coder = guau”.
Además: he probado herramientas de codificación de IA gratuitas y de pago: esta es cuál usaría realmente
Desde entonces, ha aumentado el interés tanto en Goose como en Qwen3-coder. Goose, desarrollado por Block, la empresa de Dorsey, es un marco de agente de código abierto, related a Claude Code. Qwen3-coder es un modelo de lenguaje grande centrado en codificación related a Sonnet-4.5. Ambos son free of charge.
Juntos, sugiere Web, pueden combinarse para crear un competidor totalmente gratuito de Claude Code. ¿Pero pueden? ¿En realidad? Decidí averiguarlo.
Además: utilicé Claude Code para codificar una aplicación de Mac en 8 horas, pero fue más trabajo que magia.
Este es el primero de tres artículos que analizarán la integración de Goose (el marco del agente), Ollama (un servidor LLM) y Qwen3-coder (el LLM).
En este artículo, te mostraré cómo hacer que todo funcione. En el próximo artículo, le brindaré una comprensión más profunda de las funciones que desempeña cada una de estas tres herramientas en el proceso de codificación del agente de IA. Y luego, finalmente, intentaré usar estas herramientas para crear una aplicación para iPad con todas las funciones como una extensión de las aplicaciones que he estado creando con Claude Code.
Bien, comencemos. Estoy construyendo esto en mi Mac, pero puedes instalar las tres herramientas en tu máquina Home windows o Linux, si así es como te va.
Descargando el software program
Deberá comenzar descargando Goose y Ollama. Luego descargará el modelo del codificador Qwen3 desde Ollama:
Originalmente descargué e instalé Goose primero. Pero no pude lograr que hablara con Ollama. ¿Puedes adivinar qué hice mal? Sí. Todavía no había descargado ni configurado Ollama.
Instalación de Ollama y Qwen3-coder
Mi recomendación es instalar Ollama primero. Como mencioné, estoy usando MacOS, pero puedes usar el que prefieras. También puedes instalar una versión de línea de comandos de Ollama, pero prefiero la versión de la aplicación, así que eso es lo que exploraremos:
Descargar Ollama. Luego, haga doble clic en el instalador. Una vez que se carga la aplicación, verás una interfaz related a un chat. A la derecha, verás el modelo. El mío por defecto es gpt-oss-20b.
También: Géminis puede revisar tus correos electrónicos y fotos para “ayudarte” ahora, pero ¿deberías permitirlo?
Haga clic en eso y aparecerá una lista de modelos. Elegí Qwen3-coder:30b, donde 30b se refiere a la cantidad de parámetros del modelo. Este es un modelo optimizado para codificación con alrededor de 30 mil millones de parámetros:
Tenga en cuenta que el modelo no se descargará hasta que se le obligue a responder un mensaje. Escribí la palabra “prueba” y descargué el modelo:
Tenga en cuenta que este modelo tiene 17 GB, así que asegúrese de tener suficiente espacio de almacenamiento. Este requisito resalta uno de los grandes beneficios de todo este proyecto. Su IA es native y se ejecuta en su máquina. No estás enviando nada a la nube.
Además: Cómo ejecutar fácilmente sus modelos de IA locales favoritos en Linux con esta práctica aplicación
Una vez que haya instalado Qwen3-coder, deberá hacer que la instancia de Ollama sea seen para otras aplicaciones en su computadora. Para realizar este paso, seleccione Configuración en el menú de Ollama en su barra de menú:
Lively Exponer Ollama a la purple. Dejé que Ollama se instalara solo en el directorio .ollama. Este enfoque oculta el directorio, así que recuerde que tiene un archivo de 17 GB escondido allí.
Finalmente, establecí la longitud de mi contexto en 32K. Tengo 128 GB de RAM en mi máquina, así que si empiezo a quedarme fuera de contexto, la aumentaré. Pero quería ver qué tan bien funcionaba este enfoque en un espacio de contexto más pequeño.
Además, observe que no inicié sesión en Ollama. Puede crear una cuenta y utilizar algunos servicios en la nube. Pero estamos intentando hacer esto completamente free of charge y completamente en la computadora native, por lo que evito iniciar sesión siempre que puedo.
Además: ¿Está su agente de IA a la altura de la tarea? 3 formas de determinar cuándo delegar
Y eso es todo para Ollama y Qwen3-coder. Necesitará tener Ollama iniciado y ejecutándose cada vez que use Goose, pero probablemente no interactuará mucho con él después de esto.
Instalación de ganso
A continuación, instalemos Goose. Continúe y ejecute el instalador. Al igual que con Ollama, existen múltiples implementaciones de Goose. Elegí la versión MacOS Apple Silicon Desktop:
Una vez que inicie Goose por primera vez, aparecerá esta pantalla de bienvenida. Tiene varias opciones de configuración, pero como vamos a optar por una configuración totalmente gratuita, vaya a la sección Otros proveedores y haga clic en Ir a configuración del proveedor:
Aquí verá una lista muy grande de diversas herramientas de agentes y LLM que puede ejecutar. Desplácese hacia abajo, busque Ollama y presione Configurar:
Una vez que realice ese paso, se le pedirá que configure Ollama. Aquí es donde me confundí un poco porque, tonto de mí, pensé que “Configurar Ollama” significaba que estaba de hecho configurando Ollama. No tanto. Lo que estás haciendo (aquí y para todos los demás proveedores) es configurar tu conexión, en este caso a Ollama:
Se le pedirá que elija un modelo. Una vez más, elija qwen3-coder:30b:
Una vez que haya elegido Ollama y qwen3-coder:30b, presione Seleccionar modelo:
Felicidades. Ahora ha instalado y configurado un agente de codificación native que se ejecuta en su computadora.
Llevando a Goose a dar una vuelta
Como ocurre con casi cualquier otro chatbot, querrás escribir un mensaje en el área de mensajes. Pero primero, no es mala concept informarle a Goose el directorio que utilizará. Para mi prueba inicial, configuré Goose para que funcionara desde una carpeta temporal. Usted especifica esto en (1) tocando el directorio que ya se muestra:
También tenga en cuenta que el modelo que está ejecutando se indica en (2). Puede configurar Goose para ejecutar varios modelos, pero por ahora solo estamos trabajando con este.
Como prueba, utilicé mi desafío de prueba estándar: crear un complemento easy de WordPress. En su primera ejecución, Goose/Qwen3 falló. Generó un complemento, pero no funcionó:
En mi segundo y tercer intento, después de explicarle a Goose/Qwen3 lo que no funcionó, falló y volvió a fallar.
Además: faltan años para la verdadera IA agente: he aquí por qué y cómo llegamos allí
En el tercer intento, ejecutó la aleatorización, pero no siguió completamente las instrucciones, lo que de alguna manera anuló el propósito del complemento authentic:
Le tomó cinco rondas a Goose lograr hacerlo bien, y estaba muy, muy satisfecho consigo mismo por lo acertado que esperaba estar:
Primeras impresiones
Entonces, ¿qué pienso sobre este enfoque? Me decepcionó que Goose necesitara cinco intentos para que mi pequeña prueba funcionara. Cuando probé un montón de chatbots gratuitos con esta tarea, todos menos Grok y un Gemini anterior a Gemini 3 hicieron bien mi pequeña prueba en el primer intento.
Además: Cómo pruebo la capacidad de codificación de un chatbot con IA, y usted también puede hacerlo
Pero una gran diferencia entre la codificación de chatbot y la codificación agente es que las herramientas de codificación agente como Claude Code y Goose trabajan en el código fuente actual. Por lo tanto, las correcciones repetidas mejoran el código base actual.
Cuando mi colega Tiernan Ray probó Ollama en su Mac M1 de 16 GB, descubrió que el rendimiento period insoportable. Pero estoy ejecutando esta configuración en una Mac Studio M4 Max con 128 GB de RAM. Incluso tenía Chrome, Fusion, Remaining Lower, VS Code, Xcode, Wispr Circulate y Photoshop abiertos al mismo tiempo.
Hasta ahora, sólo he realizado una prueba de programación bastante easy, pero descubrí que el rendimiento normal es bastante bueno. No vi una diferencia tangible en la respuesta a las indicaciones entre la instancia native que ejecuta Goose en mi Mac Studio y los productos híbridos locales/en la nube como Claude Code y OpenAI Codex que utilizan las enormes infraestructuras de las empresas de IA.
Además: 4 nuevos roles liderarán la revolución de la IA agente: esto es lo que necesitan
Pero éstas no son más que las primeras impresiones. Seré más capaz de decirle si creo que esta solución gratuita puede reemplazar las costosas alternativas como el plan Max de $100/mes de Claude Code o el plan Professional de $200/mes de OpenAI una vez que ejecute un gran proyecto a través de él. Ese análisis aún está por llegar, así que estad atentos.
¿Has intentado ejecutar un LLM centrado en codificación localmente con herramientas como Goose, Ollama o Qwen? ¿Cómo te fue la configuración y en qué {hardware} la estás ejecutando? Si ha utilizado opciones en la nube como Claude u OpenAI Codex, ¿cómo se compara el rendimiento native y la calidad de salida? Háganos saber en los comentarios a continuación.
Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanaly sígueme en Twitter/X en @DavidGewirtzen Fb en Facebook.com/DavidGewirtzen Instagram en Instagram.com/DavidGewirtzen Bluesky en @DavidGewirtz.comy en YouTube en YouTube.com/DavidGewirtzTV.












