// Popular Articles

#unsloth
Qwen3.6-27B chạy local 18GB RAM, vượt mặt Qwen3.5-397B trên benchmark coding
#4752025-10-20

Qwen3.6-27B chạy local 18GB RAM, vượt mặt Qwen3.5-397B trên benchmark coding

Alibaba ra mắt Qwen3.6-27B ngày 22/04/2026: dense model 27B mở Apache 2.0, chạy local trên 18GB RAM qua Unsloth Dynamic GGUFs, vượt mô hình tiền nhiệm 397B-A17B trên SWE-bench Verified, SWE-bench Pro, Terminal-Bench 2.0 và SkillsBench. Context 262K token, native multimodal, hybrid thinking, hỗ trợ 201 ngôn ngữ.

qwen3-6qwen3-6-27bunsloth
7 phút đọc
Unsloth sweeps 22/22: Gemma 4 26B-A4B GGUFs are now SOTA
#2962025-07-23

Unsloth sweeps 22/22: Gemma 4 26B-A4B GGUFs are now SOTA

An independent benchmark ranked 80 GGUF quantizations of Google's new Gemma 4 26B-A4B across 6 uploaders. Unsloth's Dynamic 2.0 GGUFs placed #1 in every single one of the 22 tested quant sizes on mean KL divergence — the cleanest sweep we've seen in open-model quantization.

gemma-4unslothgguf
6 phút đọc
Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code
#1872025-05-29

Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code

Unsloth vừa ra mắt Studio (beta) — web UI no-code wrap toàn bộ engine Triton kernel tự viết. Train Qwen3.5, Gemma 4, DeepSeek, gpt-oss local, nhanh gấp 2×, ít 70% VRAM, không mất accuracy. Phân tích kỹ lý do vì sao custom kernel + GRPO + Data Recipes thay đổi cuộc chơi fine-tuning.

unslothllm-fine-tuningtriton-kernels
7 phút đọc
2-bit Qwen3.6-35B-A3B làm bug hunt cả repo — chạy local trong Unsloth Studio với ~13GB RAM
#372025-03-15

2-bit Qwen3.6-35B-A3B làm bug hunt cả repo — chạy local trong Unsloth Studio với ~13GB RAM

Unsloth vừa khoe bản 2-bit Qwen3.6-35B-A3B GGUF hoàn tất một buổi bug hunt đầy đủ: thu evidence, repro lỗi, fix, viết test và draft PR writeup — với 30+ tool call, 20 website và thực thi Python, tất cả chạy local trong Unsloth Studio. Đây là cú đấm mạnh vào narrative "muốn agent coding tốt thì phải gọi API cloud".

qwen3-6unslothlocal-llm
7 phút đọc