// Popular Articles

#qwen-3-6
Qwen3.6-27B chạy local trên MacBook Pro: model 27B đánh bại 397B trên benchmark coding
#8352026-04-12

Qwen3.6-27B chạy local trên MacBook Pro: model 27B đánh bại 397B trên benchmark coding

Alibaba vừa open-source Qwen3.6-27B — model dense 27B đánh bại Qwen3.5-397B-A17B (MoE) trên mọi benchmark coding agentic, chạy local 16.8GB GGUF trên Mac 24GB unified memory với ~25 t/s. Apache 2.0, không phí, không API key.

qwen-3-6alibabalocal-llm
8 phút đọc
#8042026-03-31

Qwen 3.6 nghĩ quá lâu — cú hack grammar cắt 22× token think mà không mất accuracy

Một dev trên X áp grammar nhỏ vào block <think> của Qwen 3.6: HumanEval+ giảm 22× token think, accuracy giữ nguyên; LiveCodeBench public +14% pass@1 với 5× ít token. Pure inference-time, không train lại, không đụng weights.

qwen-3-6local-llmgrammar-constrained-decoding
7 phút đọc
Qwen3.6-27B: Mô hình dense 27B đánh bại MoE 397B trên agentic coding
#6032025-12-24

Qwen3.6-27B: Mô hình dense 27B đánh bại MoE 397B trên agentic coding

Alibaba vừa phát hành Qwen3.6-27B — dense model open-weight 27B tham số, Apache 2.0, 262K context native, multimodal, và đạt SWE-bench Verified 77.2 — chỉ cách Claude 4.5 Opus 3.7 điểm trong khi chạy được trên GPU 18GB.

qwen-3-6alibabaopen-source-llm
7 phút đọc
#4382025-10-02

Qwen 3.6 27B đã lên Ollama: flagship coding dense 17GB, chạy local 1 dòng lệnh

Qwen vừa release 3.6-27B (22/04/2026) — dense model 27B claim vượt Qwen3.5-397B-A17B trên mọi coding benchmark, chỉ 17GB Q4, chạy mượt RTX 4090 / M1 Max 32GB. Đã có trên Ollama library, pair 1 dòng lệnh với Claude Code / OpenCode / OpenClaw qua `ollama launch`.

qwen-3-6ollamalocal-llm
6 phút đọc
Qwen3.6-Max-Preview ra mắt: flagship mới của Alibaba, đấu ngang Claude Opus 4.7 và GPT-5.4
#2042025-06-06

Qwen3.6-Max-Preview ra mắt: flagship mới của Alibaba, đấu ngang Claude Opus 4.7 và GPT-5.4

Alibaba tung bản preview Qwen3.6-Max — mô hình reasoning chủ lực kế tiếp. Dẫn đầu 6 benchmark coding, context 260k, Intelligence Index 52, chỉ kém Claude Opus 4.7 và GPT-5.4 đúng 5 điểm.

qwen-3-6alibaballm
7 phút đọc
Qwen3.6-35B-A3B: Alibaba mở mã nguồn mô hình coding 3B active đánh bại Gemma 4-31B và sánh ngang Claude Sonnet 4.5
#1742025-05-22

Qwen3.6-35B-A3B: Alibaba mở mã nguồn mô hình coding 3B active đánh bại Gemma 4-31B và sánh ngang Claude Sonnet 4.5

Alibaba vừa mở mã nguồn Qwen3.6-35B-A3B dưới giấy phép Apache 2.0: MoE 35B tổng, chỉ 3B active, đa phương thức, context 262K (mở rộng 1M), và chạy được trên MacBook 24GB. Trên SWE-bench Verified đạt 73.4, Terminal-Bench 2.0 đạt 51.5 — vượt Gemma 4-31B và bám sát Claude Sonnet 4.5.

qwen-3-6alibabaopen-source-llm
8 phút đọc
Qwen 3.6 về open-source trên Ollama: một lệnh là chạy Claude Code local, zero API cost
#242025-03-08

Qwen 3.6 về open-source trên Ollama: một lệnh là chạy Claude Code local, zero API cost

Ollama vừa publish Qwen 3.6 open-weight với 8 variants (22–71GB), 256K context, Apache 2.0. Đáng chú ý: one-command setup Claude Code hoặc OpenClaw trỏ vào model local — `ollama launch claude --model qwen3.6` là xong. Cả Anthropic-compatible API của Ollama lẫn MIT-license OpenClaw đều plug-and-play.

qwen-3-6ollamaclaude-code
8 phút đọc
#232025-03-08

Qwen3.6-35B-A3B: MoE 3B-active đánh bại dense 27B trên coding benchmark

Alibaba Qwen vừa công bố Qwen3.6-35B-A3B — bản open-weight kế thừa kiến trúc 35B total / 3B active, nạp full stack cải tiến agentic coding của dòng 3.6-Plus. Model vượt dense Qwen3.5-27B trên nhiều coding benchmark chủ chốt và bỏ xa tiền nhiệm Qwen3.5-35B-A3B ở agentic coding cùng reasoning — lần đầu một MoE mid-tier open chứng minh được 'architecture + post-training > raw dense params' trên chính mảng code.

qwen-3-6alibaba-qwenopen-source-llm
7 phút đọc