// Popular Articles
Ouroboros: dạy mô hình nhỏ "suy nghĩ sâu" bằng cách lặp một lớp với hypernetwork
Mô hình lớn reason giỏi vì sâu — 70B có 80 lớp, mỗi lớp làm một việc khác nhau. Ouroboros (RightNow AI, arXiv 2604.02051) chứng minh mô hình nhỏ có thể bắt chước điều đó: lặp một lớp duy nhất nhiều lần, nhưng có hypernetwork 0.7M tham số sinh weight modification khác nhau cho từng vòng lặp. Kết quả trên Qwen2.5-3B cắt từ 36 còn 17 lớp: giảm 43.4% training loss, recover 51% gap, chỉ thêm 9.2M params (0.6%).
SmallClaw: AI agent framework local-first cho small models, chạy ngon trên laptop 8GB RAM
SmallClaw là agent framework mã nguồn mở (MIT) chạy hoàn toàn local với Ollama, biến qwen3:4b thành trợ lý có thể đọc ghi file, search web, điều khiển trình duyệt — không API key, không gửi data ra cloud, không tốn $1.
Chạy Qwen ở Q3: Bên kia vách đá precision của local LLM
Q3 quant có thể trả lời giống Claude Opus, nhưng cái giá là một cú thinking loop 60 giây và +60% wall-clock. Đây là bản chất của việc đi xuống dưới Q4 — và tại sao đôi khi vẫn đáng.
Qwen3.6-27B ra mắt: mô hình dense đa phương thức mạnh hơn cả bản MoE 35B
Alibaba vừa open-source Qwen3.6-27B dưới Apache 2.0 — một mô hình dense 27B tích hợp sẵn vision encoder, xử lý ảnh/video/text trong một checkpoint duy nhất, và đánh bại cả bản MoE 35B-A3B ở gần như mọi benchmark coding, reasoning lẫn VLM.
Qwen3.6-Max-Preview: Alibaba Tung Flagship Mới Đối Đầu GPT & Gemini, Vượt Claude 4.5 Opus Trên Loạt Benchmark Coding
Ngày 20/04/2026, Alibaba công bố Qwen3.6-Max-Preview — bản preview mô hình flagship tiếp theo của Qwen. Top score trên 6 benchmark coding (SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, SciCode...), vượt Claude 4.5 Opus ở SkillsBench (+10.3), QwenChineseBench (+15), Terminal-Bench 2.0 (+6.1). Hỗ trợ preserve_thinking cho agent workflows, API tương thích OpenAI & Anthropic.