// Popular Articles

#qlora
Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code
#1872025-05-29

Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code

Unsloth vừa ra mắt Studio (beta) — web UI no-code wrap toàn bộ engine Triton kernel tự viết. Train Qwen3.5, Gemma 4, DeepSeek, gpt-oss local, nhanh gấp 2×, ít 70% VRAM, không mất accuracy. Phân tích kỹ lý do vì sao custom kernel + GRPO + Data Recipes thay đổi cuộc chơi fine-tuning.

unslothllm-fine-tuningtriton-kernels
7 phút đọc
#482025-03-20

15 LLM Fine-Tuning Techniques Mọi Practitioner Nên Biết (LoRA, DPO, GRPO & Co.)

Từ LoRA tiết kiệm bộ nhớ tới GRPO — động cơ huấn luyện DeepSeek-R1: bản đồ 15 kỹ thuật fine-tune LLM, chia theo 4 họ, khi nào dùng cái gì, và vì sao DPO đang là default alignment 2026.

llm-fine-tuningloraqlora
8 phút đọc