// Popular Articles

#llm-fine-tuning
Microsoft Research ra mắt AutoAdapt: tự động hoá tinh chỉnh LLM cho ngành, hơn AutoML 25% mà gần như không tốn thêm compute
#4182025-09-22

Microsoft Research ra mắt AutoAdapt: tự động hoá tinh chỉnh LLM cho ngành, hơn AutoML 25% mà gần như không tốn thêm compute

AutoAdapt là framework mới của Microsoft Research biến quy trình đưa LLM vào domain chuyên biệt — y tế, luật, cloud incident — từ 'nhiều tuần tinh chỉnh thủ công' thành một pipeline tự động, có ràng buộc ngân sách, đánh bại các baseline AutoML 25% trên 10 task với chỉ ~30 phút và ~$4 overhead mỗi task.

autoadaptmicrosoft-researchllm-fine-tuning
7 phút đọc
Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code
#1872025-05-29

Unsloth Studio: fine-tune LLM nhanh gấp đôi, bớt 70% VRAM — không cần code

Unsloth vừa ra mắt Studio (beta) — web UI no-code wrap toàn bộ engine Triton kernel tự viết. Train Qwen3.5, Gemma 4, DeepSeek, gpt-oss local, nhanh gấp 2×, ít 70% VRAM, không mất accuracy. Phân tích kỹ lý do vì sao custom kernel + GRPO + Data Recipes thay đổi cuộc chơi fine-tuning.

unslothllm-fine-tuningtriton-kernels
7 phút đọc
#482025-03-20

15 LLM Fine-Tuning Techniques Mọi Practitioner Nên Biết (LoRA, DPO, GRPO & Co.)

Từ LoRA tiết kiệm bộ nhớ tới GRPO — động cơ huấn luyện DeepSeek-R1: bản đồ 15 kỹ thuật fine-tune LLM, chia theo 4 họ, khi nào dùng cái gì, và vì sao DPO đang là default alignment 2026.

llm-fine-tuningloraqlora
8 phút đọc