// Popular Articles

#transfer-learning
#4072025-09-16

Full Fine-tuning vs Freezing Layers: Khi nào nên đông cứng W₁, W₂?

Full fine-tuning cho model nhiều quyền tự do nhất — nhưng mọi tham số cử động đều phải lưu lại. Freezing layers chấp nhận một sự thật đơn giản: phần lớn các lớp dưới chẳng cần học lại. So sánh hai chiến lược qua analogy MLP của Prof. Tom Yeh, kèm số liệu thực nghiệm 2025.

fine-tuningtransfer-learningdeep-learning
8 phút đọc