// Popular Articles
How CNNs See Images: 16 Boxes That Cover the Entire Stack
Tensors, filters, feature maps, stride, padding, channels, pooling, receptive fields — the eight primitives behind every vision model from LeNet to Stable Diffusion. One mental model, with the math made concrete.
Full Fine-tuning vs Freezing Layers: Khi nào nên đông cứng W₁, W₂?
Full fine-tuning cho model nhiều quyền tự do nhất — nhưng mọi tham số cử động đều phải lưu lại. Freezing layers chấp nhận một sự thật đơn giản: phần lớn các lớp dưới chẳng cần học lại. So sánh hai chiến lược qua analogy MLP của Prof. Tom Yeh, kèm số liệu thực nghiệm 2025.