// Popular Articles

#neural-networks
#7162026-02-19

How CNNs See Images: 16 Boxes That Cover the Entire Stack

Tensors, filters, feature maps, stride, padding, channels, pooling, receptive fields — the eight primitives behind every vision model from LeNet to Stable Diffusion. One mental model, with the math made concrete.

cnndeep-learningcomputer-vision
8 phút đọc
#4072025-09-16

Full Fine-tuning vs Freezing Layers: Khi nào nên đông cứng W₁, W₂?

Full fine-tuning cho model nhiều quyền tự do nhất — nhưng mọi tham số cử động đều phải lưu lại. Freezing layers chấp nhận một sự thật đơn giản: phần lớn các lớp dưới chẳng cần học lại. So sánh hai chiến lược qua analogy MLP của Prof. Tom Yeh, kèm số liệu thực nghiệm 2025.

fine-tuningtransfer-learningdeep-learning
8 phút đọc