#5892025-12-18
DeepSeek V4 ra mắt: MoE 1.6T mã nguồn mở, context 1 triệu token, output rẻ hơn GPT-5.5 tới 8.6 lần
Ngày 24/04/2026, DeepSeek tung bản preview V4 — hai biến thể MoE (Pro 1.6T/49B active và Flash 284B/13B active), cùng context 1M token tiêu chuẩn, đè bẹp Claude Sonnet 4.5 trong agentic coding và bán API rẻ hơn GPT-5.5 tới 8.6 lần.