// Popular Articles

#moe-architecture
DeepSeek-V4 ra mắt: 1.6T MoE, 1M context, rẻ hơn GPT-5.5 tới 8.6 lần
#5772025-12-12

DeepSeek-V4 ra mắt: 1.6T MoE, 1M context, rẻ hơn GPT-5.5 tới 8.6 lần

DeepSeek vừa mở mã nguồn V4-Pro (1.6T total / 49B active) và V4-Flash (284B / 13B), cả hai đều có context 1 triệu token. Output token V4-Pro chỉ $3.48/M — rẻ hơn GPT-5.5 8.6× và Claude Opus 4.7 21×. Codeforces 3206, LiveCodeBench 93.5. Đã live trên API và chat.deepseek.com hôm nay.

deepseek-v4open-source-llm1m-context
7 phút đọc