// Popular Articles
BitNet 1.58-bit: Microsoft chạy LLM 100B trên 1 CPU, không nhân số thực
Microsoft huấn luyện LLM với trọng số ternary {-1, 0, 1} từ đầu — ma trận nhân biến thành cộng/trừ/bỏ qua trên số nguyên. Kết quả: 2B4T nhỏ 0.4GB, nhanh 29ms/token CPU, tốn 0.028J/token, và bitnet.cpp có thể vận hành mô hình 100B trên 1 CPU ở tốc độ 5–7 token/giây. Đây không phải nén mô hình, đây là đổi nguyên lý tính toán.
SAM-3 Lite-Text lands in Transformers: 88% smaller text encoder, same segmentation quality
Hugging Face Transformers now supports SAM-3 Lite-Text — a distilled MobileCLIP student that replaces SAM-3's heavy CLIP ViT-L/14 text encoder, cutting parameters from 353.72M to 42.54M while keeping vision-language segmentation quality intact.
Liquid AI's car-cockpit voice assistant runs fully offline on a laptop — two tiny models, zero cloud
A 1.5B audio model (LFM2.5-Audio) and a 1.2B tool-calling model (LFM2-1.2B-Tool) drive a real-time, voice-controlled car cockpit demo entirely on-device. No internet, no API keys, no cloud. Here's what's actually inside.
PicoClaw: AI Assistant đầy đủ chạy trên phần cứng $10, tốn chưa tới 10MB RAM
Sipeed vừa open-source PicoClaw — một AI assistant viết bằng Go, chạy single binary dưới 10MB RAM, boot <1 giây trên board RISC-V $9.9. 99% nhỏ hơn OpenClaw, 98% rẻ hơn Mac mini, và 95% code do AI tự viết.