// Popular Articles
8 kỹ thuật prompting để LLM trả lời tốt hơn (không cần đổi model)
Đa số người dùng LLM dừng ở zero-shot — gõ câu hỏi, nhận câu trả lời, xong. Nhưng khi output không đủ tốt, fix đầu tiên không phải nâng model mà là sửa prompt. Đây là 8 kỹ thuật prompting đáng dùng năm 2026, gồm cả ARQ (90.2% tuân thủ chỉ dẫn) và Verbalized Sampling (đa dạng tăng 2x).
The AI Paradox: Rising Investment, Lagging ROI
Phân tích dựa trên các báo cáo cập nhật tới Q1/2026, chỉ ra một nghịch lý trong làn sóng trí tuệ nhân tạo hiện nay: Dù đã đổ vào AI hàng trăm tỷ USD, phần lớn các tổ chức vẫn chưa có ROI+ một cách rõ ràng. Trong khi đó phố Wall phát đi tín hiệu đây có thể là một bubble lớn nhất lịch sử...
Tự xây Knowledge Graph cho blog bằng PHP và JSON-LD — không plugin, không API
Tutorial mới của freeCodeCamp chỉ cách dùng PHP thuần + JSON-LD để tự sinh knowledge graph cho blog: phát hiện entity, liên kết bài viết, đa ngôn ngữ — tăng khả năng được ChatGPT và Perplexity trích dẫn lên gấp 3 lần.
7 Primitives AI Agent Không Bao Giờ Cũ
Context engineering quyết định thứ gì vào model window, không phải cách viết prompt. Single-agent đánh bại multi-agent trong 64% benchmark task với chi phí thấp hơn 2x. Evals biến agent thành sản phẩm thật thay vì demo. MCP là giao thức chuẩn kết nối tool - học shape của nó, bỏ qua phần còn lại.
Claude Code 2.1.120: lệnh ultrareview cho CI và cú giảm 57% prompt tokens
Bản 2.1.120 ra sau 2.1.119 đúng 24 tiếng nhưng thay đổi rất lớn - lệnh CLI mới ultrareview chạy được trong CI, 148 file prompt bị xoá, prompt tokens giảm 57.1%, và một loạt env var mới như CLAUDE_CODE_LEAN_PROMPT lộ diện hướng đi lean-prompt.
How CNNs See Images: 16 Boxes That Cover the Entire Stack
Tensors, filters, feature maps, stride, padding, channels, pooling, receptive fields — the eight primitives behind every vision model from LeNet to Stable Diffusion. One mental model, with the math made concrete.
Aletheia: AI của Google DeepMind giải 6/10 bài toán mới và đạt 91.9% IMO-ProofBench
Aletheia, agent toán học chạy trên Gemini 3 Deep Think, vừa tự giải 6/10 bổ đề chưa từng công bố trong FirstProof và đạt 91.9% trên IMO-ProofBench Advanced — bỏ xa GPT-5.2 (35.7%). Một bước ngoặt cho automated theorem proving không cần can thiệp con người.
GPT-5.5 trên ParseBench: thắng bảng biểu, thua giá tiền — và Opus 4.7 vẫn dẫn về độ trung thực
Jerry Liu (LlamaIndex) chạy GPT-5.5 qua ParseBench — benchmark OCR doanh nghiệp 2.000 trang. Kết quả: GPT-5.5 đạt 67.76% overall, top tables ở 90.05%, nhưng visual grounding chỉ 36.28% và chi phí 13.09¢/trang — gấp 5 lần các giải pháp OCR cạnh tranh. Opus 4.7 vẫn thắng overall ở content faithfulness và semantic formatting.
DeepSeek-V4 ra mắt: 1M token context với 10% KV cache và 27% FLOPs của V3.2
DeepSeek-V4 Preview (24/04/2026) đem long-context 1 triệu token từ tính năng cao cấp xuống mặc định: V4-Pro chạy ở 27% FLOPs và 10% KV cache so với V3.2, V4-Flash còn 10% FLOPs và 7% KV cache. Bí mật là kiến trúc attention lai CSA + HCA — nén và sparse cùng lúc.
DeepSeek V4 lộ diện: 1.6 nghìn tỷ tham số, context 1M token, rẻ hơn GPT-5.5 gấp 7 lần
Sau 14 tháng chờ đợi, DeepSeek V4 Preview chính thức ra mắt 24/04/2026 với hai biến thể MoE (Pro 1.6T / Flash 284B), context 1M token mặc định, MIT license — và giá API chỉ bằng 1/7 của Claude Opus 4.7 và GPT-5.5.