// Popular Articles
Hermes Agent v0.11.0: Bản cập nhật lớn nhất với 761 PR, TUI React/Ink mới và 17 messaging platform
Nous Research tung Hermes Agent v0.11.0 ngày 23/4/2026 — 761 PR, 1.556 commits, rewrite toàn bộ TUI bằng React/Ink, thêm native AWS Bedrock, 5 inference path mới, QQBot là platform thứ 17, plugin surface mở rộng, /steer mid-run nudges, GPT-5.5 qua Codex OAuth.
Mozilla ra mắt Thunderbolt — AI client mã nguồn mở chạy trên hạ tầng của chính bạn
MZLA Technologies (công ty con của Mozilla, đứng sau Thunderbird) vừa công bố Thunderbolt: một AI client mã nguồn mở MPL-2.0 cho doanh nghiệp, tự host bằng Docker hoặc Kubernetes, tự chọn model (Anthropic, OpenAI, Mistral, Ollama, llama.cpp), và giữ toàn bộ dữ liệu trong vành đai công ty.
DeepSeek vừa public TileKernels — lớp kernel mà Google, NVIDIA, Meta không bao giờ hé lộ
Ngày 24/04/2026, DeepSeek đẩy thẳng lên GitHub một thư viện kernel GPU viết bằng Python (TileLang), chạy sát silicon limit trên Hopper và Blackwell. Không CUDA C++, không CUTLASS — chỉ FP8/FP4 quantization per-channel, MoE routing fused, và mega-kernel overlapping NVLink. Đây là lớp quyết định performance thật sự của AI.
Hermes Agent v0.11.0: Nous Research ships biggest update yet with 761 PRs, TUI v2, and QQBot
Nous Research just dropped Hermes Agent v0.11.0 — 1,556 commits, 761 merged PRs, a full React/Ink TUI rewrite, 5 new LLM providers, GPT-5.5 via Codex OAuth, and QQBot as the 17th messaging platform. The self-improving open-source agent doubles down on extensibility.
MultiWorld — Video World Model đầu tiên sinh video đa agent, đa góc nhìn
Nhóm HKU & Sreal AI công bố MultiWorld — framework open-source sinh video có thể điều khiển nhiều agent cùng lúc, nhất quán qua nhiều camera. Dataset 21M+ frame, đã có checkpoint + code ngày 21/4/2026.
Unsloth Studio chạy 2-bit Qwen3.6-27B trên 12GB RAM — triage 15 GitHub issue, gọi 26 tool call local
Bản GGUF 2-bit của Qwen3.6-27B vừa được Unsloth demo: 26 tool call, triage 15 GitHub issue kèm fix, repro 3 bug mới nhất trong repo — tất cả local với 12GB RAM. Studio cũng được làm mới UI với Data Recipes, Model Arena và sandbox code execution kiểu Claude Artifacts.
OpenGame: 1 câu prompt, ra nguyên project game web chơi được luôn
CUHK MMLab vừa mở mã OpenGame — framework agentic đầu tiên biến 1 câu mô tả thành project game web đầy đủ engine, real-time loop và state xuyên file. Ăn đứt Cursor + Claude Sonnet 4.6 trên benchmark 150 prompt. GameCoder-27B open-weights đi kèm đã vượt GPT-5.1 và Gemini 3.1 Pro ở hai chỉ số chính.
Cognee: xây agent không bao giờ quên với knowledge graph + embeddings
Cognee biến text thô thành knowledge graph có embedding trên mỗi node. Retrieval chạy đồng thời qua similarity và relationship — vượt RAG truyền thống ở bài benchmark multi-hop HotPotQA (0.93 vs 0.40 correctness). Apache 2.0, 16.7k+ sao GitHub, vừa gọi $7.5M seed.
NVIDIA Kimodo: Mô hình diffusion biến câu lệnh text thành chuyển động cho robot hình người
Kimodo là motion diffusion model open-source của NVIDIA Research, huấn luyện trên 700 giờ mocap chuyên nghiệp, sinh chuyển động 3D cho người và robot Unitree G1 từ prompt text + kinematic constraints trong 2–5 giây trên một GPU.
ERNIE-Image: Baidu mở mã nguồn mô hình text-to-image 8B chạy trên 1 GPU 24GB, đè cả FLUX.2 ở khả năng render chữ
Baidu vừa đưa ERNIE-Image lên ERNIE Bot và mở mã nguồn dưới Apache 2.0. Mô hình 8B DiT này dẫn đầu open-weights ở GenEval, OneIG và LongTextBench, render chữ tiếng Anh và tiếng Trung sắc nét trong cùng một lần inference, chạy đủ trên một consumer GPU 24GB và đã được 50+ nền tảng sáng tạo tích hợp.
Ai2 mở toàn bộ WildDet3D: phát hiện 3D từ 1 tấm ảnh duy nhất, dataset 1 triệu ảnh, nhanh gấp 10 lần
Allen Institute for AI vừa release đầy đủ training + inference code của WildDet3D — model monocular 3D detection 1.2B params, đánh bại mọi baseline trên Omni3D (34.2 AP text, 36.4 AP box), xử lý 13.499 category ngoài đời thực chỉ với 12 epoch thay vì 80–120 như trước.
ml-intern: Hugging Face vừa ra con agent tự train model từ 1 dòng prompt — đập Claude Code 10 điểm GPQA
Hugging Face vừa open-source ml-intern: agent đọc paper, đi theo citation graph, kéo dataset, viết script, chạy training trên A100, tự diagnose khi reward collapse. Từ Qwen3-1.7B nâng GPQA 10% → 32% trong <10 giờ — Claude Code best chỉ 22.99%. Beat Codex trên HealthBench 60% bằng synthetic data nó tự sinh.
Intel tung 3 phiên bản Wan2.2 INT4 AutoRound: kéo video generator 27B về GPU đơn
Intel vừa public 3 checkpoint Wan2.2 (TI2V-5B, T2V-A14B, I2V-A14B) lượng tử hoá INT4 bằng AutoRound trên Hugging Face. Weights co lại ~4 lần, mở đường chạy model video 27B MoE của Alibaba trên một GPU duy nhất thay vì cần A100/H100.
IronClaw v0.26: RLM engine v2 đã ổn định, multi-tenancy biến nó thành "claw" duy nhất dùng được cho team
NEAR AI vừa ship IronClaw v0.26 (21/04/2026): self-improving RLM engine v2 đã stable sau 1 tuần hardening, cộng với lớp multi-tenancy WASM-isolation — biến IronClaw thành trợ lý AI cá nhân mã nguồn mở duy nhất có thể share an toàn cho cả team hoặc enterprise.
MegaStyle: Tencent mở mã nguồn 'khoảnh khắc ImageNet' cho style transfer
Tencent vừa công bố trọn bộ code, dataset 1.4M ảnh và hai pretrained model cho MegaStyle — hệ thống style transfer dựa trên FLUX vượt 7 baseline SOTA, đưa style transfer đến cột mốc quy mô giống ImageNet ngày xưa.
Thunderbolt: Đội Thunderbird vừa mở mã nguồn AI client tự host — chọn model, giữ data
MZLA (đội Thunderbird) ngày 16/04/2026 ra mắt Thunderbolt — AI client nguồn mở MPL 2.0, chạy cloud hay Ollama tùy chọn, deploy Docker/Kubernetes, có đủ app web + iOS + Android + Mac + Linux + Windows. Mục tiêu: Firefox-vs-IE moment cho thị trường AI enterprise.
Cognee: open-source memory layer đưa AI agents thoát khỏi 'mất trí' sau mỗi session
Cognee thay RAG bằng pipeline ECL (Extract, Cognify, Load) + Memify, biến dữ liệu thành knowledge graph lai vector — chạy trong 6 dòng code, đạt ~90% accuracy so với ~60% của RAG, vừa gọi $7.5M seed.
NVIDIA open-sources UniRelight: relight any video AND extract albedo in one pass
NVIDIA Toronto AI Lab just dropped the code and 7B weights for UniRelight — a DiT video diffusion model that jointly predicts a relit video and its albedo from a single environment map. In user studies it beats DiffusionRenderer 96% and NeuralGaffer 84%.