// Popular Articles

#iclr-2026
Stackelberg PPO: robot tự mọc tay để đẩy, mọc chân để đi — chỉ với 1 reward duy nhất
#7602026-03-10

Stackelberg PPO: robot tự mọc tay để đẩy, mọc chân để đi — chỉ với 1 reward duy nhất

Schmidhuber và team KAUST/IDSIA biến co-design body+brain của robot thành một game leader-follower. Kết quả: robot tự tiến hoá thành tay đẩy hộp, chân di chuyển — vượt SoTA 20.66% trung bình, 32.02% trên task 3D phức tạp, dùng ít hơn 39% sample. Paper poster ICLR 2026 ngày 25/04.

stackelberg-ppomorphology-control-co-designiclr-2026
6 phút đọc
#6992026-02-11

Tether Evo mang 4 paper BCI lên ICLR 2026: Whisper đọc ECoG, fMRI dịch ảnh tưởng tượng

Nhánh R&D của hãng phát hành USDT mang 4 nghiên cứu Brain-Computer Interface tới ICLR Re-Align Workshop ở Rio — từ ánh xạ Whisper sang ECoG đến giải mã hình ảnh tưởng tượng qua fMRI, và BrainWhisperer 99.4% accuracy.

tether-evobrain-computer-interfaceiclr-2026
7 phút đọc
Sapiens2: Meta vừa thả ViT backbone human-vision chất lượng cao nhất trong public domain
#6322026-01-08

Sapiens2: Meta vừa thả ViT backbone human-vision chất lượng cao nhất trong public domain

Meta công bố Sapiens2 tại ICLR 2026 — model ViT 0.1B–5B params, resolution 1K/4K, pretrained trên 750M ảnh người. Cộng đồng gọi đây là 'first public release by a large lab that is non-trivial to replicate'. Pose +4 mAP, body-part seg +24.3 mIoU, normal error giảm 45.6%.

sapiens2meta-aivision-transformer
7 phút đọc
IceCache: giữ KV-cache GPU gần như hằng số cho long-context LLM, giữ 99% accuracy với 256 token budget
#5092025-11-06

IceCache: giữ KV-cache GPU gần như hằng số cho long-context LLM, giữ 99% accuracy với 256 token budget

IceCache (ICLR 2026) group token theo ngữ nghĩa qua DCI-tree rồi offload sang CPU, chỉ giữ top-k page trên GPU. Kết quả: 99% accuracy full-cache ở budget 256 token, ngang hoặc vượt 6 SOTA baseline với 25% KV budget.

icecachekv-cachelong-context-llm
7 phút đọc
ReasoningBank: Google dạy AI agent học từ cả thành công lẫn thất bại — success rate tăng +34.2%
#3742025-08-31

ReasoningBank: Google dạy AI agent học từ cả thành công lẫn thất bại — success rate tăng +34.2%

Google Cloud AI Research vừa công bố ReasoningBank — một memory framework cho LLM agent, chuyển trải nghiệm (bao gồm cả lỗi) thành chiến lược tái sử dụng được. Kết quả: +8.3 điểm success rate trên WebArena, -16% interaction steps, mở ra một chiều scaling mới cho AI agent.

reasoningbankgoogle-researchai-agents
8 phút đọc
Sakana AI's AC/DC: 8 small LLMs beat a 72B model by coevolving with their own tasks
#3442025-08-16

Sakana AI's AC/DC: 8 small LLMs beat a 72B model by coevolving with their own tasks

AC/DC coevolves a population of LLMs with an archive of AI-generated tasks. A task force of 8 small evolved models beats a 72B baseline and closes the GPT-4o best-of-N gap from -3.17 to -1.02. Sakana's new ICLR 2026 paper argues collective intelligence beats monolithic scaling.

sakana-aiac-dcevolutionary-model-merging
6 phút đọc