// Popular Articles
FalkorDB: Graph database build riêng cho LLM, nhanh gấp 496 lần Neo4j
Hầu hết LLM app đang chạy trên flat database. FalkorDB đảo lại bài toán bằng sparse adjacency matrix + GraphBLAS — biến graph traversal thành phép nhân ma trận, kéo P50 latency từ 469ms xuống 36ms và mở đường cho GraphRAG sub-10ms.
Weaviate Engram: Agent Memory That Maintains Itself
Dumping conversations into a vector DB isn't memory — it's expensive storage with a search bar. Weaviate's new Engram service runs async pipelines that extract, reconcile, deduplicate, and update agent memory the way a real database should.
Claude Managed Agents có Memory: agent giờ học được qua nhiều session
Anthropic vừa đưa built-in memory cho Claude Managed Agents lên public beta (23/04/2026). Agent không còn khởi động với context rỗng mỗi lần — memory stores mount như thư mục /mnt/memory/ giúp agent nhớ user preferences, project conventions và domain knowledge qua nhiều session. Tối đa 8 stores/session, 100KB/memory, versioning immutable 30 ngày, có redact cho compliance.
ReasoningBank: Google dạy AI agent học từ cả thành công lẫn thất bại — success rate tăng +34.2%
Google Cloud AI Research vừa công bố ReasoningBank — một memory framework cho LLM agent, chuyển trải nghiệm (bao gồm cả lỗi) thành chiến lược tái sử dụng được. Kết quả: +8.3 điểm success rate trên WebArena, -16% interaction steps, mở ra một chiều scaling mới cho AI agent.
Agent Memory Engineering: Tại sao memory không thể copy giữa Claude Code, Codex và Hermes
Memory là điểm hợp nhất giữa model và harness - không phải chỉ là dữ liệu. Claude Code, Codex (OpenAI) và Hermes (Nous Research) dùng ba kiến trúc hoàn toàn khác nhau, khiến memory không thể chuyển giữa các agent chỉ bằng cách copy file. Vector database đã thua - người thắng là “ LLM + markdown + filesystem tools “