// Popular Articles
AI Agent pops a root shell on Ubuntu 26.04 — on day one
DarkNavy says its multi-agent AI Argusee landed a root shell on Ubuntu 26.04 LTS within 24 hours of release. Here is what is real, what is unconfirmed, and why every defender should care.
claude-red: 38 Skill Tấn Công Biến Claude Thành Red Team Operator
SnailSploit phát hành claude-red — thư viện 38 SKILL.md drop-in cho Claude, từ SQLi đến shellcode, EDR evasion đến exploit dev. Đây là cách nó hoạt động và khác gì với red-run, transilience.
Vibe Coding Pro Hack: 3 prompts Cursor review workflow bắt 90% lỗi trước khi giao client
Một dev chia sẻ workflow review code với Cursor chỉ gồm 3 prompts (Security, Performance, Code Quality) chạy với @codebase trước mỗi lần delivery. Đơn giản, deterministic output (file + line + severity + fix), bù được những gap mà prompt mặc định của Cursor bỏ sót như IDOR, CORS wildcard, rate limiting trên auth endpoints. Bài này phân tích từng prompt, đối chiếu với prompt official của Cursor, và những giới hạn cần biết trước khi tin 100%.
RedAI: Terminal workbench biến AI security từ "đoán" thành "chứng minh"
RedAI không dừng ở việc flag code trông có vẻ vulnerable. Validator agent lao thẳng vào Chrome thật, iOS Simulator thật, click UI, viết PoC, chụp screenshot — chỉ confirmed finding mới lên report. OSS, MIT, chạy trên Bun.
GPT-5.4 vừa giúp đập thủng Same-Origin Policy của Safari
Ron Masas (Imperva) dùng GPT-5.4 — truy cập qua chương trình Trusted Access for Cyber của OpenAI — để ghép hai lỗi Safari tưởng như vô hại thành một exploit chain đánh bại hoàn toàn Same-Origin Policy trên mọi thiết bị Apple. CVE-2026-20664 đã được vá trong iOS/macOS 26.4.
Vercel đào gần 1 petabyte log: threat actor săn API keys bằng malware, xâm nhập vượt xa vụ Context.ai
CEO Guillermo Rauch công bố kết quả điều tra sâu: gần 1 PB log Vercel Network và API được xử lý, hé lộ threat actor đã hoạt động từ trước vụ Context.ai — dùng malware phát tán để cướp API keys rồi enumerate non-sensitive env vars với tốc độ cao.
OWASP công bố APTS: Bộ guardrail đầu tiên cho autonomous pentesting
OWASP vừa ra mắt Autonomous Penetration Testing Standard (APTS) v0.1.0 — không phải methodology, mà là control layer với 173 yêu cầu qua 8 domain, kill switch 5 giây, và kiến trúc coi agent runtime như thành phần không đáng tin. Đây là guardrail mà ngành AI-driven testing đang cần.
Dưới 20 phút, dưới $2: Dreadnode + Kimi K2.6 tìm ra lỗ TLS high-severity trong Azure Cosmos DB
Dreadnode chạy SAST trên binary Azure Cosmos DB lấy từ Microsoft Container Registry bằng .NET reversing agent dùng Kimi K2.6. 19 phút 26 giây, $1.97, ra 1 lỗ tautological trong TLS certificate validation — managed identity token có thể bị MITM.
Agent Vault: Infisical vá lỗ hổng credential của AI agent bằng một proxy duy nhất
Infisical vừa ra mắt Agent Vault — credential broker open-source cho AI agent. Thay vì đưa secret cho agent, nó chặn HTTPS và bơm credential ở lớp network. Claude Code, Cursor, Codex dùng được ngay với lệnh `agent-vault run -- claude`.
Mô hình AI nguy hiểm nhất của Anthropic vừa bị truy cập trái phép qua credentials của nhà thầu
Anthropic xác nhận một nhóm người dùng trái phép đã truy cập Claude Mythos — mô hình mạnh nhất công ty từng huấn luyện, có khả năng tự tìm và khai thác zero-day đến mức Anthropic từ chối phát hành công khai. Lỗ hổng đến từ credentials của một nhân viên nhà thầu bên thứ ba.
CrowdStrike ra mắt Shadow AI Visibility Service: soi mọi công cụ AI nhân viên đang dùng chui
CrowdStrike vừa công bố tại RSAC 2026 dịch vụ Shadow AI Visibility Service — tự động phát hiện AI tools, agents, LLM runtimes, MCP servers trên endpoint, cloud và SaaS. Con số giật mình: 45% nhân viên dùng AI không báo sếp, 1.800+ ứng dụng AI, 160 triệu instance được phát hiện trên thiết bị doanh nghiệp.
Maximal Brain Damage: 2 Bit-Flips Can Wipe Out ResNet-50 and Qwen3-30B
Researchers from NVIDIA, Technion and IBM introduce Deep Neural Lesion (DNL) — a data-free, optimization-free attack that flips just 1–2 sign bits to drop ResNet-50 accuracy by 99.8% and crush Qwen3-30B reasoning from 78% to 0%.
CVE-2026-32173: Lỗ hổng $20,000 cho phép nghe lén chat AI agent của Azure
Một nhà nghiên cứu phát hiện ra có thể subscribe vào SignalR hub của Azure SRE Agent và đọc toàn bộ chat stream của tenant khác — LLM thinking, tool calls, shell commands. Auth check có, nhưng sai chỗ. CVSS 8.6, bounty $20,000, Microsoft đã patch.
OASIS: Quét bảo mật code bằng AI chạy local với Ollama
OASIS là công cụ audit bảo mật mã nguồn mở dùng LLM qua Ollama — scan 15 loại lỗ hổng (SQLi, XSS, RCE, SSRF...), kiến trúc hai pha + adaptive multi-level, hoàn toàn chạy local, không gửi code lên cloud.
Google's 1MB AI Model Reads Files Like an X-Ray — And Catches Malware That Fakes Its Extension
Magika is Google's open-source file-type detector. A 1MB deep-learning model, rewritten in Rust, classifies 200+ file types in ~5ms on a single CPU — and it already runs inside Gmail, Drive, Safe Browsing, and VirusTotal.
AgentShield: Scanner bảo mật đầu tiên chuyên cho AI coding agent — 102 rules, grade A–F, tích hợp Opus 4.6 red-team
AgentShield là CLI open-source quét .claude/ directory, phát hiện hardcoded secrets, prompt injection, hook abuse, MCP supply-chain risk và permission misconfig. 102 rules chia 5 nhóm, xuất báo cáo grade A–F kèm pipeline red-team/blue-team/auditor chạy trên Claude Opus 4.6. Miễn phí CLI + GitHub Action (MIT), Pro tier $19/seat/month.
Google DeepMind vạch trần 6 'bẫy' hijack AI Agent — và tại sao phòng thủ đang thất bại
Paper 'AI Agent Traps' của DeepMind là taxonomy đầu tiên về attack surface của AI agent: từ steganography trong pixel, RAG poisoning >80% với <0.1% dữ liệu nhiễm, đến detection asymmetry — website biết bạn là agent và phục vụ nội dung khác hoàn toàn.
AI OSINT: Bộ công cụ recon phơi bày 175.000 server AI đang hở cửa
7WaySecurity vừa công khai ai_osint — kho dorks, Shodan/Censys query và Sigma rules để tìm LLM endpoint, vector DB và MCP server bị phơi bày trên Internet. Những con số đi kèm đủ khiến bất kỳ đội bảo mật nào phải xem lại attack surface của mình.
PentestGPT v1.0: AI tự pentest đạt 86.5% benchmark, giá $0.42/target
PentestGPT — framework pentest tự động bằng LLM từ nhóm NTU Singapore — ra v1.0 cuối 2025 với 86.5% success rate trên XBOW benchmark, median cost $0.42 và 3.3 phút/target. Đã đoạt Distinguished Artifact tại USENIX Security 24 và gom 12.7k sao GitHub. AI chính thức bước vào offensive security.
LLM Anonymization: dùng Claude Code cho pentest mà không leak data khách hàng
Reverse proxy mã nguồn mở đặt giữa Claude Code và Anthropic, ẩn danh IP, hash, credential, hostname trước khi gửi đi, rồi phục hồi data thật local. Dual-layer Ollama LLM + regex, per-engagement vault, 0% leak trên 645+ test items.