// Popular Articles
Gemma 4 26B A4B: con quái vật mã nguồn mở Google vừa thả ra cho máy tính cá nhân
Google DeepMind vừa phát hành Gemma 4 — bộ 4 mô hình mở dưới giấy phép Apache 2.0. Phiên bản 26B A4B dùng kiến trúc Mixture-of-Experts: 25.2 tỷ tham số tổng nhưng chỉ kích hoạt 3.8 tỷ mỗi token, đạt ELO 1441 trên Arena AI (top 6 mô hình mở thế giới), context 256K, đa phương thức text + ảnh + video, hỗ trợ 140+ ngôn ngữ. Quan trọng nhất: chạy gọn trên MacBook M4 Max hoặc RTX consumer với 16-18GB RAM ở quant 4-bit.
Aletheia: AI của Google DeepMind giải 6/10 bài toán mới và đạt 91.9% IMO-ProofBench
Aletheia, agent toán học chạy trên Gemini 3 Deep Think, vừa tự giải 6/10 bổ đề chưa từng công bố trong FirstProof và đạt 91.9% trên IMO-ProofBench Advanced — bỏ xa GPT-5.2 (35.7%). Một bước ngoặt cho automated theorem proving không cần can thiệp con người.
Vision Banana: Google DeepMind biến Nano Banana Pro thành mô hình thị giác đa năng đánh bại SAM 3 và Depth Anything
Bằng cách quy mọi tác vụ dense vision về một bài toán duy nhất — sinh ảnh RGB — nhóm Google DeepMind fine-tune Nano Banana Pro thành Vision Banana, một mô hình đa nhiệm đạt SOTA trên depth, normals và segmentation, vượt mặt cả SAM 3 và Depth Anything mà vẫn giữ nguyên khả năng tạo ảnh.
Vision Banana: Google DeepMind biến image generation thành nền tảng mới cho Computer Vision
Google DeepMind vừa công bố Vision Banana — một model unified được fine-tune nhẹ từ Nano Banana Pro, giải mọi bài toán vision (segmentation, depth, surface normal) bằng cách coi chúng là bài toán sinh ảnh. Và nó vượt qua cả Segment Anything lẫn Depth Anything.
Gemini Embedding 2 lên GA: một vector space cho text, ảnh, video, audio và PDF
Google vừa đưa Gemini Embedding 2 lên general availability trên Gemini API và Vertex AI. Đây là embedding model natively multimodal đầu tiên của Google — cho phép gộp text, ảnh, video, audio, PDF vào cùng một không gian vector 3072 chiều. MTEB English 68.32 (+5.09 biên), MTEB Code 84.0, dẫn đầu video retrieval.
Gemini API ra mắt Deep Research Max: 93.3% DeepSearchQA, hỗ trợ MCP và tự sinh biểu đồ
Google vừa bổ sung hai biến thể mới cho Deep Research trong Gemini API — bản tốc độ và bản Max dùng extended test-time compute — cùng MCP, native chart và File Search. Max đạt 93.3% DeepSearchQA và 54.6% HLE.
Google ra mắt Deep Research và Deep Research Max: agent nghiên cứu tự hành chạy trên Gemini 3.1 Pro
Google DeepMind công bố hai agent nghiên cứu tự hành — Deep Research và Deep Research Max — chạy trên Gemini 3.1 Pro. Chúng tự lên kế hoạch, duyệt web, đọc tài liệu nội bộ và xuất báo cáo trích dẫn đầy đủ, sẵn sàng cho due diligence, phân tích cạnh tranh và nghiên cứu tài chính chuyên sâu.
Gemma 4 26B A4B: 10+ instances chạy song song trên MacBook Pro M4 Max
Google DeepMind open-source demo chạy 10+ Gemma 4 26B A4B song song trên một MacBook Pro M4 Max, mỗi instance giữ 18 tok/s. Đây là bằng chứng sống cho kiến trúc MoE 3.8B active/25.2B total — ~180 tok/s aggregate chỉ trên một máy laptop.
24GB VRAM là đủ: Gemma 4 31B Dense tự build một hero section trên laptop trong 5 phút
Gemma 4 31B Dense chạy local trên RTX 5090 laptop 24GB, q4_k_m, 15 tok/s, 94W — và nó tự viết xong một production hero section chỉ trong 5 phút. Đây là lúc 'AI coding không subscription' trở thành thực tế trên máy cá nhân.
Gemma 4: mô hình mở 31B của Google đánh bại đối thủ 400B và chạy offline trên điện thoại
Google DeepMind ra Gemma 4 ngày 2/4/2026 dưới giấy phép Apache 2.0. Bản 31B Dense đạt 89,2% AIME 2026, 80% LiveCodeBench v6, Elo 1452 trên Arena AI và đứng #3 bảng xếp hạng open model — trong khi bản E2B chạy offline trên Raspberry Pi, điện thoại với context 256k cho các dòng MoE/Dense.
Google DeepMind vạch trần 6 'bẫy' hijack AI Agent — và tại sao phòng thủ đang thất bại
Paper 'AI Agent Traps' của DeepMind là taxonomy đầu tiên về attack surface của AI agent: từ steganography trong pixel, RAG poisoning >80% với <0.1% dữ liệu nhiễm, đến detection asymmetry — website biết bạn là agent và phục vụ nội dung khác hoàn toàn.
Gemma 4 chạy offline trên iPhone: 1.5GB, không cần mạng, không cần cloud
Google vừa đưa Gemma 4 E2B và E4B — mô hình mở đa phương tiện — xuống iPhone. Tải ~1.5 GB là xong, chat–nhìn ảnh–nghe giọng hoàn toàn offline. Đây là cái nhìn kỹ thuật và trải nghiệm thực tế.
Google công bố Flow Music: công cụ tạo nhạc AI chạy trên Lyria 3 Pro, dựng trên ProducerAI vừa thâu tóm
Google chính thức giới thiệu Flow Music — studio nhạc AI dùng model Lyria 3 Pro mới nhất và đặt trên nền ProducerAI (tên cũ Riffusion) mà Google mua lại hồi tháng 2. Điểm đáng chú ý: track dài tới 3 phút, kiểm soát theo intro/verse/chorus/bridge, vocals đa ngôn ngữ, mọi output đều gắn watermark SynthID.
Gemma 4 trên MLX trong Ollama: nhanh hơn rõ rệt, con số thật là bao nhiêu?
Một tweet của @thinkverse tóm gọn trend đang nóng trong cộng đồng Apple Silicon: Gemma 4 chạy qua MLX trong Ollama nhanh hơn hẳn trước. Dưới đây là con số thật, bối cảnh Ollama 0.19 + MLX backend, và tại sao Mac 32GB+ đang trở thành máy local-LLM mạnh nhất hiện tại.
Gemma 4 26B A4B và 31B đã có mặt trên Mac qua LocallyAI: hai model open-source mạnh nhất chạy offline trên Apple Silicon
LocallyAI vừa thêm Gemma 4 26B A4B (MoE, 4B active params, ~150 token/s) và 31B Dense (top-3 open model trên Arena AI) vào app Mac. Đây là hai model lớn nhất, thông minh nhất mà bạn có thể chạy 100% offline trên Apple Silicon — Apache 2.0, 256K context, agentic-ready, không cần internet.