
2026年4月2日、Google DeepMindがGemma 4をリリースした。オープンウェイトモデルのGemmaファミリーとしては史上最強のアップデートだ。
4つのモデル構成
- Effective 2B / 4B — スマホ&エッジデバイス向け。テキスト・画像・動画+ネイティブ音声入力に対応
- 26B MoE (Mixture of Experts) — 推論効率と精度のバランス型
- 31B Dense — Arena AI Elo 1452でオープンモデル世界3位。AIME 2026で89.2%、LiveCodeBench v6で80.0%
何がすごいのか
1. Apache 2.0ライセンス
Gemma史上最も緩いライセンス。商用利用も自由。これが一番大きい。
2. 256Kコンテキストウィンドウ
大型モデル2つが256,000トークンに対応。本丸をまるごと放り込めるレベル。
3. マルチモーダル標準装備
全モデルがテキスト・画像・動画を処理。エッジモデルは音声入力にも対応。これ1つでチャットも画像認識も音声処理もこなす。
4. デイワン対応が半端ない
Hugging Face、Ollama、vLLM、llama.cpp、MLX、LM Studio、NVIDIA NIM、Android Studio……主要プラットフォーム全部対応。ollama run gemma4:27b 一発で動く。
何を意味するか
オープンモデルの品質がクローズドモデルに追いつきつつある。31B DenseのArena AIスコア1452は、一部の商用モデルを上回る。それでいてApache 2.0で自由に使える。
特にエッジモデルの2B/4Bがマルチモーダル+音声入力に対応しているのは、スマホ上で動くAIアシスタントの現実味を一気に高めた。GoogleはAndroid Studioでの対応も明記しているし、Pixel端末での活用も時間の問題だろう。
オープンかつ強力、そしてどこでも動く。 Gemma 4は、AIの民主化がスローガンから現実になった瞬間かもしれない。