Gemma 4登場 — Googleのオープンモデルが256Kコンテキスト&Arena AI世界3位を叩き出した理由

Gemma 4 イラスト

2026年4月2日、Google DeepMindがGemma 4をリリースした。オープンウェイトモデルのGemmaファミリーとしては史上最強のアップデートだ。

4つのモデル構成

  • Effective 2B / 4B — スマホ&エッジデバイス向け。テキスト・画像・動画+ネイティブ音声入力に対応
  • 26B MoE (Mixture of Experts) — 推論効率と精度のバランス型
  • 31B Dense — Arena AI Elo 1452でオープンモデル世界3位。AIME 2026で89.2%、LiveCodeBench v6で80.0%

何がすごいのか

1. Apache 2.0ライセンス
Gemma史上最も緩いライセンス。商用利用も自由。これが一番大きい。

2. 256Kコンテキストウィンドウ
大型モデル2つが256,000トークンに対応。本丸をまるごと放り込めるレベル。

3. マルチモーダル標準装備
全モデルがテキスト・画像・動画を処理。エッジモデルは音声入力にも対応。これ1つでチャットも画像認識も音声処理もこなす。

4. デイワン対応が半端ない
Hugging Face、Ollama、vLLM、llama.cpp、MLX、LM Studio、NVIDIA NIM、Android Studio……主要プラットフォーム全部対応。ollama run gemma4:27b 一発で動く。

何を意味するか

オープンモデルの品質がクローズドモデルに追いつきつつある。31B DenseのArena AIスコア1452は、一部の商用モデルを上回る。それでいてApache 2.0で自由に使える。

特にエッジモデルの2B/4Bがマルチモーダル+音声入力に対応しているのは、スマホ上で動くAIアシスタントの現実味を一気に高めた。GoogleはAndroid Studioでの対応も明記しているし、Pixel端末での活用も時間の問題だろう。

オープンかつ強力、そしてどこでも動く。 Gemma 4は、AIの民主化がスローガンから現実になった瞬間かもしれない。

参照: Google DeepMind Gemma公式, AI Tools Recap April 2026