
2025/12/19 3:26
FunctionGemma 270M Model
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
FunctionGemmaは、スマートフォンやNVIDIA Jetson Nanoなどのエッジデバイスで動作するGoogleの270MパラメータGemma 3モデルの軽量版で、関数呼び出しを行う変種です。「Mobile Actions」に合わせて微調整されており、精度が85%(従来58%)に向上しています。Gemmaの256k語彙表を使用して、多言語でJSON形式のコマンドを効率的にトークン化します。このモデルは構造化された関数呼び出しを生成し、対応するツールを実行した後、結果を自然言語で要約できます。Hugging Face Transformers、Unsloth、Keras、NVIDIA NeMoなどの人気微調整フレームワークと、LiteRT‑LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI、LM Studioなどのデプロイメントツールに対応しています。FunctionGemmaは、スマートホーム制御、メディア再生、ナビゲーション、オフラインモバイルアシスタントなど、ローカルで低レイテンシー実行を必要とするAPI駆動型アプリケーションに最適です。デモとしては、完全にローカルで動作する音声制御TinyGardenゲームや、Google AI Edge Galleryがホストするインタラクティブデモと開発者向けチャレンジがあります。開発者はHugging FaceまたはKaggleからモデルをダウンロードし、更に微調整してオンデバイスで展開できます。より複雑なリクエストには、Gemma 3 27Bの大規模モデルへ呼び出しをルーティングすることも可能です。
この改訂版要約は主要ポイントをすべて網羅しつつ、明瞭さを保ち、不要な推論を避けています。
本文
Gemma 3 270Mモデルの関数呼び出しに特化したバージョンと、さらに細かく専門化するためのトレーニングレシピをリリースします。
― Ravin Kumar
リサーチエンジニア
Gemmaファミリーは2025年に大きな変革を遂げました。100 Mダウンロードから300 M超へと成長し、Gemma 3で単一アクセラレータ性能の最先端を示すだけでなく、C2S Scaleイニシアティブを通じてがん研究にも貢献しました。
Gemma 3 270Mモデルを公開して以来、開発者から最も多い要望は「ネイティブ関数呼び出し機能」の追加でした。業界は純粋な対話型インターフェースからアクティブエージェントへとシフトする中で、モデルは単に会話を行うだけでなく、実際に動作する必要があります。特にオンデバイスでは、リマインダー設定やシステム設定の切替など、複雑な多段ワークフローを自動化できるエージェントが求められます。そのためには、軽量でローカル実行可能かつ専門性の高いモデルが不可欠です。
本日、FunctionGemma をリリースします。これはGemma 3 270Mモデルを関数呼び出し向けに微調整した専用バージョンです。自然言語を実行可能なAPIアクションへ変換するカスタム・高速・プライベート・ローカルエージェントの訓練基盤として設計されており、完全独立型エージェントとしてオフラインタスクに対応したり、大規模接続システム向けのインテリジェントトラフィックコントローラーとして機能します。この役割では、エッジで即座に一般的なコマンドを処理し、より複雑な作業はGemma 3 27Bなどのモデルへルーティングできます。
FunctionGemmaが特別なのは
| 特徴 | 説明 |
|---|---|
| 統一されたアクション&チャット | コンピュータと人間両方に対して話す方法を理解。ツール実行のための構造化関数呼び出しを生成し、結果を自然言語で要約します。 |
| カスタマイズ向け設計 | プロンプトだけではなく、モデリングそのものを形作るように設計。Mobile Actions評価では微調整により信頼性が58 %から85 %へと向上しました。専任の専門家による訓練は本番品質への効率的な道です。 |
| エッジ最適化 | NVIDIA Jetson Nanoやモバイル端末でも動作できるほど小型。Gemmaの256k語彙でJSONと多言語入力を効率的にトークン化し、最低遅延・完全プライバシーを保証します。 |
| 幅広いエコシステムサポート | Hugging Face Transformers、Unsloth、Keras、NVIDIA NeMoで微調整可能。LiteRT‑LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI、LM Studioなどでデプロイできます。 |
Mobile ActionsデータセットにおけるFunctionGemmaの精度(微調整前後)
図は省略
FunctionGemmaを選ぶべき場面
自然言語とソフトウェア実行を橋渡しするモデルです。以下の場合に最適です。
- 定義済みAPI表面がある – スマートホーム、メディア、ナビゲーションなどの一連のアクションがあります。
- 微調整に踏み切れる – 特定データで訓練し、一貫した決定論的挙動を求めます。
- ローカルファーストを優先する – エッジデバイス内でほぼ即時のレイテンシと完全なデータプライバシーを実現します。
- 複合システム構築中 – 軽量エッジモデルがローカルアクションを処理し、複雑タスクはGemma 3 27Bなどの大規模モデルへ委譲します。
実際に動作させてみる
Google AI Edge Galleryアプリで以下の2つの体験を通じて機能を確認できます。
-
Mobile Actions微調整
完全オフラインでアシスタント対話を再構築。例えば「明日のランチにカレンダーイベントを作成」や「懐中電灯をオン」に対し、OSツールへマッピングします。開発者は微調整クックブックを使いモデルを構築し、モバイルデバイスにロードできます。 -
TinyGardenゲームデモ
インタラクティブなミニゲームで音声コマンドを用いて仮想畑を管理。
やplantCrop
といったアプリ関数へ分解し、270Mモデルがサーバーに問い合わせずに多ターンロジックを実行できることを示します。waterCrop -
FunctionGemma Physics Playground
ブラウザ上で100 %ローカルに動作するゲーム。自然言語で物理シミュレーションパズルを解き、FunctionGemmaとTransformers.jsが駆動します。
今すぐFunctionGemmaを試す手順
| ステップ | 行動 |
|---|---|
| ダウンロード | Hugging FaceまたはKaggleからモデルを取得。 |
| 学習 | 関数呼び出しテンプレート、関数応答でのシーケンス化、微調整ガイドを参照。 |
| 体験 | 更新版Google AI Edge Galleryをダウンロードしてデモを試す。 |
| 構築 | Colabノートブックとデータセット付きMobile Actionsガイドで独自エージェントを訓練。 |
| 展開 | LiteRT‑LMでモバイルに公開、またはVertex AI、NVIDIA RTX PRO、DGX Spark等で大規模モデルと併用。 |
オンデバイスで実現できるユニークかつプライベート、超高速な体験をぜひご自身の手で解き放ってください。