スマートフォン上でLLM(大規模言語モデル)を完全にオンデバイスで動かすためのAndroid/iOSアプリのソースコード。Google が開発し、Play Store / App Store でも公開されている。
内部では LiteRT(TensorFlow Lite 次世代)+ MediaPipe LLM API を推論エンジンとして使い、Gemma 3n、Gemma 3 1B、Qwen 2.5 などのモデルを .task 形式でダウンロードしてローカル実行する。主な機能は以下の通り:
| 機能 | 内容 |
|---|---|
| LLM Chat | マルチターン会話(ストリーミング応答・思考過程表示対応) |
| Prompt Lab | temperature/top-k 等を細かく調整してシングルターン評価 |
| Ask Image | 画像を入力してマルチモーダル質問 |
| Agent Skills | JavaScript やネイティブ Intent で LLM の能力を拡張(地図表示、QRコード生成、メール送信など) |
| Benchmark | 推論速度・トークンスループットの計測 |
| 観点 | Google AI Edge Gallery | クラウドAPI(Gemini API等) | 他のオンデバイス手段(llama.cpp, MLC-LLM等) |
|---|---|---|---|
| プライバシー | ◎ 全データ端末内完結 | △ サーバーに送信 | ◎ 同等 |
| ネットワーク | 不要(DL後) | 必須 | 不要(DL後) |
| 導入の手軽さ | ◎ アプリをインストールするだけ | ◎ APIキー取得のみ | △ ビルド・変換作業が必要 |
| 拡張性 | ◎ Skill プラグインで JS/Intent 拡張可能 | ○ Function Calling | △ 自前実装 |
| GPU最適化 | ◎ LiteRT が自動でGPU/CPUフォールバック | N/A | ○ バックエンド依存 |
| 対象ユーザー | 開発者〜一般ユーザー | 開発者 | 上級開発者 |
一言で言えば:「オンデバイスLLMを誰でもすぐ試せる完成度の高いリファレンスアプリ」であることが最大の価値。llama.cpp 等はビルドやモデル変換の知識が必要だが、本アプリはモデル選択→ダウンロード→即会話、で完結する。さらに Skill システムにより function calling を活用した実用的なエージェント体験まで試せる。
1. インストール
├─ Play Store / App Store からインストール(一般ユーザー)
└─ ソースからビルド(開発者:Android Studio で Android/src/ を開く)
2. モデルの取得
├─ アプリ内のモデル一覧から選択(Gemma 3n E2B 〜3.1GB 等)
└─ Hugging Face 連携で自動ダウンロード → 端末ストレージに保存
3. タスクを選んで実行
├─ Chat:マルチターン会話を開始
├─ Prompt Lab:パラメータを調整しながら単発プロンプトを試す
├─ Ask Image:カメラや画像ファイルでマルチモーダル推論
└─ Agent Skills:スキルをロードして拡張機能を使う
├─ 組み込みスキル(QR生成、Wikipedia検索、地図表示など)
├─ GitHub URL からスキルをインポート
└─ 自作スキル(SKILL.md + JS で定義)
4.(開発者向け)カスタムタスクの追加
└─ CustomTask インターフェースを実装 → Hilt で @IntoSet 登録
→ 独自の画面・推論ロジックをプラグイン的に追加可能
開発者がフォークして使う場合の要点:
model_allowlist.json でサポートモデルを管理(バージョン別に model_allowlists/ に履歴あり)