omi は「自分の1st brainよりも信頼できる2nd brain」をうたう、オープンソースの常時キャプチャ型 AI アシスタント。主要言語は Dart(モバイルアプリ)で、以下のコンポーネントを単一リポジトリで束ねている。
| コンポーネント | ディレクトリ | 技術 |
|---|---|---|
| macOS デスクトップアプリ | desktop/ |
Swift + SwiftUI + Rust バックエンド |
| モバイルアプリ (iOS/Android) | app/ |
Flutter |
| バックエンド API | backend/ |
Python (FastAPI), Firebase, Firestore, Redis |
| ウェアラブル本体 ファーム | omi/ |
nRF + Zephyr (C) |
| スマートグラス ファーム | omiGlass/ |
ESP32-S3 (C) |
| SDK | sdks/ |
Python / Swift / React Native |
| MCP サーバ | mcp/ |
Model Context Protocol 連携 |
| プラグイン / ペルソナ | plugins/, web/ |
Next.js 他 |
バックエンドは Listen (REST)・Pusher (WebSocket)・VAD・Diarizer (GPU) のマイクロサービス構成で、STT に Deepgram、保存に Firestore、キャッシュに Redis、要約・チャットに LLM を使う。既に 30 万人以上が利用中、ライセンスは MIT。
コアバリュー:画面 + 音声 + ウェアラブルの入力を一元化し、「見聞きしたすべてを覚えているチャット」と「要約・アクションアイテム自動生成」を提供する。
要するに「Rewind のフルスタック版を MIT でフォーク&自作できる」のが最大の嬉しさ。
(A) 利用者として試す(クラウドBE利用)
macos.omi.me からインストール、もしくは app.omi.me をブラウザで開く。git clone … && cd omi/desktop && ./run.sh --yolo(macOS 14+, Xcode, Node.js 必須)。(B) 開発者としてフル自前構築
xcode-select --install、Rust toolchain。desktop/Backend-Rust/.env.example をコピーして認証情報を設定。./run.sh で起動。cd app && bash setup.sh ios|android、バックエンドは backend/ の FastAPI をローカル起動(Firestore / Redis / Deepgram の接続先を設定)。plugins/ や SDK (sdks/python, swift, react-native) 経由でプラグイン化、または mcp/ で Model Context Protocol サーバとして LLM クライアントに接続。scripts/pre-commit)。フォーマッタは Dart=120、Python=black 120、C/C++=clang-format。backend/test.sh / app/test.sh で検証してから PR(squash merge は禁止、regular merge のみ)。(C) ハードも自作したい場合:omi/(ウェアラブル)・omiGlass/(グラス)にある回路図・BOM・Zephyr/ESP32 ファームを flash するだけで、市販 Omi を買わずに同等環境を再現できる。