オンデバイス AI · 設計から守られたプライバシー

知能は、
あなたの端末に宿る。

OmniFlux AI は統一されたオンデバイス推論エンジンによって動作するモバイルアプリ群を開発します。サーバーなし、追跡なし、妥協なし。

  • 0 バイト
    送信データ
  • オフライン対応
    ネットワーク
  • 5+
    製品ロードマップ
  • Flux Engine
    統一エンジン
製品ラインナップ

目的に集中したアプリ群、 ひとつのプライベートエンジンで動く。

それぞれのアプリは特定のシーンに特化しながら、同じ妥協のないプライバシーを共有します。

フラッグシップ

WhisperFlux

オンデバイスの音声書き起こし、話者分離、スマート要約。

  • 会議室ミーティング
  • プライベートな会話
  • ネット不在の議論
  • 機密ブリーフィング
詳しく見る/whisperflux
開発中

VisionFlux

マルチモーダルな視覚理解——完全にあなたのデバイス上で。

詳しく見る/visionflux
開発中

TranslateFlux

オフラインでリアルタイムの会話翻訳。

詳しく見る/translateflux
近日公開

NoteFlux

音声ファースト、自己整理するノート——プライベートに。

近日公開

CodeFlux

コードを決して漏らさない、ポケットのコーディング相棒。

フラッグシップ · 近日公開

WhisperFlux

音声認識・話者分離・要約のすべてを、あなたの端末で。

  • 会議室
  • プライベートな会話
  • オフライン環境
  • 機密ブリーフィング
9:41
WhisperFlux
New Recording
ライブ・オンデバイス
00:42
リアルタイム文字起こし3名の話者
Alex
もしこれをオフラインファーストで出荷したら……
Mei
レコーダーはバックグラウンドで動き続けます。
Sam
しかもモデルはデバイスから一歩も出ません

すべての処理が端末で完結。音声は決して外に出ません。

技術

Flux Engine すべてを動かすランタイム。

CPU / GPU / NPU 全方位に最適化された高性能オンデバイス推論ランタイム。ひとつのエンジン、すべての製品。

Layer 5
Apps
Layer 4
Modules
Layer 3
Flux Engine
Layer 2
Runtimes
Layer 1
Silicon

ローカル推論

量子化モデルが CPU・GPU・NPU 上で適応スケジューリングされ、モバイル向けシリコンでデスクトップ級の速度を実現します。

ゼロテレメトリー

分析なし。クラッシュビーコンなし。アカウントシステムなし。アプリは物理的に外部へ通報できません。

オープンモデル

GGUF、MLC、MNN — 主要なオープンソースモデルを選ぶことも、自分のモデルを持ち込むこともできます。

モジュラーSDK

音声・ビジョン・NLP モジュールが単一のパイプラインを共有するため、機能が各製品へより速く届きます。

対応モデル

Whisper.cppGGUFMLC-LLMMNNONNX RuntimeCoreMLTFLitePaddleNLPLlama-classQwen-classPhi-classGemma-class
ビジョン

個人の AI は、 個人に属するべき。

次世代の AI は人を監視するのではなく、人を支えるべきです。私たちはそれを一つずつ作っています。

01
Principle

ローカルファースト

推論、保存、計算はデフォルトでデバイス上に置かれます。クラウドは任意であり、決して必須ではありません。

02
Principle

プライバシー・バイ・デザイン

集めたくなる誘惑そのものを設計で取り除きます。アカウントなし。テレメトリなし。バックドアなし。

03
Principle

デフォルトでオープン

オープンな重み、オープンな形式、そして透明な主張を採用します。いつでも監査してください。

FAQ

よくある質問

クラウドAIでは機密性の高い内容(音声、写真、会話)を遠隔サーバーへ送る必要があります。オンデバイスAIならそのリスクを根本から取り除けます——あなたのデータは、あなたが所有するハードウェア上に物理的に留まります。

次のリリースを 誰よりも早く。

ニュースレターで最新情報、技術記事、早期アクセスをお届けします。