端侧 AI · 隐私由架构保证

让智能
留在你的设备上。

OmniFlux AI 打造一系列由统一端侧推理引擎驱动的移动应用。零服务器、零追踪、零妥协。

  • 0 字节
    数据上传
  • 离线优先
    网络要求
  • 5+
    产品规划
  • Flux Engine
    统一引擎
产品矩阵

一系列专注的应用, 由同一私密引擎驱动。

每款应用都为某个具体场景而生,共享同样不可妥协的隐私保证。

旗舰

WhisperFlux

端侧语音转写、说话人分离与智能摘要。

  • 董事会会议
  • 私人对话
  • 无网讨论
  • 机密简报
了解更多/whisperflux
研发中

VisionFlux

多模态视觉理解——完全在你的设备上。

了解更多/visionflux
研发中

TranslateFlux

离线、实时的对话式翻译。

了解更多/translateflux
即将推出

NoteFlux

语音优先、自我整理的笔记——私密地。

了解更多/noteflux
即将推出

CodeFlux

口袋里的编程伙伴,从不泄露你的代码。

了解更多/codeflux
旗舰 · 即将推出

WhisperFlux

语音转写、说话人分离与智能纪要,全部在你的手机上完成。

  • 会议室
  • 私人对话
  • 无网络讨论
  • 私密沟通
9:41
WhisperFlux
New Recording
实时 · 端侧运行
00:42
实时转写3 位说话人
Alex
如果我们把它做成离线优先……
Mei
录音器会在后台持续运行。
Sam
而且模型从不会离开这台设备

三个阶段全部在设备上完成 — 你的音频从不离开手机。

技术

Flux Engine 驱动一切的运行时。

针对 CPU / GPU / NPU 全面优化的高性能端侧推理运行时。一套引擎,所有产品。

Layer 5
Apps
Layer 4
Modules
Layer 3
Flux Engine
Layer 2
Runtimes
Layer 1
Silicon

本地推理

量化模型在 CPU、GPU、NPU 上自适应调度,移动端跑出桌面级速度。

零遥测

无埋点、无崩溃上报、无账号体系,App 物理上无法回传任何数据。

开放模型

支持 GGUF、MLC、MNN 等格式,可使用主流开源模型或自带模型。

模块化 SDK

语音、视觉、NLP 模块共享统一管线,新功能可在产品间快速复用。

已适配模型

Whisper.cppGGUFMLC-LLMMNNONNX RuntimeCoreMLTFLitePaddleNLPLlama-classQwen-classPhi-classGemma-class
我们的愿景

个人 AI, 理应属于个人。

我们相信,下一代 AI 应该赋能用户,而不是监控用户。我们一款应用一款应用地把它建出来。

01
Principle

本地优先

推理、存储与计算默认发生在设备上,云只是可选项,从不必须。

02
Principle

隐私即架构

我们从架构上就消除了收集数据的可能:无账号、无埋点、无后门。

03
Principle

默认开放

我们拥抱开放权重、开放格式与透明承诺,欢迎随时审计。

常见问题

你可能想问

云端 AI 需要把敏感内容(语音、照片、对话)发到远程服务器。端侧 AI 从根源上消除了这种风险 — 你的数据物理上始终留在你拥有的硬件里。

抢先体验 我们的下一款产品。

加入我们的发布名单,第一时间获取产品上线、技术深度文章与抢先体验资格。