온디바이스 AI · 설계로 보장하는 프라이버시

디바이스 안에 머무는
인텔리전스.

OmniFlux AI는 통합된 온디바이스 추론 엔진으로 구동되는 모바일 앱 제품군을 만듭니다. 서버 제로, 추적 제로, 타협 제로.

  • 0바이트
    업로드된 데이터
  • 오프라인 우선
    네트워크 필요 여부
  • 5+
    제품 로드맵
  • Flux Engine
    통합 엔진
제품 라인업

집중된 앱들의 제품군, 하나의 프라이빗 엔진으로.

각 앱은 특정 순간을 위해 설계되었고, 동일한 타협 없는 프라이버시 보장을 공유합니다.

플래그십

WhisperFlux

온디바이스 음성 전사, 화자 분리, 스마트 요약.

  • 이사회 회의
  • 사적인 대화
  • 네트워크 없는 토론
  • 기밀 브리핑
자세히 보기/whisperflux
개발 중

VisionFlux

멀티모달 시각 이해 — 전적으로 당신의 기기에서.

자세히 보기/visionflux
개발 중

TranslateFlux

오프라인·실시간 대화 번역.

자세히 보기/translateflux
출시 예정

NoteFlux

음성 우선·스스로 정리되는 노트 — 사적으로.

출시 예정

CodeFlux

코드를 절대 새지 않는 주머니 속 코딩 동반자.

플래그십 · 출시 예정

WhisperFlux

음성 인식, 화자 분리, 스마트 요약 — 모두 휴대폰에서.

  • 이사회 회의
  • 사적인 대화
  • 네트워크 없는 토론
  • 기밀 브리핑
9:41
WhisperFlux
New Recording
라이브 · 온디바이스
00:42
실시간 전사3명의 화자
Alex
이걸 오프라인 우선으로 출시하면 어떨까요…
Mei
레코더는 백그라운드에서 계속 실행됩니다.
Sam
그리고 모델은 기기를 절대 떠나지 않습니다

세 단계 모두 디바이스에서 — 오디오는 휴대폰을 떠나지 않습니다.

기술

Flux Engine 모든 것을 구동하는 런타임.

CPU / GPU / NPU 전반에 최적화된 고성능 온디바이스 추론 런타임. 하나의 엔진, 모든 제품.

Layer 5
Apps
Layer 4
Modules
Layer 3
Flux Engine
Layer 2
Runtimes
Layer 1
Silicon

로컬 추론

양자화 모델이 CPU, GPU, NPU 전반에서 적응형 스케줄링으로 돌아가며 모바일 실리콘에서 데스크톱급 속도를 제공합니다.

제로 텔레메트리

분석 없음. 충돌 비콘 없음. 계정 시스템 없음. 앱은 물리적으로 집으로 전화할 수 없습니다.

오픈 모델

GGUF, MLC, MNN — 최고의 오픈소스 모델을 고르거나 직접 가져올 수 있습니다.

모듈형 SDK

음성, 비전, NLP 모듈이 하나의 파이프라인을 공유하므로 기능이 더 빠르게 모든 제품에 도달합니다.

호환 모델

Whisper.cppGGUFMLC-LLMMNNONNX RuntimeCoreMLTFLitePaddleNLPLlama-classQwen-classPhi-classGemma-class
우리의 비전

개인 AI는 그 사람에게 속해야 합니다.

우리는 다음 세대 AI가 사람을 감시하지 않고도 사람에게 힘을 실어줘야 한다고 믿습니다. 우리는 그것을 한 번에 하나의 집중된 앱으로 만들어가고 있습니다.

01
Principle

로컬 우선

추론, 저장, 계산은 기본적으로 기기에서 이뤄집니다. 클라우드는 선택 사항일 뿐, 결코 필수가 아닙니다.

02
Principle

프라이버시 중심 설계

수집의 유혹 자체를 설계로 없앱니다. 계정 없음. 텔레메트리 없음. 백도어 없음.

03
Principle

기본적으로 개방

우리는 열린 가중치, 열린 포맷, 투명한 주장을 받아들입니다. 언제든 우리를 감사하세요.

FAQ

자주 묻는 질문

클라우드 AI는 민감한 콘텐츠(음성, 사진, 대화)를 원격 서버로 보내야 합니다. 온디바이스 AI는 그 위험을 근본적으로 없앱니다 — 데이터가 당신이 소유한 하드웨어에 물리적으로 남아 있기 때문입니다.

먼저 경험하세요 다음에 출시될 제품을.

제품 출시, 기술 심층 분석 및 얼리 액세스를 위한 뉴스레터에 가입하세요.