로컬 우선
추론, 저장, 계산은 기본적으로 기기에서 이뤄집니다. 클라우드는 선택 사항일 뿐, 결코 필수가 아닙니다.
각 앱은 특정 순간을 위해 설계되었고, 동일한 타협 없는 프라이버시 보장을 공유합니다.
CPU / GPU / NPU 전반에 최적화된 고성능 온디바이스 추론 런타임. 하나의 엔진, 모든 제품.
양자화 모델이 CPU, GPU, NPU 전반에서 적응형 스케줄링으로 돌아가며 모바일 실리콘에서 데스크톱급 속도를 제공합니다.
분석 없음. 충돌 비콘 없음. 계정 시스템 없음. 앱은 물리적으로 집으로 전화할 수 없습니다.
GGUF, MLC, MNN — 최고의 오픈소스 모델을 고르거나 직접 가져올 수 있습니다.
음성, 비전, NLP 모듈이 하나의 파이프라인을 공유하므로 기능이 더 빠르게 모든 제품에 도달합니다.
호환 모델
우리는 다음 세대 AI가 사람을 감시하지 않고도 사람에게 힘을 실어줘야 한다고 믿습니다. 우리는 그것을 한 번에 하나의 집중된 앱으로 만들어가고 있습니다.
추론, 저장, 계산은 기본적으로 기기에서 이뤄집니다. 클라우드는 선택 사항일 뿐, 결코 필수가 아닙니다.
수집의 유혹 자체를 설계로 없앱니다. 계정 없음. 텔레메트리 없음. 백도어 없음.
우리는 열린 가중치, 열린 포맷, 투명한 주장을 받아들입니다. 언제든 우리를 감사하세요.
엔지니어링 노트, 제품 이야기, 그리고 팀의 아이디어.
클라우드 AI는 과도기 아키텍처다. 앞으로 10년의 쓸모 있는 AI는 당신의 주머니 안에 산다고 우리는 믿는다 — 그리고 그것이 우리가 만드는 제품의 모양을 결정한다.
우리의 온디바이스 추론 런타임 뒤에 있는 아키텍처 선택과, 그것을 만든 엔지니어링 제약을 들여다본다.
플래그십이 내부 베타에 들어갔다. 스트리밍 파이프라인을 한 바퀴 돌며 실기기에 ASR을 올리며 배운 것들을 공유한다.
제품 출시, 기술 심층 분석 및 얼리 액세스를 위한 뉴스레터에 가입하세요.