ローカルファースト
推論、保存、計算はデフォルトでデバイス上に置かれます。クラウドは任意であり、決して必須ではありません。
それぞれのアプリは特定のシーンに特化しながら、同じ妥協のないプライバシーを共有します。
CPU / GPU / NPU 全方位に最適化された高性能オンデバイス推論ランタイム。ひとつのエンジン、すべての製品。
量子化モデルが CPU・GPU・NPU 上で適応スケジューリングされ、モバイル向けシリコンでデスクトップ級の速度を実現します。
分析なし。クラッシュビーコンなし。アカウントシステムなし。アプリは物理的に外部へ通報できません。
GGUF、MLC、MNN — 主要なオープンソースモデルを選ぶことも、自分のモデルを持ち込むこともできます。
音声・ビジョン・NLP モジュールが単一のパイプラインを共有するため、機能が各製品へより速く届きます。
対応モデル
次世代の AI は人を監視するのではなく、人を支えるべきです。私たちはそれを一つずつ作っています。
推論、保存、計算はデフォルトでデバイス上に置かれます。クラウドは任意であり、決して必須ではありません。
集めたくなる誘惑そのものを設計で取り除きます。アカウントなし。テレメトリなし。バックドアなし。
オープンな重み、オープンな形式、そして透明な主張を採用します。いつでも監査してください。
エンジニアリングのノート、製品ストーリー、そしてチームのアイデア。
クラウドAIは過渡期のアーキテクチャだ。これからの10年、本当に役立つAIはあなたのポケットの中で動くと私たちは考えている――そしてそれが、私たちが作っているプロダクトの形を決めている。
私たちの端末側推論ランタイムを支えるアーキテクチャ判断と、それを形作った技術的制約をのぞき見する。
フラッグシップが社内ベータに入った。ストリーミングパイプラインを一巡し、実機にASRを載せて学んだことを共有する。
ニュースレターで最新情報、技術記事、早期アクセスをお届けします。