Lokal zuerst
Inferenz, Speicherung und Berechnung liegen standardmäßig auf dem Gerät. Die Cloud ist optional, nie erforderlich.
OmniFlux AI entwickelt eine Familie mobiler Apps, angetrieben von einer einheitlichen On-Device-Inferenz-Engine. Null Server. Null Tracking. Null Kompromisse.
Jede App ist für einen konkreten Moment gemacht — mit derselben kompromisslosen Datenschutzgarantie.
On-Device-Sprachtranskription, Sprechertrennung und intelligente Zusammenfassungen.
Multimodales visuelles Verständnis — vollständig auf deinem Gerät.
Ein Hosentaschen-Coding-Begleiter, der deinen Code nie nach außen lässt.
Spracherkennung, Sprechererkennung und intelligente Zusammenfassungen — komplett auf deinem Telefon.
Alle drei Phasen laufen auf dem Gerät — dein Audio verlässt das Telefon nie.
Eine hochperformante On-Device-Inferenz-Runtime, optimiert für CPU / GPU / NPU. Eine Engine für jedes Produkt.
Quantisierte Modelle laufen auf CPU, GPU und NPU mit adaptiver Planung und liefern Desktop-Klasse auf mobilem Silizium.
Keine Analytics, keine Crash-Beacons, kein Kontosystem. Die App kann physisch nicht nach Hause telefonieren.
GGUF, MLC, MNN — wähle führende Open-Source-Modelle oder bringe deine eigenen mit.
Module für Sprache, Vision und NLP teilen sich eine einheitliche Pipeline — Funktionen landen schneller in allen Produkten.
Kompatible Modelle
Wir glauben, dass die nächste Generation von KI Einzelpersonen stärken sollte, ohne sie zu überwachen. Daran bauen wir — eine fokussierte App nach der anderen.
Inferenz, Speicherung und Berechnung liegen standardmäßig auf dem Gerät. Die Cloud ist optional, nie erforderlich.
Wir entwerfen die Versuchung des Sammelns weg. Keine Accounts. Keine Telemetrie. Keine Hintertüren.
Wir setzen auf offene Gewichte, offene Formate und nachvollziehbare Aussagen. Prüf uns jederzeit.
Engineering-Notizen, Produktgeschichten und Ideen aus dem Team.
Cloud-KI ist eine Übergangsarchitektur. Die nächste Dekade nützlicher KI lebt in deiner Hosentasche — und genau das prägt die Produkte, die wir bauen.
Ein Blick hinter die Architekturentscheidungen unserer gemeinsamen On-Device-Inference-Runtime — und auf die Zwänge, die sie geformt haben.
Unser Flaggschiff geht in die interne Beta. Ein Rundgang durch die Streaming-Pipeline und was wir beim Ausliefern von ASR auf echten Telefonen gelernt haben.
Abonniere unseren Newsletter für Releases, technische Tiefenanalysen und Early Access.