
Private LLM - Lokaler KI-Chat 12+
Offline privater KI-Chat
Numen Technologies Limited
-
- CHF 5.00
Screenshots
Beschreibung
Lernen Sie Private LLM kennen: Ihr sicherer, offline KI-Assistent für macOS
Private LLM bringt fortschrittliche KI-Funktionen direkt auf Ihr iPhone, iPad und Mac – und das, während Ihre Daten privat und offline bleiben. Mit einem einmaligen Kauf und ohne Abonnements erhalten Sie einen persönlichen KI-Assistenten, der vollständig auf Ihrem Gerät funktioniert.
Hauptfunktionen:
- Lokale KI-Funktionalität: Interagieren Sie mit einem fortschrittlichen KI-Chatbot, ohne eine Internetverbindung zu benötigen. Ihre Gespräche bleiben auf Ihrem Gerät und gewährleisten vollständige Privatsphäre.
- Große Auswahl an KI-Modellen: Wählen Sie aus verschiedenen Open-Source-LLM-Modellen wie Llama 3.2, Llama 3.1, Google Gemma 2, Microsoft Phi-3, Mistral 7B und StableLM 3B. Jedes Modell ist für iOS- und macOS-Hardware optimiert und verwendet die fortschrittliche OmniQuant-Quantisierung, die eine überlegene Leistung im Vergleich zu herkömmlichen RTN-Quantisierungsmethoden bietet.
- Siri- und Kurzbefehle-Integration: Erstellen Sie KI-gesteuerte Workflows, ohne Code zu schreiben. Verwenden Sie Siri-Befehle und Apple-Kurzbefehle, um die Produktivität bei Aufgaben wie Textanalyse und -erstellung zu steigern.
- Keine Abonnements oder Logins: Genießen Sie vollen Zugriff mit einem einmaligen Kauf. Keine Notwendigkeit für Abonnements, Konten oder API-Schlüssel. Mit der Familienfreigabe können bis zu sechs Familienmitglieder die App nutzen.
- KI-Sprachdienste auf macOS: Nutzen Sie KI-gestützte Werkzeuge für Grammatikkorrekturen, Zusammenfassungen und mehr in verschiedenen macOS-Anwendungen und in mehreren Sprachen.
- Überlegene Leistung mit OmniQuant: Profitieren Sie von dem fortschrittlichen OmniQuant-Quantisierungsprozess, der die Gewichtungsverteilung des Modells beibehält und schnellere und genauere Antworten liefert. Damit übertrifft Private LLM Apps, die standardmäßige Quantisierungstechniken verwenden.
Unterstützte Modellfamilien:
- DeepSeek R1 Distill basierte Modelle
- Phi-4 14B Modell
- Llama 3.3 70B
- Llama 3.2 basierte Modelle
- Llama 3.1 basierte Modelle
- Google Gemma 2 basierte Modelle
- Qwen 2.5 basierte Modelle (0,5B bis 32B)
- Qwen 2.5 Coder basierte Modelle (0,5B bis 32B)
- Solar 10.7B basierte Modelle
- Yi 34B basierte Modelle
Für eine vollständige Liste der unterstützten Modelle, einschließlich detaillierter Spezifikationen, besuchen Sie bitte privatellm.app/models.
Private LLM ist eine bessere Alternative zu generischen llama.cpp- und MLX-Wrapper-Apps wie Ollama, LLM Farm, LM Studio, RecurseChat usw. in drei Bereichen:
1. Private LLM verwendet eine schnellere mlc-llm-basierte Inferenz-Engine.
2. Alle Modelle in Private LLM sind mit dem fortschrittlichen OmniQuant-Quantisierungsalgorithmus quantisiert, während konkurrierende Apps eine naive Rundung-zum-nächsten-Quantisierung verwenden.
3. Private LLM ist eine vollständig native App, die mit C++, Metal und Swift entwickelt wurde, während viele der konkurrierenden Apps auf (aufgeblähten) Electron-basierten Apps basieren.
Optimiert für Apple Silicon Macs mit dem Apple M1 Chip oder neuer, liefert Private LLM für macOS die beste Leistung. Benutzer älterer Intel-Macs ohne eGPUs könnten eine verminderte Leistung feststellen.
Neuheiten
Version 1.9.8
- Unterstützung für 3-Bit-OmniQuant-quantisierte Versionen der Llama 3.3 70B-basierten Modelle hinzugefügt (5 neue Modelle)
- Unterstützung für 3-Bit- und 4-Bit-OmniQuant-quantisierte Versionen des EVA LLaMA 3.33 70B v0.1 Modells hinzugefügt
- Unterstützung für 8 neue Modelle aus der Dolphin 3.0 Modellfamilie hinzugefügt
- Unterstützung für die unquantisierte Version des Llama 3.2 1B Instruct Abliterated Modells hinzugefügt
- Unterstützung für das 4-Bit-OmniQuant-quantisierte Gemma 2 Ifable 9B Kreatives-Schreiben-Modell hinzugefügt
- Kontextlänge wird jetzt im Schnellwechsler für Modelle angezeigt
- Ein Absturz bei einigen neueren Modellen unter älteren macOS-Versionen (Sonoma) wurde behoben
- Weitere kleinere Fehlerbehebungen und Updates
Bewertungen und Rezensionen
Works great but
there are improvements that would add massive value:
1. it would be even better if it would offer the ability to have multiple chats. Having a single chat stream is confusing. On my Mac I am using LM Studio and I would love for a similar setup to be present.
2. I’m not sure it offers the maximum quantization that would be possible on the M4 16GB iPad Pro given the Q3 limits on Mistral Instruct and 4bit Phi3. I understand why those make a lot of sense for broad support in a one size fits all situation but I would naturally also like to use the device to its limits :)
Entwickler-Antwort ,
Thanks for the review! We're working on enabling support for larger 4-bit Omniquant quantized models on high end iPad Pros with 16GB of RAM (M1, M2 and M4). This has lately taken a bit of a back-seat because we're currently working on adding newer models that were released recently (like Llama 3.1). We'll get back to it as soon as we're through our model backlog.
Plante avec un iPhone 13
Pas assez de mémoire pour Deepseek.
Dommage
buono ma….
…peccato che non si riesca ad interagire vocalmente (credo che funzioni solo se si sceglie la lingua inglese USA ,per il resto sembra carino
Events
App-Datenschutz
Der Entwickler, Numen Technologies Limited, hat darauf hingewiesen, dass die Datenschutzrichtlinien der App den unten stehenden Umgang mit Daten einschließen können. Weitere Informationen findest du in den Datenschutzrichtlinien des Entwicklers.
Keine Daten erfasst
Der Entwickler erfasst keine Daten von dieser App.
Die Datenschutzpraktiken können zum Beispiel je nach den von dir verwendeten Funktionen oder deinem Alter variieren. Weitere Infos
Informationen
- Anbieter
- Numen Technologies Limited
- Größe
- 1.3 GB
- Kategorie
- Dienstprogramme
- Kompatibilität
-
- iPhone
- Erfordert iOS 17.0 oder neuer und ein Gerät mit dem A12 Bionic-Chip oder neuer.
- iPad
- Erfordert iPadOS 17.0 oder neuer und ein Gerät mit dem A12 Bionic-Chip oder neuer.
- Mac
- Erfordert macOS 14.0 oder neuer.
- Apple Vision
- Erfordert visionOS 1.0 oder neuer und ein Gerät mit dem A12 Bionic-Chip oder neuer.
- Sprachen
-
Englisch
- Alter
- 12+ Selten/schwach ausgeprägt: Horror-/Gruselszenen Selten/schwach ausgeprägt: medizinische/Behandlungs-Informationen Selten/schwach ausgeprägt: Szenen mit erotischen Anspielungen
- Copyright
- © 2024 Numen Technologies Limited
- Preis
- CHF 5.00
Support
-
Familienfreigabe
Bis zu sechs Familienmitglieder können diese App bei aktivierter Familienfreigabe nutzen.