Private LLM Sicherer, Privater KI-Chatbot, Der Lokal Auf Ihrem iPhone, iPad Und Mac Funktioniert

Ist Ihnen Der Schutz Ihrer Privatsphäre Wichtig?

Kein Internet? Kein Problem! Private LLM funktioniert überall und jederzeit!

Private LLM ist ein lokaler KI-Chatbot für iOS und macOS, der offline funktioniert, wobei Ihre Informationen vollständig auf dem Gerät bleiben, sicher und privat sind. Es ist keine Internetverbindung erforderlich, sodass Ihre Daten nie Ihr Gerät verlassen. Ohne Abonnementgebühren zahlen Sie einmal und nutzen es auf all Ihren Apple-Geräten. Es ist für jeden konzipiert, mit einfach zu bedienenden Funktionen für die Texterzeugung, Sprachhilfe und vieles mehr. Private LLM verwendet die neuesten KI-Modelle, die mit modernsten Quantisierungstechniken quantisiert sind, um ein hochwertiges KI-Erlebnis auf dem Gerät zu bieten, ohne Ihre Privatsphäre zu beeinträchtigen. Es ist eine intelligente, sichere Möglichkeit, kreativ und produktiv zu sein, jederzeit und überall.
Eine Nahaufnahme eines iPhone-Bildschirms, der die Schnittstelle der Private LLM-App anzeigt, in der ein Textbefehl in eine Chat-ähnliche Schnittstelle eingegeben wird, was die Fähigkeit der App hervorhebt, ausgefeilte Sprachmodelle lokal auf dem Gerät für verbesserte Privatsphäre und Offline-Funktionalität auszuführen

Nutzen Sie die Kraft der Open-Source-KI mit Private LLM

Private LLM erschließt die umfangreichen Möglichkeiten der KI mit Unterstützung einer breiten Auswahl an Open-Source-LLM-Modellen, einschließlich Llama 3, Google Gemma, Microsoft Phi-3, Mixtral 8x7B-Familie und vielen mehr auf Ihren iPhones, iPads und Macs. Diese breite Modellunterstützung stellt sicher, dass Benutzer auf iOS, iPadOS und macOS die Kraft der KI vollständig nutzen können, speziell angepasst für ihre Geräte.
Screenshot der Private LLM-App auf einem iPhone, der eine benutzerfreundliche Schnittstelle mit einer Liste herunterladbarer Large Language Models (LLMs) für die Offline-Nutzung anzeigt, wobei eine Vielzahl von Modellnamen und -beschreibungen gezeigt wird, die die Fähigkeit der App für personalisierte KI-Erlebnisse hervorheben und gleichzeitig ihre Privatsphäre und Offline-Funktionalität betonen.

Erstellen Sie Ihre eigenen KI-Lösungen: Kein Code erforderlich mit Siri und Apple Shortcuts

Entdecken Sie die Einfachheit, KI auf Ihre iOS- oder macOS-Geräte zu bringen, ohne eine einzige Zeile Code zu schreiben. Mit Private LLM, integriert in Siri und Shortcuts, können Benutzer mühelos leistungsstarke, KI-gesteuerte Workflows erstellen, die Textanalyse und -erzeugungsaufgaben automatisieren, sofortige Informationen liefern und die Kreativität fördern. Diese nahtlose Interaktion ermöglicht ein personalisiertes Erlebnis, das KI-Unterstützung überall in Ihrem Betriebssystem bringt, und macht jede Aktion intelligenter und intuitiver. Zusätzlich unterstützt Private LLM auch die beliebte x-callback-url-Spezifikation, die von über 70 beliebten iOS- und macOS-Anwendungen unterstützt wird. Private LLM kann verwendet werden, um diesen Apps nahtlos KI-Funktionalität auf dem Gerät hinzuzufügen.
Ein iPhone zeigt die Schnittstelle der Private LLM-App mit einer Apple Shortcut-Integration und zeigt eine nahtlose Benutzererfahrung für die Personalisierung von KI-Interaktionen auf iOS

Universeller Zugang ohne Abonnements

Verzichten Sie auf Abonnements für eine klügere Wahl mit Private LLM. Ein einzelner Kauf schaltet die App auf allen Apple-Plattformen frei – iPhone, iPad und Mac – und ermöglicht Family Sharing für bis zu sechs Verwandte. Dieser Ansatz vereinfacht nicht nur den Zugang, sondern erhöht auch den Wert Ihrer Investition und macht digitale Privatsphäre und Intelligenz universell in Ihrer Familie verfügbar.
Screenshot der Private LLM-Schnittstelle auf macOS, der einen Benutzer zeigt, der eine Aufforderung in das Texteingabefeld der Anwendung eingibt, bereit, sofortige Offline-Antworten vom lokalen Sprachmodell zu erhalten

KI-Sprachdienste überall in macOS

Verwandeln Sie Ihr Schreiben in allen macOS-Apps mit KI-gestützten Werkzeugen. Von Grammatikkorrekturen bis zu Zusammenfassungen und darüber hinaus unterstützt unsere Lösung mehrere Sprachen, einschließlich Englisch und ausgewählte westeuropäische Sprachen, für eine makellose Textverbesserung.
Screenshot, der die Integration von Private LLM im systemweiten Dienstemenü von macOS zeigt.

Überlegene Modellleistung mit modernster Quantisierung

Der Kern der überlegenen Modellleistung von Private LLM liegt in der Verwendung des hochmodernen OmniQuant-Quantisierungsalgorithmus. Beim Quantisieren von LLMs für die Inferenz auf dem Gerät tendieren Ausreißerwerte in den LLM-Gewichten dazu, einen deutlichen negativen Effekt auf die Textgenerierungsqualität zu haben. Die Omniquant-Quantisierung behandelt Ausreißer durch den Einsatz eines optimierungsbasierten, erlernbaren Gewichtsbeschneidungsmechanismus, der die Gewichtsverteilung des Modells mit außergewöhnlicher Präzision bewahrt. Die von beliebten Open-Source-LLM-Inferenz-Frameworks und darauf basierenden Apps verwendete RTN (Round to nearest)-Quantisierung behandelt Ausreißerwerte während der Quantisierung nicht, was zu einer minderwertigen Textgenerierungsqualität führt. Die OmniQuant-Quantisierung in Kombination mit optimierten, modellspezifischen Metal-Kernels ermöglicht es Private LLM, Textgenerierung zu liefern, die nicht nur schnell, sondern auch von höchster Qualität ist und die Messlatte für LLMs auf dem Gerät erheblich höher legt.
Screenshot von Private LLM, das das mit 4-Bit OmniQuant quantisierte Mixtral 8x7B Instruct-Modell ausführt, mit dem Sally-Prompt.
Screenshot von LMStudio, das das mit Q8_0 quantisierte Mixtral 8x7B Instruct-Modell ausführt, mit dem Sally-Prompt.

Sehen Sie, was unsere Benutzer im App Store über uns sagen

Remarkably good app, very active developer
by Conventional Dog-Apr 7, 2024

Possibly the single best app purchase I've ever made. The developer is constantly improving it and talking with users on Discord and elsewhere. One price includes Mac, iPhone, and iPad versions (with family sharing). Mac shortcuts can be used to create what amount to custom GPTs. (There's even a user-contributed, quite clever bedtime story generator on the website.) The 10.7B-parameter SOLAR LLM (one of many included) running on my 16 GB M1 MacBook Air gives me fast responses that are subjectively almost on the level of GPT-3.5. For something running completely locally with full privacy, it's remarkable. More RAM allows an even larger choice of language models. But the tiniest model running on my iPhone 12 Pro is usable. (Tip: Experiment with changing the system prompt to fine-tune it for your purposes.)

Version 1.8.3|United States

Laden Sie die besten Open-Source-LLMs herunter

macOS

Phi-3 Mini 3.8B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated Uncensored

Meta Llama 3 70B-basierte Modelle

Apple-Silicon-Macs mit mindestens 48GB RAM
Meta Llama 3 70B Instruct 🦙

Google Gemma-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Mixtral 8x7B-basierte Modelle

Apple-Silicon-Macs mit mindestens 32GB RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Llama 33B-basierte Modelle

Apple-Silicon-Macs mit mindestens 24GB RAM
WizardLM 33B v1.0 Uncensored

Llama 2 13B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

CodeLlama 13B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
WhiteRabbitNeo-13B-v1

Llama 2 7B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Solar 10.7B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Phi-2 3B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 Uncensored 🐬

StableLM 3B Basierte Modelle

Alle Intel- und Apple-Silicon-Macs
StableLM Zephyr 3B 🪁

Yi 6B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Yi 6B Chat 🇨🇳

Yi 34B-basierte Modelle

Apple-Silicon-Macs mit mindestens 24GB RAM
Yi 34B Chat 🇨🇳
iOS

Phi-3 Mini 3.8B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated Uncensored

Google Gemma-basierte Modelle

auf Geräten mit 8GB RAM oder mehr
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Llama 2 7B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Phi-2 3B-basierte Modelle

auf Geräten mit 4GB RAM oder mehr
Phi-2 Orange 🍊Dolphin 2.6 Phi-2 Uncensored 🐬Phi-2 Super 🤖Phi-2 Orange v2 🍊

H2O Danube-basierte Modelle

auf allen Geräten
H2O Danube 1.8B Chat

StableLM 3B Basierte Modelle

auf Geräten mit 4GB RAM oder mehr
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

TinyLlama 1.1B Basierte Modelle

auf allen Geräten
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Yi 6B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Yi 6B Chat 🇨🇳
Wie können wir helfen?

Egal ob Sie eine Frage haben oder ein Problem mit Private LLM – wir sind für Sie da. Geben Sie einfach Ihre Daten im untenstehenden Formular ein, und wir melden uns so schnell wie möglich bei Ihnen.