Private LLM Sicherer, Privater KI-Chatbot, Der Lokal Auf Ihrem iPhone, iPad Und Mac Funktioniert

Ist Ihnen Der Schutz Ihrer Privatsphäre Wichtig?

Kein Internet? Kein Problem! Private LLM funktioniert überall und jederzeit!

Private LLM ist ein lokaler KI-Chatbot für iOS und macOS, der offline funktioniert, wobei Ihre Informationen vollständig auf dem Gerät bleiben, sicher und privat sind. Es ist keine Internetverbindung erforderlich, sodass Ihre Daten nie Ihr Gerät verlassen. Ohne Abonnementgebühren zahlen Sie einmal und nutzen es auf all Ihren Apple-Geräten. Es ist für jeden konzipiert, mit einfach zu bedienenden Funktionen für die Texterzeugung, Sprachhilfe und vieles mehr. Private LLM verwendet die neuesten KI-Modelle, die mit modernsten Quantisierungstechniken quantisiert sind, um ein hochwertiges KI-Erlebnis auf dem Gerät zu bieten, ohne Ihre Privatsphäre zu beeinträchtigen. Es ist eine intelligente, sichere Möglichkeit, kreativ und produktiv zu sein, jederzeit und überall.
Eine Nahaufnahme eines iPhone-Bildschirms, der die Schnittstelle der Private LLM-App anzeigt, in der ein Textbefehl in eine Chat-ähnliche Schnittstelle eingegeben wird, was die Fähigkeit der App hervorhebt, ausgefeilte Sprachmodelle lokal auf dem Gerät für verbesserte Privatsphäre und Offline-Funktionalität auszuführen

Nutzen Sie die Kraft der Open-Source-KI mit Private LLM

Private LLM erschließt die umfangreichen Möglichkeiten der KI mit Unterstützung einer breiten Auswahl an Open-Source-LLM-Modellen, einschließlich Llama 3, Google Gemma, Microsoft Phi-3, Mixtral 8x7B-Familie und vielen mehr auf Ihren iPhones, iPads und Macs. Diese breite Modellunterstützung stellt sicher, dass Benutzer auf iOS, iPadOS und macOS die Kraft der KI vollständig nutzen können, speziell angepasst für ihre Geräte.
Screenshot der Private LLM-App auf einem iPhone, der eine benutzerfreundliche Schnittstelle mit einer Liste herunterladbarer Large Language Models (LLMs) für die Offline-Nutzung anzeigt, wobei eine Vielzahl von Modellnamen und -beschreibungen gezeigt wird, die die Fähigkeit der App für personalisierte KI-Erlebnisse hervorheben und gleichzeitig ihre Privatsphäre und Offline-Funktionalität betonen.

Erstellen Sie Ihre eigenen KI-Lösungen: Kein Code erforderlich mit Siri und Apple Shortcuts

Entdecken Sie die Einfachheit, KI auf Ihre iOS- oder macOS-Geräte zu bringen, ohne eine einzige Zeile Code zu schreiben. Mit Private LLM, integriert in Siri und Shortcuts, können Benutzer mühelos leistungsstarke, KI-gesteuerte Workflows erstellen, die Textanalyse und -erzeugungsaufgaben automatisieren, sofortige Informationen liefern und die Kreativität fördern. Diese nahtlose Interaktion ermöglicht ein personalisiertes Erlebnis, das KI-Unterstützung überall in Ihrem Betriebssystem bringt, und macht jede Aktion intelligenter und intuitiver. Zusätzlich unterstützt Private LLM auch die beliebte x-callback-url-Spezifikation, die von über 70 beliebten iOS- und macOS-Anwendungen unterstützt wird. Private LLM kann verwendet werden, um diesen Apps nahtlos KI-Funktionalität auf dem Gerät hinzuzufügen.
Ein iPhone zeigt die Schnittstelle der Private LLM-App mit einer Apple Shortcut-Integration und zeigt eine nahtlose Benutzererfahrung für die Personalisierung von KI-Interaktionen auf iOS

Universeller Zugang ohne Abonnements

Verzichten Sie auf Abonnements für eine klügere Wahl mit Private LLM. Ein einzelner Kauf schaltet die App auf allen Apple-Plattformen frei – iPhone, iPad und Mac – und ermöglicht Family Sharing für bis zu sechs Verwandte. Dieser Ansatz vereinfacht nicht nur den Zugang, sondern erhöht auch den Wert Ihrer Investition und macht digitale Privatsphäre und Intelligenz universell in Ihrer Familie verfügbar.
Screenshot der Private LLM-Schnittstelle auf macOS, der einen Benutzer zeigt, der eine Aufforderung in das Texteingabefeld der Anwendung eingibt, bereit, sofortige Offline-Antworten vom lokalen Sprachmodell zu erhalten

KI-Sprachdienste überall in macOS

Verwandeln Sie Ihr Schreiben in allen macOS-Apps mit KI-gestützten Werkzeugen. Von Grammatikkorrekturen bis zu Zusammenfassungen und darüber hinaus unterstützt unsere Lösung mehrere Sprachen, einschließlich Englisch und ausgewählte westeuropäische Sprachen, für eine makellose Textverbesserung.
Screenshot, der die Integration von Private LLM im systemweiten Dienstemenü von macOS zeigt.

Überlegene Modellleistung mit modernster Quantisierung

Der Kern der überlegenen Modellleistung von Private LLM liegt in der Verwendung des hochmodernen OmniQuant-Quantisierungsalgorithmus. Beim Quantisieren von LLMs für die Inferenz auf dem Gerät tendieren Ausreißerwerte in den LLM-Gewichten dazu, einen deutlichen negativen Effekt auf die Textgenerierungsqualität zu haben. Die Omniquant-Quantisierung behandelt Ausreißer durch den Einsatz eines optimierungsbasierten, erlernbaren Gewichtsbeschneidungsmechanismus, der die Gewichtsverteilung des Modells mit außergewöhnlicher Präzision bewahrt. Die von beliebten Open-Source-LLM-Inferenz-Frameworks und darauf basierenden Apps verwendete RTN (Round to nearest)-Quantisierung behandelt Ausreißerwerte während der Quantisierung nicht, was zu einer minderwertigen Textgenerierungsqualität führt. Die OmniQuant-Quantisierung in Kombination mit optimierten, modellspezifischen Metal-Kernels ermöglicht es Private LLM, Textgenerierung zu liefern, die nicht nur schnell, sondern auch von höchster Qualität ist und die Messlatte für LLMs auf dem Gerät erheblich höher legt.

Sehen Sie, was unsere Benutzer im App Store über uns sagen

A distinct approach
by Original Nifty-Oct 12, 2024

This application is unique in creating the conditions for an interaction whose essence is of a noticeably superior quality., despite (and partly because of) the fact that the model is running completely locally! While at the time of writing the UI is in the early stages of development, it is still workable, easy and stable, allowing the interaction with the model to continue over an extended period. The developers take a distinct and very refreshing ethical position, and are most generous. I am very grateful to them.

Version 1.8.9|United Kingdom

Laden Sie die besten Open-Source-LLMs herunter

iOS

Google Gemma 2 2B-basierte Modelle

auf Geräten mit 4GB RAM oder mehr
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Qwen 2.5-basierte Modelle

auf allen Geräten
Qwen 2.5 0.5B UnquantizedQwen 2.5 Coder 0.5B Unquantized

Qwen 2.5-basierte Modelle

auf Geräten mit 8GB RAM oder mehr
Qwen 2.5 7BFuseChat Qwen 2.5 7B InstructEVA Qwen2.5 7B v0.1 (Role-Play/Story Writing)

Qwen 2.5-basierte Modelle

auf Geräten mit 8GB RAM oder mehr
Qwen 2.5 Coder 7B

Qwen 2.5 14B-basierte Modelle

auf Geräten mit 16GB RAM oder mehr
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Phi-3 Mini 3.8B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Google Gemma-basierte Modelle

auf Geräten mit 8GB RAM oder mehr
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Llama 2 7B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Phi-2 3B-basierte Modelle

auf Geräten mit 4GB RAM oder mehr
Phi-2 Orange 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬Phi-2 Super 🤖Phi-2 Orange v2 🍊

H2O Danube-basierte Modelle

auf allen Geräten
H2O Danube 1.8B Chat

StableLM 3B Basierte Modelle

auf Geräten mit 4GB RAM oder mehr
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

TinyLlama 1.1B Basierte Modelle

auf allen Geräten
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Yi 6B-basierte Modelle

auf Geräten mit 6GB RAM oder mehr
Yi 6B Chat 🇨🇳
macOS

Meta Llama 3.1 70B-basierte Modelle

Apple-Silicon-Macs mit mindestens 64GB RAM
Meta Llama 3.1 70B Instruct 🦙

Qwen 2.5 14B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Qwen 2.5 32B-basierte Modelle

Apple-Silicon-Macs mit mindestens 24GB RAM
Qwen 2.5 32BQwen 2.5 Coder 32BEVA Qwen2.5 32B v0.2 (Role-Play/Story Writing)

Google Gemma 2 9B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Gemma-2 9B IT 💎Gemma-2 9B IT SPPO Iter3Tiger Gemma 9B v3 🐅 (Uncensored)FuseChat Gemma 2 9B Instruct

Google Gemma 2 2B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Phi-3 Mini 3.8B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Google Gemma-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Mixtral 8x7B-basierte Modelle

Apple-Silicon-Macs mit mindestens 32GB RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Llama 33B-basierte Modelle

Apple-Silicon-Macs mit mindestens 24GB RAM
WizardLM 33B v1.0 (Uncensored)

Llama 2 13B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

CodeLlama 13B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
WhiteRabbitNeo-13B-v1

Llama 2 7B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Solar 10.7B-basierte Modelle

Apple-Silicon-Macs mit mindestens 16GB RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Phi-2 3B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬

StableLM 3B Basierte Modelle

Alle Intel- und Apple-Silicon-Macs
StableLM Zephyr 3B 🪁

Yi 6B-basierte Modelle

Alle Intel- und Apple-Silicon-Macs
Yi 6B Chat 🇨🇳

Yi 34B-basierte Modelle

Apple-Silicon-Macs mit mindestens 24GB RAM
Yi 34B Chat 🇨🇳
Wie können wir helfen?

Egal ob Sie eine Frage haben oder ein Problem mit Private LLM – wir sind für Sie da. Geben Sie einfach Ihre Daten im untenstehenden Formular ein, und wir melden uns so schnell wie möglich bei Ihnen.