Private LLM Chatbot IA Sécurisé Et Privé Fonctionnant Localement Sur Votre iPhone, iPad Et Mac

Vous Souciez-Vous De Protéger Votre Vie Privée ?

Pas d'Internet ? Pas de problème ! Private LLM fonctionne partout, à tout moment !

Private LLM est un chatbot IA local pour iOS et macOS qui fonctionne hors ligne, gardant vos informations complètement sur l'appareil, en sécurité et privées. Il n'a pas besoin d'internet pour fonctionner, donc vos données ne quittent jamais votre appareil et restent uniquement avec vous. Sans frais d'abonnement, vous payez une fois et l'utilisez sur tous vos appareils Apple. Il est conçu pour tout le monde, avec des fonctionnalités faciles à utiliser pour générer du texte, aider avec la langue, et bien plus encore. Private LLM utilise les derniers modèles IA quantifiés avec des techniques de quantification de pointe pour fournir une expérience IA de haute qualité sur l'appareil sans compromettre votre vie privée. C'est une manière intelligente et sécurisée d'être créatif et productif, à tout moment et n'importe où.
Vue rapprochée d'un écran d'iPhone affichant l'interface de l'application Private LLM, où une invite de texte est entrée dans une interface semblable à un chat, mettant en évidence la capacité de l'application à exécuter des modèles de langage sophistiqués localement sur l'appareil pour une meilleure confidentialité et fonctionnalité hors ligne

Exploitez la puissance de l'IA open-source avec Private LLM

Private LLM ouvre la porte aux vastes possibilités de l'IA en prenant en charge une large sélection de modèles de LLM open-source, incluant Llama 3, Google Gemma, Microsoft Phi-3, la famille Mixtral 8x7B et bien d'autres, sur vos iPhones, iPads et Macs. Cette large gamme de modèles compatibles garantit que les utilisateurs d'iOS, iPadOS et macOS peuvent pleinement exploiter la puissance de l'IA, personnalisée spécifiquement pour leurs appareils.
Capture d'écran de l'application Private LLM sur un iPhone, affichant une interface conviviale avec une liste de modèles de langage larges (LLMs) téléchargeables disponibles pour une utilisation hors ligne, présentant une variété de noms de modèles et de descriptions, soulignant la capacité de l'application pour des expériences IA personnalisées tout en mettant en évidence sa confidentialité et fonctionnalité hors ligne.

Créez vos propres solutions IA : Pas de code nécessaire avec Siri et les Raccourcis Apple

Découvrez la simplicité d'apporter l'IA à vos appareils iOS ou macOS sans écrire une seule ligne de code. Avec Private LLM intégré dans Siri et les Raccourcis, les utilisateurs peuvent créer sans effort des workflows puissants, pilotés par l'IA, qui automatisent les tâches de parsage et de génération de texte, fournissent des informations instantanées, et améliorent la créativité. Cette interaction fluide permet une expérience personnalisée qui apporte l'assistance IA partout dans votre système d'exploitation, rendant chaque action plus intelligente et intuitive. De plus, Private LLM supporte également la populaire spécification x-callback-url, qui est soutenue par plus de 70 applications populaires iOS et macOS. Private LLM peut être utilisé pour ajouter de manière transparente une fonctionnalité IA sur l'appareil à ces applications.
Un iPhone affichant l'interface de l'application Private LLM avec une intégration de Raccourci Apple, montrant une expérience utilisateur sans couture pour personnaliser les interactions IA sur iOS

Accès universel sans abonnements

Abandonnez les abonnements pour un choix plus judicieux avec Private LLM. Un seul achat débloque l'application sur toutes les plateformes Apple—iPhone, iPad, et Mac—tout en activant le Partage familial pour jusqu'à six membres de la famille. Cette approche non seulement simplifie l'accès mais amplifie également la valeur de votre investissement, rendant la confidentialité numérique et l'intelligence universellement disponibles dans votre famille.
Capture d'écran de l'interface Private LLM sur macOS, présentant un utilisateur tapant une invite dans le champ de saisie de texte de l'application, prêt à recevoir des réponses instantanées, hors ligne, du modèle de langue local

Services linguistiques IA partout dans macOS

Transformez votre écriture dans toutes les applications macOS avec des outils alimentés par l'IA. De la correction grammaticale à la résumé et au-delà, notre solution prend en charge plusieurs langues, y compris l'anglais et certaines langues d'Europe occidentale, pour une amélioration de texte sans faille.
Capture d'écran montrant l'intégration de Private LLM dans le menu des services système de macOS.

Performance supérieure du modèle avec une quantification de pointe

Le cœur de la performance supérieure du modèle Private LLM réside dans son utilisation de l'algorithme de quantification OmniQuant de pointe. Lors de la quantification des LLM pour l'inférence sur appareil, les valeurs aberrantes dans les poids des LLM ont tendance à avoir un effet négatif marqué sur la qualité de la génération de texte. La quantification Omniquant gère les valeurs aberrantes en employant un mécanisme de découpage de poids apprenable basé sur l'optimisation, qui préserve la distribution des poids du modèle avec une précision exceptionnelle. La quantification RTN (Round to nearest) utilisée par les cadres d'inférence LLM open-source populaires et les applications basées sur eux, ne gère pas les valeurs aberrantes lors de la quantification, ce qui conduit à une qualité de génération de texte inférieure. La quantification OmniQuant, associée à des noyaux Metal optimisés spécifiques au modèle, permet à Private LLM de fournir une génération de texte non seulement rapide mais aussi de la plus haute qualité, élevant considérablement la barre pour les LLM sur appareil.
Capture d'écran de Private LLM exécutant le modèle Mixtral 8x7B Instruct quantisé en 4 bits OmniQuant, avec l'invite Sally.
Capture d'écran de LMStudio exécutant le modèle Mixtral 8x7B Instruct quantisé Q8_0, avec l'invite Sally.

Voir ce que nos utilisateurs disent de nous sur l'App Store

Remarkably good app, very active developer
by Conventional Dog-Apr 7, 2024

Possibly the single best app purchase I've ever made. The developer is constantly improving it and talking with users on Discord and elsewhere. One price includes Mac, iPhone, and iPad versions (with family sharing). Mac shortcuts can be used to create what amount to custom GPTs. (There's even a user-contributed, quite clever bedtime story generator on the website.) The 10.7B-parameter SOLAR LLM (one of many included) running on my 16 GB M1 MacBook Air gives me fast responses that are subjectively almost on the level of GPT-3.5. For something running completely locally with full privacy, it's remarkable. More RAM allows an even larger choice of language models. But the tiniest model running on my iPhone 12 Pro is usable. (Tip: Experiment with changing the system prompt to fine-tune it for your purposes.)

Version 1.8.3|United States

Téléchargez les Meilleurs LLMs Open Source

macOS

Modèles Basés sur Phi-3 Mini 3.8B

Tous les Macs Intel et Apple Silicon
Phi-3 Mini 4K Instruct

Modèles Basés sur Google Gemma

Tous les Macs Intel et Apple Silicon
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modèles Basés sur Mixtral 8x7B

Macs Apple Silicon avec au moins 32 Go de RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Modèles Basés sur Llama 33B

Macs Apple Silicon avec au moins 24 Go de RAM
WizardLM 33B v1.0 Uncensored

Modèles Basés sur Llama 2 13B

Macs Apple Silicon avec au moins 16 Go de RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

Modèles Basés sur CodeLlama 13B

Macs Apple Silicon avec au moins 16 Go de RAM
WhiteRabbitNeo-13B-v1

Modèles Basés sur Llama 2 7B

Tous les Macs Intel et Apple Silicon
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Modèles Basés sur Solar 10.7B

Macs Apple Silicon avec au moins 16 Go de RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Modèles Basés sur Phi-2 3B

Tous les Macs Intel et Apple Silicon
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 🐬

Modèles Basés sur StableLM 3B

Tous les Macs Intel et Apple Silicon
StableLM Zephyr 3B 🪁

Modèles Basés sur Yi 6B

Tous les Macs Intel et Apple Silicon
Yi 6B Chat 🇨🇳

Modèles Basés sur Yi 34B

Macs Apple Silicon avec au moins 24 Go de RAM
Yi 34B Chat 🇨🇳
iOS

Modèles Basés sur Phi-3 Mini 3.8B

sur les appareils avec 6 Go de RAM ou plus
Phi-3 Mini 4K Instruct

Modèles Basés sur Google Gemma

sur les appareils avec 8 Go de RAM ou plus
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modèles Basés sur Llama 2 7B

sur les appareils avec 6 Go de RAM ou plus
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Modèles Basés sur Phi-2 3B

sur les appareils avec 4 Go de RAM ou plus
Phi-2 Orange 🍊Dolphin 2.6 Phi-2 🐬Phi-2 Super 🤖Phi-2 Orange v2 🍊

Modèles Basés sur H2O Danube

sur tous les appareils
H2O Danube 1.8B Chat

Modèles Basés sur StableLM 3B

sur les appareils avec 4 Go de RAM ou plus
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

Modèles Basés sur TinyLlama 1.1B

sur tous les appareils
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Modèles Basés sur Yi 6B

sur les appareils avec 6 Go de RAM ou plus
Yi 6B Chat 🇨🇳
Comment pouvons-nous aider ?

Que vous ayez une question ou que vous rencontriez un problème avec Private LLM, nous sommes là pour vous aider. Remplissez simplement vos coordonnées dans le formulaire ci-dessous, et nous reviendrons vers vous dès que possible.