Private LLM Chat AI privata e non censurata per iPhone, iPad e Mac

Niente cloud, niente tracciamento, niente login.

Esegui l'AI offline sul tuo iPhone, iPad e Mac

Private LLM funziona interamente sul tuo iPhone, iPad o Mac. Le tue conversazioni non lasciano mai il dispositivo e non è richiesta alcuna connessione internet dopo il primo download del modello. Nessun account, nessun tracciamento, nessun log. Un unico acquisto sblocca l'app su ogni dispositivo Apple che possiedi e nel tuo gruppo di In famiglia.
Una vista ravvicinata dello schermo di un iPhone che mostra l'interfaccia dell'app Private LLM, in cui un prompt di testo viene inserito in un'interfaccia simile a una chat, evidenziando la capacità dell'app di eseguire modelli linguistici sofisticati localmente sul dispositivo per una maggiore privacy e funzionalità offline

Esegui DeepSeek R1, Llama 3.3, Qwen3 e Gemma 3 localmente

Private LLM esegue i principali modelli open-source direttamente sui tuoi dispositivi Apple: DeepSeek R1 Distill, Llama 3.3 70B, Qwen3 4B, Phi 4, Google Gemma 3 e altri. Ogni conversazione rimane sul dispositivo e ogni modello è quantizzato internamente per la migliore qualità possibile sul tuo hardware.
Screenshot dell'app Private LLM su un iPhone, che mostra un'interfaccia intuitiva con un elenco di Large Language Models (LLM) scaricabili disponibili per l'uso offline, mettendo in mostra una varietà di nomi e descrizioni dei modelli, sottolineando la capacità dell'app per esperienze AI personalizzate e mettendo in evidenza la sua privacy e funzionalità offline.

AI locale in Siri e Apple Shortcuts — Senza codice

Private LLM si collega direttamente a Siri e all'app Shortcuts. Crea flussi di lavoro basati sull'AI per riassumere testi, generare contenuti o inviare risposte a una qualsiasi delle oltre 70 app che supportano la specifica x-callback-url. Non è richiesto alcun codice.
Un iPhone che mostra l'interfaccia dell'app Private LLM con un'integrazione Apple Shortcut, che mostra un'esperienza utente fluida per personalizzare le interazioni AI su iOS

Un acquisto, nessun abbonamento — In famiglia per sei persone

Abbandona gli abbonamenti per una scelta più intelligente con Private LLM. Un singolo acquisto sblocca l'app su tutte le piattaforme Apple—iPhone, iPad e Mac—abilitando al contempo In famiglia per un massimo di sei parenti. Questo approccio non solo semplifica l'accesso, ma aumenta anche il valore del tuo investimento, rendendo la privacy digitale e l'intelligenza universalmente disponibili nella tua famiglia.
Screenshot dell'interfaccia di Private LLM su macOS, con un utente che digita un prompt nel campo di input del testo dell'applicazione, pronto a ricevere risposte istantanee e offline dal modello linguistico locale

Strumenti di scrittura AI integrati in macOS

Seleziona qualsiasi testo in un'app macOS, fai clic con il tasto destro e Private LLM lo riscriverà, riassumerà o correggerà, interamente sul dispositivo. Supporta l'inglese e le principali lingue dell'Europa occidentale.
Screenshot che mostra l'integrazione di Private LLM all'interno del menu dei servizi di sistema di macOS.

Creato da due ingegneri, non da VC

Private LLM è creato da due ingegneri nell'UE: autofinanziato, senza fondi di venture capital, senza roadmap di crescita forzata. Siamo l'unica app sull'App Store con quantizzazione OmniQuant e GPTQ, che producono risultati misurabilmente migliori rispetto alla quantizzazione RTN utilizzata dalle app wrapper MLX e llama.cpp come Ollama e LM Studio. Rispondiamo agli utenti, non agli investitori: ecco perché i tuoi dati rimangono sul dispositivo e lo faranno sempre.
Un iPhone che mostra l'interfaccia dell'app Private LLM con un'integrazione Apple Shortcut, che mostra un'esperienza utente fluida per personalizzare le interazioni AI su iOS

Dall'App Store

Recensioni reali da utenti iPhone e Mac

Quantizzazione OmniQuant e GPTQ: output migliore, meno memoria

Private LLM utilizza OmniQuant e la quantizzazione GPTQ. Quando gli LLM vengono quantizzati per l'inferenza sul dispositivo, i valori di peso anomali compromettono la qualità della generazione del testo. OmniQuant modula i pesi anomali con un meccanismo di clipping basato sull'ottimizzazione che riduce al minimo l'errore di quantizzazione. GPTQ utilizza informazioni approssimative del secondo ordine (Hessian) per ridurre al minimo l'errore di ricostruzione sui pesi più importanti. La quantizzazione RTN affine utilizzata dalle app basate su MLX come LM Studio, e le varianti RTN a blocchi utilizzate dalle app basate su llama.cpp come Ollama, saltano questo tipo di ottimizzazione per singolo peso: ecco perché quelle app producono un output di qualità inferiore sullo stesso hardware Apple. Esploriamo costantemente metodi di quantizzazione avanzati, un lavoro che le app wrapper basate su motori di inferenza di terze parti non possono intraprendere. OmniQuant e GPTQ, abbinati a kernel Metal ottimizzati specifici per il modello, consentono a Private LLM di offrire una generazione di testo veloce e di alta qualità sull'hardware Apple.

Scarica i migliori LLM open source

iOS

Modelli basati su DeepSeek R1 Distill

Per iPhone/iPad con 16GB+ di RAM
DeepSeek R1 Distill Qwen 14B

Modelli basati su Google Gemma 3 1B

Per iPhone/iPad con 4GB+ di RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modelli basati su Google Gemma 2 2B

Per iPhone/iPad con 4GB+ di RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modelli basati su Qwen 2.5

Per iPhone/iPad con 8GB+ di RAM
Qwen 2.5 Coder 7B

Modelli basati su Qwen 2.5 14B

Per iPhone/iPad con 16GB+ di RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modelli basati su Phi-3 Mini 3.8B

Per iPhone/iPad con 6GB+ di RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modelli basati su Google Gemma

Per iPhone/iPad con 8GB+ di RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modelli basati su Llama 2 7B

Per iPhone/iPad con 6GB+ di RAM
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Modelli basati su H2O Danube

Per iPhone/iPad con 4GB+ di RAM
H2O Danube 1.8B Chat

Modelli basati su StableLM 3B

Per iPhone/iPad con 4GB+ di RAM
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

Modelli basati su TinyLlama 1.1B

Per iPhone/iPad con 4GB+ di RAM
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Modelli basati su Yi 6B

Per iPhone/iPad con 6GB+ di RAM
Yi 6B Chat 🇨🇳
macOS

Modelli basati su DeepSeek R1 Distill

Per Mac con Apple Silicon e 32GB+ di RAM
Fuse O1 DeepSeek R1 QwQ SkyT1 32BDeepSeek R1 Distill Qwen 32B Abliterated (Uncensored)

Modelli basati su DeepSeek R1 Distill

Per Mac con Apple Silicon e 48GB+ di RAM
DeepSeek R1 Distill Llama 70BR1 1776 Distill Llama 70B

Modelli basati su Google Gemma 3 1B

Per Mac con Apple Silicon e 8GB+ di RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modelli basati su Phi-4 14B

Per Mac con Apple Silicon e 16GB+ di RAM
Phi-4

Modelli basati su Meta Llama 3.1 70B

Per Mac con Apple Silicon e 64GB+ di RAM
Meta Llama 3.1 70B Instruct 🦙

Modelli basati su Qwen 2.5 14B

Per Mac con Apple Silicon e 16GB+ di RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modelli basati su Google Gemma 2 2B

Per Mac con Apple Silicon e 8GB+ di RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modelli basati su Phi-3 Mini 3.8B

Per Mac con Apple Silicon e 8GB+ di RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modelli basati su Google Gemma

Per Mac con Apple Silicon e 8GB+ di RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modelli basati su Mixtral 8x7B

Per Mac con Apple Silicon e 32GB+ di RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Modelli basati su Llama 33B

Per Mac con Apple Silicon e 24GB+ di RAM
WizardLM 33B v1.0 (Uncensored)

Modelli basati su Llama 2 13B

Per Mac con Apple Silicon e 16GB+ di RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

Modelli basati su CodeLlama 13B

Per Mac con Apple Silicon e 16GB+ di RAM
WhiteRabbitNeo-13B-v1

Modelli basati su Llama 2 7B

Per Mac con Apple Silicon e 8GB+ di RAM
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Modelli basati su Solar 10.7B

Per Mac con Apple Silicon e 16GB+ di RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Modelli basati su Phi-2 3B

Per Mac con Apple Silicon e 8GB+ di RAM
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬

Modelli basati su StableLM 3B

Per Mac con Apple Silicon e 8GB+ di RAM
StableLM Zephyr 3B 🪁

Modelli basati su Yi 6B

Per Mac con Apple Silicon e 8GB+ di RAM
Yi 6B Chat 🇨🇳

Modelli basati su Yi 34B

Per Mac con Apple Silicon e 24GB+ di RAM
Yi 34B Chat 🇨🇳
Come possiamo aiutarti?

Che tu abbia una domanda o stia riscontrando un problema con Private LLM, siamo qui per aiutarti. Inserisci i tuoi dati nel modulo sottostante e ti risponderemo il prima possibile.