Private LLM logo

Private LLM Chat de IA privado e sem censura para iPhone, iPad e Mac

Sem nuvem, sem rastreamento, sem logins.

Execute IA offline no seu iPhone, iPad e Mac

O Private LLM roda inteiramente no seu iPhone, iPad ou Mac. Suas conversas nunca saem do dispositivo e não é necessária internet após o download inicial do modelo. Sem conta, sem rastreamento, sem logs. Uma compra desbloqueia o app em todos os seus dispositivos Apple e no seu grupo de Compartilhamento Familiar.
Uma visão em close da tela de um iPhone exibindo a interface do app Private LLM, onde um prompt de texto é inserido em uma interface de chat, destacando a capacidade do app de executar modelos de linguagem sofisticados localmente no dispositivo para maior privacidade e funcionalidade offline

Execute DeepSeek R1, Llama 3.3, Qwen3 e Gemma 3 localmente

O Private LLM executa os principais modelos de código aberto diretamente nos seus dispositivos Apple — DeepSeek R1 Distill, Llama 3.3 70B, Qwen3 4B, Phi 4, Google Gemma 3 e mais. Cada conversa permanece no dispositivo e cada modelo é quantizado internamente para a melhor qualidade possível no seu hardware.
Captura de tela do app Private LLM em um iPhone, exibindo uma interface amigável com uma lista de Large Language Models (LLMs) disponíveis para download para uso offline, mostrando uma variedade de nomes e descrições de modelos, enfatizando a capacidade do app para experiências de IA personalizadas enquanto destaca sua privacidade e funcionalidade offline.

IA local no Siri e Apple Shortcuts — Sem código

O Private LLM se conecta diretamente ao Siri e ao app Shortcuts. Crie fluxos de trabalho baseados em IA para resumir textos, gerar textos ou enviar respostas para qualquer um dos mais de 70 apps que suportam a especificação x-callback-url. Nenhum código é necessário.
Um iPhone exibindo a interface do app Private LLM com uma integração de Apple Shortcut, mostrando uma experiência de usuário fluida para personalizar interações de IA no iOS

Uma compra, sem assinatura — Compartilhamento Familiar para seis

Abandone as assinaturas por uma escolha mais inteligente com o Private LLM. Uma única compra desbloqueia o app em todas as plataformas Apple — iPhone, iPad e Mac — permitindo o Compartilhamento Familiar para até seis parentes. Essa abordagem simplifica o acesso e amplia o valor do seu investimento, tornando a privacidade e a inteligência digital universalmente disponíveis para sua família.
Captura de tela da interface do Private LLM no macOS, apresentando um usuário digitando um prompt no campo de entrada de texto do aplicativo, pronto para receber respostas instantâneas e offline do modelo de linguagem local

Ferramentas de escrita com IA integradas ao macOS

Selecione qualquer texto em qualquer app do macOS, clique com o botão direito e o Private LLM reescreve, resume ou corrige — inteiramente no dispositivo. Suporta inglês e os principais idiomas da Europa Ocidental.
Captura de tela mostrando a integração do Private LLM no menu de serviços do sistema macOS.

Criado por dois engenheiros, não por VCs

O Private LLM foi criado por dois engenheiros na UE — financiado por conta própria, sem capital de risco, sem roteiro de crescimento forçado. Somos o único app na App Store com quantização OmniQuant e GPTQ, que produzem resultados comprovadamente melhores do que a quantização RTN usada por apps baseados em MLX e llama.cpp, como Ollama e LM Studio. Respondemos aos usuários, não a investidores — é por isso que seus dados permanecem no dispositivo e sempre permanecerão.
Um iPhone exibindo a interface do app Private LLM com uma integração de Apple Shortcut, mostrando uma experiência de usuário fluida para personalizar interações de IA no iOS

Da App Store

Avaliações reais de usuários de iPhone e Mac

Quantização OmniQuant e GPTQ: Melhor resultado, menos memória

O Private LLM usa OmniQuant e quantização GPTQ. Quando LLMs são quantizados para inferência no dispositivo, valores de peso discrepantes prejudicam a qualidade da geração de texto. O OmniQuant modula pesos discrepantes com um mecanismo de corte baseado em otimização que minimiza o erro de quantização. O GPTQ usa informações de segunda ordem (Hessiana) aproximadas para minimizar o erro de reconstrução nos pesos mais importantes. A quantização RTN afim usada por apps baseados em MLX, como o LM Studio, e as variantes RTN em blocos usadas por apps baseados em llama.cpp, como o Ollama, ignoram esse tipo de otimização por peso — é por isso que esses apps produzem resultados de menor qualidade no mesmo hardware Apple. Exploramos constantemente métodos avançados de quantização, um trabalho que apps baseados em motores de inferência de terceiros não podem realizar. OmniQuant e GPTQ, combinados com kernels Metal otimizados para modelos específicos, permitem que o Private LLM entregue uma geração de texto rápida e de alta qualidade no hardware Apple.

Baixe os melhores LLMs de código aberto

iOS

Modelos baseados em DeepSeek R1 Distill

Para iPhones/iPads com 8GB+ de RAM
DeepSeek R1 Distill Llama 8BDeepSeek R1 Distill Qwen 7BDeepSeek R1 Distill Llama 8B Abliterated (Uncensored)

Modelos baseados em DeepSeek R1 Distill

Para iPhones/iPads com 16GB+ de RAM
DeepSeek R1 Distill Qwen 14B

Modelos baseados em Google Gemma 3 1B

Para iPhones/iPads com 4GB+ de RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modelos baseados em Google Gemma 2 2B

Para iPhones/iPads com 4GB+ de RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modelos baseados em Qwen 2.5

Para iPhones/iPads com 8GB+ de RAM
Qwen 2.5 Coder 7B

Modelos baseados em Qwen 2.5 14B

Para iPhones/iPads com 16GB+ de RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modelos baseados em Phi-3 Mini 3.8B

Para iPhones/iPads com 6GB+ de RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modelos baseados em Google Gemma

Para iPhones/iPads com 8GB+ de RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modelos baseados em Llama 2 7B

Para iPhones/iPads com 6GB+ de RAM
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Modelos baseados em Phi-2 3B

Para iPhones/iPads com 4GB+ de RAM
Phi-2 Orange 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬Phi-2 Super 🤖Phi-2 Orange v2 🍊

Modelos baseados em H2O Danube

Para iPhones/iPads com 4GB+ de RAM
H2O Danube 1.8B Chat

Modelos baseados em StableLM 3B

Para iPhones/iPads com 4GB+ de RAM
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

Modelos baseados em TinyLlama 1.1B

Para iPhones/iPads com 4GB+ de RAM
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Modelos baseados em Yi 6B

Para iPhones/iPads com 6GB+ de RAM
Yi 6B Chat 🇨🇳
macOS

Modelos baseados em DeepSeek R1 Distill

Para Macs com Apple Silicon com 32GB+ de RAM
Fuse O1 DeepSeek R1 QwQ SkyT1 32BDeepSeek R1 Distill Qwen 32B Abliterated (Uncensored)

Modelos baseados em DeepSeek R1 Distill

Para Macs com Apple Silicon com 48GB+ de RAM
DeepSeek R1 Distill Llama 70BR1 1776 Distill Llama 70B

Modelos baseados em Google Gemma 3 1B

Para Macs com Apple Silicon com 8GB+ de RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modelos baseados em Phi-4 14B

Para Macs com Apple Silicon com 16GB+ de RAM
Phi-4

Modelos baseados em Meta Llama 3.1 70B

Para Macs com Apple Silicon com 64GB+ de RAM
Meta Llama 3.1 70B Instruct 🦙

Modelos baseados em Qwen 2.5 14B

Para Macs com Apple Silicon com 16GB+ de RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modelos baseados em Qwen 2.5 32B

Para Macs com Apple Silicon com 24GB+ de RAM
Qwen 2.5 32BQwen 2.5 Coder 32BEVA Qwen2.5 32B v0.2 (Role-Play/Story Writing)OpenHands LM 32B v0.1 (Coding)

Modelos baseados em Google Gemma 2 2B

Para Macs com Apple Silicon com 8GB+ de RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modelos baseados em Phi-3 Mini 3.8B

Para Macs com Apple Silicon com 8GB+ de RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modelos baseados em Google Gemma

Para Macs com Apple Silicon com 8GB+ de RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modelos baseados em Mixtral 8x7B

Para Macs com Apple Silicon com 32GB+ de RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Modelos baseados em Llama 33B

Para Macs com Apple Silicon com 24GB+ de RAM
WizardLM 33B v1.0 (Uncensored)

Modelos baseados em Llama 2 13B

Para Macs com Apple Silicon com 16GB+ de RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

Modelos baseados em CodeLlama 13B

Para Macs com Apple Silicon com 16GB+ de RAM
WhiteRabbitNeo-13B-v1

Modelos baseados em Llama 2 7B

Para Macs com Apple Silicon com 8GB+ de RAM
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Modelos baseados em Solar 10.7B

Para Macs com Apple Silicon com 16GB+ de RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Modelos baseados em Phi-2 3B

Para Macs com Apple Silicon com 8GB+ de RAM
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬

Modelos baseados em StableLM 3B

Para Macs com Apple Silicon com 8GB+ de RAM
StableLM Zephyr 3B 🪁

Modelos baseados em Yi 6B

Para Macs com Apple Silicon com 8GB+ de RAM
Yi 6B Chat 🇨🇳

Modelos baseados em Yi 34B

Para Macs com Apple Silicon com 24GB+ de RAM
Yi 34B Chat 🇨🇳
Como podemos ajudar?

Se você tem uma dúvida ou está enfrentando um problema com o Private LLM, estamos aqui para ajudar. Basta preencher seus dados no formulário abaixo e entraremos em contato assim que possível.