Private LLM Prywatny, nieocenzurowany czat AI na iPhone'a, iPada i Maca

Bez chmury, bez śledzenia, bez logowania.

Uruchamiaj AI offline na swoim iPhonie, iPadzie i Macu

Private LLM działa w całości na Twoim iPhonie, iPadzie lub Macu. Twoje rozmowy nigdy nie opuszczają urządzenia, a po pobraniu modelu nie jest wymagany internet. Brak konta, brak śledzenia, brak logów. Jeden zakup odblokowuje aplikację na każdym posiadanym urządzeniu Apple oraz w ramach Chmury rodzinnej.
Zbliżenie na ekran iPhone'a z interfejsem aplikacji Private LLM, gdzie w czacie wprowadzany jest prompt tekstowy, co podkreśla zdolność aplikacji do lokalnego uruchamiania zaawansowanych modeli językowych w celu zwiększenia prywatności i funkcjonalności offline

Uruchamiaj lokalnie DeepSeek R1, Llama 3.3, Qwen3 i Gemma 3

Private LLM uruchamia wiodące modele open-source bezpośrednio na Twoich urządzeniach Apple — DeepSeek R1 Distill, Llama 3.3 70B, Qwen3 4B, Phi 4, Google Gemma 3 i inne. Każda rozmowa pozostaje na urządzeniu, a każdy model jest kwantyzowany wewnętrznie dla uzyskania najlepszej możliwej jakości na Twoim sprzęcie.
Zrzut ekranu aplikacji Private LLM na iPhonie, przedstawiający przyjazny dla użytkownika interfejs z listą modeli LLM dostępnych do pobrania i użycia offline, prezentujący różnorodne nazwy i opisy modeli, podkreślający zdolność aplikacji do personalizacji doświadczeń AI przy zachowaniu prywatności i funkcjonalności offline.

Lokalne AI w Siri i Skrótach Apple — bez kodowania

Private LLM łączy się bezpośrednio z Siri i aplikacją Skróty. Twórz przepływy pracy oparte na AI, które podsumowują tekst, generują pisma lub przesyłają odpowiedzi do dowolnej z ponad 70 aplikacji obsługujących specyfikację x-callback-url. Nie wymaga kodowania.
iPhone wyświetlający interfejs aplikacji Private LLM z integracją Skrótów Apple, prezentujący płynne doświadczenie użytkownika w personalizacji interakcji AI na iOS

Jeden zakup, brak subskrypcji — Chmura rodzinna dla sześciu osób

Zrezygnuj z subskrypcji na rzecz lepszego wyboru z Private LLM. Pojedynczy zakup odblokowuje aplikację na wszystkich platformach Apple — iPhone, iPad i Mac — umożliwiając jednocześnie korzystanie z Chmury rodzinnej dla maksymalnie sześciu osób. Takie podejście nie tylko upraszcza dostęp, ale także zwiększa wartość Twojej inwestycji, czyniąc cyfrową prywatność i inteligencję powszechnie dostępnymi w Twojej rodzinie.
Zrzut ekranu interfejsu Private LLM na macOS, przedstawiający użytkownika wpisującego prompt w polu tekstowym aplikacji, gotowego do otrzymania natychmiastowych odpowiedzi offline z lokalnego modelu językowego

Narzędzia do pisania AI wbudowane w macOS

Zaznacz dowolny tekst w dowolnej aplikacji na macOS, kliknij prawym przyciskiem myszy, a Private LLM go przeredaguje, podsumuje lub poprawi — w całości na urządzeniu. Obsługuje język angielski i główne języki zachodnioeuropejskie.
Zrzut ekranu pokazujący integrację Private LLM w systemowym menu usług macOS.

Stworzone przez dwóch inżynierów, nie przez fundusze VC

Private LLM jest tworzone przez dwóch inżynierów w UE — bootstrapped, bez finansowania VC, bez planów wzrostu opartych na hackowaniu. Jesteśmy jedyną aplikacją w App Store z kwantyzacją OmniQuant i GPTQ, które zapewniają wymiernie lepsze wyniki niż kwantyzacja RTN stosowana przez MLX i aplikacje typu wrapper dla llama.cpp, takie jak Ollama i LM Studio. Odpowiadamy przed użytkownikami, a nie inwestorami — dlatego Twoje dane pozostają na urządzeniu i zawsze tak pozostanie.
iPhone wyświetlający interfejs aplikacji Private LLM z integracją Skrótów Apple, prezentujący płynne doświadczenie użytkownika w personalizacji interakcji AI na iOS

Z App Store

Prawdziwe opinie użytkowników iPhone'a i Maca

Kwantyzacja OmniQuant i GPTQ: Lepsza jakość, mniej pamięci

Private LLM wykorzystuje kwantyzację OmniQuant i GPTQ. Kiedy modele LLM są kwantyzowane do wnioskowania na urządzeniu, wartości odstające wag wpływają negatywnie na jakość generowania tekstu. OmniQuant moduluje wagi odstające za pomocą mechanizmu przycinania opartego na optymalizacji, który minimalizuje błąd kwantyzacji. GPTQ wykorzystuje przybliżone informacje drugiego rzędu (Hessian) do minimalizacji błędu rekonstrukcji wag, które mają największe znaczenie. Kwantyzacja afiniczna RTN stosowana przez aplikacje oparte na MLX, takie jak LM Studio, oraz warianty blokowe RTN stosowane przez aplikacje oparte na llama.cpp, takie jak Ollama, pomijają ten rodzaj optymalizacji wag — dlatego te aplikacje generują niższej jakości wyniki na tym samym sprzęcie Apple. Stale badamy zaawansowane metody kwantyzacji, co jest pracą, której aplikacje typu wrapper zbudowane na silnikach wnioskowania stron trzecich nie mogą podjąć. OmniQuant i GPTQ w połączeniu ze zoptymalizowanymi jądrami Metal dla konkretnych modeli pozwalają Private LLM dostarczać generowanie tekstu, które jest jednocześnie szybkie i wysokiej jakości na sprzęcie Apple.

Pobierz najlepsze modele LLM open-source

iOS

Modele oparte na DeepSeek R1 Distill

Dla iPhone'ów/iPadów z 8GB+ pamięci RAM
DeepSeek R1 Distill Llama 8BDeepSeek R1 Distill Qwen 7BDeepSeek R1 Distill Llama 8B Abliterated (Uncensored)

Modele oparte na DeepSeek R1 Distill

Dla iPhone'ów/iPadów z 16GB+ pamięci RAM
DeepSeek R1 Distill Qwen 14B

Modele oparte na Google Gemma 3 1B

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modele oparte na Google Gemma 2 2B

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modele oparte na Qwen 2.5

Dla iPhone'ów/iPadów z 8GB+ pamięci RAM
Qwen 2.5 Coder 7B

Modele oparte na Qwen 2.5 14B

Dla iPhone'ów/iPadów z 16GB+ pamięci RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modele oparte na Phi-3 Mini 3.8B

Dla iPhone'ów/iPadów z 6GB+ pamięci RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modele oparte na Google Gemma

Dla iPhone'ów/iPadów z 8GB+ pamięci RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modele oparte na Llama 2 7B

Dla iPhone'ów/iPadów z 6GB+ pamięci RAM
Airoboros l2 7b 3.0Spicyboros 7b 2.2 🌶️

Modele oparte na Phi-2 3B

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
Phi-2 Orange 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬Phi-2 Super 🤖Phi-2 Orange v2 🍊

Modele oparte na H2O Danube

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
H2O Danube 1.8B Chat

Modele oparte na StableLM 3B

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
StableLM 2 Zephyr 1.6B 🪁Nous-Capybara-3B V1.9Rocket 3B 🚀

Modele oparte na TinyLlama 1.1B

Dla iPhone'ów/iPadów z 4GB+ pamięci RAM
TinyLlama 1.1B Chat 🦙TinyDolphin 2.8 1.1B Chat 🐬

Modele oparte na Yi 6B

Dla iPhone'ów/iPadów z 6GB+ pamięci RAM
Yi 6B Chat 🇨🇳
macOS

Modele oparte na DeepSeek R1 Distill

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
DeepSeek R1 Distill Llama 8BDeepSeek R1 Distill Llama 8B Abliterated (Uncensored)DeepSeek R1 Distill Qwen 7BDeepSeek R1 Distill Qwen 14B

Modele oparte na DeepSeek R1 Distill

Dla komputerów Mac z Apple Silicon z 32GB+ pamięci RAM
Fuse O1 DeepSeek R1 QwQ SkyT1 32BDeepSeek R1 Distill Qwen 32B Abliterated (Uncensored)

Modele oparte na DeepSeek R1 Distill

Dla komputerów Mac z Apple Silicon z 48GB+ pamięci RAM
DeepSeek R1 Distill Llama 70BR1 1776 Distill Llama 70B

Modele oparte na Google Gemma 3 1B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Gemma 3 1B IT 💎Gemma 3 1B IT Abliterated (Uncensored)Amoral Gemma 3 1B v2 (Uncensored)

Modele oparte na Phi-4 14B

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
Phi-4

Modele oparte na Meta Llama 3.1 70B

Dla komputerów Mac z Apple Silicon z 64GB+ pamięci RAM
Meta Llama 3.1 70B Instruct 🦙

Modele oparte na Qwen 2.5 14B

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
Qwen 2.5 Coder 14BEVA Qwen2.5 14B v0.2 (Role-Play/Story Writing)

Modele oparte na Qwen 2.5 32B

Dla komputerów Mac z Apple Silicon z 24GB+ pamięci RAM
Qwen 2.5 32BQwen 2.5 Coder 32BEVA Qwen2.5 32B v0.2 (Role-Play/Story Writing)OpenHands LM 32B v0.1 (Coding)

Modele oparte na Google Gemma 2 2B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Gemma-2 2B IT 💎SauerkrautLM Gemma-2 2B IT

Modele oparte na Phi-3 Mini 3.8B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Phi-3 Mini 4K InstructKappa-3 Phi Abliterated (Uncensored)

Modele oparte na Google Gemma

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Gemma 2B IT 💎Gemma 1.1 2B IT 💎

Modele oparte na Mixtral 8x7B

Dla komputerów Mac z Apple Silicon z 32GB+ pamięci RAM
Mixtral-8x7B-Instruct-v0.1Dolphin 2.6 Mixtral 8x7B 🐬Nous Hermes 2 Mixtral 8x7B DPO ☤

Modele oparte na Llama 33B

Dla komputerów Mac z Apple Silicon z 24GB+ pamięci RAM
WizardLM 33B v1.0 (Uncensored)

Modele oparte na Llama 2 13B

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
Wizard LM 13BSpicyboros 13B 🌶️Synthia 13B 1.2XWin-LM-13BMythomax L2 13B

Modele oparte na CodeLlama 13B

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
WhiteRabbitNeo-13B-v1

Modele oparte na Llama 2 7B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
airoboros-l2-7b-3.0Spicyboros 7b 2.2 🌶️Xwin-LM-7B v0.1

Modele oparte na Solar 10.7B

Dla komputerów Mac z Apple Silicon z 16GB+ pamięci RAM
Nous-Hermes-2-SOLAR-10.7B ☤

Modele oparte na Phi-2 3B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Phi-2 Orange 🍊Phi-2 Orange Version 2 🍊Dolphin 2.6 Phi-2 (Uncensored) 🐬

Modele oparte na StableLM 3B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
StableLM Zephyr 3B 🪁

Modele oparte na Yi 6B

Dla komputerów Mac z Apple Silicon z 8GB+ pamięci RAM
Yi 6B Chat 🇨🇳

Modele oparte na Yi 34B

Dla komputerów Mac z Apple Silicon z 24GB+ pamięci RAM
Yi 34B Chat 🇨🇳
W czym możemy pomóc?

Niezależnie od tego, czy masz pytanie, czy napotkałeś problem z Private LLM, jesteśmy tutaj, aby pomóc. Po prostu podaj swoje dane w poniższym formularzu, a my odpowiemy najszybciej, jak to możliwe.