Często zadawane pytania
Private LLM to Twój prywatny czat AI, zaprojektowany z myślą o prywatności, wygodzie i kreatywności. Działa w całości offline na iPhonie, iPadzie i Macu, zapewniając bezpieczeństwo i poufność Twoich danych. Private LLM to jednorazowy zakup w App Store, zapewniający nieograniczony dostęp bez żadnych opłat subskrypcyjnych. Uwaga: Nienawidzimy subskrypcji i nie jesteśmy hipokrytami, aby narzucać naszym użytkownikom to, czego sami nie lubimy.
Po pierwsze, Private LLM wyróżnia się na tle innych lokalnych rozwiązań AI zaawansowanymi technikami kwantyzacji modeli, takimi jak OmniQuant i GPTQ. W przeciwieństwie do naiwnej kwantyzacji Round-To-Nearest (RTN) stosowanej przez inne konkurencyjne aplikacje oparte na frameworkach MLX i llama.cpp, kwantyzacja OmniQuant i GPTQ to metody oparte na optymalizacji. Metody te pozwalają na bardziej precyzyjną kontrolę zakresu kwantyzacji, skutecznie zachowując integralność oryginalnego rozkładu wag. W rezultacie Private LLM osiąga wyższą wydajność i dokładność modelu, niemal dorównując wydajności modelu 16-bitowego zmiennoprzecinkowego (fp16) bez kwantyzacji, ale przy znacznie mniejszych wymaganiach obliczeniowych w czasie wnioskowania.
Chociaż proces kwantyzacji modeli za pomocą OmniQuant i GPTQ jest intensywny obliczeniowo, jest to opłacalna inwestycja. To zaawansowane podejście zapewnia, że perpleksja (miara jakości generowania tekstu przez model) skwantyzowanego modelu pozostaje znacznie bliższa oryginałowi fp16, niż jest to możliwe przy naiwnej kwantyzacji RTN. Dzięki temu użytkownicy Private LLM cieszą się płynnym, wydajnym i wysokiej jakości doświadczeniem AI, co odróżnia nas od innych podobnych aplikacji.
Po drugie, w przeciwieństwie do prawie każdej innej konkurencyjnej aplikacji LLM offline, Private LLM nie jest oparty na llama.cpp ani MLX. Oznacza to, że zaawansowane funkcje, które nie są dostępne w llama.cpp i MLX (a co za tym idzie w aplikacjach, które z nich korzystają), takie jak attention sinks i sliding window attention, są dostępne w Private LLM, ale niedostępne[1] gdzie indziej. Oznacza to również, że nasza aplikacja jest znacznie szybsza od konkurencji na tym samym sprzęcie (filmy na YouTube porównujące wydajność).
Wreszcie, jesteśmy inżynierami uczenia maszynowego i starannie dostrajamy kwantyzację oraz parametry w każdym modelu, aby zmaksymalizować jakość generowania tekstu. Na przykład, nie kwantyzujemy warstw osadzeń (embeddings) i bramek (gate layers) w modelach Mixtral, ponieważ ich kwantyzacja źle wpływa na perpleksję modelu (nie wspominając o tym, że nasza konkurencja naiwnie kwantyzuje wszystko). Podobnie w przypadku modeli Gemma, kwantyzacja wag osadzeń pogarsza perpleksję modelu, więc tego nie robimy (podczas gdy nasi konkurenci tak). Ponadto w modelu Microsoft phi-4 selektywnie pozostawiamy kilka krytycznych warstw niezakwantyzowanych (kwantyzacja dynamiczna), aby utrzymać optymalną jakość generowania tekstu.
Priorytetyzując dokładność i wydajność obliczeniową bez kompromisów w zakresie prywatności i funkcjonalności offline, Private LLM zapewnia unikalne rozwiązanie dla użytkowników iOS i macOS poszukujących potężnego, prywatnego i spersonalizowanego doświadczenia AI.
Uruchamianie dużych modeli językowych (LLM) na urządzeniu jest procesem intensywnie wykorzystującym pamięć, ponieważ wymaga znacznej ilości pamięci RAM do wydajnego ładowania i wykonywania modeli. Co więcej, Private LLM zazwyczaj nie jest jedyną aplikacją działającą na Twoim iPhonie, iPadzie lub Macu. Inne aplikacje, zwłaszcza te zużywające dużo pamięci, mogą konkurować o zasoby systemowe, wpływając na wydajność Private LLM.
Na iPhone'ach starsze urządzenia, takie jak iPhone SE 2. generacji (3 GB RAM), mogą uruchamiać mniejsze modele, takie jak Llama 3.2 1B i Qwen 2.5 0.5B/1.5B, ale doświadczenie może być ograniczone ze względu na ograniczenia sprzętowe. Począwszy od iPhone'a 12 (4 GB RAM), wydajność poprawia się dzięki dostępowi do nieco większych modeli 3B. Dla najlepszego doświadczenia zalecamy używanie iPhone'a 15 Pro lub nowszego, wyposażonego w 8 GB pamięci RAM. Urządzenia te są w stanie z łatwością uruchamiać większe modele, takie jak Llama 3.1 8B lub Qwen 2.5 7B. Chociaż Private LLM można technicznie zainstalować na urządzeniach starszych niż iPhone 12, nie zalecamy już zakupu aplikacji na takie urządzenia, ponieważ opinie użytkowników wykazały, że przestarzały sprzęt znacząco ogranicza doświadczenie. Użytkownicy ze starszymi urządzeniami nadal mogą kupić aplikację, ale wsparcie i optymalna wydajność nie są gwarantowane.
Na iPadach sytuacja wygląda podobnie. Urządzenia z co najmniej 4 GB pamięci RAM mogą uruchamiać modele porównywalne z tymi na średniej klasy iPhone'ach. Dla najlepszych wyników idealny jest topowy iPad Pro z 16 GB pamięci RAM, ponieważ obsługuje jeszcze większe modele, takie jak Qwen 2.5 14B lub Google Gemma 2 9B. Ta niezrównana zdolność sprawia, że iPad Pro jest potężnym wyborem do uruchamiania Private LLM.
Na Macach przejście na Apple Silicon wyznaczyło nowe standardy wydajności lokalnego AI. Chociaż Private LLM można zainstalować na Macach z procesorami Intel, zdecydowanie zalecamy używanie Maców z Apple Silicon dla znacznie płynniejszego doświadczenia. Na Macach z Apple Silicon z 8 GB pamięci RAM można uruchamiać modele porównywalne z tymi obsługiwanymi na najnowszych iPhone'ach, takimi jak Llama 3.1 8B i Qwen 2.5 7B. Maki z 16 GB pamięci RAM, podobnie jak topowy iPad Pro, mogą obsługiwać jeszcze większe modele, takie jak Qwen 2.5 14B lub Google Gemma 2 9B. Z 32 GB pamięci RAM Maki mogą uruchamiać większe modele, takie jak Phi-4, Qwen 2.5 32B, a dla ostatecznego doświadczenia Maki z Apple Silicon z co najmniej 48 GB pamięci RAM zapewniają optymalną wydajność z modelami takimi jak Llama 3.3 70B.
Private LLM został zaprojektowany, aby przynieść moc lokalnego AI na szeroką gamę urządzeń Apple, ale dla najlepszej wydajności zdecydowanie zalecamy urządzenia z większą ilością pamięci. Jeśli nadal nie jesteś pewien kompatybilności swojego urządzenia lub potrzebujesz dalszej pomocy, dołącz do naszej społeczności na Discordzie, aby skontaktować się z nami i innymi użytkownikami, którzy mogą pomóc!
Private LLM to produkt typu bootstrapped stworzony przez dwóch programistów, wolny od finansowania VC. Nasi konkurenci, tacy jak Ollama i LM Studio, to firmy wspierane przez VC. Niektórzy z nich mają uciążliwe klauzule ukryte w warunkach użytkowania, które zabraniają używania do celów komercyjnych lub produkcyjnych. Nie nakładamy żadnych ograniczeń na to, jak nasi użytkownicy korzystają z naszej aplikacji. Nasz model płatności jednorazowej, bootstrapped, nie jest idealny i ma swoje wady, takie jak brak możliwości kupowania reklam, postów influencerów i złotych znaczków na Twitterze. Ale drugą stroną medalu jest to, że nie mamy presji ze strony VC, aby agresywnie inwigilować i monetyzować naszych użytkowników; i możemy skupić się w 100% na budowaniu produktu dla naszych użytkowników i dla nas.
W Private LLM stawiamy na jakość i niezależność. Aby osiągnąć najwyższą wydajność, starannie kwantyzujemy każdy model przy użyciu zaawansowanych technik, takich jak OmniQuant i GPTQ. Ten proces wymaga znacznych zasobów, w tym wynajmu procesorów graficznych, które nie są darmowe. Wszyscy nasi konkurenci używają kwantyzacji RTN (round to nearest), która jest bardzo tania pod względem zasobów, ale skutkuje słabą jakością skwantyzowanych modeli. Jako mała, niezależna firma poświęcamy dużo czasu i zasobów na kwantyzację modeli za pomocą algorytmów kwantyzacji SOTA, ponieważ jest to opłacalny kompromis pod względem jakości. Rezultatem jest niezrównane doświadczenie AI, które wyróżnia się pod względem dokładności i szybkości.
Prywatność to kolejna podstawowa wartość Private LLM. Przetwarzamy wszystko lokalnie na Twoim urządzeniu, przy zerowym gromadzeniu danych i śledzeniu. Złożenie takiego twierdzenia nie jest łatwe, zwłaszcza gdy jesteś wspierany przez VC i pod presją znalezienia skalowalnych źródeł przychodów. Pozostając niezależnymi, zapewniamy, że Twoje dane zawsze pozostają prywatne.
Darmowe produkty mogą wydawać się kuszące, zwłaszcza gdy influencerzy agresywnie je promują, ale w rzeczywistości często dostarczają gorszą jakość generowania tekstu. Private LLM przyjmuje inne podejście, oferując generowanie tekstu, które jest o wiele lepsze pod względem spójności, dokładności i kontekstu. Pobierając jednorazową opłatę, Private LLM zapewnia rozwiązanie AI, które jest skoncentrowane na użytkowniku, stawia prywatność na pierwszym miejscu i dostarcza wysokiej jakości tekst, do którego nasi konkurenci nawet nie mogą się zbliżyć.
Private LLM oferuje szereg modeli, aby zaspokoić różnorodne potrzeby językowe. Nasza oferta obejmuje rodziny Llama 3, Qwen 2.5 i Gemma 3, z których wszystkie obsługują wiele języków. Llama 3 jest biegła w angielskim, niemieckim, francuskim, włoskim, portugalskim, hindi, hiszpańskim i tajskim; Qwen 2.5 rozszerza wsparcie na ponad 29 języków, w tym chiński, angielski, francuski, hiszpański, portugalski, niemiecki, włoski, rosyjski, japoński, koreański, wietnamski, tajski i arabski; a Gemma 3 obsługuje ponad 140 języków na całym świecie. Dla użytkowników poszukujących modeli dostosowanych do konkretnych języków innych niż angielski, Private LLM zapewnia opcje takie jak SauerkrautLM Gemma-2 2B IT dla niemieckiego, DictaLM 2.0 Instruct dla hebrajskiego, RakutenAI 7B Chat dla japońskiego oraz Yi 6B Chat lub Yi 34B Chat dla chińskiego. Ten zróżnicowany wybór zapewnia, że użytkownicy mogą wybrać model, który najlepiej odpowiada ich wymaganiom językowym.
Private LLM zapewnia najwyższą jakość generowania tekstu i wydajność dzięki wykorzystaniu zaawansowanych strategii kwantyzacji, takich jak OmniQuant i GPTQ, które wymagają wielu godzin starannego kwantyzowania każdego modelu na procesorach graficznych. Ten drobiazgowy proces skuteczniej zachowuje rozkład wag modelu, co skutkuje szybszym wnioskowaniem, lepszą wiernością modelu i wyższą jakością generowania tekstu. Nasze 3-bitowe modele OmniQuant przewyższają lub dorównują wydajnością 4-bitowym modelom RTN stosowanym przez inne platformy. W przeciwieństwie do aplikacji obsługujących łatwo dostępne pliki GGUF z Hugging Face, Private LLM kwantyzuje modele wewnętrznie, zapewniając ich optymalizację pod kątem szybkości, dokładności i jakości. To rygorystyczne podejście jest jednym z powodów, dla których Private LLM jest aplikacją płatną, oferującą znacznie lepszą jakość w porównaniu do wolniejszych i mniej zdolnych lokalnych aplikacji do czatu AI.
Regularnie dodajemy nowe modele do Private LLM w oparciu o opinie użytkowników, co pokazujemy w naszych informacjach o wydaniu. Aby poprosić o konkretny model, dołącz do naszej społeczności na Discordzie i podziel się swoją sugestią na kanale #suggestions. Przeglądamy wszystkie prośby i priorytetyzujemy te popularne w przyszłych aktualizacjach.
Private LLM obecnie nie obsługuje czytania dokumentów ani plików, co jest funkcją często określaną jako Retrieval-Augmented Generation (RAG). Ta funkcjonalność polega na wykorzystaniu zewnętrznych dokumentów do wzbogacenia odpowiedzi modelu, ale jej skuteczność w dużej mierze zależy od długości kontekstu — maksymalnej ilości tekstu, jaką model może przetworzyć w jednym prompcie. Dłuższa długość kontekstu pozwala na bardziej szczegółowe i dokładne odpowiedzi, ale jest wymagająca obliczeniowo, szczególnie na urządzeniach lokalnych. Konkurenci tacy jak Ollama zazwyczaj obsługują domyślną długość kontekstu 2 tys. tokenów, podczas gdy LM Studio domyślnie ustawia długość kontekstu na 1500 tokenów. W porównaniu, Private LLM zapewnia 8 tys. tokenów na iPhonie i iPadzie oraz imponujące 32 tys. tokenów na Macach, co czyni go jednym z najbardziej zdolnych lokalnych rozwiązań AI pod tym względem. Jednak wszystkie obecne lokalne implementacje AI, w tym Private LLM, borykają się z problemem halucynacji podczas przetwarzania długich treści tekstowych. To ograniczenie wynika z faktu, że modele mogą generować nieprawidłowe lub zmyślone informacje, gdy są przytłoczone obszernymi lub niekompletnymi danymi wejściowymi. Kwantyzacja OmniQuant w Private LLM znacząco redukuje halucynacje w porównaniu do kwantyzacji RTN stosowanej przez naszą konkurencję, ale nie eliminuje ich całkowicie. Chociaż dążymy do wprowadzenia możliwości czytania dokumentów w przyszłości, rozwiązania oparte na serwerach obecnie oferują najbardziej niezawodne wyniki dla RAG, ponieważ są lepiej przystosowane do obsługi większych długości kontekstu i wymagań obliczeniowych.
Absolutnie nie. Private LLM jest dedykowany zapewnieniu Twojej prywatności, działając wyłącznie offline bez dostępu do internetu dla swoich funkcji lub uzyskiwania dostępu do danych w czasie rzeczywistym. Połączenie z internetem jest wymagane tylko wtedy, gdy zdecydujesz się pobrać aktualizacje lub nowe modele, podczas czego żadne dane osobowe nie są gromadzone, przesyłane, wymieniane ani zbierane. Nasza filozofia prywatności jest zgodna z rygorystycznymi wytycznymi Apple dotyczącymi prywatności i bezpieczeństwa, a nasza aplikacja przestrzega najwyższych standardów ochrony danych. Warto zauważyć, że czasami użytkownicy mogą pytać, czy Private LLM może uzyskać dostęp do internetu, co prowadzi do potencjalnych halucynacji modelu sugerujących, że może. Jednak te odpowiedzi nie powinny być traktowane jako fakty. Jeśli użytkownicy chcieliby niezależnie zweryfikować gwarancje prywatności Private LLM, zalecamy korzystanie z narzędzi do monitorowania sieci, takich jak Little Snitch. W ten sposób możesz sam zobaczyć, że nasza aplikacja utrzymuje ścisłą kontrolę prywatności. Dla osób zainteresowanych dostępem do informacji w czasie rzeczywistym, Private LLM integruje się płynnie ze Skrótami Apple, umożliwiając pobieranie danych z kanałów RSS, stron internetowych, a nawet aplikacji takich jak Kalendarz, Przypomnienia, Notatki i inne. Ta funkcja oferuje kreatywne obejście problemu włączania bieżących danych do interakcji z Private LLM, przy jednoczesnym zachowaniu etosu prywatności offline. Jeśli masz jakiekolwiek pytania lub potrzebujesz dalszych wyjaśnień, nie wahaj się skontaktować z nami.
Po jednorazowym zakupie możesz pobrać i używać Private LLM na wszystkich swoich urządzeniach Apple. Aplikacja obsługuje Chmurę rodzinną, co pozwala udostępniać ją członkom rodziny.
Private LLM potrafi analizować i podsumowywać długie akapity tekstu w kilka sekund. Po prostu wklej treść, a AI wygeneruje zwięzłe podsumowanie, wszystko offline. Możesz również użyć Private LLM do przeredagowania i parafrazowania za pomocą promptów takich jak:
- Podaj mi TLDR tego: [wklej treść tutaj]
- Jesteś ekspertem copywritingu. Proszę, przeredaguj poniższy tekst własnymi słowami: [wklej treść]
- Parafrazuj poniższy tekst, aby brzmiał bardziej oryginalnie: [wklej treść]
Absolutnie! Private LLM może generować wnikliwe sugestie i pomysły, co czyni go potężnym narzędziem do burzy mózgów i rozwiązywania problemów. Oto kilka przykładowych promptów do burzy mózgów, które możesz wypróbować w Private LLM. Zachęcamy do eksperymentowania i wypróbowywania własnych promptów.
- Czy możesz podać mi kilka potencjalnych motywów do powieści science fiction?
- Planuję otworzyć wegańską restaurację typu fast-food. Jakie są słabe strony tego pomysłu?
- Prowadzę dwuletni startup programistyczny z jednym produktem, który ma PMF, planuję wprowadzenie nowego produktu programistycznego na zupełnie inny rynek. Użyj metody sześciu kapeluszy, aby to przeanalizować.
- Wykorzystaj model Złotego Kręgu, aby stworzyć potężną markę dla firmy doradztwa w zarządzaniu.
Sampling temperature i Top-P to uniwersalne parametry wnioskowania dla wszystkich autoregresyjnych modeli typu causal decoder-only transformer (tzw. GPT) i nie są specyficzne dla Private LLM. Aplikacja ma ustawione rozsądne wartości domyślne (0.7 dla Sampling temperature i 0.95 dla Top-p), ale zawsze możesz je dostosować i sprawdzić, co się stanie. Pamiętaj, że zmiany tych parametrów nie wchodzą w życie, dopóki aplikacja nie zostanie zrestartowana.
Parametry te kontrolują kompromis między deterministycznym generowaniem tekstu a kreatywnością. Niskie wartości prowadzą do nudnych, ale spójnych odpowiedzi, wyższe wartości prowadzą do kreatywnych, ale czasami niespójnych odpowiedzi.
Private LLM działa offline i wykorzystuje model typu decoder-only transformer (tzw. GPT), z którym możesz swobodnie rozmawiać. Może również pomóc w podsumowywaniu akapitów tekstu, generowaniu kreatywnych pomysłów i dostarczaniu informacji na szeroki zakres tematów.
Tak. Private LLM posiada dwa intencje aplikacji, których możesz używać z Siri i aplikacją Skróty. Proszę, poszukaj Private LLM w aplikacji Skróty. Dodatkowo, Private LLM obsługuje również specyfikację x-callback-url , która jest również obsługiwana przez Skróty i wiele innych aplikacji. Oto przykładowy skrót wykorzystujący funkcjonalność x-callback-url w Private LLM.
Private LLM to w pełni odizolowana aplikacja macOS, co oznacza, że modele są przechowywane w kontenerze aplikacji pod adresem: ~/Library/Containers/ie.numen.personalgpt/Data/Library/Application Support/ie.numen.personalgpt/models. Na macOS Sequoia i nowszych możesz skorzystać z możliwości systemu do przenoszenia dużych aplikacji na dysk zewnętrzny. Przeniesienie aplikacji przeniesie również modele w niej przechowywane. Jest to zalecana metoda zwalniania miejsca, jeśli pamięć wewnętrzna Twojego Maca jest na wyczerpaniu.
Jeśli doświadczasz trudności z pobieraniem modeli w Private LLM, często wynika to z tymczasowych problemów z łącznością z Hugging Face, gdzie hostowane są nasze modele. Możesz szybko sprawdzić stronę statusu Hugging Face, aby zobaczyć, czy występują jakieś awarie. W niektórych przypadkach ograniczenia sieciowe z firmowych, szkolnych lub krajowych firewalli mogą ograniczać dostęp do Hugging Face, co może wpływać na pobieranie. Jeśli korzystasz z takiej sieci, zalecamy przełączenie się na domowe Wi-Fi lub hotspot mobilny, albo użycie VPN, aby ominąć te ograniczenia.
Dla użytkowników w Chinach lub Hongkongu Private LLM automatycznie przełącza się na hf-mirror.com, aby poprawić niezawodność pobierania, gdy lokalizacja urządzenia jest ustawiona na te regiony. Pomaga to zapewnić płynniejszy dostęp bez dodatkowej konfiguracji z Twojej strony.
Jeśli nadal napotykasz problemy po sprawdzeniu połączenia, spróbuj zrestartować aplikację lub urządzenie. W przypadku dalszych problemów wskocz na naszą społeczność na Discordzie i podziel się szczegółami na kanale wsparcia — zawsze jesteśmy w pobliżu, aby pomóc w rozwiązywaniu problemów!
Różnica w funkcjonalności między iOS a macOS w zakresie przetwarzania w tle wynika głównie z polityki Apple dotyczącej wykorzystania sprzętu. Na iOS Apple ogranicza wykonywanie w tle zadań wymagających intensywnego wykorzystania GPU. To ograniczenie jest egzekwowane w celu oszczędzania baterii i utrzymania wydajności systemu. Zgodnie z wytycznymi Apple, aplikacje próbujące uruchomić jądro Metal w tle zostaną natychmiast zakończone, aby zapobiec nieautoryzowanemu wykorzystaniu zasobów. W przypadku Private LLM, podczas gdy możemy uruchamiać operacje w tle na macOS wykorzystując GPU, wersje na iOS są ograniczone do przetwarzania przez CPU, gdy aplikacja nie jest na pierwszym planie. Uruchamianie zadań AI Private LLM na CPU jest technicznie możliwe, ale byłoby znacznie wolniejsze — ponad 10-krotnie wolniejsze w porównaniu do przetwarzania przez GPU. Ta niska wydajność nie zapewniłaby płynnego, wydajnego doświadczenia użytkownika, do którego dążymy. Mamy nadzieję, że przyszłe aktualizacje iOS mogą zaoferować większą elastyczność w sposobie, w jaki procesy w tle mogą wykorzystywać zasoby systemowe, w tym potencjalny dostęp do GPU dla aplikacji takich jak Private LLM. Do tego czasu kontynuujemy optymalizację naszej aplikacji na iOS w ramach obecnych ograniczeń, aby zapewnić najlepszą możliwą wydajność bez narażania zdrowia urządzenia lub wydajności aplikacji. Więcej szczegółów technicznych można znaleźć w oficjalnej dokumentacji Apple dotyczącej przygotowania aplikacji Metal do działania w tle: Dokumentacja Apple dla programistów.
iOS 26 wprowadza nowe uprawnienie dostępu do GPU w tle (com.apple.developer.background-tasks.continued-processing.gpu). Jednak aktywuje się ono tylko po bezpośredniej interakcji użytkownika (stuknięcie, przesunięcie itp.) z poziomu aplikacji, więc nie umożliwi uruchamiania lokalnych modeli LLM ze Skrótów w pełni w tle.
Podczas próby ładowania modeli w Private LLM możesz czasami zobaczyć komunikat o błędzie: „Falling back on built-in model due to a crash while loading the model”. Zazwyczaj dzieje się tak, gdy urządzenie nie ma wystarczającej ilości dostępnej pamięci, aby załadować wybrany model. Awarie te mogą wystąpić, ponieważ urządzenie ma ograniczoną dostępną pamięć RAM, inne aplikacje zużywają znaczną ilość pamięci w tle lub wiele procesów wymagających dużej ilości zasobów działa jednocześnie. Aby rozwiązać ten problem, najpierw spróbuj zamknąć aplikacje działające w tle, które zużywają dużo pamięci. Jeśli problem będzie się powtarzał po ponownym uruchomieniu Private LLM, możesz przełączyć się na mniejszy model, zrestartować urządzenie, aby wyczyścić pamięć, lub sprawdzić, czy urządzenie spełnia zalecane wymagania dotyczące pamięci RAM dla danego modelu. Jeśli nadal doświadczasz awarii po wypróbowaniu tych rozwiązań, rozważ użycie mniejszego modelu, który lepiej odpowiada możliwościom Twojego urządzenia.
Może to wynikać z niskiej ilości pamięci urządzenia lub z faktu, że zadanie powierzone Private LLM jest wyjątkowo złożone. W takich przypadkach rozważ zamknięcie aplikacji zużywających dużo pamięci, które mogą działać w tle, i spróbuj podzielić żądanie na mniejsze, łatwiejsze do przetworzenia zadania dla modelu LLM. W tym drugim przypadku odpowiedź „Continue”, „Go on” lub „Tell me” również działa.
Tak, Private LLM jest teraz dostępny na Androida jako wczesna beta! Chociaż naszym głównym celem pozostaje dostarczanie najlepszego doświadczenia AI dla urządzeń Apple, rozszerzamy się na Androida, aby służyć większej liczbie użytkowników, którzy cenią prywatność i lokalne AI. Wersja na Androida jest obecnie dostępna jako bezpośrednie pobranie APK (jeszcze nie w Google Play Store) i zawiera wiele kluczowych funkcji z naszych wersji na iOS/macOS. Ponieważ jest to wczesna wersja beta, możesz napotkać pewne ograniczenia lub problemy ze stabilnością w porównaniu do naszych bardziej dojrzałych wersji na platformy Apple. Gorąco zachęcamy do dołączenia do naszej społeczności na Discordzie, aby podzielić się swoją opinią, zgłosić wszelkie problemy i pomóc nam ulepszyć doświadczenie na Androidzie. Twój wkład na tym etapie jest niezwykle cenny, gdy pracujemy nad pełnym wydaniem w Google Play Store. Możesz pobrać APK z naszej strony internetowej.
Przykro nam słyszeć, że rozważasz zwrot pieniędzy. Możesz poprosić o zwrot pieniędzy za pośrednictwem Apple App Store. Po prostu przejdź do historii zakupów swojego konta Apple, znajdź Private LLM i kliknij „Zgłoś problem”, aby rozpocząć proces zwrotu. Chcielibyśmy również usłyszeć od Ciebie, jak możemy się poprawić. Prosimy o kontakt z nami ze swoją opinią.
Chcielibyśmy usłyszeć od Ciebie! Dołącz do naszej społeczności na Discordzie, aby podzielić się swoimi przemyśleniami i uzyskać wsparcie od innych użytkowników. Wolisz prywatną rozmowę? Użyj formularza kontaktowego na naszej stronie internetowej, aby wysłać nam bezpośrednio email.