Entdecken Sie den ultimativen KI-Assistenten für iOS mit Fokus auf Datenschutz: Private LLM
Steigern Sie Ihre Produktivität und Kreativität auf iPhone und iPad mit Private LLM, dem führenden KI-Assistenten, der für Ihre Privatsphäre entwickelt wurde. Erhältlich als Einmalkauf ohne Abonnement, bietet die App fortschrittliche KI, die zu 100 % offline und vertraulich auf Ihrem Gerät arbeitet.
Warum Private LLM Ihr idealer KI-Begleiter ist:
* Auswahl an Top-KI-Modellen: Wählen Sie aus einer Vielzahl von Open-Source-LLM-Modellen (Llama 3.1, Llama 3.2, Gemma 2, Phi-3, Qwen 3, Mistral u.v.m.), die mit OmniQuant-Quantisierung für iOS optimiert sind. Passen Sie Ihr KI-Erlebnis für Brainstorming, Programmierung oder tägliche Fragen an.
* Integration mit Siri & Kurzbefehlen: Verbessern Sie die KI-Interaktion mit Siri-Befehlen und anpassbaren Kurzbefehlen. Private LLM fügt sich nahtlos in Ihr Apple-Ökosystem ein.
* Anpassbare Interaktionen: Gestalten Sie die KI-Antworten mit benutzerdefinierten System-Prompts nach Ihren Wünschen.
* Absolute Privatsphäre: Ihre Gespräche bleiben auf Ihrem Gerät. Unsere vollständig offline arbeitende KI stellt sicher, dass keine Daten kompromittiert werden – keine Internetverbindung nötig.
* Familienfreigabe & Offline-Nutzung: Ein Einmalkauf schließt die Familienfreigabe ein. Laden Sie Modelle herunter und nutzen Sie die App überall, auch ohne Internet.
Eine vollständige Liste der unterstützten Modelle und deren Spezifikationen finden Sie unter privatellm.app/models.
Private LLM ist mehr als nur ein Chatbot; es ist ein umfassender KI-Begleiter, der Ihre Privatsphäre respektiert und vielseitige Hilfe bietet. Ob Sie schreiben, programmieren oder Antworten suchen, Private LLM passt sich sicher an Ihre Bedürfnisse an. Steigern Sie noch heute Ihre Produktivität und kreativen Projekte mit dem privatesten KI-Assistenten für iOS.
Private LLM übertrifft generische Wrapper-Apps (llama.cpp/MLX) in drei Punkten:
1. Schnellere, hochoptimierte mlc-llm Inferenz-Engine.
2. Modernste OmniQuant-Quantisierung für Modelle statt naiver Methoden.
3. 100 % native App (C++, Metal, Swift) mit tiefer iOS/iPadOS-Integration, im Gegensatz zu überladenen, nicht-nativen Apps (Electron/Flutter).
Bitte beachten Sie: Private LLM unterstützt nur textbasierte LLMs. Die Modellunterstützung variiert je nach Geräteleistung.
HideShow More...
Screenshots
Private LLM FAQ
Is Private LLM free?
Yes, Private LLM is completely free and it doesn't have any in-app purchases or subscriptions.
Is Private LLM legit?
🤔 The Private LLM app's quality is mixed. Some users are satisfied, while others report issues. Consider reading individual reviews for more context.
Unfortunately doesn’t work on the iPad 9th Gen with any other model than the useless demo model. If you have anything lower than a Silicon based iPad just a waste of money. On Silicon based Macs there are other much better free solutions.
Lamé
I rather pay 25$ per month for CGPT and won’t have an offline version than this. Boring, slow, no NSFW (not its fault, it’s the AI-Models and CGPT won’t offer it too I know yet something which would be interesting), huge GB size … well. Sorry, not sorry.
TOP!
Die App läuft flüssig, die Modelle antworten schnell.
Es gibt viele Modelle zur Auswahl. Mein Vorgänger hat von Abstürzen berichtet, das kann ich nicht bestätigen. Bei mir läuft alles flüssig. Super! Die 10€ sind es auf jeden Fall Wert. Dickes Dankeschön an die Entwickler
Don‘t waste your money on this
Crashes most of the time. When it runs results are disappointing. There are more sophisticated and better working free and Open Source alternatives out there.
Very good fast and good/average accurate
Works very well on iPad Pro 11‘‘ with M1 Chip. I would like to get support for more LLMs (currently only 2 are available).
Almost what I want.
This is an amazing app. Love it, I would really love a way to upload documents, offline so I can ask questions when I’m out and about. I would love to chart out my record collection to remember what I have and to cross reference serial numbers. I would like something where I can upload health documents and not worried about being profiled on google. Having a chattable document or database or however its handle is %100 what users need (imo) and just not being given by any of the 100+ chat apps. They all talk, they all generate pictures (or aspire too) no backdoor I’ll please. Just something easy.
An exceptional application that significantly enhanced my comprehension of LLMs.
See title
Web search please
I really hope that this app can support the network search function, so that I can have a real intelligent assistant.
Mac mini M4 Pro - Wonderful!!
Have had the Private LLM app a few weeks and have enjoyed putting my new Mac mini M4 Pro to the test with a lot of the LLMs. So far so good. Everything is on local ssd but may try and experiment with it on my TB 4 DAS or even my older NAS. Will try and keep Private LLM itself on my local and move just the data to my NAS or DAS. Mac OS infrastructure keeps what I need in a well known path and folder so I’m going to experiment. Just need to figure out where to change to new Data/Folder path. Dev(s) Thank you for such a great app.
5 Stars for these Features!
Fantastic app, I like the selection of models and they run great on the M4 chip of the iPhone 16 Max and iPad Pro. System prompt is also great for some tweaks to responses. The most simple and important feature (aside from model memory) that Private LLM needs is to be able to edit the responses of the AI. I enjoy the chatbot's responses but hate that it'll pull context from previous responses and loop entire phrases regardless if I regenerate its response or edit mine. Sometimes I don't like how the model formatted its response and want to change it without clearing the convo and retrying multiple times. The second feature that would be a quality of life is to be able to save conversations within the app. At the very least, export them as a whole without needing to screenshot, grab text, paste, correct, and format it elsewhere. I learned early on that copying text blocks at a time can cause the app to reload its model and even clear the conversation. A bot refresh would also be nice to clear older message context during a longer conversation to keep the model fast and responsive, but that can coincide with model memory to more easily pull specific facts you want it to remember in the first place without having to create a queue of explanations to pick up where you left off at. Useful if you switch models for different purposes like organizing, summarizing, q&a vs. generation, editing, brainstorming, vs. chatting.
This page includes copyrighted content from third parties, shared solely for commentary and research in accordance with fair use under applicable copyright laws. All trademarks, including product, service, and company names or logos, remain the property of their respective owners. Their use here falls under nominative fair use as outlined by trademark laws and does not suggest any affiliation with or endorsement by the trademark holders.