Datenschutzfreundliche KI Anwendungen

Liebe Leute, kann mir der eine oder andere etwas zur Anwendung datenschutzfreundlicher KI erzählen bzw. dazu Empfehlungen abgeben?

Ich habe gesehen, da gibt es zB koboldppc … Ich hab´s ausprobiert, bin aber wirklich nicht zurecht gekommen.

Seit heute bin ich mit Lumo von Proton konfrontiert worden. Was haltet ihr davon? So wie Lumo beworben wird, klingt es einwandfrei, oder?

Da ich darüber hinaus denke, dass die massenhaft angewandte KI für uns alle a la longue demokratiepolitisch nicht ungefährlich werden könnte, möge mir hier vielleicht jemand der sich dazu beflissen fühlt, etwas dazu sagen!

Danke euch sehr! :kissing_face_with_closed_eyes:

2 „Gefällt mir“

DuckDuck hat doch auch eine KI?

Beschäftige mich hier und da ebenfalls mit derartigen Fragestellungen. Es gibt auch viele solcher Fragen und Antworten dazu bereits im Netz; auch hier im Forum.

Eine allgemeingültige Antwort habe ich nie gelesen und halte die auch aufgrund der allgemeinen Fragestellung für ausgeschlossen.

Wie auch im Beispiel von @phone-company erwähnt, kann man KI-Tools bereits sehr einfach nutzen und man könnte da viele solche Lösungen hinzufügen.

Ohne Angabe von spezifischen Nutzungsarten und Anwendungszenarien wird man auch hier nicht über bereits bestehende Antworten und Hinweise hinauskommen.

Ja, sicher. Aber mir geht es um maximal möglichen Datenschutz. Ich glaube mit ziemlicher Sicherheit sagen zu können, dass du doch selbst irgendwo in diesem Forum fallen gelassen hast, dass Duck-Duck-Go nicht unbedingt vertrauenswürdig ist, da - wenn ich mich richtig erinnere - der Server in den USA steht.

… würde das selberhosten eines LLMs bedeuten. Das ist mir gerad zu aufwändig, wenn auch inzwischen wohl durchaus machbar.

Derzeit teste ich auch die Bezahlversion von Lumo. Mein Vertrauen darin ist ausreichend groß, dass ich dem erstmal eine Chance gebe.

1 „Gefällt mir“

Lumo AI von Proton

https://lumo.proton.me/guest

Es hängt auch viel von der Art der Fragen ab, die einer KI gestellt werden, und von den genutzten Lizenzmodellen sowie der Aufgabenstellung.

Die derzeit sicherste Variante ist wohl das Betreiben eines lokal gehosteten LLM. Das funktioniert allerdings nur sehr eingeschränkt mit den Informationen, die du dem System zum Training bereitstellst. Solche RAG-Systeme [1] eignen sich besonders für Unternehmen, die allgemeine branchenbezogene Informationen mit eigenen sensiblen Daten mischen. Beispielsweise können sie Angebote, Auftragsbestätigungen und weitere auftrags- und produktionsbezogene Daten mit allgemeinen Informationen wie einzuhaltende gesetzliche Vorgaben kombinieren. Dadurch können umfangreiche Dokumente miteinander verglichen und mit eigenen Parametern abgestimmt werden.

Dann gibt es Anbieter wie DeepL, die ihren Sitz in Deutschland haben. Mit ihnen kann bei bezahlten Lizenzmodellen ein AVV abgeschlossen werden. Der Anbieter verpflichtet sich damit, die Daten des Kunden nicht zu Trainingszwecken zu verwenden, und sorgt darüber hinaus dafür, dass kein Dritter Zugriff auf die Daten bekommt. Das eignet sich aber weniger zur Recherche, sondern übersetzt beispielsweise Dokumente in andere Sprachen.

Was die großen Player im LLM-Bereich wie ChatGPT, Gemini, Llama oder Copilot betrifft, muss man neben den firmeneigenen Aussagen auch die nationalen Gesetze berücksichtigen, die den Anbieter unter Umständen dazu verpflichten, auf Anfrage Daten herauszugeben. In dieser Hinsicht stehen europäische Anbieter besser da als US-amerikanische oder gar chinesische Anbieter. Hier gilt der Grundsatz, nur mit anonymisierten Daten zu arbeiten. Die Art der Fragen kann jedoch zu einem Nutzerprofil zusammengeführt werden, was je nach Benutzerverhalten schon sehr präzise Rückschlüsse auf die Person zulässt.

[1] https://www.iese.fraunhofer.de/blog/retrieval-augmented-generation-rag/

1 „Gefällt mir“

Mistral AI (Le Chat) scheint auch gut zu sein.

Zitat Wikipedia:

Le Chat

Der Chatbot Le Chat ist ein Werkzeug, welches an ChatGPT angelehnt ist. Im Hintergrund werden dafür die Modelle Mistral Small, Mistral Large und ein sich in Entwicklung befindendes neues Modell Mistral Next genutzt.[11] Eine Besonderheit ist die Funktion Flash-Answers, mit der über 1.000 Wörter in der Sekunde, und damit zehnmal schneller als KI-Chatbots wie ChatGPT, generiert werden können.[12][13] Ein weiterer Unterschied: Anders als etwa bei ChatGPT haben User sogar in der kostenlosen Version Zugriff auf das beste Modell von Mistral – wenn auch nur in limitiertem Maße.[14]

Le Chat wurde am 26. Februar 2024 veröffentlicht; am 6. Februar 2025 folgten Mobile Apps. Seitdem hat sich Le Chat auch im Hinblick auf einen ausgeprägten Datenschutz als europäische Alternative zu Chatbots wie ChatGPT positioniert.[15]

Qulle: https://de.wikipedia.org/w/index.php?title=Mistral_AI

2 „Gefällt mir“

Ein angeblich autarkes KI-Gerät gibt es hier:

https://forum.sailfishos.org/t/jolla-mind2-progress/19572

Habe allerdings keine Ahnung, was das Ding wirklich kann, weil ich es nicht selbst habe. Bezüglich der ‘Datenschleuder’ Problematik hab ich zu dieser Firma aber durchaus ein gewisses Vertrauen.

edit: Hier ist noch ein Link dazu:

https://forum.sailfishos.org/t/jolla-mind2-hardware-update-a-deep-dive-with-sami-pienimaki/20679

2 „Gefällt mir“

Ich hatte heute morgen früh Lumo+ abboniert.

Ich werde in ein paar Monaten ein Review schreiben.

4 „Gefällt mir“

Lokales LLM bleibt für den Datenschutz einfach am unkritischsten. Empfehlenswert ist dann bspw. LM Studio als Umgebung und bspw. das aktuelle OpenAI-Open-Source-Modell zur lokalen Ausführung. Kommt nicht an aktuelles ChatGPT ran, gleichzeitig schon recht gut und halbwegs aktuelle Daten verarbeitet. Kann dann komplett (nach dem Download) ohne Internetverbindung verwendet werden. Performance kommt auf den jeweiligen Rechner an – auf aktuellen Macs läuft das dank Optimierung für Apple Silicon recht flott.

2 „Gefällt mir“

Ich nutze gelegentlich das KI-Tool von Brave. Was spräche dagegen?

Auf welcher Datenbasis funktioniert das? Mir fehlt die Fantasie, zu glauben, hier eine brauchbare Antwort auf beliebige Alltagsfragen zu erhalten.

1 „Gefällt mir“

Es ist ein “durchtrainiertes” Modell. Ausprobieren und staunen, wäre das Beste. :wink: Hier mal ein paar Screenshots (Reasoning Effort “medium”):

usw.

Geht ohne Internet beim Erzeugen der Antwort…

Daher bei der Wahl der Modells immer auch schauen wie alt die Trainingsdaten waren/sind.

1 „Gefällt mir“

Wie oft gibt es Updates, und wie aktualisiert man die?

2 „Gefällt mir“

Steht jeweils in der Beschreibung des jeweiligen Modells bzw. der jeweiligen “Distribution” (im erweiterten Sinn…). Wenn du nicht selbst Modelle trainieren möchtest, bist du auf ein entsprechendes Update angewiesen.

Auf Huggingface finden sich Tausende Modelle mit unterschiedlichsten “Brauchbarkeiten”.

Leichtester Einstieg zum Ausprobieren/Spielen bleiben Umgebungen wie LM Studio und einfach ein Modell dort über die Oberfläche installieren. Kann wirklich nur dazu raten nicht zu viel Theorie vorher zu versuchen, sondern ausprobieren und einen eigenen Eindruck gewinnen. Je nach konkreter Nutzung, passt es dann am Ende mit einem lokalen Model oder auch nicht.

2 „Gefällt mir“

Lumo habe ich kurz mal gegen Perplexity getestet und überzeugt mich jetzt noch nicht ganz. Mich interessiert aber nur die Echtzeitsuche im Web, die Aufbereitung und der Detailierungsgrad zu speziellen bzw. aktuellen Themen.

Getestet habe ich Kursziele, Analystenmeinungen und Fundamentalanalysen von Aktien als Echtzeitsuche - da ist Perplexity meilenweit voraus und liefert deutlich detaillierter aufbereitete Informationen ab mit denen man auch arbeiten kann.

3 „Gefällt mir“

Ich hatte gestern mal perplexity getestet und das finde ich unheimlich :slight_smile: keine Ahnung warum … seit gestern teste ich mit Pro account Mistral und ich habe ein super Gespräch gehabt. Wir denken echt gleich :wink:

Ich möchte halt irgendwie von chat GPT loskommen

4 „Gefällt mir“

Hab gerade mal Lumo gefragt, welche LLMs dahinterstecken. Es handelt sich nicht gerade um SOTA-Modelle, daher wird es wohl schlechter funktionieren als die meisten anderen Chatbots.

Lumo isn’t built on a single proprietary model. Instead, Proton runs a portfolio of open‑source large language models that have been fine‑tuned and optimized for privacy‑first operation.

The current lineup includes:

  • Nemo (Mistral) – a strong general‑purpose model

  • OpenHands 32B – specialized for coding and programming tasks

  • OLMO 2 32B (Allen Institute for AI) – excels at reasoning and complex language understanding

  • Mistral Small 3 – a lightweight model for faster, lower‑cost responses

When you ask a question, Lumo’s routing system automatically selects the model whose strengths best match the task (e.g., OpenHands for code, OLMO 2 for deep reasoning). All of these models run exclusively on servers controlled by Proton, and none of your conversation data is used to train them—your chats remain encrypted with zero‑access encryption.

So, the “specialized” aspect refers to both the diversity of models and the intelligent routing that matches each query to the most suitable model, all while keeping your data private.

Le Chat von Mistral wäre wohl eine gute Alternative, wenn man etwas mehr Leistung braucht.

4 „Gefällt mir“

Nutze auch Mistral AI im kostenfreien Account.

Wenn es eine Websuche beinhalten soll, greife ich noch auf Druck.AI zu, mit ChatGPT.

Lese hier weiter für Anregungen.

PS. Mistral AI bietet nun auch eine Websuche im kostenfreien Account an.

Wie auch nachdenkende Antworten.

Zwar begrenzt für den Tag aber mir reicht es.

Daher am liebsten die europäische Alternative.

3 „Gefällt mir“