Muss man ja bei einer Suchmaschine auch machen. Also kein Unterschied.
Ich nutze Mistral anstatt einer Suchmaschine.
Geht schneller, keine Werbung und die Ergebnisse sind oft besser.
Beispiel: Ich will eine Serie anschauen von der es auch Filme gibt. Die Frage in welcher Reihenfolge man nun welchen Teil ansieht, kann das Sprachmodell super einfache erledigen.
Sowohl nach Erscheinung als auch Chronologisch nach Handlung.
Früher hätte ich in der Suche irgendwelche Foren gefunden und glauben müssen was dort drin steht oder weiter suchen falls mir die Antwort nicht plausibel erscheint.
Ich finde was auch ein Vorteil ist, ist wenn man mal etwas nur ganz schwammig im Kopf hat und keine genauen Begrifflichkeiten und dann versucht etwas zu finden, beispielsweise:
„Suche mir den Film, der vom Genre her postapokalyptisch ist irgendwann in den 90’er herauskam und wo es um zwei verfeindete Banden geht… (usw.)“ (Den Film gibt es nicht, nur ein Beispiel )
Das funktioniert zwar natürlich nicht immer, aber ich konnte dadurch tatsächlich schon etliche Filme und Serien finden, die ich früher auch mit viel Suche nicht gefunden habe.
Ich nutze ehrlich gesagt die KI auch eher als Zusatz und nicht komplett allein, vor allem prüfe ich bei wichtigen Themen die Quellen nochmals. Trotz dessen ist es gefühlt schneller.
Im Datenschutzbereich kann man sich z.B. schnell als Nichtprogrammierer ein Programm schreiben was multiple iOS Datenschutzberichte (die immer nur die letzten 7 Tage abdecken), aggregiert, auswertet und als Excel/ODT-Tabelle ausgibt.
Apple ärgert ja absichtlich die User mit einem nicht gut lesbaren .ndjson Format und eben der 7 Tage Grenze.
Man kann auch schick AdGuard Home Logs auswerten lassen.
Und bei Codieren selbst gibts auch eher weniger Datenschutzthemen.
Ich habe bei Mistral einen Pro-Account, damit ich dort alle Funktionen ordentlich nutzen kann. Ich bin damit eigentlich ganz zufrieden soweit.
Wer gerne verschiedene LLMs (Antrophic, Mistral, Llama, ChatGPT) ohne Account benutzen will, dem kann ich das Angebot von DuckDuckGo empfehlen. Dort kann man dann verschiedene Modelle nutzen.
Das stimmt zum Teil, jedoch nicht in allen Situationen. Meiner Meinung nach sollte man, wenn überhaupt, aber nur lokale LLMs mit privaten Infos zu sich selbst, zusätzlich zu den ohnehin schon geteilten Infos per Prompt, füttern.
Man darf halt nie vergessen, dass alles, was man an externe Anbieter sendet, der potenziell abspeichern könnte.
Zum Glück habe ich zuletzt gelesen, dass Google an einer neuen Technik arbeitet, um den RAM-Verbrauch von LLMs extrem zu verringern (bis zu 6 Mal weniger RAM-Verbrauch, zugleich bis zu 8 Mal schnellere Antworten, kein Finetuning bereits vorhandener Modelle notwendig, kein Qualitätsverlust).
Sollte das soweit alles gut funktionieren könnte das bedeuten, dass deutlich größere Modelle auch auf kleinerer Hardware laufen könnten (soweit ich es richtig verstanden habe).
Ausbaufähig ich teste immer mit leichten Dingen. Gestern habe ich mir eine Kündigung vorformulieren lassen das war leider schon sehr schwierig für die KI.
Mal sehen einen wirklichen Anwendungsfall habe ich jetzt für ensu noch nicht finden können. Das was ich möchte schafft sie nicht