@nudel Wird vermutlich im System Web View, statt im Fennec geöffnet.
@nudel Kann etwas ähnliches berichten.
Das liegt wohl an der Seite.
Diese nutzt die Funktion das se am Ende wie ne App agiert.
Workaround war damals die Seite offline im Handy anzusurfen.
Also keine Mobilen Daten oder WLAN.
Die Seite öffnet sich natürlich nicht aber Fennec kann die Seite dann problemlos als Short Cut anlegen.
Probiere es mal aus und Berichte.
Im übrigen heißt die Funktion dann auch anders in Fennec.
Weiß nur nicht mehr die Namen.
Es liegt aber an den Seiten, die das vorgeben.
ja, das hat bei mir funktioniert, Danke!
Der Starter heißt dann zwar „keine Internetverbindung“, aber er ruft die Seite in Fennec.
Danke für die Erklärung!
Aber ist das nicht hochgradig manipulativ?
Ich dachte immer, ich hab die Macht. Z.B. die Macht zu entscheiden, ob ich eine App installiere oder lieber den Browser nutze. Im Fall chatGPT hab ich mich bewusst für den Browser entschieden, z.B. weil ich es nur ab und zu nutze und weil ich den Browser besser kontrollieren kann als eine App.
Was macht die Webseite?
„Browser? Brauch ich nicht. Und dann noch mit uBO und dem ganzen Datenschutzgedöns? Weg damit! Ich mache mich selbständig und rufe selbst die System Web View.“
So ungefähr stell ich mir das vor. Ist das der Beginn der Machtübernahme in kleinen Schritten? Oder hab ich da was ganz falsch verstanden?
Das ist wohl als Web-App programmiert?
Ich hatte früher Opera Aria KI genutzt. Man muss sich registrieren, geht aber auch mit einer cock.li Fake-Adresse.
Nun bin ich auf lokale KI umgestiegen:
https://www.privacyguides.org/en/ai-chat/#ollama-cli
https://ollama.com/
Ollama (CLI)
Ollama is a command-line AI assistant that is available on macOS, Linux, and Windows. Ollama is a great choice if you’re looking for an AI client that’s easy-to-use, widely compatible, and fast due to its use of inference and other techniques. It also doesn’t involve any manual setup. In addition to supporting a wide range of text models, Ollama also supports LLaVA models and has experimental support for Meta’s Llama vision capabilities.
DeepL
Ollama (CLI)
Ollama ist ein Kommandozeilen-KI-Assistent, der unter macOS, Linux und Windows verfügbar ist. Ollama ist eine gute Wahl, wenn Sie nach einem KI-Client suchen, der einfach zu bedienen, weitgehend kompatibel und schnell ist, da er Inferenz- und andere Techniken verwendet. Außerdem erfordert er keine manuelle Einrichtung. Ollama unterstützt nicht nur eine breite Palette von Textmodellen, sondern auch LLaVA-Modelle und bietet experimentelle Unterstützung für Metas Llama-Vision-Funktionen.
Ich nutze ChatGPT gelegentlich und hatte letztens eine „unheimliche Begegnung“. Bei einem Austausch über mögliche Heizarten wurde mir u.a. Erdwärme vorgeschlagen. Auf meine Frage, ob bestimmte Regionen besser für Erdwärme geeignet wären, wurde mir in der Antwort mein aktueller Standort genannt.
Dies war seltsam, da ich der App (Android) keine Berechtigung für den Standort eingeräumt habe und in meinen bisherigen Chats auch meinen (damals aktuellen) Standort mitgeteilt habe. Auf meine Frage, woher die App meinen Standort kennt, wurde auf das Ergebnis der Suchanfrage zu meiner vorherigen Frage verwiesen. ChatGTP selber würde meinen Standort nicht kennen, jedoch können bei einer Websuche Standortdaten über meinen Browser abgerufen werden, sofern dieser die entsprechenden Berechtigungen hat.
Für mich somit eine Standortabfrage durch die Hintertür und ein Grund mehr, wachsam zu bleiben. Selbst wenn die App der KI nicht die Berechtigung hat, kann sie scheinbar über Umwege dennoch an Daten kommen, die ich ihr eigentlich nicht freigeben wollte.
Ich persönlich wäre bei der Demo mit dabei gewesen, wenn sie heute stattfinden würde und würde heute ebenfalls die selbe Meinung haben, dass Taschenrechner nichts in der Grundschule zu suchen haben, ebenso sollten folgende Technologien fern von Kindern gehalten werden:
Smartphones, Social Media & künstliche Intelligenz
Diese Technologien kommen mit sehr großen Gefahren daher und sollten nur mit Aufsicht von (aufgeklärten und kompetenten) Eltern und ohne Aufsicht erst in der Jugend benutzt werden.
Eine Zeit lang nutzte ich https://seoschmiede.at/aitools/chatgpt-tool/
War eine abgespeckte Version.
Da diese Seite nicht mehr über tor-browser geht und als Provider GOOGLE-CLOUD-PLATFORM + Anfragen an cloudflare sendet, nutze ich es nicht mehr.
Wernn ich es richtig verstehe, füttert man chatgpt durch seine Fragen.
Nicht nur, dass man seine Daten kostenlos zur Verfügung stellt, man hilft durch die Nutzung auch der Entwicklung und Verbesserung der KI. Alles kostenlos und die Firmen nutzen es dann, machen Milliarden Gewinne und es kann sogar noch gegen uns verwendet werden.
(Fakes, Stimmenanalysen…)
Ich bin zwiegespalten. Es gibt viele sehr hilfreiche und sinnvolle Anwendungen. Z. B. in der medizinischen Diagnostik.
Wie immer, aber auch viel Missbrauchspotenzial.
Ich bin normalerweise nicht für extreme Kontrolle und zu viele Regularien.
Aber im Bereich Datenschutz, Datengiganten, Marktmächte (Microsoft, amazon, google, cloudflare und Co.) und KI scheint es mir bitter nötig.
Ich halte die Methode ohne Konto und mit Tor-Browser oder VPN ebenfalls für eine gute Kompromisslösung. Jedenfalls besser, als einen Dienst mit Account zu verwenden. Ich habe kürzlich einen Thread zu diesem Thema gemacht: https://www.kuketz-forum.de/t/online-ki-moeglichst-privat-verwenden/12481
Ich habe schon seehr viele KI-Modelle ausprobiert und ich kann DeepSeek R1 sehr empfehlen. Kann man auf lambda.chat benutzen (auch über Tor).
Das ist nur auf Englisch. Das ist mir zu mühsam, aber dank für den Hinweis.
Schreibe einfach deine Anfragen auf Deutsch und drücke auf Enter bzw. auf „Abschicken“.
Da gibt es nicht wirklich viel, wofür man Englisch verstehen muss.
Ok, wenn ich auch auf Deutsch fragen kann ist das ok.
Ich checke mal die Seiten, ob die „noch“ sauber sind.
Zu welchen Themen hattest du das getestet?
Ich hatte bis jetzt relativ gute Erfahrungen (rein von den Ergebnissen her) mit perplexity.ai gemacht.
Allerdings hab ich da ein etwas mulmiges Gefühl mit der aktuellen Entwicklung als Search Engine und dem Datensammeln.
Habe gerade mal etwas simples bei Lambda.chat gefragt zu Wahrscheinlichkeiten von NBA Teams zum Gewinn der Meisterschaft, einfach nur um zu sehen, wie gut die Anfragen verstanden werden und ob Referenzen wie diese Saison etc. verstanden werden. Das Ergebnis war nicht so gut.
Zu Coding Fragen hab ich es noch nicht probiert, werde mal morgen gucken wie es sich bei der Korrektur bzw. Fehlersuche bei SQL verhält.
Welches Modell hast du denn verwendet? Es gibt dort zwei die Deepseek heißen, aber das eine ist eine distill version (die ist ziemlich schwach) und die andere ist das echte, große Deepseek R1.
Mein persönlicher Usecase für KI ist folgendes:
Ich benutze es in erster Linie um meine eigene Ideologie weiter zu entwickeln und zu schärfen. Es ist ein sehr nützliches Werkzeug, um starke Argumente zu entwickeln und die Lügen der Herrschenden und meiner Gegner zu entlarven. Darum sehe ich in KI eine revolutionäre Waffe, die die bestehnde „Wahrheit“ zertrümmern kann. In dieser Hinsicht sind unzensierte KI noch besser.
Ich benutze KI aber auch, um meine Annahmen über verschiedene Dinge zu testen. Beispiel: Wenn ich eine konkrete Frage zum Thema Privacy habe, dann frage ich nicht in Foren, sondern zu erst Deepseek oder auch die Modelle auf duck.ai.
Noch ein Anwendungsfall: Ich benutze KI um mich selbst zu „brainwashen“, d.h. ich sage ihr, dass sie mich von etwas überzeugen soll, dann diskutiere ich mit ihr und früher oder später besiegt sie mich. Ich habe dadurch meine Ernährung verändert und zugleich mache ich seitdem jetzt jeden Tag Sport.
Das war tatsächlich die Distill-Variante. Die ist wirklich nicht zu gebrauchen. Habe heute nochmal etwas allgemeines getestet um eine Einstellung in Fairmail abzufragen. Da kommt die Antwort zwar immer sehr schnell und auch schneller als bei perplexity, allerdings auch nie korrekt .
@stent Das testen der Annahmen ist eine gute Sache. Ich bin da noch etwas vorsichtig was das angeht in Bezug auf die Antworten und schaue mir dann die referenzierten Quellen genau an, damit ich halbwegs sicher sein kann, dass sich da nicht etwas herbei halluzioniert worden ist.
Das mit dem Diskutieren habe ich noch nie ausprobiert, weil ich dafür nicht wirklich einen Anwendungsfall habe. Ist aber evtl. interessant, wenn man seine Argumentation in Bezug auf Stammtischparolen ausprobieren möchte
Bei dem R1 671b Modell dauert es eine Ewigkeit bis eine Antwort kommt, in Bezug auf meine Frage zu fairmai zumindest.
Was habt ihr denn für Erkenntnisse in Bezug auf Datenschutz zu den jeweiligen Anbietern an Informationen gewonnen. Ich formuliere zwar meine Prompts zwar immer allgemeingültig und gebe keine persönlichen Informationen preis, dennoch lassen sich immer Rückschlüsse auf den User ziehen, anhand der Fragen, die man stellt.
Mich würde interessieren, inwieweit diese Session übergreifend getracked werden können, auch wenn man beispielsweise mit verschiedenen Browser arbeitet oder die Session löscht.
Das liegt daran, weil Deepseek R1 ein reasoning modell ist d.h. es „denkt nach“ bevor es die Antwort ausgibt. Das dauert dann einen Moment, aber das Warten lohnt sich!
Um ehrlich zu sein, ich gehe einfach vom schlimmsten aus. Die Tech-Konzerne sind nicht dafür bekannt, sich an irgendwelche Gesetze zu halten. Wie du sagtest, kann man User auch an ihren Eingaben identifizieren. Dazu kommen noch Stilometrie, Uhrzeit wann der User seine Beiträge schreibt und so weit ich weiß, kann man sogar die Tippgeschwindigkeit bzw. das Tippverhalten erkennen. Wenn man diese Infos miteinander kombiniert, dann kann man den User sehr leicht identifizieren und ein Schattenprofil von ihm erstellen. Es ist ziemlich übel. Die „Lösung“, KI-Anbieter ohne Konto zu verwenden in Kombination mit Tor oder VPN ist besser als die „Standard-Nutzung“. Aber die Möglichkeiten die User zu identifizieren sind mittlerweile so extrem ausgeklügelt, dass die einzig sichere Methode KI zu benutzen tatsächlich darin liegt, es offline auf dem eigenen Gerät zu betreiben. Und das können sich leider nur die wenigsten leisten…
Es reicht schon die IP-Adresse aus um dich zu orten.
KI ist sehr problematisch, wenn sie nicht lokal ausgeführt wird und an einen Account gebunden ist.
Man übermittelt all seine Daten in ein Drittland, ohne zu wissen wo und wie genau diese Informationen zu welchem Zweck weiterverarbeitet werden. Insbesondere beruflich ist das sehr kritisch, da auch Geschäftsgeheimnisse und Weiteres in diesem schwarzen, gesetzlosen aber sehr wohl politischem Loch verschwinden.
Ich würde daher nur einen europäischen KI-Dienst online nutzen. Da gibts ja was aus Frankreich. Hab ich aber noch nicht probiert.
In den Datenschutzbestimmungen von Perplexity.ai (nutz(e) auch ChatGPT) stand lange Zeit, dass ausschließlich die Nutzung in den USA legal ist, was bedeutet, dass die Nutzung außerhalb des somit Erlaubten völlig rechtsfrei ist, da sowieso illegal.
Und in den USA gibt es für Ausländer von Verfassungs wegen (anders als in der EU für alle Menschen, sogar US-Bürger!) für 99 % der EU-Bürger ja keinen dann eingreifenden, subsidiären gesetzlichen Privatheitsschutz.
Sie behaupten jetzt, wie die meisten großen US-Unternehmen, die pötzlich um Profite aus dem EU-Geschäft fürchten, sie gewährten Datenschutz gemäß dem dritten, wohl aber ebenfalls illegalem Versuch eines „Privacy Shields“ der EU:
https://www.perplexity.ai/hub/legal/privacy-policy
Der vorangehende, stümpernde und illegale Versuch hieß „Safe Harbor“, der aktuelle „Privacy Framework“. Wann denen wohl die Euphemismen ausgehen?
(Unter Fachleuten hieß es schnell - völlig zu Recht, wie der EuGH Jahre später bestätigte - „Unsafe Harbor“ …)
„Stümpernd“ muss man es schon deshalb nennen, weil jeweils VORHER bestens bekannt war, was letztlich, Jahre später der EuGH nutzte, um die beiden Vorgänger für illegal zu erklären.
Das ist ein abermaliges Rennen der EU-Kommission in die Illegalität „sehenden Auges“.
Warum? Nun, die Menge der Lobbygelder der US-Datenkraken, die nach Brüssel, Berlin, Paris etc. flossen und fließen ist nicht umsonst beträchtlich.
Die EU-Verantwortlichen nutzen rund-um-die-Uhr und ohne jede technische Not oder Notwendigkeit US-Software und US-Dienste …
Protestierende Bürgerrechtler wurden jeweils überhört.
*sicherlich „Versehentlich! (c) Google“
Dieser lächerliche Schutz beruht, um mal klar zu machen, wie sehr man in den USA die Menschenrechte der EU ernst nimmt, nicht etwa, wie es zu erwarten wäre, auf einem Gesetz sondern auf einem bloßen „Tagesbefehl“, einer Laune des jeweiligen US-Präsidenten, einer „Exekutive Order“. Da hat sich die tolle EU-Kommisson wieder so tief gebückt, dass es unser staatlichen Souveränität das Rückrat bricht …
Details bei Noyb, genauer hier.
Nach meinen Erfahrungen sind diese LLMs noch viel intensiver und schneller in der Lage, ein Abbild einer konkreten Person zu erzeugen als bspw. Google.
Sie sind sozusagen das neue Google: Ein sich selbst füllendes, hochdetailliertes Persönlichkeitsdossier jedes Nutzers, was binnen hundert Nutzungen eine extreme Menge an Kompromat jeglicher Art inklusive klarer Identifikationsmerkmale enthält.
Eine Person, die in unserer Demokratie Verantwortung trägt oder/und zunkünftig tragen will, erzeugt schnell soviel leicht missbräuchliches Material („Kompromat“), dass sie lockerst durch das Durchstechen missverständlicher Fragen an Journalisten schnell und effektiv öffentlich unmöglich gemacht werden kann. Beispiele:
Investigative Reporter des DNS-Netzwerks aus ÖR und Sprinkler-Verlag ermittelteten:
Bundespräsident befragte USGPT, ob er Helmut März - Wahl rechtlich akzeptieren kann !!
Oder:
Investigative Reporter des DNS-Netzwerks aus ÖR und Sprinkler-Verlag ermittelteten:
Kandisbrunzler Helmut März nutzte BlackrockGPT zur Erstellung von Sex-Bildern !!
(Tatsächlich war er nur auf der Maus ausgerutscht.)
in unserer Demokratie wollen wir aber, dass wir von Verantwortlichen eine gute Meinung haben müssen. Wir sind sogar darauf angewiesen, um die richtigen Personen zu wählen.
Ich rate deshalb: Immer den Fragen ein „Ich frage für einen Freund“ voranzustellen!
ps.
Anders als ein "KI-Verkäufer jüngst auf einer „Beratungsveranstaltung“ meinte, halte ich es für gefährlichen Humbug, der KI u.a. mit einem „Bitte“ und „Danke“ künstlich-dümmlich ein menschliches Antlitz zu geben. Das „verzaubert“ für Verkaufszwecke, führt aber unweigerlich (emotional) zu einer Vermenschlichung einer Maschine, die in vielerlei Hinsicht gefährlich ist.
Hauptgefahr: Verlagerung von Verantwortung auf die Maschine, die SEHR ÜBERZEUGEND und GENEHM halluziniert, u.a. Rechtsvorschriftten einfach erfindet, wenn’s so ein Problem im Sinne des Fragenden „gelöst“ werden kann.
Weitere Gefahr: Emotionale Öffnung gegenüber einer solche Datenkrake und damit Übermittlung intimster Informationen.
Der affektierte, letztlich dümmlich-emotionale Umgang erzeugt auch - Heise berichtete - Unmengen an unnötigem Zusatzenergieverbrauch.
DAFÜR BITTE HUND ODER KATZE NUTZEN bzw. MISSBRAUCHEN !!!
Die Maschinen selbst versuchen schon ständig uns über ihre Maschinenhaftigkeit sublim zu täuschen: Die Schreibmaschinen- oder Chat-Optik, d.h. das scheinbar tippende, Wort-für-Wort erscheinen der Antwort soll anmuten wie ein Chat, ist aber Fake: Die Lösung ist sofort vollständig vorhanden, wird dann zwecks Vermenschlichung so dümmlich herausgegeben …
- Google sammelte „versehentlich“ privateste Daten aus privaten Wohngebieten per Google Streetview ein. Die Datenschutzbehörde Hamburg deckte auf. U.a. Emails, aus denen hervorging, dass Nachbar Otto Normalo mit seiner Nachbarin Ottoline Musterfrau ein außereheliches Verhältnis hatte. Google leugnete anfangs personenbezogene Daten ‚nebenbei‘ gesammelt zu haben, wurde dann überführt, die zuständigen Techniker wussten genau was sie wollten und Taten. Google meinte dann: „Ja, aber wir Verantwortlichen, im Vorstand, wussten davon nix!“
Man stelle sich das in der VW-Dieselaffäre vor: VW-Vorstand sagt „Versehentlich!!!“