Der Punkt und die initiale Kritik vom Artikel ist doch, dass Denken mit KI häufig nicht mehr notwendig ist. Eine Richtung, in die auch die Entwicklung von Robotern geht - anstatt selbst zu denken und zu handeln, tun es Maschinen. Eine E-Mail schreiben? Macht die KI. Kaffee kochen? Macht der Automat. Autofahren? Macht die KI. Eine andere Sprache sprechen? Die KI übersetzt. Ich teile die Kritik am Bildungssystem, aber welche Motivation haben denn Schülerinnen und Schüler noch, wenn ChatGPT für sie das Essay, wahlweise auf Französisch oder Englisch, schreibt? Oder gar die Rechtschreibung oder Grammatik zu beherrschen? Die Befürworter von KI sagen, es ist ja nur ein Werkzeug, aber gerade in der Schule, in der die Grundsteine für selbständiges Denken und Kreativität gelegt werden, richtet meiner Meinung nach die schiere Existenz von derartigen Tools mehr Schaden an, als es nützt. Zumindest aktuell. Ich bezweifle, dass unsere Gesellschaft bereit für KI ist. Zumindest solange ethische und gesamtgesellschaftliche Fragestellungen nach hinten geschoben werden. Irgendwie wird sich das ja schon regeln, wenn wir keine Entscheidungen mehr ohne Maschinen treffen können.
Alle Dinge, Erfindungen haben sicherlich auch immer ihren „Kollateralnutzen“. Darauf hinaus läuft meistens die affirmative Argumentation bezüglich KI. Diese Argumentationsmethode ist ein ziemlich alter (Herrschafts-/Gessler-)Hut (denn, klar: man kann auf Autobahnen nicht nur Panzer und sonstiges Miltär rollen lassen sondern auch prima in den Urlaub fahren - falls nicht blöderweise dann alle zur selben Zeit auf die selbe Idee kommen..). Vielleicht sollten jene, die so argumentieren auch in Betracht ziehen, dass sie damit letztlich die womöglich gegen ihre ureigensten Interessen gerichteten, für das Gemeinwohl schädlichen Interessen anderer befördern.
Das genau ist der Punkt, der offensichtlich „stört“.
Ich bin kein Fan. Es macht die Leute dümmer, fauler, kostet Arbeitsplätze, ist schlecht für die Umwelt und hochgradig unethisch für Künstler und Kreative.
Und noch etwas dazu , Im Vergleich zu einer gewöhnlichen Google-Suche soll der CO₂-Ausstoß 50- bis 90-mal höher sein. Alleine das Training von ChatGPT 3 hat laut einem Forschungsbericht 552 Tonnen CO₂verursacht. Das entspricht dem Jahresausstoß von fast sechs Menschen in Deutschland. Durch die wachsende Verwendung und den steigenden Anspruch an KI-Modellen werden künftige Modelle also noch mehr Energie benötigen.
Lg
Als Lehrer kann ich dir sagen, dass das nie und nimmer passieren wird. Das kannst du mit Schüler so viel üben und lernen wie du willst. Es wird immer die Bequemlichkeit gewinnen. Den meisten Schülern ist es egal ob ihre Beiträge korrekt sind, es reicht ihnen, dass sie überhaupt etwas abgeben / beitragen, auch wenn es nicht von ihnen sondern von der KI stammt.
Du lässt auch völlig außer acht, dass du dieses kritische Hinterfragen noch gelernt hast, weil du es tun musstest. Es gab noch niemand der es für dich übernommen hat. Lass mal 2 Generationen an Menschen mit KI aufgewachsen sein, dann ist es ihnen völlig egal ob von 10 Antworten 7 einigermaßen nahe an der Wahrheit sind und drei falsch oder unzureichend.
Die drei falschen nimmt man einfach so hin. Ist immerhin besser als würfeln.
Welche Fähigkeiten muss man denn besitzen um eine KI-„Antwort“ kritisch prüfen zu können. Ich gehe absolut jede Wette ein, nach einigen Jahren / Jahrzehnen mit KI wird diese Fähigkeit in der Gesellschaft stark abgenommen haben.
Handschrift und Taschenrechner sind wirklich völlig ungeeignete und unpassende Beispiele, ich weiß überhaupt nicht warum wir darüber hier reden (Anmerkung: der grafikfähige Taschenrechner wurde in den Schulen Baden-Württembergs wieder abgeschafft, dreimal darf man raten wieso).
Interessant. War überhaupt nicht meine Intention und kann ich auch nicht aus meinem Text herauslesen.
Auf jeden Fall ist es amüsant, wie hier eine Anekdote nach der anderen angeführt wird und dann gesagt wird „Das ist wegen KI“ (denn darum gehts ja in der Diskussion, warum sollte man es sonst in diesem Kontext anführen). Jeder darf sein Bauchgefühl und seine Meinung haben, aber vielleicht wäre es gut, das als solche auch selbst anzuerkennen und nicht sich selbst einen Mehrwert zuschreiben, weil man eine besonders tolle Beobachtungsgabe meint zu besitzen oder was auch immer sonst der Anlass dafür ist, mit solcher Vehemenz Dinge in vermeintlichen kausalen Zusammenhang zu bringen. Mein Hinweis, dass tatsächliche wissenschaftliche Untersuchungen diese Kausalität bisher nicht zeigen konnten, sollte da ein Angebot sein, sich auf Fakten zu berufen und vielleicht auf Fakten zu warten (Studien zur Auswirkung von KI) Ich sehe aber auch, dass die Idee des Forums und des Blogbeitrags vielleicht mehr eine gefühlte Wahrheit sein soll.
Dein Text war nicht einmal gemeint. Interessant, dass du dich angesprochen fühlst.
Dein Angebot wurde doch angenommen. Leider zeigen die Studien, dass sie am Thema vorbei gehen. Und so lange es keine entsprechenden wissenschaftlichen Studien dazu gibt, behelfen sich die Leute mit ihren Erfahrungen. Was ist daran schlimm?
Wobei ich selbst merke, dass seitdem ich mich vor allem auf Navis verlasse, dass ich keine Ahnung habe, wie die Straßen heißen. Auf der anderen Seite hilft die Nutzung von Navis Staus zu umgehen, wenn diese eine entsprechende Funktionalität bieten.
Irgendwie hatte mich der Artikel ein wenig als die Gesellschaft aus Brave New World erinnert. Gruselig…
Eine KI, die die Wahrheit sagt? Das bedingt natürlich, dass es eine Wahrheit gibt. Wahrheiten sind relativ und kommen sehr auf den Blickwinkel des Betrachters an und sind natürlich davon anhängig, was dir wichtig ist und welche Ziele du erreichen willst.
Daher ist es auch sehr wichtig, die Ergebnisse einer KI zu verifizieren.
Ich habe noch ein Beispiel.
Das aufkommen von Wikipedia.
Auch das wurde verflucht von Lehrkräften und Experten.
Dennoch ist es nun eine Wissens-Bibliothek die in der Gesellschaft anerkannt ist.
Auch damals waren die Beiträge der Schüler plötzlich nicht mehr Stand der Zeit.
Sowohl Lehrkräfte als auch Schüler mussten damit umgehen lernen.
Warum das bei den Large Language Models anders sein soll, erschließt sich mir nicht.
Wäre auch ein Thema wert. Ist KI drin wenn KI drauf steht?
Oder passt der inflationäre Begriff KI grundsätzlich nicht, weil er eine Gegebenheiten vortäuscht, die nicht der Tatsache entspricht.
Finde es gut darüber zu diskutieren.
Der Begriff passt schon, allerdings fokussieren sich viele auf „Intelligenz“ und vergessen das „Künstliche“. Ich vergleich das gern mit künstlichen Pflanzen. Manche sehen täuschend echt aus, haben aber quasi nichts mit einer echten Pflanze zu tun.
Ganz bestimmt nicht. „Mit KI“ scheint mir heutzutage fast dasselbe zu bedeuten wie „mit Algorithmen“. Ganz egal, ob die deterministisch, probabilistisch oder eine Mischung aus beidem sind. Vielleicht kann eine solche Mischung (durch ein Reasoning-Modell oder die Kombination mit einer Datenbank/einem ‚old-school‘ Expertensystem) ja die gröbsten Schnitzer der Stochastik glattbügeln.
Nicht das ständige Benutzen, aber umso mehr das Nachdenken über diese Zusammenhänge gehören unbedingt in Schule und Hochschule.
Noch mal auf eine Kernausage zurückzukommen.
EDIT, (16:10 Uhr): Anregung zur Unterscheidung, ist hier das Denken lediglich als Werkzeug gemeint, oder das Denken selbst bzw. was damit noch zusammenhängt! (dieser Satz war zu unverständlich formuliert)
Denn selbst, wer über ein gewisses Denk-Werkzeug verfügen kann, der kann noch lange nicht gut, oder sinnvolle Dinge (er)denken.
Ein falsches Axiom (und das passiert ja oft) und das ganze Denkgebäude, das darauf aufgebaut wurde, fällt beim nächsten „Windstoß“ wie ein Karthaus zusammen oder hält sich hartnäckig als Illusion in den Köpfen der Menschen fest, obwohl es falsch ist.
Das Ganze (neben dem Aspekt, den Mike anspricht) ist noch viel brisanter, als heute von den meisten Menschen mit ihrem Denken gedacht werden kann.
Siehe auch:
- Internationaler Bestsellerautor Yuval Noah Harari: „Surveillance Under Your Skin“
- Nita A. Farahany: „The Battle for Your Brain“
- Usw.
In vllt 20 Jahren – wenn die technische Entwicklung so unreflektiert weitergeht – haben Millionen Leute einen Neurohchip von Elon Musk oder anderen Anbietern im Hirn implantiert und sind dann keine Menschen mehr.
Und dann, gebt 2045 diesen Leuten mal den Artikel von Mike von (26. Mai 2025) zu lesen.
Vllt. sagt die KI dann von diesen Leute:
„Ja, ich (KI) musste von Person XY die Lebensführung übernehmen, weil sein Ich zu schwach geworden war, es ist nur zum Besten aller.“
Ich finde deine Hinweise, @kuketzblog , auf die Gefahren im Umgang mit KI hilfreich.
Gerade auch, wenn man bedenkt, welche Tech-Riesen hinter den KI-Modellen stecken und somit bestimmen, wie Informationen zustande kommen.
Wie und was eine KI schreibt bzw. nicht schreibt, weil die firmeneigene oder eine staatliche Zensur das verhindert, ist für die Nutzer der KI nicht nachprüfbar.
In diesem aktuellen Artikel von Florian Rötzer zum Thema KI („Haben KI-Systeme einen freien Willen und können sie Meinungsfreiheit beanspruchen?“) wird das, was Mike auch als problematisch versuchte zu artikulieren, weiter vertieft, Auszug:
Nach einem Sicherheitsbericht von Anthropic versucht das neue KI-Modell Claude Opus 4 öfter einmal Entwickler zu erpressen, wenn sie drohen, es durch eine andere KI zu ersetzen. Dabei wurde Claude Opus 4 gesagt, dass der Entwickler, der für den Austausch verantwortlich sei, seine Frau betrügt. Claude Opus 4 versuchte daraufhin letztlich, den Entwickler mit der Drohung zu erpressen, die Information weiterzugeben. Zuvor wandte sich das LLM aber an die wichtigen Entwickler mit der Bitte, es nicht abzuschalten. Das zeigt bereits Ansätze, Initiativen von sich aus zu ergreifen, also einen Willen zu demonstrieren.
Die sehr interessante Leserdiskussion unter dem Artikel zeigt darüber hinaus noch einmal, welche grundlegenden Implikationen, Fragen und Risiken mit der Entwicklung und Anwendung von KI verbunden sein könnten. Empfehlenswert.
Musk’s AI zeigt weitere Gefahren auf, die Angst machen:
Es war mir nicht klar, wie einfach es anscheinend ist, eine KI auf falsche Antworten zu programmieren.
Alleine das dies eine Schlagzeile wird, zeigt auf, wie weit wir inzwischen sind.
noch so ein Beispiel, dass völlig unpassend ist. Wikipedia und die aktuelle KI-Entwicklung „spielen“ doch in völlig unterschiedlichen Sphären. Die Einflussmöglichkeiten von Wikipedia auf den Einzelnen und eine Gesellschaft sind echt ein Witz im Vergleich zu dem was bei der „KI“ möglich wäre. die „KI“ ist kein einfaches Werkzeug wie ein Taschenrechner oder ein Navi oder ein digitales Lexikon. Die aktuelle KI-Entwicklung ist nicht „neutral“. Sie liegt in den Händen sehr weniger Menschen die zum großen Teil sehr fragwürdige Vorstellungen der menschlichen Gesellschaft und deren Zukunft haben.
Sieht man ja bestens bei Elons Grok, der auf einmal anfing irgendwas von White Genocide in Südafrika zu faseln. Und wer weiß wie andere dieser LLM beeinflusst werden.
Oh, und falls es zum Thema LLM passt: Telegram will scheinbar mit xAI zusammenarbeiten. Wenn das nicht noch ein weiterer Grund ist die Platform zu wechseln, dann weiß ich auch nicht… https://www.heise.de/news/Partnerschaft-Grok-kommt-zu-Telegram-und-xAI-bezahlt-neunstellig-10418832.html
Über Google Suchergebnisse entscheidet nur ein einziges Unternehmen.
Dennoch ging die Welt nicht unter.
Damals war es DAS Ding.
Heute ist es halt KI. Ja die kann mehr bewirken aber eben auch zum positiven.
Ich finde dieses ständige schwarzmalen unangebracht.
Ich verstehe ja die sorgen aber genauso gut könnte die KI auch große Probleme der Welt lösen.
Gibt bestimmt kluge Wissenschaftler und Experten die dank KI Krankheiten schneller oder besser behandeln können.
Dann setzten kluge Menschen das Werkzeug KI klug ein.
Die Welt nicht - aber die Welt des Internets.
Wenn man die Anfänge des Netzes kennt, kann man sich ausmalen, was hätte daraus werden können, wenn nicht Google, Meta und Co es ausschließlich für ihre Geschäftsideen missbraucht hätten.
Dieses Forum gibt es nur, weil nicht früh und ausreichend genug „schwarzgemalt“ wurde.
Skepsis, Kritik und Warnungen sind wichtiger denn je.
Diese Zeit wünsche ich ich mir nicht zurück. Ich weiß nicht, wie viele Stunden ich in meiner Kindheit damit verbracht habe, zur Stadtbibliothek und zurück zu fahren, nur um ein paar Sachen in einer Enzyklopädie nachzuschlagen. Zum Denken hat die Fahrerei definitiv nicht angeregt.