du vergleichst allen ernstes eine Suchmaschine wie Google mit der KI.
O.k. ich kapituliere. Offensichtlich bin ich nicht in der Lage dir näher zu bringen wie komplett daneben du liegst.
Nichts, das vor dem Wort „aber“ steht, zählt wirklich.
Könnte. Oder auch nicht.
Du kennst dich offensichtlich nicht sehr gut mit der Materie aus, da du hier einiges über einen Kamm scherst.
KI ist ein riesiger Themenbereich und hat erstmal nichts mit Informatik zu tun. Frankensteins Monster und der bronzene Riese Talon aus der griechischen Mythologie sind beides künstlich erschaffene Intelligenzen, haben mit Computern aber nichts zu tun. Lass uns deshalb nicht von KI sprechen, sondern auf die konkreten Unterbereiche Mustererkennung (z. B. Gesichtserkennung) und die sogenannte GenAI konzentrieren (die beide sehr viel mit Computern zu tun haben).
In der Mustererkennung (z. B. Gesichtserkennung) ist die KI dem Menschen inzwischen überlegen. LLMs hingegen sind dem Menschen höchstens in der Geschwindigkeit überlegen, in der sie Bullshit und Propaganda fabrizieren können.
Mustererkennung könnte für viele kluge Dinge eingesetzt werden. Vor allem wird sie aber, beispielsweise in Form von Gesichtserkennung, von Unterdrückern zur Unterdrückung und Überwachung eingesetzt.
Teile des breitgefächerten Bereichs „KI“ lösen bereits „große Probleme der Welt“, siehe Nobelpreis 2024 für DeepMind’s AlphaFold. Das bedeutet aber nicht, dass man jeden Unterbereich dieses breitgefächerten Themenbereichs „KI“ gut finden muss oder dass jeder Unterbereich von „KI“ gut wäre. Edit: Kritik an einzelnen Unterbereichen eines riesigen Themenbereichs bedeutet nicht, dass man den gesamten Themenbereich verteufelt. Oder gar jede neue Technologie.
Naja, es wird seit Anbeginn der Zeit jede Technologie von einigen verteufelt.
Wird sich wohl in den nächsten 1.000 Jahren nicht ändern.
Wir werden ja sehen was bei rum kommt.
Nach der KI wird es wieder etwas neues geben und wieder werden einige dies verteufelt.
Moin.
Sieh an.
Der Artikel von findet auch Erwähnung im schweizer Nachrichtenportal watson.ch
https://www.watson.ch/digital/analyse/474984979-machen-uns-chatgpt-und-co-faul-und-dumm
Um vielleicht noch einmal einen weiteren differenzierten, gleichwohl grundsätzlich optimistischen Blick auf die Entwicklungen im Zusammenhang mit KI zu geben hier ein Link (3 Quellen; s.u.) zu einem aktuellen Interview mit Prof. Christoph Lütge (TU München; Institut für Ethik in der Künstlichen Intelligenz/Institute for Ethics in Artificial Intelligence):
Lütge war Mitglied des Bayerischen Ethikrats. Sein o.g. Institut wird u.a. vom Meta-Konzern/Facebook finanziert.
(Um Missverständnissen vorzubeugen: Ich bin nicht mit allem d’accord, was er zum Thema sagt. Beispielsweise denke ich, dass er die Rolle der sogenannten Sozialen Medien in diesem Prozess falsch bewertet, denn diese dürften mitnichten ein Ersatz für eine echte demokratische Kontrolle sein. Vielmehr können gerade diese durch entsprechende KI-Anwendungen heftigst manipuliert werden. Auch seine Deregulierungsfantasien bezüglich der Entwicklung und des Einsatzes von KI durch investierende, profitgetriebene Organisationen gehen für meine Dafürhalten in diese verkehrte Richtung.)
Wie Vieles hat auch das seine 2 Seiten. Viele Anwender freuen sich, das sie nun ihr „Problemlösungsvermögen“ also Kognitive Fähigkeiten durch KI erheblich erweitert haben.Zumindest glauben sie selbst daran..
Andere freuen sich, im Sinne von „1984“ und "Schöne Neue Welt " von Aldous Huxley sehr darüber, das die „Masse“ noch ständig Dümmer wird, sich aber für Schlau hält…sic !
Wer beide Bücher gelesen hat,weiß was ich meine…
Also warten, bis es Fakten gibt. Wenn die Fakten da sind, hat sich die Welt soweit weitergedreht, dass es kaum möglich ist, es wieder abzuschaffen, weil die Nutzung auch Strukturen ändert, die Bevölkerung verändert, wie skellig hier gut überlegt:
Das hat sich ja auch bei anderen Technologien gezeigt. Beispielsweise Auto: Es wird erwartet, dass jeder entsprechend mobil ist, z.B. von Arbeitgebern. Oder privat mal eben irgendwohin fahren, aus Bequemlichkeitsgründen. Da nutzt es nichts, wenn man inzwischen die Klimaschädlichkeit von Strassenverkehr feststellt, das lässt sich nicht so einfach reduzieren. Es wurden Bedürfnisse und Gewohnheiten geschaffen, wo die Leute nicht mehr anders können als daran festzuhalten, weil sie sich nicht vorstellen können, wie es ohne geht.
Man kann nicht immer darauf warten, dass etwas bewiesen ist. Vielleicht deutlicher zu erkennen an Umwelt- und Verbraucherschutz. Wenn bestimmte Stoffe erstmal produziert wurden und in Umwelt/Körpern sind, und man DANN ERST die Probleme in dem Maß erkennt, wie Du es forderst, ist es, je nach Stoff, schon zu spät, z.B. Ewigkeitschemikalien.
Weit ausgeholt, sorry, nur um zu zeigen, dass man nicht immer warten kann, bis es Fakten und Beweise gibt. Wissenschaft besteht ja nicht nur aus Evidenzen.
Wobei es ja auch so ist, dass die künstliche Intelligenz die natürliche Intelligenz nachahmt, um zu qualitativ anderen Ergebnissen zu kommen, als es sonst IT tut. Unbedarfte halten viel von IT, weil sie so schnell und exakt ist und Dinge zustandebringt, die Menschen so nicht könnten., überhöhen damit die IT, und jetzt bei KI überhöhen sie wieder, weil sie meinen, dass das wie menschliche Intelligenz ist, nur ein bisschen besser.
Ki lässt Menschen das Denken verlernen ? Das ist nicht erst seit der KI so..
Dazu 2 „Fakten“
Erstens „Das Gehirn“
Ich glaube das ich folgendes in einem Buch von Manfred Spitzer gelesen habe.Oder war es in einer Sendung mit /vom Ihm?
"Der Mensch hat ein Gehirn das Energietechnisch eigentlich zu Gross ist. Es wiegt ca 5% des Körpers,braucht aber 20 % der Energie…Um es kurz zu sagen: Daher ist „Denkfaulheit“ in den Genen verankert. So soll den Urmensch eher keine „Nutzlosen“ Denkaufgaben ausgeführt haben. Das hat sich bis Heute fortgesetzt.
Ich kann mich noch daran erinnern wie toll es war, einen Rechenschieber zu nutzen…Und Logarithmentafeln.
Und heute gibt es das I-Net, Da kann man komplizierte Rechnaufgaben wie 2x15-10 einfach Online lösen . Auch z.B. Linuxnutzer müssen keine Bücher mehr lesen oder sich sinnvolle Notizen machen..Bei Fragen einfach „im Netz“ nach Lösungen suchen. Aber wehe das „Netz“ fällt mal aus…
Und nun die Raffinierte Abfragentechnik von Datenbanken, genannt KI:
Da kann ein Schüler seine "Haus"Aufgaben komplett lösen lassen und sogar Doktorarbeiten können erstellt werden. Oder irgenwelche -mehr oder weniger sinnvolle-Daten generiert werden.
Leider hat die KI einen Unglaublichen „Stromdurst“.Die Rechenleistung der Ki berechnet sich u.a. durch sog. Token. Durchschnittlich Token pro Wort:
Englisch: 1,3 Token
Deutsch: 2,1 Token
Russisch: 3,3 Token
Indisch: mehr als 6 Token
Bayrisch: Unbekannt
Zudem steht in der c’t 12/25 folgendes:
Musks Firma xAI versorgt sein Rechenzentrum in Tennessee zusätzlich mit 35 mobilen Gasturbinen wie die 16 MW Turbinen von Solar Turbines, weil die Stromversorgung dort bei weitem nicht ausreicht.
Längerfristig sollen Atomkraftwerke diese Aufgabe übernehmen…
Satire ON: Momentan wandert also der Energieverbrauch der -teilweise vollkommen Unwichtigen- Aufgaben der KI von den Gehirnen zu Fossilen Brennstoffen. Satrie OFF
Mal sehen wie es sich entwickelt. Hoffentlich nicht wie in Huxleys „Schöne neue Welt“
Spitzer vertritt ein paar äußerst umstrittene Meinungen. Da sie sehr polarisierend sind, sind sie leider sehr Medienwirksam.
Das nennt sich Fortschritt und Arbeitsteilung. Du beschwerst dich doch auch nicht darüber, dass die meisten Menschen heutzutage keine Tätigkeiten mehr beherrschen müssen, die vor ein paar hundert Jahren noch für die meisten wichtig waren.
Hallo,
ich halte den Artikel von Mike für sehr wichtig. Wir stehen mit dem großflächigen Einsatz von LLM’s mitten in einer disruptiven Veränderung, die in ihren Auswirkungen der Erfindung des Webstuhls, der Dampfmaschine, der Eisenbahn, des Automobils oder des Internets (E-Mail, Web, Wikipedia) nicht nachsteht.
Es gilt nun zu bewerten, ob aus der „KI“ (ich setze das gerne in Anführungszeichen, weil es sich nicht um wirkliche Intelligenz handelt, sondern um sehr, sehr ausgefeilte Sprechmaschinen) mehr oder andere Gefahren drohen als aus den früheren disruptiven Erfindungen. Das vielzitierte Beispiel ist die Warnung aus dem 19. Jahrhundert, Menschen würden durch die noch nie vorher erreichte Geschwindigkeit der Eisenbahn (vermutlich damals ca. 60 km/h) schwere gesundheitliche Dauerschäden davontragen.
Ist das beim großflächigen Einsatz der „KI“ genauso und werden wir uns in 15 Jahren über unsere heutigen Vorbehalte und Sorgen kaputt lachen oder ist es diesmal anders?
Eigentlich müsste an dieser Frage dringend ganz breit interdisziplinär (Psychologie/Kognitionswissenschaften, Informatik, Philosophie) geforscht werden, und zwar unabhängig finanziert.
Ich persönlich bin überzeugt, dass es sich bei der „KI“ anders verhält als bei früheren Innovationen. Frühere Innovationen haben den Menschen bei repetitiven, mechanischen Tätigkeiten oder bei umfangreichen Berechnungen entlastet. Zunächst bei sehr simplen Aufgaben (Webstühle), zuletzt bei hochkomplexen Aufgaben (Automation in der Automobilindustrie).
„KI“ tangiert jedoch den Kernbereich menschlicher Existenz: Die Fähigkeit, aus Erlebtem: aus Gesehenem, Gehörten und Gelesenem Schlüsse zu ziehen und neue Erkenntnisse abzuleiten.
Dabei liegt die Hauptgefahr meiner Meinung nach kurzfristig in der Asymmetrie des Zeit- und Ressourcenaufwandes (Hardware, Energie) zwischen Training und Nutzung von LLM’s. Den Oligopolen im Internet (Amazon, Google, Twitter, Meta, Yandex) standen extrem demokratische Ansätze wie Wikipedia, zlibrary, Annas Archive (die letzten beiden illegal) zur Informations- und Wissensverbreitung gegenüber.
Fast jedermann ist heute in der Lage, sich mittels „Kiwix“ die gesamte englischsprachige Wikipedia auf den eigenen PC herunterzuladen und offline zu nutzen (Platzbedarf zwischen 60 und 120 GB Massenspeicher). Fast keine Privatperson ist heute in der Lage, ein aktuelles Sprachmodell von Google oder OpenAI selbst zu trainieren.
Schlimmer noch: es ist unmöglich, weder für den Nutzenden noch für den Trainierenden, nachzuvollziehen, warum ein Sprachmodell in einem konkreten Fall eine bestimmte Antwort gibt, es sei denn, sie ist Folge eines expliziten Finetunings. Jede Information in Wikipedia soll dagegen idealerweise mit einer Quelle belegt sein.
Das ist in meinen Augen der größte Unterschied zu früheren Innovationen.
Schöner Beitrag. Danke!
Ja, aber du kennst die Himmelrichtungen und hast eine gewisse, sehr grobe Landkarte im Kopf, so dass du niemals aus Versehen nach Rom etwa 5 km östlich von Parchim an der B191 fahren würdest, anstatt in die italienische Hauptstadt.
Ich hab gerade was drüben im Thread über Quizlet geschrieben, was auch hier reinpasst. Stichwort: Goodnotes in der Schule als digitales Heft. Der Horror!
https://www.kuketz-forum.de/t/quizlet-tracking-werbung-und-gravierende-datenschutzprobleme-schul-apps-teil-5/12896/3
Auch ohne Navi sind früher schon Leute nach Nürnberg statt nach Nürburg gefahren und sich dann gewundert, dass dort keine Rennstrecke auf sie wartete…
Die KI ist ein sehr interessantes Werkzeug, es ist wie eine Machete für den Urwald man kann so ziemlich alles damit machen aber man sollte mit diesem Werkzeug gut umgehen koennen sonst wirds gefaehrlich. Worueber ich gruebel sind die neuen Kriegsfuehrungen in naher Zukunft; was man so sieht, ist für den normalen Buerger schon ziemlich echt dargestellt um Konflikte oder Panik zu erzeugen und wir sind erst in der Anfangsphase von etwas sehr grusseligen. Bin gespannt wie es sich in den naechsten Jahren entwickelt.
Ja eben, KI können auch Diktatoren verwenden und die Masse fällt drauf rein. Auch im Kosovo-Krieg sollen gefälschte Bilder rundgegangen sein zur Manipulation.
Das ist nicht zutreffend. Das Aufwachsen mit Navigationsapps kann die Fähigkeit zur Orientierung im Raum zerstören. Ich kenne Beispiele und möchte eigentlich den Indikativ Präsens nutzen - ohne „kann“. Das findet sehr wohl „im Denken“ statt, denn auch Raumorientierung gehört zum Denkvermögen.
Das ist ene Frage des Umgangs mit LLMs. Man kann LLMs wie Taschenrechner nutzen und als solche können sie sehr hilfreich sein. LLMs sind Statistik und Statistik als mathematische Methode ist in allen möglichen Bereichen hilfreich, sofern man weiß, wie Statistik grundsätzlich funktioniert. Der Taschenrechner nutzt genauso mathematische Methoden wie LLMs das tun. Sachkunde im Umgang mit diesen mathematischen Methoden ist sicherlich angebracht. Das gilt gleichermaßen für alle anderen Anwendungefälle von Statistik (zB. Wahlprognosen).
Ich verwende hier mit Absicht nicht den Begriff „KI“ - das Wort „Intelligenz“ in KI vernebelt die Tatsache, dass es sich um statistische Modelle handelt. Wer Bildung fördern will, sollte diesen völlig verfälschenden Begriff nicht für LLMs benutzen.
Musk’s AI zeigt weitere Gefahren auf, die Angst machen:
Es war mir nicht klar, wie einfach es anscheinend ist, eine KI auf falsche Antworten zu programmieren.
Alleine das dies eine Schlagzeile wird, zeigt auf, wie weit wir inzwischen sind.
Das zeigt nur allgemeine Ahnungslosigkeit. Natürlich ist die statistisch wahrscheinlichste Antwort auf etwas, was schief geht, immer „Softwarefehler, kann man nix machen“ - sonst wäre das kein geflügeltes Wort. Kein Wunder, dass Grok das auch tut.
„KI“ tangiert jedoch den Kernbereich menschlicher Existenz: Die Fähigkeit, aus Erlebtem: aus Gesehenem, Gehörten und Gelesenem Schlüsse zu ziehen und neue Erkenntnisse abzuleiten.
Das tun LLMs überhaupt nicht. LLMs sind Statistikmaschinen, die die bereits bestehenden Erkenntnisse (und Fehler!) anderer statistisch auswerten. Fallt nicht auf Propaganda rein.
Meiner Meinungs nach ist die Mustererkennung weit gefährlicher als LLMs. Die Resultate von LLMs lassen sich mit menschlichem Denken korrigieren. Und LLMs sind für mich von großem Nutzen, denn sie eröffnen mir Dinge, die ich ohne sie nur mit erheblichem Aufwand an (nicht vorhandener) Zeit hätte erreichen können. Die Ergebnisse der Mustererkennung kann ich nicht korrigieren. Ihr bin ihr ausgeliefert und ihr Einsatz zur Überwachung läßt sich politisch nicht verhindern. Gleichzeitig bringt sie mir als Individuum keinerlei Nutzen.
LLMs sind großartige Werkzeuge - mehr aber auch nicht - der Umgang mit ihnen muss gelernt werden. Als erstes sollte sich jeder abgewöhnen, in diesem Zusammenhang das Wort „Intelligenz“ oder das „I“ zu verwenden. Das würde schon viel helfen.
Ich finde es gut, dass Du mit den Begrifflichkeiten differenzierst (vielleicht ist das tatsächlich eher der Ansatzpunkt). Allerdings verändert die Technik die Gesellschaft tatsächlich, egal wie man sie nennt. Alleine, weil die Leute dran glauben wollen. Wenn man dieser Technik Aufgaben überlässt (im Glauben daran, dass diese die genauso gut oder sogar noch besser erledigen kann. Oder auch nur, weil man aus Bequemlichkeit und Leistungsdruck Aufgaben delegiert, sogar im Bewusstsein, dass die Ergebnisse schlechter sind) und bestimmte menschliche Fähigkeiten nicht mehr trainiert, gehen diese verloren. Beides, das Verlieren der eigenen Fähigkeiten und der Glaube daran, die Technik könne das, ist fatal. Ob es reicht, die Menschen auf die Unzulänglicheit der Technik aufmerksam zu machen? Es wäre ein Versuch (ich glaube persönlich nicht daran, die Menschen sind technologiegläubig und wollen das sein, hat man in der Vergangenheit genug gesehen).
Die Begriffe snd wichtig. Die Bezeichnung „Künstliche Intelligenz“ ist Propaganda, der man nicht nachrennen sollte.
Mit dem Taschenrechner ist die Fähigkeit zum Kopfrechnen verlorengegangen, mit dem Computer die Fähigkeit der Schreibschrift (ich kann es trotz 20 Jahren Nutzung nur noch mit Mühe), mit dem Navi verschwindet die Fähigkeit zur Orientierung. Ja das ist so. Aber das Denken haben wir trotzdem nicht verlernt.
Gefährlicher für das Denkvermögen ist die Manipulation unter Nutzung psychologischer Verdrahtungen unseres Gehirn, wie es die Asozialen Medien täglich tun. Gegen diese Manipulation können wir uns nur sehr schwer wehren, weil sie Mechanismen nutzt, die seit der Steinzeit bei uns im Gehirn stecken. Mit und ohne sog. „KI“. Die ist nicht entscheidend. Entscheidend ist, dass wir immer wieder üben, psychologische Manipulation (egal, ob durch LLMs oder sonstwas) zu erkennen und zu hinterfragen
Hallo!
Würde gerne Mikes Gedankengang ergänzen um weitere Aspekte einer möglichen „Kulturverschiebung“
-
Es besteht das Risiko, den ChatBot als denkendes Wesen wahrzunehmen, obwohl er lediglich mathematische Berechnungen ausführt und „Sinn“ nicht kennt. Die Maschine gibt lediglich vor zu denken. Wie verbreitet wird dieses Bewusstsein unter den Nutzern der nächsten Generation sein?
-
Damit einhergehend: ChatGPT & Co beziehen sich immer auf die Vergangenheit (alte Daten und Texte). Generiert wird also nichts Neues oder gar Visionäres, selbst wenn das anders erscheinen mag. Es geht um Reproduktion, auch von Weltbildern und Stereotypen (und die werden dann erneut in KIs eingespeist). Wer denkt das „Neue“?
-
Sowohl Sprache als auch Inhalte von ChatGPT & Co orientieren sich am statistischen Mittel. Wenn ChatGPT & Co dem eigenst. Denken vorgezogen werden, was wird dann aus der Individualität des menschlichen Denkens und Urteiles?
-
Denken muss kein rein kognitiver Akt sein (wie etwa im Bereich Mathematik/Naturwissenschaften), sondern kann auch von Herzen kommen. Die Werbung zum 70sten Geburtstag des VW-Golf zeigt am Ende den neuesten Golf mit integriertem ChatGPT. Der Bot soll Vorschläge machen, welchen Gefallen man den Eltern als Geburtstagsgeschenk machen könne. Lernen die mitfahrenden Kinder auch, dass man über eine Herzensverbindung mit den Eltern zu eigenen Einsichten gelangen kann?
-
Der größere Zusammenhang in Verbindung mit anderen derzeitigen Entwicklungen: Viele Kleinkinder in Kinderwägen oder auf dem Spielplatz erleben ihre Eltern völlig anders als vorherige Generationen. Anstelle von Zuspruch, emphatischen Reaktionen oder gemeinsamem Spiel sehen sie ihre „Vorbilder“ oft emotionslos, mimikfrei und selbstbezogen an den Geräten. Aus Kindersicht scheinen die Geräte womöglich mehr Wert zu haben als sie selbst. Werden diese Kinder später eher ihre Mitmenschen oder eine KI fragen?
-
Um Denken und Urteilen zu lernen/zu können braucht es grundlegende Fähigkeiten: Allgemeinbildung, Interesse und Durchhaltekraft. Würde nicht mehr selbst gedacht werden, würden dann auch diese Fähigkeiten verkümmern?
-
Und noch in eine andere Richtung gedacht: Wenn die Maschine dem Menschen das Denken (weitgehend) abnimmt, was macht er dann mit der frei gewordenen Zeit? Wie kann er sich beGEISTern?