Noch bin ich nur als „Einsteiger“ zu bezeichnen und eigentlich interessieren mich persönlich gar keine grafischen Spielereien.
Das Thema ist jedoch von größerer Relevanz, denn es ist mit den Begriffen Wahrheit, Beleg und Beweis verknüpft und v.a. mit dem Begriff der Beliebigkeit.
Im Bereich der Musik ist es längst eine Tatsache, dass jeder musikalisch Ahnungslose, ohne ein Instrument überhaupt ansatzweise zu beherrschen, Partituren für Orchesterwerke erstellen lassen kann und die Ergebnisse lassen sich nicht mehr von „echter“ Musik unterscheiden.
Die Folgen der Video-Manipulation sind jedoch tiefgreifender.
Vielleicht hat sich schon jemand mit zB.
Stable Diffusion
Stability Matrix
…
befasst? Gar professionelle Erfahrungen damit?
(Finde deinen Text zum Beispiel schon mal suspekt. Syntax, Wortwahl, sind für eine Lehrkraft nicht besonders akkurat gewählt.)
Du meinst wohl die Sichtbarkeit oder Markierung von KI generierten Inhalten,
dass man diese manipulativ verwenden könnte und wird, und wie wir damit umgehen sollen.
Sei es Text, Bild oder Ton.
Die folgen von KI in jeglicher Hinsicht, ist immer zwei- oder mehr-schneidig. Seit Anbeginn der Menschheit begnügt sich der Mensch dahingehend, Dinge zu vereinfachen. Wir laufen kaum noch sondern nutzen den E-Roller, Auto, Flugzeug, Fahrrad. Wir jagen nicht sondern gehen einkaufen.
Wir malen keine Bilder, sondern lassen sie malen. Wir haben ein blödes Essay geschrieben lassen wir mal die KI das optimieren. Englisch lernen ist doof, lassen wir den Translator den Text übersetzen und in Sprach umwandeln.
Lassen wir eine KI einen Virus schreiben, der von den gängigen Antivirenprogrammen nicht gefunden wird, Ports öffnet, Screenshotsmacht. Ich nehme an dass das nun jeder machen kann. Weil Pegasus war eher bestimmten höheren Bereichen zugränglich um Spionage zu betreiben.
Bei Grafik gibt es auf Deviant.com (Bilder Artist Forum) die Checkbox für KI-generierter Inhalt, was man beim hochladen setzen sollte. Finde ich sehr gut.
Bei Videos oder sagen wir manchmal, wird sowas kaum gemacht. Ich denke auch, dass Ki aktuell noch nicht ganz reif ist, um täuschend echt zu sein. Bei der Face-Animation, LipSync, Haare, Facial Expression ist KI allerding ziemlich gut. Bei längeren Sequenzen ehernicht. Und wenn es für manipulative Zwecke benutzt wird sollte man ggf. eine gewisse Grund-skepsis oder Fähigkeiten in der Video und Foto Forensik haben um solche Fakes zu entlarven.
Da dies aber keine Sinn macht, muss es deutlich markiert werden. Wie eben Watermarking, wobei man das auch wieder rausrendern kann. Schwierig.
Stable Diffusion ist primär für die Bildgernerierung text-to-image.
Stable Video Diffusion ist Image-to-video Model.
Stability.AI behinhaltet Bild, Video, Ton KI’s.
Stability Matrix enthält ebenso alles als GUI.
Genau - Sinn kann niemals gemacht werden!
Das war eine kurze kostenlose Belehrung, obwohl ich definitiv keine „Lehrkraft“ bin (wie kommst Du auf sowas?).
Mein kurzer Themanvorschlag war KEINE Frage nach ‚Stability Matrix‘! (wie kommst Du auf sowas?)
„Die folgen von KI in jeglicher Hinsicht, ist immer zwei- oder mehr-schneidig.“
Ich freue mich immer riesig, wenn MEINE Syntax oder Grammatik von Nicht-Muttersprachlern kritisiert wird.
Danke.
Mein Themanvorschlag endete mit einer Frage nach Erfahrungen und damit waren praktische Erfahrungen gemeint. Vielleicht sogar in beruflichem Umfeld?
Da ich selbst keine Meinungen äußere, erwarte ich auch nichts Gemeintes von anderen
Nicht dem angesprochenen. Aber Bildmanipulation ist nicht neu, das gibt es schon sehr lange, warum soll es bei KI Filmen anders sein? Vertiefend kann man sich dazu mit dem Fotografen James Nachtwey beschäftigen.
Warum es bei KI-Filmen im Vergleich zu herkommlichen Videobearbeitungen anders ist, kann als Perfektionsgrad bezeichnet werden. Es ist salopp gesagt nicht mehr erkenn- bzw. messbar (Pixelverteilung, Farbverlauf u.ä.).
Erweitert gilt das auch für viele technische Nachweißverfahren.
Auch juristische Fragen sind hier relevant:
Die Echtheit (Gültigkeit) von Foto- und Videobeweisen war zwar immer schon diskutabel, aber nun sind sie grundsätzlich zweifelhaft.
Zwar kann die Online-Nutzung der KI begrenzt werden (Markierungen u.ä.), offline ist es kaum zu kontrollieren und wer sich mit zB. Python auskennt, der findet alle Beschränkungsversuche.
Videos habe ich noch nicht mittels KI bearbeitet, ich vermute aber, dass es sich nicht wesentlich von der Bildbearbeitung unterscheidet.
Warum sollte es einen Unterschied geben? Welche Art von Manipulation angesprochen wird beleibt leider unklar, nur das Medium hat sich geändert.
Thematisch verfilmt, nicht ganz so ernst:
https://de.wikipedia.org/wiki/Wag_the_Dog_–_Wenn_der_Schwanz_mit_dem_Hund_wedelt
(Willkommen im Forum btw.)
Deswegen kam ich drauf, dass sie eine Lehrkraft wären.
Stability Matrix gehört in das Gespann der AI Tools dazu. Vielleicht wollten Sie selber danach suchen und einen Überblick bekommen. Da ihr Frage auf Nachweisbarkeit abzielt, wäre es gut die EULA oder AGB zu lesen bzw. diverse Disclaimer.
Angemerkt sei auch die Geschichte um urheberrechtlich geschützte Daten für das Model Chat GPT. Was nicht mit dem KI Kontext von Stable Diffusion zu tun hat.
Ich habe praktische Erfahrung im privaten Umfeld. Man kann mit fotoforensicher Software ELA (Error Level Analysis) bearbeitete oder durch mehrfache Konvertierung entstandene Bildfehler sehen. Als ein Beispiel.
Ich konnte nur versuchen es zu assoziieren. Deswegen habe ich im vorherigen Beitrag frei geschrieben und konnte nicht direkt eine Thematik oder einen Bezug finden.
Ich nehme weiterhin an, dass sie konkret die Verwendung von KI generierten Daten, in verschieden Fachbereichen, besprechen möchten. Daher:
Das ist korrekt. Vielleicht hilft hier eine weitere KI die KI Daten erkennt.
Wenn man aber vom CEO einen Autrag bekommt Geld zu überweisen und später herausfindet, dass die Stimme gefakt war, durch KI, sind wir einfach an einem Punkt angelangt wo man alles anzweifeln muss oder sich absichert.
Die KI werden ja mit originalen oder KI generierten Inhalten trainiert. Das Endprodukt entsteht aus einem oder mehrere Noise Pattern, genau weiß ich das auch nicht. Die Mechanik hinter KI kann man theoretisch auch dazu verwenden, sie zu „entlarven“. Dazu müsste man nur KI-Models mit einem versteckenten „Hinweis“ versehen der z.b. eine bestimmte Pixelanordnung. Ich erinnere mich da an die Machine Identification Code (MIC) – auch Farbdruckermarkierung.
Mit der funktion WhatsApp Chats zu faken wäre z.b. ein Alibi, in einem Strafprozess, fragwürdig. „Ich war doch im Chat, also kann ich nicht der Täter sein“.
Daten und Datenquellen, Originalität, Faktencheck, Debunking sind alles wichtige Hilfsmittel und selbst KI kann dabei helfen.