Authentizität während eines Livestreams beweisen

Moin, Zusammen:
Es ist schon eine Weile her, daß ich mich mit solchen Themen beschäftigt habe.
In Zeiten von KI würde ich gerne wissen, ob es eine einfache Möglichkeit gibt, die Authentizität eines Livestreams nachzuweisen oder zu ermitteln.
Für eine bereits vorhandene, abgeschlossene Datei könnte ich ja einfach einen Hash hinterherschieben, der mittels meines PublicKey verifiziert werden kann.
Aber wie könnte man so etwas sogar dann schon sicherstellen, wenn die Datei noch gar nicht beendet ist?
Bei einer peer to peer Verbindung mag das ja noch mit einer absichernden Verschüsselung funktionieren, aber wie könnte man so etwas z.B. auf einem YouTube-Stream realisieren?
Gruß: Axel

Aktuelle lineare Fernsehsendung im Hintergrund.

1 „Gefällt mir“

Ja, gute Idee.
Aber löst das Problem nicht. Ich habe es nicht genau genug beschrieben, hole es nun anhand eines Beispiels nach:
Ein politischer Blogger erlangt einige Bekanntheit, dermaßen, daß er ins Fadenkreuz der Dienste gerät. Diese möchten ihn nun dadurch diskreditieren, daß sie ihm eine Aussage unterschieben, die dieses Ziel erfüllt.
Sie könnten also den Livestream kapern und per KI sequenzen einspielen, die für den Blogger kompromittierend sind. Ist wohl erheblich aufwendig.
Alternativ kapern sie den ganzen Account und produzieren einfach einen Livstream mit seinem digitalen KI-Doppelgänger und legen ihm etwas kompromittierendes in den Mund.
Deswegen funktioniert auch der im Hintergrund laufende Fernseher nicht, weil er bei beiden Methoden ebenfalls mit hineinkopiert werden kann.

Es würde ja noch nicht einmal ein mitlaufender Chat funktionieren, wo ihn ein zweifelnder Zuschauer auffordert, dreimal mit dem Auge zu zwinkern.

Etwas kniffeliges Problem, ich kaue schon einige Zeit darauf herum.

1 „Gefällt mir“

Oh, das ist eine Kopfnuss!

Mir fällt spontan nichts Besseres ein, als zum Selbstschutz auf Videostreaming zu verzichten. Wenn man mit Texten kommuniziert, ist es vergleichsweise leicht, digitale Signaturen zu benutzen. Um diese zu fälschen, müsste ein Angreifer in den Besitz des privaten Schlüssels kommen. Und selbst beim Chatten geht noch so etwas wie OMEMO… aber bei Videomitteilungen müsste man sich nach meinem Kenntnisstand eine völlig neue Methode ausdenken, die im Prinzip jedes gestreamte Einzelbild (oder kleine Pakete von Einzelbildern) digital signiert. Und man brauchte eine Abspielsoftware, die das prüfen kann, damit Manipulationen eines feindlichen Dienstes auffallen. Ach ja, es wäre schön, wenn das auch noch (zumindest beim Abspielen) effizient geht.

Und wehe, wenn das Video mal in ein anderes Format oder in eine andere Datenrate konvertiert wird! Zum Beispiel automatisch von der verwendeten Streamingplattform. Oder automatisch beim Upload auf ein Videoportal. Mir fällt spontan nichts Einfaches ein, was gegen solche Konvertierungen robust genug und dennoch manipulationssicher wäre.

Videoeinblendungen aller Art funktionieren aus schon genannten Gründen jedenfalls nicht.

Mein Tipp an den p’litischen Blogger, der sich vor solchen fiesen, mit Geheimdienstmitteln vorgetragenen Angriffen wappnen muss: Er sollte besser bloggen statt zu streamen. Da gibt es weniger Angriffsmöglichkeit. Er ist ja auch ein Blogger… :wink:

Aber die Kopfnuss ist es eigentlich wert, dass man mal drauf rumdenkt. Denn dass man die Integrität von Videoaufnahmen sicherstellt, könnte schnell auch in etwas lebenspraktischeren Kontexten wichtig werden.

Bis jetzt funktioniert es bei vielen „KI“ gut, wenn man sie übelst beschimpft und beleidigt. Entweder verstehen sie einen nicht oder sie antworten sehr passiv und defensiv. Während die meisten echten Menschen etwas gereizter reagieren werden.
Sprich: etwas Emotionales triggern.

Würd’ ich jetzt nicht in Videochats mit der Geschäftsführung machen :wink:

1 „Gefällt mir“

Laut Stefan (Quelle) kann man KI-generierte Videos leicht daran erkennen, dass Menschen total komisch aussehen, sobald sie nichts sagen, also den Mund geschlossen haben. Anhand der Authentizität des Videos lässt sich dann einfach erkennen, ob der Audiostream auch authentisch ist oder nicht.

Tatsächlich ziemlich kompliziert, das Ganze.
Wäre ich der Angreifer, würde ich es wohl eher mit einer ausgereiften DeepFake- Methode bewerkstelligen: Ein echter Mensch macht den Livestream, die Software ersetzt Stimme und Aussehen, KI fügt ggf. bestimmte typische Gesten hinzu. Dann ist auch das Problem mit dem blöden Gesichtsausdruck während Gesprächspausen gelöst.
Technische Abwehrmaßnahme ist zur Zeit noch zu Aufwendig, und auf eine komerzielle Lösung, die auf Zertifikaten basiert, können wir alle wohl gerne verzichten.
Vermutlich ist es das Beste, wenn der Blogger / Vlogger jedes seiner Werke schon heute signiert und die dazugehörigen Originale speichert. Livestreams dann eben leider erst nach Ende.
So kann er dereinst, wenn ihm mal etwas untergeschoben werden soll, er glaubhaft abstreiten, da er alle seine anderen Werke bisher prüfbar signiert hat.

Das halte ich hier für das Einfachste und Wirksamste.

Realistisches Szenario oder nicht sei mal dahingestellt, aber gehen wir einmal davon aus, dass ein angreifender Akteur tatsächlich den ultimativen Fake generiert. Dieser sei nicht mit den aktuell anerkannten technischen Mitteln als solcher nachweisbar.

Das bedeutet, wir haben einen „Beweis“ vorliegen, der aus sich selbst heraus nicht widerlegbar ist.

Wenn es sich also nicht direkt beweisen läßt, dass etwas nicht oder nicht so wie dargestellt stattgefunden hat, muss man eben im Umkehrschluss den indirekten Gegenbeweis beibringen, was tatsächlich zur besagten Zeit stattfand.

Heißt in Praxis: der Angriffsbedrohte benötigt „lediglich“ rechtlich verbindliche, unabhängige Zeugen, die ihn 24/7 begleiten und in adäquater Weise dokumentieren, im Idealfall komplett aufzeichnen, welchen Tätigkeiten er nachgegangen ist und welche Aussagen er getroffen hat.

Die Glaubwürdigkeit dieser Vorgehensweise ist leider leicht angreifbar, sofern es sich nicht um ein zwangsläufig wirkendes technisches Verfahren handelt, auf das der Ausführende selbst keinen Einfluss hat und das unmittelbar auf jeden von ihm erzeugten Content wirkt. Gewohnheit erzeugt noch keine glaubhafte Abstreitbarkeit. Er könnte ja bewußt „kompromittierenden“ Content selbst erzeugen oder verändern und die Signierung unterlassen, nur um sich hinterher davon distanzieren zu können. Die Signatur beweist bei Vorhandensein einen Echtheitsgrad, das Fehlen selbiger impliziert aber noch lange keine Fälschung.

1 „Gefällt mir“

Ich bin kein Kryptograph, aber den Stream hashen, den hash per PGP nach dem Senden publizieren. Damit ist der Hash verifiziert, und mit dem Hash der Stream.

Richtig, wie ich schon im Erstbeitrag beschrieb.
Ich glaube, das Problem wird in naher Zukunft Realität oder ist es schon: Wie kann ich einer Live-Sendung in Zeiten von DeepFake und KI noch trauen?
Und Indeedee hat Recht: Nur weil der Blogger/Vlogger bisher überall signiert hat, sagt das noch nichts über den Echtheitsgehalt eines unsignierten Beitrages aus.
Es läuft im Moment darauf hinaus, nur das zu glauben, was man selbst erlebt oder gesehen hat. Aber das ist für eine breiten Informationsfluss ein starkes Hindernis.

26.1.24
Mir kam eine Idee.
Wir hatten festgehalten, daß es keine Option ist, während eines Livestreams den Vlogger um irgendetwas banales zu bitten wie „mit dem Finger schnipsen“ oder „mit dem Auge zwinkern“, um die Echtheit zu beweisen. Denn das wird KI und Deepfake auch erledigen können.
Aber man kann die Sache ja etwas erweitern: Ein zweifelnder Livestreamzuschauer schickt per parallel laufendem Chat ein Bild oder eine Zeichenfolge, die der Vlogger dann (nebenbei oder in einer kurzen Unterbrechung) mit seinem PGP verschlüsselt und den Hash im Livestream zeigt. Nun kann Jeder, auch nach Ende des Streams, auf Authentizität prüfen.
Gangbar?