Liebe Genossen,
dass aus machtpolitischen Gründen Medien wie Fotos verändert wurden und werden, ist seit Jahrzehnten ja nicht ungewöhnlich. Man denke nur an manch Abbildung in der NS- oder SU-Zeit, wo man einen unbeliebten Ex-Mitstreiter aus Bildmaterial einfach verschwinden ließ. Ebenso geisterte die Fake-News-Debatte nun eine Weile durch alle Kanäle. Als relativ zuverlässig galten stets Video- und Tonaufnahmen, die meistens nur mit erheblichem Aufwand inhaltlich verändert statt nur "zurechtgeschnitten" wurden.
Nun ist es mittlerweile recht einfach möglich, mit Algorithmen die Mimik von Personen in Videos zu verändern. Ebenfalls kann die Sprache bzw. Stimme einer Person kopiert werden, um Sätze zu erzeugen, die die Person niemals getätigt hat. Zunehmend gut funktioniert es auch, Gesichter von Personen auf andere Körper einzubauen.
Mit anderen Worten: man könnte eine vermeintlich geheime Handyaufnahme erzeugen, wo sich zwei Politiker erkennbar treffen und miteinander über Dinge unterhalten, die die Öffentlichkeit empören könnten, selbst wenn sich die Personen gar nicht trafen und diese Worte austauschten.
Das ist zwar nicht per se neu, aber wie eingangs geschrieben, war dies sehr aufwendig. Mittlerweile kann sowas jede Privatperson an ihrem Rechner erzeugen, auch wenn die Ergebnisse nicht immer überzeugend sind und mit einem guten Auge als Fälschung erkannt werden können. Aber denken wir an die Entwicklung in diesem Bereich in den letzten fünf bis zehn Jahren, lässt sich grob erahnen, wie die Zukunft weitergeht. Privatpornos vom fremdgegangenen, ehemaligen Ehe-Partner können aus Rachesucht schnell gebaut und im Netz verteilt werden.
Herzlichst,
frems
https://www.heise.de/newsticker/meldung ... 51035.htmlMit einem Faceswap-Tool lassen sich Filmszenen aller Art manipulieren und die Gesichter der Schauspieler austauschen. Ein Reddit-Nutzer baute die Leia-Szene aus Rogue One damit nach, ganz ohne 200-Millionen-Dollar-Budget. [...]
Wir werden uns wohl an eine Welt gewöhnen müssen, in der solche Video-Fakes immer besser und damit auch schwerer zu erkennen werden. Inklusive der dazugehörigen Konflikte mit den Persönlichkeitsrechten der betroffenen Personen. In Zukunft könnten solche Fälschungen als Grundlage von Propaganda oder absichtlich irreführender Nachrichten benutzt werden.
Das Ziel des Entwicklers von FakeApp ist es, dass bald jeder Nutzer ohne Vorwissen ähnliche Videos erzeugen kann: In Zukunft brauche man nur ein beliebiges Video und ein bereits auf ein berühmtes Gesicht trainiertes neuronales Netz, das man herunterladen kann. Die Software soll dann die Gesichter auf Knopfdruck austauschen.
https://www.welt.de/wirtschaft/article1 ... illen.htmlDie Montage von fremden Gesichtern in Videos benötigte bisher das Budget eines Hollywood-Krachers. Künstliche Intelligenz ermöglicht dies nun Hobbybastlern. Perfidem Cybermobbing ist Tür und Tor geöffnet. [...]
Algorithmen wie der von „Deepfake“ verändern rasant die Medienrealität, in der Videomaterial bislang immer als Beweis von Authentizität gilt: Der Grafikchiphersteller Nvidia etwa veröffentlichte im vergangenen Jahr bereits Forschungsarbeiten, die neben dem Bild auch die Stimme von Prominenten generierten. Das resultierende Material von US-Präsidenten, die seltsame Dinge sagen, wirkt erschreckend realistisch.
Wie steht Ihr dazu? Kommt ein Wettkampf um Softwarelösung, die immer besser werdende Fälschungen als solche enttarnt? Oder verlieren Videoaufnahmen zukünftig schlichtweg an Bedeutung, da immer und überall gesagt werden kann, es sei eine Fälschung?