00:00:12,269 --> 00:00:20,229
Deep Fakes ist eine umgangssprachliche Bezeichnung für Verfahren,
die auf der Technologie der künstlichen Intelligenz aufbauen. 

00:00:20,229 --> 00:00:28,455
Sie können verwendet werden, um digitale Medien gezielt
zu manipulieren – nämlich dahingehend, dass Personen, die dort auftauchen,

00:00:28,455 --> 00:00:33,808
durch andere Personen ersetzt werden,
ohne dass der sonstige Inhalt ersetzt wird. 

00:00:33,808 --> 00:00:41,009
Ein Beispiel hierfür sind Audiostreams, also Telefonate,
in denen ein Sprecher durch einen anderen Sprecher ersetzt wird.

00:00:41,009 --> 00:00:46,569
Es hört sich also so an, als hätte der zweite Sprecher
das gesagt,  was der erste Sprecher eigentlich gesagt hat. 

00:00:46,569 --> 00:00:50,505
Zusätzlich gibt es die Möglichkeit, Videos zu manipulieren.

00:00:50,505 --> 00:00:52,640
Hier werden die Gesichter getauscht. 

00:00:52,640 --> 00:00:58,229
Und zusätzlich gibt es die Möglichkeit der Kombination,
wo das Gesicht und die Stimme getauscht werden. 

00:01:03,205 --> 00:01:12,198
Deep Fakes bieten tatsächlich ein gewisses Risikopotenzial,
da es mit dieser Technologie beispielsweise möglich ist, Leute zu verleumden. 

00:01:12,198 --> 00:01:21,208
So könnte man viele Videos relativ einfach erzeugen,
die eine bekannte Person, zum Beispiel einen Politiker, zeigen,

00:01:21,208 --> 00:01:25,880
wie sie etwas macht oder sagt, das sie niemals getan hat. 

00:01:25,909 --> 00:01:29,298
Wenn diese Videos nun, zum Beispiel in sozialen Medien,

00:01:29,298 --> 00:01:35,880
massenhaft geteilt werden würden,
könnte hiermit das Meinungsbild über diese Person manipuliert werden.

00:01:36,090 --> 00:01:39,109
Das birgt gerade vor Wahlen ein großes Risiko. 

00:01:39,109 --> 00:01:47,698
Ein anderes Risiko, das mit dieser Technologie einhergeht,
ist die neue Klasse von Angriffen im Bereich des Betrugs. 

00:01:47,698 --> 00:01:54,608
Beispielsweise wäre es möglich,
eine andere Person anzurufen und dabei die Stimme so zu verändern, 

00:01:54,608 --> 00:02:01,107
dass sie sich anhört wie die einer Person,
die die angerufene Person kennt, also zum Beispiel dessen Chef oder Chefin.

00:02:01,107 --> 00:02:05,297
Hierdurch könnte so ein Vorteil erlangt werden. 

00:02:11,186 --> 00:02:14,210
Eine Möglichkeit, um solche Fälschungen zu erkennen,

00:02:14,210 --> 00:02:19,679
beruht häufig auf der Tatsache,
dass sehr viele dieser Fälschungen nicht perfekt sind. 

00:02:19,679 --> 00:02:28,408
Das erkennt man dann in der Regel daran, dass in vielen Bereichen,
wie zum Beispiel den Gesichtsrändern, den Augen- und Mundbereichen,

00:02:28,408 --> 00:02:32,966
deutliche Artefakte zu erkennen sind,
die auf den Betrachter sehr unnatürlich wirken. 

00:02:32,966 --> 00:02:38,080
Es gibt allerdings auch bessere Fälschungen, wo man keine Artefakte erkennt. 

00:02:38,118 --> 00:02:42,600
Hierbei ist es wichtig, dass man einen kritischen Umgang mit den Medien ausübt. 

00:02:42,608 --> 00:02:49,918
Das heißt, dass man vertrauenswürdige Quellen bevorzugt
und bei dem Konsum von kritischeren Quellen, wie teilweise sozialen Medien,

00:02:49,918 --> 00:02:53,977
immer im Hinterkopf behält, dass es die Möglichkeit dieser Fälschungen gibt.