Künstliche Intelligenz ist schon lange kein Fremdwort mehr für das Internet. Es wird jeden Tag millionenfach genutzt. Seien es für Bilder, Videos oder um Texte zu schreiben und Ideen zu sammeln. Der Einsatz von KI ist breit gefächert und wird in fast allen Bereichen der digitalen Welt genutzt.
Der Grad zwischen Fake und Real wird immer schmaler und bald wird es nicht mehr ersichtlich sein, da die KI immer mehr von uns Menschen lernt. Man müsste eine eigene KI entwickeln, welche sich dafür einsetzt zu erkennen, was von einer KI erstellt worden ist und was nicht. Doch darum soll es heute nicht gehen, sondern um sogenannte Deep Fakes.
Was sind Deep Fakes?
Deep Fakes sind Medieninhalte wie Bilder, Videos, Audios von einer gewissen Person, oder einer Gruppe, welche durch KI verfälscht wurden. Durch den Fortschritt der KI werden neuronal Netzwerke genutzt und die Fälschungen täuschend echt darstellen zu lassen.
Hier ein Beispiel von einem Deep Fake von Morgan Freeman. Nichts davon ist echt und wurde vom Schauspieler selbst eingesprochen:
Aktuell kursieren sehr viele Deep Fakes von Superstar Taylor Swift im Internet umher. Die Plattform X hat sogar den Suchbegriff Taylor Swift zwischenzeitlich gesperrt, da Unmengen an anstößigen Inhalten verbreitet wurden.
Die Gefahren von Deep Fakes
Durch den aktuellen Fall von Taylor Swift wurde die US-Regierung ebenfalls auf dieses Thema aufmerksam und fordern eine strengere Regulierung dieses Themas, da dies nicht nur Schauspielern passieren kann, sondern auch Politiker und andere einflussreiche Personen.
2018 wurde ebenfalls ein Deep Fake Video von Barack Obama hochgeladen, wo dieser über Fake News berichtet. Stellen Sie sich kurz vor, was Hacker-Organisationen oder andere Personen mit negativen Absichten mit diesem Tool anrichten könnten.
Ihre digitale Identität könnte von künstlich generierten Inhalten bedroht werden. Diese bedrückende Realität wird durch Deep Fakes zum Albtraum. Erfahrungen von Menschen, die Opfer solcher Manipulationen wurden, verdeutlichen die Ernsthaftigkeit der Lage.
Doch welche Präventionsmaßnahmen können eingesetzt werden, um diesem Übel entgegenzuwirken?
Präventive Maßnahmen im Jahr 2024
- Gefälschte Inhalte erkennen: Aktuelle Tools analysieren Videos und Bilder auf Unstimmigkeiten, um Deep Fakes zu identifizieren.Die häufigsten Artefakte in künstlich generierten Gesichtsvideos:
-
- Sichtbare Übergänge im Gesichtsbereich, wie verwaschene Teile des Gesichts oder Unterschiede in der Hautfarbe sind dabei in manchen Frames sichtbar. Natürlich kommt es immer auf die Produktionsqualität des Deep Fakes an. Doch diese neuronalen Netzwerke werden immer besser und können immer effizienter eingesetzt werden. Siehe Gesichtsfilter auf Snapchat, Instagram oder TikTok.
- Begrenzte Mimik und unstimmige Belichtung sind ebenfalls ein Indiz dafür, dass das Video manipuliert wurde.
- Die Stimme klingt monoton und metallisch.
- Blockchain-Technologie: Durch die Integration von einer Blockchain kann die Authentizität digitaler Inhalte gewährleistet werden. Des Weiteren wird zurzeit an einer digitalen Signatur gearbeitet, welches sicherstellt, dass das Material nach der Aufnahme nicht mehr manipuliert wird.
- Gesetzliche Regelungen können massiv dazu beitragen, dass Deep Fakes mit entsprechender Software gekennzeichnet werden müssen.
- Cybersecurity-Schulungen und Aufklärung über dieses Thema ist Stand jetzt mit das Beste, was Sie für Ihre Mitarbeiter machen können. Zeigen Sie Ihnen jede Menge Beispielvideos, Audioaufnahmen oder auch Bilder, welche manipuliert wurden.
Ausblick
Es ist klar, dass sich dieser Trend in den nächsten Jahren vervielfachen wird. Cyberangriffe dieser Art werden immer schwieriger abzuwehren. Experten können schon heute eine so realistische Manipulation erzeugen, dass niemand diese unterscheiden kann.
Natürlich werden nicht nur die Deep Fakes besser, sondern auch die Gegenmaßnahmen dazu. Ebenfalls KI gesteuert analysieren diese Tools das menschliche Verhalten und können dadurch feststellen, ob eine Manipulation im Video vorliegt oder nicht.