Traing: Erkennen von Deepfakes
Interaktives Training
Das Medien-Labor: Ist dieses Foto echt oder KI? Oben sehen Sie ein typisches Beispiel für ein manipuliertes Bild. Tippen oder klicken Sie direkt auf das Foto, um die Fehler zu suchen. Schaffen Sie es, die verräterischen Spuren der Künstlichen Intelligenz zu finden?
Inhaltsverzeichnis
Die Ära der „synthetischen Medien“: Warum Augenzeugen nicht mehr reichen
Früher bedeutete eine Fälschung, dass jemand mit Photoshop ein Element in ein Bild montiert hat. Das hinterließ Spuren an den Rändern. Heute erstellt Generative KI Bilder Pixel für Pixel komplett neu. Es gibt keine „Schnittkanten“ mehr, weil das Bild nie real existiert hat.
Paradigmenwechsel
Wir müssen unsere Grundhaltung ändern: Ein Foto oder eine Stimme ist heute kein Beweis mehr für ein Ereignis. Es ist nur noch eine „Behauptung“, die durch eine zweite Quelle (z. B. seriöse Nachrichten) verifiziert werden muss.
Audio-Deepfakes: Wenn der Enkel anruft
Besonders perfide ist der Einsatz von KI bei den sogenannten Schockanrufen. Kriminelle benötigen heute nur wenige Sekunden Stimm-Material (z. B. aus einem Anrufbeantworter oder Social Media Video), um eine Stimme täuschend echt zu klonen. Die Stimme am Telefon klingt nicht nur wie Ihr Angehöriger, sie kann dank KI sogar in Echtzeit auf Ihre Fragen antworten.
Die sicherste Verteidigung
Technik lässt sich mit Technik schlagen – oder mit einem analogen Trick: Vereinbaren Sie ein Familien-Passwort. Wenn der Anrufer in Panik ist und Geld fordert, fragen Sie nach dem Codewort. Kann er es nicht nennen: Sofort auflegen und die Ihnen bekannte Nummer des Angehörigen wählen.
Werkzeuge für die digitale Forensik
Wie können wir als Laien prüfen, ob ein Bild echt ist? Es gibt professionelle Tools, die jedoch ihre Grenzen haben.| Methode | Funktionsweise | Grenzen |
|---|---|---|
| Google Rückwärtssuche | Sie laden das Bild hoch (images.google.com) und prüfen: Taucht es schon vor Jahren in anderem Kontext auf? | Hilft nicht bei KI-Bildern, die „frisch“ generiert wurden und noch nie im Netz waren. |
| Mimikama.at | Eine Redaktion prüft aktuelle Falschmeldungen. Nutzen Sie die Suchfunktion für Schlagworte. | Funktioniert nur bei viralen Massen-Fakes, nicht bei privaten Nachrichten an Sie. |
| FotoForensics | Analysiert Kompressions-Fehler (ELA), um nachträgliche Bearbeitungen sichtbar zu machen. | Versagt oft bei reinen KI-Bildern (siehe unten). |
Content Credentials: Ein Blick in die Zukunft
Die Industrie arbeitet an einem digitalen „Wasserzeichen“ (C2PA-Standard). Kameras und KI-Tools sollen künftig unsichtbar im Bild speichern, woher es kommt. Wenn Sie in sozialen Netzwerken ein kleines „CR“-Symbol sehen, können Sie darauf klicken und die Entstehungsgeschichte sehen. Doch Vorsicht: Fehlt das Symbol, heißt das noch nichts – oft geht es beim Versenden über WhatsApp einfach technisch verloren.Die Zukunft der Wahrheit: Content Credentials (C2PA)
Die großen Technologie-Firmen (wie Adobe, Microsoft und die BBC) arbeiten an einem neuen Industriestandard namens C2PA. Die Idee: Statt krampfhaft nach Fehlern im Bild zu suchen, soll das Bild seine Herkunft selbst beweisen.
Das Prinzip „Digitaler Beipackzettel“
Stellen Sie sich C2PA wie die Zutatenliste auf einem Lebensmittel vor. Eine unsichtbare, kryptografische Signatur speichert ab dem Moment der Aufnahme: Wann wurde das Bild gemacht? Mit welcher Kamera? Und vor allem: Wurde KI-Software benutzt? [1, 3]
Woran erkenne ich das heute schon?
Einige Plattformen (wie LinkedIn oder bald TikTok) beginnen, diese Daten anzuzeigen [5]. Achten Sie auf ein kleines Symbol in der Ecke eines Bildes oder Videos:- Das „CR“-Symbol: Ein kleines Icon (oft ein „CR“ oder ein Stecknadel-Symbol). Wenn Sie darauf klicken, öffnet sich ein Fenster mit der Entstehungsgeschichte. [8]
- Die Information: Dort steht dann z. B. „Erstellt mit KI-Tool“ oder „Bearbeitet mit Photoshop“.
Werkzeug: Selbst prüfen
Sie haben eine Datei und wollen wissen, ob unsichtbare C2PA-Daten darin stecken? Die „Content Authenticity Initiative“ bietet ein kostenloses Prüf-Werkzeug an:
contentcredentials.org/verify
Dort können Sie ein Bild einfach hineinziehen und sehen sofort, ob Herkunftsdaten hinterlegt sind. [8]
Warum das (noch) nicht der heilige Gral ist
Für Ihre Einordnung ist wichtig zu wissen: Das System hat noch Lücken. Wenn ein Bild per WhatsApp verschickt oder auf einer Webseite „klein gerechnet“ (komprimiert) wird, gehen diese digitalen Siegel oft technisch verloren – wie ein Etikett, das beim Waschen abfällt.Unsere Erfahrung im Test:
Die Idee einer offiziellen Kennzeichnung ist genau der richtige Weg. Aber unsere Tests zeigen: Aktuell ist es noch Glückssache. Wir haben KI-Bilder generiert, die eigentlich markiert sein sollten – nach dem Upload auf Social Media war der Nachweis oft verschwunden . Unser Rat für Sie: Wenn Sie das „CR“-Symbol sehen, ist das eine wertvolle Info. Wenn Sie es nicht sehen, heißt das leider nicht automatisch „echt“. Es kann auch einfach bedeuten: „Beipackzettel verloren gegangen“. Bleiben Sie also weiterhin kritisch beim Inhalt.
Echt oder Fake? KI-Bilder & Videos durchschauen
