KI Bilder und AI Videos erkennen

Noch vor wenigen Jahren galt ein Foto als Beweis: Was man sieht, ist passiert. Heute stimmt das nicht mehr unbedingt. Mit Hilfe künstlicher Intelligenz lassen sich nicht nur völlig neue Bilder und Videos erzeugen, sondern auch echte Aufnahmen gezielt verändern und retuschieren. Gesichter können verschönert, Hintergründe ausgetauscht oder ganze Personen aus einem Bild entfernt werden – oft so unauffällig, dass man es kaum bemerkt. Für uns alle, besonders aber für Kinder und Jugendliche, wird es immer schwieriger zu erkennen, was echt ist und was nicht.
Solche künstlich erzeugten oder veränderten Inhalte nennt man oft Deepfakes. Sie entstehen mit speziellen KI-Programmen, die aus vielen echten Bildern und Videos lernen und daraus neue, realistisch wirkende Aufnahmen erzeugen oder bestehende manipulieren. Dabei können Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben. Das ist technisch beeindruckend, kann aber gefährlich sein: Falsche Nachrichten, manipulierte Videos oder gefälschte Beweisbilder können Meinungen beeinflussen, Menschen schaden oder Vertrauen zerstören.
Gerade in sozialen Netzwerken verbreiten sich solche Inhalte sehr schnell. Ein spektakuläres Video wird geteilt, bevor jemand überprüft, ob es überhaupt echt ist. Dazu kommt, dass auch scheinbar harmlose Retuschen – glattere Haut, veränderte Körperformen oder perfektere Gesichter – unser Bild von Realität verzerren können. Deshalb wird Medienkompetenz immer wichtiger. Wer heute im Internet unterwegs ist, sollte kritisch hinschauen: Wer hat das Bild veröffentlicht? Gibt es eine seriöse Quelle? Wirkt etwas unnatürlich – etwa Hände mit zu vielen Fingern, merkwürdige Schatten oder eine Stimme, die nicht ganz zum Gesicht passt?
Ein zusätzliches Problem ist die fehlende Kennzeichnung. In der EU und in Österreich gibt es derzeit noch keine allgemeine Pflicht, KI-erzeugte oder KI-bearbeitete Bilder und Videos eindeutig zu kennzeichnen. Viele solcher Inhalte erscheinen daher ohne Hinweis als scheinbar echte Aufnahmen. Einige Plattformen und Anbieter beginnen zwar freiwillig, KI-Inhalte zu markieren oder mit Wasserzeichen zu versehen, doch diese Kennzeichnungen sind noch uneinheitlich und leicht zu übersehen.

Der Chef von Instagram, Adam Mosseri, hat Anfang 2026 öffentlich über einen anderen Weg im Umgang mit KI-Inhalten gesprochen. Statt weiter ausschließlich zu versuchen, jede KI-Erstellung zu erkennen und zu markieren, schlägt er vor, echte Fotos und Videos klar als solche zu kennzeichnen – zum Beispiel durch einen technischen Fingerabdruck direkt bei der Aufnahme. Diese Kennzeichnung soll helfen, echten Content von künstlich erzeugten oder manipulierten Inhalten besser zu unterscheiden, weil die klassische Erkennung von KI-Fakes immer schwieriger wird, je besser die KI-Tools werden.
Neben dem eigenen kritischen Denken gibt es inzwischen auch technische Hilfsmittel, die bei der Einschätzung helfen sollen. Diese Programme können Hinweise liefern, ob ein Bild oder Video bearbeitet oder künstlich erzeugt wurde – sie ersetzen aber keine sichere Beweisprüfung. Zu den bekanntesten Werkzeugen zählt FotoForensics. Diese Webseite analysiert Bilder auf typische Bearbeitungsspuren, zum Beispiel durch Fehlerstufen-Analysen. Sie eignet sich gut, um Retuschen oder eingefügte Bildteile sichtbar zu machen, liefert aber keine eindeutige Antwort „echt oder fake“.
Spezialisierter sind moderne Deepfake-Detektoren wie DeteSia, die mit künstlicher Intelligenz nach typischen Mustern in manipulierten Bildern und Videos suchen. Solche Systeme werden vor allem von Behörden, Medienhäusern oder Sicherheitsfirmen eingesetzt. Auch hier gilt: Die Ergebnisse sind Wahrscheinlichkeiten, keine sicheren Beweise. Weitere Online-Dienste wie Hive Moderation oder Illuminarty versuchen zu erkennen, ob ein Bild von bekannten KI-Generatoren stammt. Für Videos existieren Forschungsprojekte wie der sogenannte DeepFake-o-Meter, der bestimmte Bewegungs- und Lichtmuster analysiert. Ergänzend helfen klassische Werkzeuge wie die Rückwärtssuche von Bildern bei Google oder TinEye, um herauszufinden, ob ein Foto schon früher in anderem Zusammenhang veröffentlicht wurde.

Wichtig ist: Es gibt derzeit keine Software, die Fälschungen zuverlässig mit hundertprozentiger Sicherheit erkennt. In Laborversuchen erreichen manche Programme hohe Trefferquoten von 90%. In der Praxis – bei stark komprimierten Social-Media-Videos, neuen KI-Modellen oder kurzen Bildausschnitten – sinkt die Erkennungsrate jedoch deutlich. Deepfakes entwickeln sich ständig weiter und umgehen ältere Erkennungsverfahren immer besser.
Deshalb empfehlen Fachleute, mehrere Methoden zu kombinieren: technische Analyse, Quellenprüfung und kritisches Nachfragen. Nicht ein einzelnes Programm entscheidet über Wahrheit oder Fälschung, sondern das Zusammenspiel aus Technik und menschlichem Urteilsvermögen. Künstliche Intelligenz bietet viele Chancen – auch im Unterricht und in der Kreativität. Aber sie stellt uns auch vor neue Aufgaben. Zu lernen, zwischen echt, bearbeitet und vollständig gefälscht zu unterscheiden, wird zu einer Schlüsselkompetenz der digitalen Zukunft. Nicht die perfekte Software schützt uns vor Täuschung, sondern kritisches Denken.