The dark side of AI
Künstliche Intelligenz kann Texte schreiben, Stimmen imitieren, Bilder erzeugen und Filme produzieren. Was nach Zukunft klingt, ist längst Teil des Alltags geworden. Doch genau diese Möglichkeiten haben eine Schattenseite. Noch nie war es so einfach, real wirkende Fotos oder Videos zu fälschen – und noch nie konnten sie sich so schnell verbreiten.
Was früher nur mit Spezialsoftware und großem technischem Wissen möglich war, funktioniert heute mit wenigen Klicks am Smartphone. Ein Gesicht wird auf einen anderen Körper gesetzt, eine Stimme wird geklont, ein Video zeigt scheinbar echte Handlungen, die nie stattgefunden haben. Für Außenstehende ist der Unterschied kaum mehr erkennbar. Besonders problematisch sind sogenannte Deepfakes – KI-generierte Inhalte, die echten Personen täuschend ähnlich sehen.
Im beruflichen Umfeld sind bereits zahlreiche Fälle dokumentiert: gefälschte Videobotschaften von Führungskräften, synthetische Stimmen für Betrugsanrufe oder manipulierte Identitäten. Doch die Auswirkungen betreffen längst auch den Schulalltag und die Lebenswelt von Jugendlichen.
Gesichter aus Klassenfotos werden in andere Bilder montiert. Es entstehen scheinbar echte Situationen, die nie stattgefunden haben. Besonders dramatisch sind Fälle, in denen manipulierte Bilder in einen intimen oder sexualisierten Kontext gesetzt und anschließend verbreitet werden.
Aktuelle Fälle aus Österreich machen deutlich, dass es sich dabei nicht um ein theoretisches Zukunftsszenario handelt. An mehreren Schulen wurden Fotos von Jugendlichen aus sozialen Netzwerken entnommen und mithilfe von KI in täuschend echte, sexualisierte Darstellungen montiert. Anschließend verbreiteten sich diese Bilder über Klassenchats und Messenger-Dienste – teilweise mit Klarnamen, Schulbezug und weiteren persönlichen Daten der Betroffenen. Die polizeilichen Ermittlungen zeigten klar, dass solche Handlungen strafrechtlich relevant sind. Das betrifft nicht nur jene, die die Bilder erstellen, sondern auch alle, die sie speichern oder weiterleiten. Für die betroffenen Schülerinnen und Schüler bedeutete dies massive psychische Belastungen und spürbare Auswirkungen auf ihren realen Schulalltag. Diese Fälle führen eindringlich vor Augen: Der Missbrauch von KI ist kein digitales Randphänomen, sondern eine konkrete Herausforderung für Schule, Elternhaus und Medienbildung.
Zeitungsartikel: Schüler erstellen KI-Nacktbilder von Mitschülerinnen
Zeitungsartikel: Erstmals Schüler wegen KI-Sexbildern suspendiert
Zeitungsartikel: Missbrauch bleibt Missbrauch: Gefahren von Deepfakes für Kinder
Hier braucht es absolute Klarheit: Das ist kein Spaß. Das ist kein Streich. Das ist eine Straftat.
Die Herstellung, der Besitz und vor allem die Weiterverbreitung solcher Inhalte erfüllen – je nach Fall – mehrere strafrechtliche Tatbestände. Dazu zählen die Verletzung des höchstpersönlichen Lebensbereichs, Cybermobbing, üble Nachrede und im sexualisierten Kontext schwere Delikte, die strafrechtlich verfolgt werden. Es handelt sich ausdrücklich nicht um ein Kavaliersdelikt, auch dann nicht, wenn Täterinnen oder Täter minderjährig sind.
Für die betroffene Person sind die Folgen real: Bloßstellung in der Peergroup, Kontrollverlust über das eigene Bild, massive psychische Belastung und die Verknüpfung des Fakes mit echten Namen, Schule oder Wohnort. Aus einem digitalen Inhalt wird eine reale Verletzung im echten Leben.
Umso wichtiger ist es zu wissen, wie man richtig reagiert. Wird ein manipuliertes Bild oder Video veröffentlicht, ist der erste Schritt die Beweissicherung. Screenshots, Links, Profilnamen, Datum und Uhrzeit müssen dokumentiert werden, bevor Inhalte gelöscht werden. Danach erfolgt die Meldung über die jeweilige Plattform. Betroffe Jugendliche wenden sich direkt an die Polizei oder an die Kommunikationsbehörde Austria (KommAustria). Österreich hat bis heute noch keine eigene KI-Behörde (EU-Vorgabe) geschaffen, es wird daran mit Hochdruck gearbeitet - so der Staatssekretär für Digitalisierung Alexander Pröll.
März 2026: Das EU-Parlament stimmte für Verbot von KI-Systemen für Porno-Deepfakes. Mit überwältigender Mehrheit wurde das Verbot von „non-consensual intimate images“ abgestimmt – also eine klare Absage an Deepfake-Pornos und „Nudifier“-Apps wie Grok, die Nacktbilder ohne Einverständnis der Betroffenen erstellen. Haftstrafen bis 2 Jahre für Täter sind dabei angedacht.

Im schulischen Umfeld gilt: Niemand muss das alleine lösen. Klassenvorstand, Beratungslehrkräfte, Schulsozialarbeit oder die Schulleitung haben hier einen klaren Schutzauftrag. Ebenso müssen Eltern oder Erziehungsberechtigte eingebunden werden. Bei sexualisierten Inhalten oder massiven Rufschädigungen ist eine Anzeige bei der Polizei nicht nur möglich, sondern sinnvoll und anzuraten. In Österreich gibt es spezialisierte Stellen für Cybercrime. Recht schützt – und er wirkt auch im digitalen Raum.
Parallel dazu sollte die eigene digitale Sichtbarkeit reduziert und Privatsphäre-Einstellungen überprüft werden. Nicht als Schuldzuweisung, sondern als Schutzmaßnahme. Genauso wichtig ist die emotionale Unterstützung. Betroffene tragen keine Schuld. Der Missbrauch liegt immer bei jener Person, die den Inhalt erstellt oder verbreitet hat.
Für Schule ergibt sich daraus ein klarer Bildungsauftrag. Medienkompetenz bedeutet heute: Fälschungen erkennen, Quellen prüfen, die eigenen Daten schützen, die Rechte anderer respektieren und die rechtliche Konsequenzen kennen.
In einer Welt, in der jedes Bild manipuliert werden kann, wird kritisches Prüfen zur Kulturtechnik. Die dunkle Seite der KI liegt nicht in der Technologie selbst, sondern im Missbrauch. Die entscheidende Kompetenz ist daher nicht das Erzeugen von Inhalten – sondern Verantwortung.
