top of page
MI4People Logo
Zoom logo

Das neue Zeitalter der KI-geschaffenen Realität

  • Autorenbild: Tine Scheffelmeier
    Tine Scheffelmeier
  • vor 5 Tagen
  • 4 Min. Lesezeit
Foto von Robynne O auf Unsplash
Foto von Robynne O auf Unsplash

von Darwish Thajudeen

 

Das Informationsökosystem steht vor einer beispiellosen Krise. Was als gelegentliche Gerüchte und schlecht bearbeitete Posts begann, hat sich zu einem industriellen System aus KI-generierten synthetischen Inhalten entwickelt: Stimmen, die von echten Sprecherinnen nicht zu unterscheiden sind, Deepfakes, die so überzeugend sind, dass selbst Expertinnen Mühe haben, sie zu erkennen, und erfundene Artikel, die seriösen Journalismus imitieren. Da dieses Thema für unsere Community von großer Relevanz ist und mehr als nur einen einzigen Newsletter benötigt, möchten wir tiefer in viele weitere Aspekte eintauchen, um Bewusstsein zu schaffen – als unsere erste Verteidigungslinie gegen diesen Wandel. Dieser Newsletter bietet eine Einführung in die Welt von KI-generierter Desinformation und Deepfakes und bildet die Grundlage für eine vertiefte Auseinandersetzung in zukünftigen Ausgaben.


  1. Transformation

Ein kritischer Wandel hat sich in der Art vollzogen, wie Falschinformationen sich verbreiten. Vor zehn Jahren beruhte Desinformation hauptsächlich auf menschlicher Arbeit – manuell bearbeiteten Fotos, grob geschnittenen Videos oder offensichtlich fehlerhaften Artikeln. Heute erzeugen Maschinen massenhaft hochentwickelte Fake-Inhalte, deren Erkennung spezialisierte technische Kenntnisse erfordert (Morris, 2024).

Durchbrüche in der KI haben die Hürden zur Erstellung hyperrealistischer audio-visueller Fälschungen drastisch gesenkt. Die Zugänglichkeitsrevolution hat die Deepfake-Produktion demokratisiert – was einst Spezialwissen erforderte, braucht heute nur noch ein Smartphone und Internetzugang (Morris, 2024).

Der Wandel ist messbar. KI-getriebene Fake-News-Seiten verzehnfachten sich innerhalb eines Jahres und überschwemmten das Informationsökosystem mit kostengünstiger, algorithmisch generierter Propaganda (Virginia Tech News, 2024). KI-Stimmen-Synthese erzeugt mittlerweile Stimmen, die von echten Sprechenden nicht zu unterscheiden sind (TechXplore, 2025), und Forschung zeigt, dass ChatGPT vollständig erfundene wissenschaftliche Artikel mit überzeugenden Zitaten und eingebauten Fehlern erstellen kann (Májovský et al., 2023).


  1. Die drei Säulen der Krise


2.1 Umfang

Die Bedrohung wächst exponentiell. Rund 500.000 Deepfake-Videos wurden 2023 in sozialen Medien geteilt, mit Prognosen von 8 Millionen bis 2025 (DeepStrike, 2025). KI-generierte Fake-News-Seiten zählen inzwischen über 1.200, und Deepfake-Inhalte haben sich in den letzten zwei Jahren verfünffacht (DeepStrike, 2025).

Neben dem Volumen zeigt auch der finanzielle Schaden die Dringlichkeit. Die Verluste durch generative KI-bedingten Betrug sollen von 12,3 Mrd. USD im Jahr 2024 auf 40 Mrd. USD im Jahr 2027 steigen – eine jährliche Wachstumsrate von 32 % (KeepNet Labs, 2025).


2.2 Geschwindigkeit

Böswillige Akteure haben erkannt, dass KI-gestützte Desinformation von Geschwindigkeit lebt. Fact-Checking-Reaktionszeiten verbesserten sich von 45 Minuten auf etwa 15 Minuten, doch das bleibt problematisch, da Falschmeldungen sich innerhalb von Minuten massiv verbreiten (DeepStrike, 2025). Gegner nutzen gezielt dynamische Nachrichtenlagen aus, um Unwahrheiten zu platzieren, bevor Fakten geprüft werden können.


2.3 Glaubwürdigkeit

Am beunruhigendsten ist, dass Menschen synthetische Inhalte nicht mehr zuverlässig von echten unterscheiden können. Studien zeigen, dass Menschen hochwertige Deepfake-Videos nur zu etwa 24,5 % korrekt identifizieren (Thies et al., 2019). Eine Nature-Studie fand heraus, dass 27 % bis über 50 % der Befragten nicht korrekt beurteilen konnten, ob ein Video authentisch war – Erwachsene waren besonders anfällig (Nature, 2023).


  1. Reale Konsequenzen: Die Wahlevidenz 2024

Der globale Wahlzyklus 2024 lieferte klare Beweise dafür, dass KI-Deepfakes operative Werkzeuge sind: keine theoretischen Risiken. Über 130 Deepfakes wurden seit September 2023 in weltweiten Wahlen identifiziert (NPR, 2024). In den USA zirkulierten gefälschte Robocalls mit KI-generierten Stimmen, die Wähler*innen aufforderten, nicht wählen zu gehen, während Deepfake-Audios politische Persönlichkeiten unzusammenhängend sprechen ließen (NPR, 2024).

Staatlich gesteuerte Kampagnen bestätigten die Eskalation der Bedrohung. Russland, China und Iran zeigten eine wachsende Fähigkeit zur Produktion und Verbreitung KI-generierter Medien während des US-Wahlkampfs 2024 (NPR, 2024). Analysen ergaben, dass KI in über 80 % der Länder mit erkennbaren Wahlprozessen eingesetzt wurde (CIGI Online, 2025).

Die Präsidentschaftswahl 2024 in Rumänien wurde annulliert, nachdem nachgewiesen wurde, dass KI-manipulierte Videos eingesetzt wurden – ein Wendepunkt, der zeigt, dass Deepfakes nicht nur Diskurse beeinflussen, sondern demokratische Ergebnisse gefährden (CIGI Online, 2025).


  1. Der Vertrauenszusammenbruch

Das öffentliche Vertrauen in Medien und Institutionen sinkt messbar. Der Edelman Trust Barometer 2025 zeigt, dass 70 % der Befragten befürchten, Journalist*innen würden Menschen absichtlich in die Irre führen (Fotoware, 2025). Der Reuters Institute Digital News Report 2025 stellt fest, dass weltweit nur 40 % der Befragten den Nachrichtenmedien vertrauen und 58 % sich über die Echtheit von Inhalten sorgen (Reuters Institute, 2025; Fotoware, 2025).

Noch gravierender: Deepfakes trainieren die menschliche Wahrnehmung, allem zu misstrauen. Sobald Menschen überzeugende Fälschungen sehen, sinkt ihre Fähigkeit zur Glaubwürdigkeitsbewertung – auch echte Inhalte erscheinen im Nachgang weniger vertrauenswürdig (SAGE Publishing, 2025). Dies führt zu generalisiertem Skeptizismus, der das Informationsökosystem selbst untergräbt.


  1. Das regulatorische Erwachen

Regierungen reagieren zunehmend mit Transparenzanforderungen für KI-generierte Inhalte. Die USA verabschiedeten im Mai 2025 den TAKE IT DOWN Act – das erste Bundesgesetz zur Eindämmung schädlicher Deepfakes (Regulaforensics, 2025). Die EU verpflichtet Unternehmen im Rahmen des AI Act, ab dem 2. August 2026 alle KI-generierten Inhalte klar zu kennzeichnen (Regulaforensics, 2025).

China führte das umfassendste Regime ein: die „Measures for Labeling of AI-Generated Synthetic Content“, gültig ab dem 1. September 2025, die sowohl sichtbare Kennzeichnungen als auch eingebettete Metadaten verlangen (China Law Translate, 2025; Inside Privacy, 2025).


  1. Warum das wichtig ist

Wir stehen an einem Wendepunkt. KI hat Desinformation industrialisiert und gleichzeitig die soziale Infrastruktur – Medienkompetenz, institutionelles Vertrauen, Forschungskapazitäten – geschwächt. Doch dieselbe Technologie wird unsere stärkste Waffe sein, um diese Akteure zu bekämpfen.

Institutionen, soziale Medienplattformen, Regierungsorganisationen und viele weitere setzen KI ein, um diese Schäden aufzuspüren und zu bekämpfen. Es ist unsere Aufgabe als Community, dies zu verstehen und diese Bemühungen zu unterstützen. Wir sehen dies als unseren ersten Schritt, die Gefahren zu begreifen und Bewusstsein zu schaffen, um unsere Gesellschaft zu schützen. Um tiefer einzutauchen und mehr zu erfahren, folgt uns auf unseren Social-Media-Kanälen und unterstützt unser Anliegen, indem ihr diesen Newsletter teilt.


Mit schönen Grüßen

MI4People Team



 
 
 

Kommentare


bottom of page