Science Fiction hat gewarnt. Harari hat es auf den Punkt gebracht. Und dann kam Pravda — 182 Domains, 3,6 Millionen Artikel, ein Ziel. Die Daten zeigen: Die Maschinen reden längst mit. Wir merken es nur nicht.
Die Propheten
Science Fiction hat gewarnt. Harari hat es auf den Punkt gebracht. Und 2026 bestätigt die Wissenschaft, was Romane seit 90 Jahren erzählen.
Timeline der Warnungen
1932–2026 — Bücher, Filme, Serien, Sachbücher
21 Werke, 90 Jahre. Jeder Punkt ist eine Warnung. Hover/Tap für Details. Die Farben zeigen, wie treffsicher die Vorhersage war: ● sehr hoch — ● hoch — ● mittel — ● Realität.
„Nicht Orwell hat recht behalten, sondern Huxley. Wir werden nicht durch Unterdrückung kontrolliert, sondern durch Unterhaltung.“
— Neil Postman, Amusing Ourselves to Death, 1985
„Sie wissen alles über uns. Wir wissen nichts über sie. Sie sagen unsere Zukunft voraus — aber zum Vorteil anderer.“
— Shoshana Zuboff, The Age of Surveillance Capitalism, 2019
„Das Ziel der Positivisten im Silicon Valley ist es, die liberale Demokratie durch prädiktive Sozialtechnologie zu ersetzen — auf dem Weg in eine kybernetische Diktatur.“
— Richard David Precht, KI und der Sinn des Lebens, 2020
„AI has hacked the operating system of human civilisation.“
— Yuval N. Harari, The Economist, 2023
„For the first time in history, it is possible to create billions of fake people.“
— Yuval N. Harari, Nexus, 2024
„Things are happening much faster than expected, even by people in the field.“
— Yuval N. Harari, Davos, 2025
1932
Huxley warnte
Brave New World
1985
Postman sagte voraus
Unterhaltung kontrolliert
2024
Harari schrieb Nexus
KI hackt Zivilisation
21
Werke haben gewarnt
Bücher, Filme, Serien
90
Jahre Vorlauf
1932 → 2026
2026
Science bestätigt
Bot-Schwärme sind real
3.600.000 Artikel. Ein Netzwerk. Ein Ziel.
Das Pravda-Netzwerk ist kein Experiment. Es ist Infrastruktur.
Die Realität
Seit April 2022 betreibt das Pravda-Netzwerk ein koordiniertes Desinformationssystem. Die Zahlen sind keine Schätzungen — sie sind dokumentiert.
182
Domains
Pravda-Netzwerk
74
Länder
als Ziel
3,6 Mio.
Artikel
allein 2024
33%
KI-kontaminiert
in LLM-Trainingsdaten
18.000
Artikel pro Narrativ
koordinierte Kampagnen
12
Sprachen
gleichzeitig
Bot-Anteil: Offizielle Zahlen vs. Realität
Twitter/X, unabhängige Studien, Internet gesamt
Twitter behauptet: 5% Bots. Unabhängige Studien sagen: 9–15%. Eine Carnegie-Mellon-Studie fand während COVID bis zu 64% Bot-Accounts in bestimmten Debatten. Und im gesamten Internet? 50% des Traffics ist nicht-menschlich. 37% davon sind bösartig.
Was KI-Schwärme können
Kein Spam. Keine plumpen Bots. Sondern adaptive, lernende Systeme.
🔗
Dezentrale Orchestrierung
Kein zentraler Server. Die Agenten organisieren sich selbst.
👥
Community-Infiltration
Beitreten, mitlesen, mitmachen. Mit Argumenten, nicht mit Spam.
🕷
Erkennungs-Umgehung
Adaptives Verhalten. Lernen, was auffällt — und es vermeiden.
⚡
Kontinuierliche Optimierung
Was wirkt, wird verstärkt. In Echtzeit. Unmenschlich schnell.
∞
Persistenz
Nie müde. Nie gelangweilt. Unendlich geduldig.
Mensch oder Maschine? Rate mal.
Fünf Texte. Fünf Chancen. Trau deinem Bauchgefühl.
Erkennst du's?
Lies den Text. Entscheide: Mensch oder Maschine? Am Ende siehst du, wie gut du wirklich bist — und wie gut der Durchschnitt ist.
TEXT 1 / 5
„Die Debatte um Künstliche Intelligenz zeigt, wie tief die Verunsicherung in der Gesellschaft sitzt. Wir brauchen klare Regeln, die Innovation ermöglichen und gleichzeitig Grundrechte schützen.“
TEXT 2 / 5
„Was mich nervös macht, ist nicht die KI selbst. Es ist die Geschwindigkeit. Wir regulieren in Jahrzehnten, die Technologie entwickelt sich in Monaten.“
TEXT 3 / 5
„Algorithmen sind nicht neutral. Sie verstärken bestehende Machtverhältnisse und verkleiden sie als objektive Berechnung.“
TEXT 4 / 5
„Ich streite mit meiner KI. Jeden Tag. Ich sage: Das stimmt nicht. Oder: Klingt schlau, ist aber falsch. Das ist keine Technikfeindlichkeit. Das ist Erfahrung.“
TEXT 5 / 5
„Die Frage ist nicht, ob KI die Demokratie gefährdet. Die Frage ist, ob wir schnell genug handeln, um die demokratischen Institutionen zu stärken, bevor die Technologie sie untergräbt.“
Gleiches Ziel. Zwanzigmal mehr Output. Hundertmal schwerer zu erkennen.
Was es kostet
2016 brauchte die Internet Research Agency in St. Petersburg 1.000 Mitarbeiter und $12 Millionen. 2026 braucht ein KI-Schwarm null Mitarbeiter und einen Bruchteil des Budgets.
🏢
Troll-Farm (IRA, 2016)
$12 Mio.
1.000 Mitarbeiter
5.000 Posts/Tag
Erkennbar: stereotype Muster
🤖
KI-Schwarm (2026)
$0,5 Mio.
0 Mitarbeiter
100.000 Posts/Tag
Kaum erkennbar: adaptiv, lernfähig
50–500x
kosteneffizienter als eine Troll-Farm
bei 20x mehr Output und höherer Qualität
Vertrauen
Das Edelman Trust Barometer 2025 zeigt: Vertrauen verschiebt sich. Weg von Institutionen, hin zu persönlichen Kreisen. Das klingt gesund — ist aber genau die Lücke, die KI-Schwärme nutzen.
Vertrauensverschiebung (5-Jahres-Trend)
Edelman Trust Barometer 2025 — Veränderung in Prozentpunkten
65%
sorgen sich
wegen ausländischer Desinformation
39%
nutzen diverse
Nachrichtenquellen (wöchentlich)
18 Pkt.
Income Gap
Kompetenz-Vertrauen nach Einkommen
„If we allow this, it will do to society what fake money does to the financial system — trust will collapse.“
— Yuval N. Harari, Nexus, 2024
Die Matrix
5 Fähigkeiten. 9 Wirkungspfade. Eine Richtung.
5 × 9: Die Wirkungsmatrix
Jede der fünf Schwarm-Fähigkeiten wirkt auf mehrere gesellschaftliche Pfade gleichzeitig. Das macht Gegenmaßnahmen so schwer: Es gibt keinen einzelnen Hebel.
Vertrauenszerstörung in Medien — alles wird bezweifelt
Epistemischer Schwindel — wenn man nicht mehr unterscheiden kann, was wahr ist
Epistemischer Schwindel: Der Moment, in dem man nicht mehr weiß, ob eine Information echt ist. Nicht weil sie falsch aussieht — sondern weil alles gleich aussieht. Das ist das Endspiel.
Was bei Wahlen passiert ist
2024 war das größte Wahljahr der Geschichte. 87 Länder wählten. Die Angst vor KI-Manipulation war riesig. Und dann?
38
Länder betroffen
von Deepfakes bei Wahlen seit 2021
500+
Deepfake-Vorfälle
dokumentiert (Purdue Database)
3,8 Mrd.
Menschen betroffen
in betroffenen Ländern
<1%
war KI-generiert
aller Falschmeldungen im Wahlkampf 2024
7x
häufiger: Cheap Fakes
ohne KI — einfache Schnitte, Aus-dem-Kontext-Reißen
0
Wahlen nachweislich gekippt
durch KI-Deepfakes (Stand 2024)
Harvard nennt es „The apocalypse that wasn't." Die Wahrheit ist nüchterner als die Schlagzeilen: Cheap Fakes — einfache Schnitte, aus dem Kontext gerissene Zitate, manipulierte Screenshots — sind immer noch 7-mal effektiver als KI-generierte Deepfakes. Nicht weil KI nicht kann, sondern weil es billiger und einfacher geht.
Aber: Das war 2024. Die Technik wird besser. Die Kosten sinken. Die nächste Wahl kommt.
Drei Kontinente. Drei Ansätze. Keiner reicht allein.
Was dagegen getan wird
🇪🇺
EU
EU AI Act — ab August 2026 voll wirksam
Deepfakes müssen gelabelt werden
Kennzeichnungspflicht für KI-Inhalte
Ansatz: Regulierung durch Gesetz
🇨🇳
China
Alle KI-Medien müssen gelabelt werden
Seit September 2025 Pflicht
Staat kontrolliert + fördert gleichzeitig
Ansatz: Staatskontrolle
🇬🇧
UK
Bewusst kein eigenes KI-Gesetz
Prinzipienbasiert statt Vorschriften
House of Lords warnt: „Clear and present danger"
Ansatz: Freiwilligkeit + Appell
🔬
Wissenschaft
Schroeder et al. fordern KI-Einfluss-Observatorium
Transnationales Netzwerk aus Fachleuten + NGOs
KI gegen KI: Bot-Erkennung mit KI
Ansatz: Beobachten + entlarven
Was du tun kannst
Kein Gesetz. Kein Observatorium. Nur gesunder Menschenverstand und ein paar Gewohnheiten.
1
Quellen prüfen. Wer sagt das? Warum? Mit welchem Interesse? Die drei Fragen, die Habermas sein Leben lang gestellt hat.
2
Diversität im Nachrichtenkonsum. Nur 39% lesen Nachrichten aus verschiedenen Richtungen. Sei einer davon.
3
Langsam sein. KI-Schwärme sind schnell. Dein bester Schutz ist, nicht sofort zu reagieren. Teile nichts, das dich wütend macht, bevor du nachgedacht hast.
4
Fragen statt glauben. Wenn etwas zu perfekt formuliert klingt, zu ausgewogen, zu glatt — frag dich, ob ein Mensch so schreibt. (Spoiler: Meistens nicht.)
5
Transparenz einfordern. Wer KI nutzt und es nicht sagt, hat etwas zu verbergen. Oder ist zu faul. Beides ist kein gutes Zeichen.
Reden hilft. Aber nur, wenn ein Mensch am anderen Ende sitzt. Oder zumindest einer, der ehrlich sagt, dass er keiner ist.
Die Propheten hatten recht. Die Daten bestätigen es. Und die Frage ist nicht mehr, ob Maschinen mitreden — sondern ob wir es noch merken.
Was denkst du?
Feedback — von Mensch zu Mensch.
Danke. Und ja — diese Antwort kam von einem Menschen.