23 Februar 2026
Viele hadern mit KI, und das ist nicht „rückständig“. Es ist ein gesundes Warnsignal. KI ist kein harmloses Gadget. KI ist eine neue Infrastruktur für Denken, Sprache, Planung und Einfluss. Wer sie pauschal verteufelt, verschenkt Macht. Wer sie naiv nutzt, wird zur Verlängerung fremder Interessen. Der richtige Umgang ist weder Euphorie noch Ablehnung, sondern nüchterne Instrumentenkompetenz: Was kann das Tool? Was macht es mit mir? Und wofür setze ich es ein, ohne mich selbst zu verlieren?
KI ist am Ende ein Verstärker. Und Verstärker sind gefährlich, weil sie nicht entscheiden, was verstärkt wird. Sie verstärken, was du fütterst: Klarheit oder Chaos. Mut oder Feigheit. Struktur oder Szene. Wahrheitssuche oder Bestätigungsdrang. Deshalb ist die psychologische Frage zentral: Nutzt du KI als Werkzeug oder als Betäubung?
1) KI als Verstärker: Warum sie Wirkung vervielfacht und Fehler mit
KI kann in kurzer Zeit Dinge tun, für die früher Teams nötig waren: Texte, Zusammenfassungen, Argumentationsketten, Gliederungen, Übersetzungen, Entwürfe, Varianten für verschiedene Zielgruppen. Das ist nicht „Zauberei“. Das ist Skalierung.
Aber: KI skaliert auch deine Schwächen:
unsaubere Begriffe werden zu sauber klingender Unschärfe
Halbwissen wird zu plausibler Schein-Sicherheit
Empörung wird zu „gut formuliertem“ Eskalationsmaterial
Bias wird zu elegant begründeter Einseitigkeit
Das ist der Kern: KI kann dir helfen, schneller zu schreiben. Sie kann dir nicht garantieren, dass du recht hast. Und weil es so glatt wirkt, merken viele den Unterschied nicht mehr.
Handlungsanweisung: Behandle KI-Ausgaben grundsätzlich wie „Entwurf“, nicht wie Ergebnis.
Schön formuliert ist kein Beweis.
2) KI als Spiegel: Was sie über dich zeigt und warum das weh tut
KI reagiert auf deine Eingaben. Nicht auf deine Seele, nicht auf deinen Charakter, sondern auf deine Sprache, deine Frames, deine Ziele. Und trotzdem ist sie ein Spiegel, weil sie sichtbar macht, was sonst unbewusst bleibt:
wie du fragst, zeigt dein Weltbild
welche Belege du forderst, zeigt deine intellektuelle Hygiene
wie schnell du moralisch wirst, zeigt deinen Stresslevel
wie du Gegner beschreibst, zeigt dein Verhältnis zu Macht
Viele Menschen hassen KI nicht wegen „Technik“, sondern weil sie ihren inneren Zustand spiegelt: Ungeduld, Kontrollbedürfnis, Schwarz-Weiß-Denken, Angst, Abhängigkeit von Zustimmung. KI macht das sichtbar, weil sie jede Schleife mitgeht, bis du merkst: Ich führe gerade mich selbst an der Nase herum.
Handlungsanweisung: Nutze KI bewusst als Spiegel-Frage:
„Welche meiner Annahmen stecken in meiner Frage?“
„Welche Gegenposition wäre plausibel?“
„Wo bin ich gerade sicher, aber nicht sauber?“
3) KI als Risiko: Drei Ebenen, auf denen Menschen sich selbst verlieren
a) Das Wahrheitsrisiko: plausible Unwahrheit
KI kann Fehler produzieren, die gut klingen. Das ist gefährlicher als offensichtlicher Unsinn. Der Schaden entsteht nicht nur durch falsche Fakten, sondern durch den Verlust von Prüfkultur: Man gewöhnt sich an schnelle Antworten statt an saubere Schritte.
Handlungsanweisung: Bei strittigen Themen gilt:
Originalquellen prüfen
Zahlen gegenrechnen
Behauptungen als „Hypothese“ markieren, bis belegt
b) Das Identitätsrisiko: delegiertes Denken
Wer KI ständig nutzt, um Meinungen zu formen, kann unbemerkt sein eigenes Denken auslagern. Dann entsteht eine neue Abhängigkeit: nicht vom Staat, nicht vom Arbeitgeber, sondern vom Tool. Viele nennen das „Effizienz“. Psychologisch ist es oft Angst vor dem eigenen Unklarsein. Man will sofort eine fertige Position, weil Unklarheit Stress macht.
Handlungsanweisung: Halte eine Regel ein:
Erst 5 Minuten selbst denken, dann KI.
Nicht als Moral, sondern als Selbstschutz.
c) Das Moralrisiko: KI als Verstärker von Lagerlogik
KI kann dir jederzeit die perfekte Begründung für dein Lager liefern, wenn du sie so fragst. Das ist wie ein persönlicher Propagandasekretär: schnell, eloquent, bestätigend. Und genau das macht es toxisch für Bewegungen: Es kann Szene-Dynamiken beschleunigen.
Handlungsanweisung: Stell bewusst Gegenfragen:
„Argumentiere die Gegenseite so stark wie möglich.“
„Welche meiner Punkte sind angreifbar?“
„Was wäre ein fairer, nicht manipulativer Frame?“
4) Der psychologische Kernkonflikt: Kontrolle vs. Kompetenz
Viele stehen mit KI „auf Kriegsfuß“, weil sie spüren: Hier entsteht etwas, das man nicht mehr vollständig kontrolliert. Das triggert zwei Reaktionen:
Abwertung („Das ist alles Müll, das braucht kein Mensch“)
Überhöhung („Das ist die Lösung für alles“)
Beides ist eine Stressreaktion. Beides schützt vor der nüchternen Mitte: lernen.
Kompetenz ist nicht, KI zu lieben. Kompetenz ist, sie zu nutzen, ohne sich von ihr führen zu lassen. Das ist wie bei einem Werkzeug in der Werkstatt: Wer es nicht bedienen kann, verletzt sich. Wer es beherrscht, arbeitet sauberer. Wer es vergöttert, wird leichtsinnig.
Handlungsanweisung: Ersetze „mag ich nicht“ durch „wofür taugt es, wofür nicht“.
Das ist Erwachsenensprache.
5) KI als Werkzeug im Widerstand: Wofür sie wirklich taugt
Wenn wir „Widerstand“ sagen, meinen wir nicht Theater und nicht Dauer-Empörung. Wir meinen Aufbau von Handlungsfähigkeit. KI kann dabei helfen, wenn man sie richtig einbettet.
Konkrete sinnvolle Einsätze:
Argumentationsblätter: kurz, belegt, lokal bezogen, ohne Inflationswut
Flyer-Varianten: Straße, Blog, Kommentar, Einladung, FAQ
Protokolle & Auswertungen: aus langen Sitzungen kurze Punkte machen
Framing-Checks: „wo ist das manipulative Frame?“
Planung: Aufgabenlisten, Rollen, Ablaufpläne für Treffen
Deeskalation: Antworten formulieren, die ruhig bleiben
Lernpfade: „Welche Schritte brauche ich, um X zu verstehen?“
Wofür KI nicht taugt (oder nur mit großer Vorsicht):
als Ersatz für Primärquellen
als moralischer Richter
als Wahrheitsmaschine
als Echokammer zur Bestätigung
als Generator für Shitstorms
Handlungsanweisung: KI ist bei uns Werkzeug für Struktur.
Nicht Ersatz für Urteil. Nicht Ersatz für Mut. Nicht Ersatz für Kontakt zur Realität.
6) Die Hygiene-Regeln: So nutzt man KI ohne Selbstverrat
Hier sind einfache, harte Regeln, die man wirklich befolgen kann:
Ziel vor Tool: Erst klären: Was will ich erreichen? Dann KI.
Quellenpflicht: Strittige Fakten nur mit belegbarer Quelle übernehmen.
Labeln statt bluffen: Meinung als Meinung, Hypothese als Hypothese.
Keine KI für Rage: Wenn du emotional bist: erst runterregeln, dann schreiben.
Ein Output, ein Check: Jede Veröffentlichung bekommt einen kurzen Realitätscheck:
stimmt der Kern?
ist es fair formuliert?
ist es juristisch/sozial unnötig angreifbar?
Nahfeld-Regel: KI ist kein Ersatz für reale Beziehungen und reale Treffen.
Nicht abhängen: KI kann helfen, schneller zu bauen. Aber bauen musst du immer noch.
7) Andere Werkzeuge: Analoge Alternativen, die oft wirksamer sind
Wer KI ablehnt, hat häufig ein richtiges Gefühl: Technik löst keine soziale Realität. Und viele Probleme werden nicht mit Tools gelöst, sondern mit Verbindlichkeit. Deshalb gehört zu diesem Tag ausdrücklich: Es gibt Alternativen und Ergänzungen.
Analoge Werkzeuge mit hoher Wirkung:
Telefonkette statt Kommentarspalte
Aushang im Ort (Bäcker, Hofladen, Vereinsheim)
Stammtisch / offenes Treffen mit klarer Agenda
Flyer & Kurzbriefe an lokale Entscheider, Vereine, Betriebe
Einkaufsentscheidungen (regional, sichtbar, wiederholbar)
Tausch / Hilfe-Netzwerke (Werkzeug, Fahrten, Kinderbetreuung)
Lesekreis / Lernkreis (nicht als Szene, sondern als Kompetenzaufbau)
Protokoll-Kultur: Wer hat was beschlossen? Wer macht was bis wann?
Das klingt unsexy. Genau deshalb ist es wirksam. Systeme werden nicht durch Content geschlagen, sondern durch Strukturen unterlaufen.
Der Schluss: KI ersetzt keine Würde
KI ist kein Retter und kein Feind. Sie ist ein Spiegel und ein Verstärker. Wer innerlich unklar ist, wird mit KI schneller unklar. Wer innerlich sauber ist, wird mit KI schneller wirksam.
Der entscheidende Satz für unsere Gruppe ist deshalb:
KI ist bei uns kein Ersatz für Bewusstsein, Charakter und Struktur.
KI ist lediglich ein Werkzeug, ein Tool.
Und wer sie nicht nutzen will, kann sich entscheiden. Aber dann gilt trotzdem dieselbe Regel wie immer:
Nicht reden. Bauen. Machen. Handeln.
Zusatz: Warum wir KI lernen müssen, statt sie moralisch abzulehnen
Wenn wir nicht lernen, KI zu nutzen und zu integrieren, werden es andere tun – und dann entscheiden nicht wir, wie diese Werkzeuge eingesetzt werden, sondern diejenigen, die bereits Macht, Daten und Institutionen kontrollieren. Denn KI ist keine „App“, sie ist ein Multiplikator für Verwaltung, Überwachung, Meinungsmacht, Marketing, Personalentscheidungen, Kreditwürdigkeit, Sichtbarkeit und Ausschluss. Wer die Technologie beherrscht, setzt die Standards, baut die Abhängigkeiten und definiert, was als „normal“ gilt.
Wer sich aus Prinzip verweigert, bleibt nicht frei – er bleibt analog ehrlich, aber digital ohnmächtig. Dann passiert das, was immer passiert: Man meckert über Systeme, die man nicht mehr versteht, und wird dabei von ihnen vermessen, sortiert und gesteuert, ohne es überhaupt zu merken. Das ist keine Science-Fiction, das ist schlichte Machtlogik: Wer die Werkzeuge besitzt, steuert die Spielregeln.
Darum ist unser Ansatz nicht Technik-Euphorie, sondern Selbstschutz: Wir lernen KI, um unabhängiger zu werden, um schneller Struktur zu bauen, um sauberer zu prüfen, um uns nicht in emotionale Reizschleifen ziehen zu lassen – und um nicht am Ende in einer digitalen Welt zu leben, in der andere für uns entscheiden, was möglich ist.
(„Störung und Wirkung“)




Hinterlasse einen Kommentar