Zum Inhalt springen

Techniken der Propaganda und Manipulation

aus Wikipedia, der freien Enzyklopädie

Techniken der Propaganda und Manipulation sind durch folgende Merkmale gekennzeichnet:

Notwendige Bedingung der Wirksamkeit von Propaganda ist, dass sie vom Empfänger nicht als Propaganda aufgefasst, sondern als sachliche Information, als ethisch oder juristisch begründetes Werturteil oder als Selbstverständlichkeit rezipiert wird. In ähnlicher Weise wird Propaganda auch von ihren Urhebern und Multiplikatoren oft nicht als solche erkannt und kann tatsächliche Überzeugungen zum Ausdruck bringen. In der Regel ist Propaganda mit der Auffassung verbunden, nicht man selbst, sondern nur der Gegner benutze Propaganda, die eigene Propaganda wird entweder als neutrale und objektive Darstellung aufgefasst oder als legitime Gegenpropaganda gerechtfertigt.

Propaganda gilt auch als unterste, gewaltfreie Stufe verdeckter Operationen, als ihr Merkmal wird ihre glaubhafte Abstreitbarkeit gesehen.[5] Bewusste Propaganda für die eigene Überzeugung wird oft mit dem guten Zweck begründet oder entschuldigt. Das gilt für die so genannte „positive Propaganda“ oder politische Öffentlichkeitsarbeit, die sich nicht nur in allen totalitären Systemen, sondern auch in Demokratien findet.[6] Zum Thema Nudging und anderen aus der Verhaltensökonomik abgeleiteten Verfahren wird differenziert über Nutzen und Grenzen von Methoden diskutiert, die das Verhalten von Bürgern aus ihnen selbst heraus steuern, so dass sie meinen, das zu wollen, was ohne ihr Wissen von außen angestoßen wurde.[7]

Die „soziale Propaganda“ (Jaques Ellul) fasst Propaganda nicht nur als etwas Sinnvolles, sondern als eine notwendig aus der Technisierung der Gesellschaft folgende „Gewissenskonditionierung“ auf. Diese soziale Propaganda wird als notwendig für den Zusammenhalt der Gesellschaft und die Akzeptanz der Demokratie angesehen, eine Auffassung, die schon in dem Klassiker Propaganda von Edward Bernays vertreten wurde, wobei jedoch Ellul den Verlust der Autonomie des Subjekts kritisiert.

Darüber hinaus wird die noch weitergehende Auffassung vertreten, dass Menschen grundsätzlich nicht nicht manipulieren können, insofern jede Interaktion mit anderen auch den Charakter der emotionalen und kognitiven Beeinflussung hat, eine Tatsache, der die Kommunikationspsychologie mit dem Begriff der Beziehungsebene (Paul Watzlawick) und dem Modell Schulz von Thuns Rechnung trägt. Unterschiede der Methoden bestünden dabei nur noch in ihrer Auswahl, Feinheit, Absicht und in ihrem Ergebnis (Josef Kirschner).[8] Ethisch gerechtfertigt erscheinen diejenigen Formen der Beeinflussung, die die Zielperson in ihrer Autonomie respektieren, ihre Entscheidungsfähigkeit stärken und sie zum Selbstsein ermächtigen.[9] Hier überschneidet sich der Sachgehalt des negativ konnotierten Begriffs der Manipulation mit dem positiv konnotierten von Erziehung und Bildung, etwa bei der Erziehung durch Vorbilder oder durch pädagogische und disziplinarische Maßnahmen.[10]

Durch Soziale Medien, Algorithmen und Künstliche Intelligenz wird die manipulative Wirkung von Propaganda potenziert und ihre Funktionen teilweise automatisiert oder der menschlichen Kontrolle entzogen.[11]

Bezüge zu unterschiedlichen Wissenschaftsfeldern

[Bearbeiten | Quelltext bearbeiten]

Techniken der Manipulation und Propaganda werden unter anderem in Logik und Rhetorik, Kognitionspsychologie, Kommunikationspsychologie, Massenpsychologie und Totalitarismusforschung analysiert.

Anwendungsfelder sind außer politischer und religiöser oder weltanschaulicher Propaganda, Werbung, Marketing und Public Relations auch die hybride Kriegsführung, die psychologischen Operationen (PSYOPS), Umerziehung, Zersetzung und das Social Engineering.

Eine Reihe von Techniken werden psychologisch eingeordnet, analysiert und interpretiert, etwa in der politischen Psychologie, der Massenpsychologie,[12] der Kommunikationspsychologie, der Sozialpsychologie und der Kognitionspsychologie, die kognitive Verzerrungen untersucht.

Logik und Rhetorik

[Bearbeiten | Quelltext bearbeiten]

Viele dieser Techniken werden unter logischem Gesichtspunkt als so genannte Fehlschlüsse kategorisiert, da Propagandisten Argumente verwenden, die zwar psychologisch wirksam, aber nicht unbedingt logisch gültig sind.[13][14] Dieselben oder ähnliche Techniken werden auch in der Theorie der Argumentation als Scheinargumente analysiert.[15][16][17]

In der Rhetorik und Dialektik wurden und werden sie als Sophismen, Verfahren der Rabulistik und eristische Stratageme dargestellt (vgl. Schopenhauers Eristische Dialektik).[18]

Auch mit dem Bereich der rhetorischen Stilmittel literarischer und nicht-literarischer Texte gibt es Überschneidungen.

Grundlagen der Wirksamkeit

[Bearbeiten | Quelltext bearbeiten]

Die Grundvoraussetzungen für Manipulation und Propaganda sowie die Anfälligkeit des Menschen dafür lassen sich aus evolutionären,[19] kognitiven, sozialen und kulturellen Perspektiven erklären. Menschen sind manipulierbar, weil ihre kognitiven, sozialen und emotionalen „Werkzeuge“ zwar das Überleben in Kleingruppen sicherten, in komplexen modernen Gesellschaften aber anfällig sind. Propaganda ist eine Konsequenz adaptiver Mechanismen, die in neuen Kontexten missbraucht werden können. Die Anfälligkeit für Manipulationen entsteht durch das evolutionäre Erbe, kognitive Limitationen und soziale Abhängigkeiten.[20]

  • Menschen sind als soziale Spezies auf Gruppenbindung und Kommunikation angewiesen. Dies förderte die Entwicklung von Vertrauen und Empathie – Eigenschaften, die Manipulation ermöglichen, da sie ausgenutzt werden können (z. B. durch Täuschung oder falsche Versprechen).[21]
  • Unser Gehirn nutzt Heuristiken (Daumenregeln), um in komplexen Umgebungen schnell zu entscheiden. Diese „Abkürzungen“ machen uns anfällig für Vereinfachungen, die Propaganda nutzt (z. B. Schwarz-Weiß-Denken).[22]
  • Menschen bevorzugen Informationen, die ihre bestehenden Überzeugungen bestätigen. Propaganda zielt gezielt auf diese Neigung ab.
  • Evolutionsbedingt folgen Menschen Autoritäten (z. B. Stammesführern), um Sicherheit zu gewinnen. Moderne Propaganda nutzt dies durch Inszenierung von „Experten“ oder Führungsfiguren. Eigenschaften wie Vertrauen oder Gruppenzugehörigkeit waren evolutionär überlebenswichtig, bergen aber Schwachstellen (z. B. leichtgläubiges Folgen von Führern).
  • Emotionen wie Angst, Hoffnung oder Wut überschatten oft rationales Denken. Manipulatoren nutzen dies, um intuitive Reaktionen auszulösen (z. B. Kriegspropaganda durch Angst vor dem „Feind“).
  • Menschen definieren sich über soziale Identität (z. B. Nation, Religion). Propaganda schafft „Wir vs. Sie“-Narrative, um Loyalität zu stärken und Kritik zu unterdrücken.
  • Kulturen basieren auf gemeinsamen Mythen und Symbolen. Propaganda nutzt archetypische Bilder (z. B. „Helden“, „Opfer“) oder historische Bezüge, um kollektive Emotionen zu wecken.
  • Sprache strukturiert Realität. Durch Framing (z. B. „Flüchtlingswelle“ vs. „Schutzsuchende“) werden Deutungsmuster vorgegeben, die unbewusst akzeptiert werden.
  • In fast allen Kulturen existieren Machtgefälle. Eliten oder Institutionen kontrollieren oft Informationsflüsse – eine Voraussetzung für systematische Propaganda.
  • Menschen sind auf Zugang zu Ressourcen (Nahrung, Sicherheit, Status) angewiesen. Manipulatoren nutzen dies durch Belohnung (Loyalität) oder Bestrafung (Zensur).
  • In modernen Gesellschaften können Menschen nicht alle Informationen prüfen. Sie verlassen sich auf soziale Validierung („Wenn viele es glauben, muss es stimmen“).
  • Belohnungssysteme im Gehirn reagieren auf Anerkennung durch die Gruppe. Propaganda nutzt dies durch Versprechen von Zugehörigkeit oder moralischer Überlegenheit.[23]

Faktoren erhöhter Anfälligkeit und Resilienz

[Bearbeiten | Quelltext bearbeiten]

Anfälligkeit

  • Besonders anfällig sind Menschen mit geringer kognitiver Reflexionsfähigkeit. Personen, die eher intuitiv als analytisch denken, neigen stärker zu Bestätigungsfehlern und akzeptieren vereinfachte Narrative unkritisch.
  • Gruppen mit geringem Vertrauen in Institutionen (z. B. Politik, Medien) sind anfällig für Verschwörungsnarrative, die einfache Schuldzuweisungen bieten.[24]
  • Wenn die Zugehörigkeit zu einer Gruppe (z. B. politisch, religiös) zentral für die Identität ist, werden gegenteilige Informationen als Bedrohung abgelehnt („identity-protective cognition“).[25]
  • Angst, Wut oder existenzielle Bedrohung (z. B. Krisen) erhöhen die Anfälligkeit für autoritäre Propaganda, die Sicherheit verspricht.[26]

Widerstandsfähigkeit

  • Menschen mit hoher Medienkompetenz, kritischer Quellenbewertung und Wissen über Medienmechanismen (z. B. Algorithmen) reduzieren Propaganda-Anfälligkeit.[27]
  • Personen mit analytischem Denkstil, mit kognitiven Fähigkeiten zur systematischen Informationsprüfung („deliberative thinking“) sind weniger bereit, manipulative Botschaften zu akzeptieren.[28]
  • Menschen mit diversen sozialen Netzwerken, Kontakt zu unterschiedlichen Perspektiven („cross-cutting exposure“) sind kognitiv stärker flexibel und immun gegen einseitige Narrative.[29]
  • Individuen mit hoher Selbstwirksamkeit. die sich ihrer Handlungsfähigkeit bewusst sind, neigen weniger dazu, sich passiv manipulativen Botschaften zu unterwerfen.[30]

Einzelne Techniken der Propaganda

[Bearbeiten | Quelltext bearbeiten]

Typen der Propagandatechniken

Henry T. Conserva unterscheidet in seinem Handbuch der Propagandatechnik sieben Typen, die selbst wieder einzelne Techniken umfassen:[31]

  1. Logische Fehler
  2. Ablenkung und Vermeidung (Diversion and Evasion)
  3. Appell an Gefühle (Appealing to the Emotions)
  4. Falsche Tatsachen und Irreführung (Using Falsehoods and Trickery)
  5. Ausnutzung menschlicher Verhaltenstendenzen, geistiger Fähigkeiten und Prozesse (Playing on Human Behavioral Tendencies, Mental Capacities and Processes)
  6. Stil im Sprechen und Schreiben (Speaking or Writing Styles)
  7. Vernunft und gesunder Menschenverstand (Reason or Common Sense).[32]

Ablenkungsmanöver

[Bearbeiten | Quelltext bearbeiten]

Ein rhetorisches Ablenkungsmanöver stellt Sachverhalte und Argumente dar, die zwar für sich genommen überzeugend, jedoch nicht relevant für das vorliegende Thema oder Argument sind. Vergleiche dazu Red Herring, Strohmann-Argument und Whataboutism.

Abstreitbarkeit (Plausible Deniability)

[Bearbeiten | Quelltext bearbeiten]

Bedingungen für die plausible Vermeidung der Verantwortung werden geschaffen, sodass die Verantwortung nicht feststellbar oder gerichtsfest beweisbar ist.[33] Eine Variante ist, dass eine Aktion durch Dritte veranlasst wird, die scheinbar nichts mit dem Hauptakteur zu tun haben.[34]

Accusation in a Mirror

[Bearbeiten | Quelltext bearbeiten]

Dem Gegner werden die eigenen Motive und/oder Absichten zugeschrieben, die eigenen Intentionen unterstellt. Mit dieser Propaganda-Taktik soll der Gegner diffamiert und dessen Glaubwürdigkeit untergraben werden.[35][36] Diese Strategie bleibt meist unerkannt, weil es schwerfällt, zu glauben, dass derjenige, der eine Eigenschaft kritisch verurteilt, dieses selbst besitzt (vgl. Kognitive Dissonanz, Confirmation Bias).[37]

Persönliche Eigenschaften des Gegners werden kritisiert, anstatt seine Argumente zu widerlegen. Aus den negativ charakterisierten Eigenschaften der Person soll die Unwahrheit oder der Unwert der vertretenen Meinung oder Haltung folgen.[38] Douglas Walton unterscheidet fünf Untertypen, die Beschimpfung, den Verweis auf Begleitumstände, den Verweis auf Befangenheit, das tu quoque („du auch!“) und die Brunnenvergiftung.

Eine Behauptung wird sehr oft wiederholt (ad infinitum: unendlich, ad nauseam: bis zum Erbrechen), manchmal auch in Form eines einfachen und eingängigen Slogans oder eines politischen Schlagworts. Durch die ständige Wiederholung wird die betreffenden Behauptung schließlich als selbstverständliche und allgemein bekannte Tatsachenaussage empfunden.[39][40]

Wenn der Angriff ad hominem sich nicht direkt auf den Inhalt des Streitthemas bezieht, sondern nur die Person diskreditiert, nennt man dies auch argumentum ad personam.

Agenda-Setting bedeutet die „Fähigkeit [der Nachrichtenmedien], die Bedeutung, die den Themen der öffentlichen Agenda beigemessen wird, zu beeinflussen.“[41] Medien beeinflussen die Rezeption durch den Grad ihrer Zugänglichkeit (accessability), die Themenwahl (Selektion) und Schwerpunktsetzung. Durch Hervorhebung und Wiederholung von Themen und Meinungen bestimmen Medien nicht nur, was Rezipienten zu bestimmten Themen denken und entsprechend äußern, sondern in noch viel stärkerem Maße, über welche Themen diese überhaupt nachdenken und sprechen und über welche Themen nicht.[42] Auf einer ersten Ebene lenken Medien die Aufmerksamkeit auf bestimmte Themen (Thematisierungsfunktion), beeinflussen die Einschätzung ihrer Wichtigkeit (salience) und ihrer Rangfolge (priority). Auf der zweiten Ebene beeinflussen Medien Sachurteile, Werturteile und Einstellungen (vgl. Framing). Auf Ebene drei werden Einzelthemen miteinander zu Themennetzwerken verknüpft. Diese Themen und Themenverknüpfung kennt man meist nur durch die Massenmedien und übernimmt deren Darstellung fast unverändert. Für diese Rezeptionsleistung werden die Konsumenten durch soziale Integration belohnt, etwa durch das Gefühl, dazuzugehören und mitreden zu können.[43] Wenn also eine Nachricht häufig und an prominenter Stelle behandelt wird, erscheint das Thema dem Publikum wichtiger.[44][45] Umgekehrt aber werden bestimmte Themen gar nicht erst wahrgenommen oder sie werden für weniger wichtig gehalten, weil sie in den Medien nicht oder nur am Rande dargestellt werden (Agenda cutting). Die Themensetzung der Medien (Medienagenda) wird teilweise durch Themensetzungen im politischen Bereich (Politische Agenda), durch die Einschätzung des Bevölkerungsinteresses (Publikumsagenda) und durch Leitmedien beeinflusst (Intermedia Agenda Setting).[46] Es gibt darüber hinaus auch Wirkungen der Medien-Agenda auf die Agenda der Politik (Agenda Policy). Die Publikumsagenda wurde in vordigitaler Zeit meist durch die Medienagenda bestimmt, entsprach dieser also weitestgehend. Mit dem Aufkommen filternder, vorsortierender und personalisierender Medien und alternativer Medien, Suchmaschinen, Sozialer Medien und Nachrichten-Apps wird das Agenda Setting immer mehr durch interaktive Mitgestaltung der Rezipienten, Fragmentierung des Publikums und Diffusion unterschiedlicher Agenden aufgelöst. Es wird von Kritikern befürchtet, dass so die für die Demokratie wichtig erscheinende Integrationsfunktion der Medien durch „Herstellung von Öffentlichkeit für gesellschaftlich relevante Themen und Probleme“ verloren gehen könnte.[47]

Algorithmische Verzerrung (Algorithmic bias)

[Bearbeiten | Quelltext bearbeiten]

„Lügen und Hassrede verbreiten sich rasend schnell im Internet und die Algorithmen der sozialen Medien beliefern ihre Nutzer bevorzugt mit Nachrichten, die deren Weltanschauung bestätigen. Wissenschaftler sprechen von Filterblasen und Echokammern. Dazu kommt, dass KI-Systeme teils unbemerkt Vorurteile übernehmen und diskriminierende Entscheidungen treffen.“[48]

Bei historisch-politischen Analogie-Schlüssen werden gegenwärtige Vorgänge mit vergangenen gleichgesetzt und daraus Schlussfolgerungen für die Gegenwart gezogen. Dabei wird die Komplexität und mangelnde Vergleichbarkeit der Vorgänge meist vernachlässigt.[49] Tillmann Bendikowski urteilt, solche Vergleiche lenkten vom Thema ab und könnten mehr schaden als nutzen.[50]

Wer der Versuchung allzu rascher historischer Analogieschlüsse erliegt, erhält vor allem eines: verzerrte Bilder, die vorgeben, Ordnung in unübersichtliche Verhältnisse zu bringen. (Robert Kindler)[51]

Anekdotische Evidenz

[Bearbeiten | Quelltext bearbeiten]

Man gibt einzelne Erfahrungen oder Erlebnisse als induktiven Beweis für eine allgemeine Aussage aus. Sie sind meist subjektiv, schwer zu überprüfen und nicht repräsentativ. Ihre Wirkung beruht auf der suggestiven Wirkung des einzelnen Ereignisses und dem Charisma oder allgemeinen Eigenschaften der Person, die diese Erfahrungen beschreibt.

Appelle an die Angst suchen nach Unterstützung, indem sie Ängste und Panik im Konsumenten, aber auch in der Bevölkerung erzeugen.[52][53][54][55] Methodische Erzeugung von Angst wird auch Appell an die Angst, Furchtappell oder Argumentum ad metum genannt.

Appell an die Autorität oder Berufung auf Autoritäten / Argumentum ad verecundiam

[Bearbeiten | Quelltext bearbeiten]

Ein Autoritätsappell zitiert eine Autorität oder beruft sich auf prominente Persönlichkeiten des öffentlichen Lebens, besonders auch Wissenschaftler, um Positionen, Ideen, Argumente oder Vorgehensweisen überzeugend, allgemeinverbindlich, vorbildlich oder wertvoll erscheinen zu lassen.[56][57] Dies schließt die Berufung auf Klassiker, maßgebliche Literatur und Enzyklopädien ein.

Appell an Vorurteile

[Bearbeiten | Quelltext bearbeiten]

Man verwendet belastete oder emotionale Begriffe oder Stereotype für die eigenen oder die generischen Auffassungen, um dem Glauben an die eigene Auffassung einen moralischen Wert zu verleihen.[58]

Association Fallacy (Assoziations-Fehlschluss)

[Bearbeiten | Quelltext bearbeiten]

Ein Thema oder eine Person A wird mit anderen Themen und Personen B in Verbindung gebracht. Aus dieser Verbindung werden positive oder negative Eigenschaften von B auf A übertragen, obwohl dafür kein Beweis vorgelegt wird. Es wird also induktiv vermutet, nicht empirisch oder logisch bewiesen. Unterfälle sind

  • das Argumentum ad hominem (Die Meinung eines Menschen ist abzulehnen, weil etwas an dem Menschen nicht akzeptabel erscheint)[59] und
  • der Kontaktschuld-Fehlschluss (Die Meinung eines Menschen ist abzulehnen, weil er mit Menschen in Verbindung steht, die nicht akzeptabel erscheinen),
  • die Reductio ad Hitlerum (Eine Meinung ist abzulehnen, weil jemand sie vertreten hat, der Nazi war),[60]
  • das Galileo Gambit (Die Ablehnung einer Meinung ist ein Hinweis auf ihre Richtigkeit, weil auch Galileos astronomische Theorie anfangs abgelehnt wurde)[61] und
  • der Ursprungs-Fehlschluss (Genetic Fallacy) (Etwas oder jemand ist abzulehnen, weil die Vorgeschichte oder Herkunft nicht akzeptabel erscheint).[62]

Ästhetisierung

[Bearbeiten | Quelltext bearbeiten]

Abstoßende, hässliche, ekelerregende oder grausame Sachverhalte werden in der Darstellung so bearbeitet, dass sie ästhetisch ansprechend oder sogar faszinierend erscheinen. Bildmaterial zu Kriegsereignissen wird so ausgewählt, dass die grausame Realität des Krieges nicht wahrgenommen werden kann. „Erreicht wird dies beispielsweise durch den Einsatz von Licht, Farben, Musik, bestimmte Kameraeinstellungen, die Anordnung der Bildobjekte oder die Verwendung von gemeinhin als schön wahrgenommenen Bildmotiven aus Kunst, Natur, Alltag und Werbung.“[63]

Astroturfing, Fake Accounts

[Bearbeiten | Quelltext bearbeiten]

Beim Astroturfing geben sich wenige Personen als große Zahl von Aktivisten aus, die für eine bestimmte Sache eintreten. Dabei werden meist Fake Accounts („Sockenpuppen“) oder Bots eingesetzt. Es soll so der Eindruck einer weit verbreiteten und daher als relevant interpretierten Auffassung und eines „öffentlichen Interesses“ entstehen.[64] Astroturfing wird auch zur Informationswäsche (Information Laundering) gerechnet.

Automatisierungsbias

[Bearbeiten | Quelltext bearbeiten]

Menschen neigen dazu, Vorschlägen von automatisierten Entscheidungsfindungssystemen besonderen Glauben zu schenken. Sie ignorieren dafür andere Informationen.[65]

Bandwagon, Mitläufereffekt

[Bearbeiten | Quelltext bearbeiten]

Man soll sich beteiligen oder anschließen, weil angeblich schon alle anderen zugestimmt haben. Bandwagon-Appelle nutzen den Mitläufereffekt, um die Zielgruppe zu überzeugen, mitzumachen und den Kurs zu ergreifen, den angeblich alle anderen schon eingeschlagen haben.[66][67] Diese Technik nutzt den „Herdentrieb“ und das natürliche Verlangen der Menschen, auf der Gewinnerseite zu sein.[68]

Berufung auf berühmte Menschen

[Bearbeiten | Quelltext bearbeiten]

Man beruft sich auf berühmte Menschen oder auf attraktiv und glücklich erscheinende Menschen, mit denen die Zielperson sich identifiziert oder die sie bewundert und respektiert. Dem entspricht Anne Morellis Prinzip der Kriegspropaganda: „Die Künstler und Intellektuellen unterstützen unsere Sache (Les artistes et intellectuels soutiennent notre cause.)“[69]

Big Lie, die „große Lüge“

[Bearbeiten | Quelltext bearbeiten]

Dabei handelt es sich um den Bezug auf ein historisches Ereignis, ein tatsächliches oder irriges oder verfälschtes (Revisionismus), um dadurch eine Maßnahme zu begründen. Nach dem Ersten Weltkrieg wurde etwa die Dolchstoßlegende zur Rechtfertigung für die Re-Militarisierung und den Revanchismus der Nazis eingesetzt. In den USA benutzt Donald Trump die Legende vom groß angelegten Wahlbetrug und der „gestohlenen“ Wahl, um die Präsidentschaftswahl 2020 in Verruf zu ziehen und Joe Bidens Präsidentschaft zu delegitimieren. Ein weiterer Aspekt des manipulativen Charakters der großen Lügen ist die, dass sie leichter geglaubt werden als kleine Lügen.[70][71]

Brunnenvergiftung

[Bearbeiten | Quelltext bearbeiten]

Die Quelle oder Herkunft einer Information wird diskreditiert, meist eine Person oder Institution.[72]

Cherry Picking oder selektive Wahrnehmung

[Bearbeiten | Quelltext bearbeiten]

Aus der Gesamtheit relevanter oder besonders wirkungsvoller Informationen werden nur diejenigen herausgenommen, die dem Ziel entsprechen, die anderen werden ignoriert. Richard Crossman, der britische stellvertretende Direktor der Abteilung für psychologische Kriegsführung (PWD) des Obersten Hauptquartiers der Alliierten Expeditionstruppe (SHAEF) während des Zweiten Weltkriegs sagte, Propaganda sei keine Lüge, sondern die Auswahl der gewünschten Wahrheit und das Vermischen mit einigen Wahrheiten, die das Publikum hören möchte.

Confirmation Bias (Bestätigungsfehler)

[Bearbeiten | Quelltext bearbeiten]

Menschen sind aufgrund des Vorurteilscharakters des Denkens (Gadamer) und des kognitiven Strebens nach Harmonie und Sicherheit geneigt, Aussagen zu glauben, die ins eigene Weltbild passen, mit denen sie übereinstimmen. Umgekehrt gilt für die Disconfirmation Bias die Tendenz, Aussagen zu ignorieren oder für falsch zu halten und abzulehnen, die die eigenen Überzeugungen und das eigene Weltbild in Frage stellen. Diese Tendenz überträgt sich leicht auf das Medium der Aussagen und wird oft mit der Glaubwürdigkeit oder Unglaubwürdigkeit der Quelle begründet.[73]

US-amerikanische antijapanische Darstellung im Zweiten Weltkrieg – Werbung für Kriegsanleihen

Gegner werden entmenschlicht dargestellt.[55] Dämonisierung und Entmenschlichung des Gegners sind, wie Anne Morelli darstellt, ein wesentliches Prinzip der Kriegspropaganda. Da man nach Morellis Auffassung kein ganzes Volk oder Land hassen kann, ist es notwendig, den Hass auf eine Person umzuleiten, die das Land vertritt. Durch diese Personifizierung des Landes bekomme „der Feind“ ein Gesicht und dieses Gesicht könne zum Bezugspunkt des Hasses gemacht werden. Zu diesem Zweck wird die Person als moralisch verwerflich, böswillig und geistig krank charakterisiert.[69] Dämonisierung des Gegners ist das Gegenstück zur Glorifizierung.

Dammburchargument (Slippery Slope)

[Bearbeiten | Quelltext bearbeiten]

Man warnt vor einer Handlung, da sie der erste Schritt einer Ereigniskette sei, die zwangsläufig zu negativen Konsequenzen führe. Logisch gesehen, kann alles als „Anfang“ interpretiert werden.[74]

Dekontextualisierung/Isolierung/Fragmentierung

[Bearbeiten | Quelltext bearbeiten]

Bei der Dekontextualisierung wird ein Nachrichteninhalt oder ein Ereignis aus seinem tatsächlichen Kontext herausgelöst, so dass das Ereignis nur für sich, also isoliert, wahrgenommen wird. Bei Ereignissen (zum Beispiel einer gewaltsamen Demonstration) fehlt die Vorgeschichte oder der politische Hintergrund. Das Ereignis oder die Nachricht kann daher nicht von Rezipienten eingeordnet und interpretiert werden. Zum richtigen Verständnis muss der ursprüngliche Kontext wiederhergestellt werden. Dekontextualisierung ist eine Form der Fragmentierung von Information.[75]

Desinformation, digitale Desinformation

[Bearbeiten | Quelltext bearbeiten]

Nach Auskunft der deutschen Bundesregierung bezeichnet Desinformation irreführende und falsche Informationen, die im Unterschiede zur Falschnachricht das Ziel haben, Menschen vorsätzlich zu täuschen oder zu beeinflussen und die gezielt verbreitet werden. Es kann sich dabei um Texte oder Bilder (deep fakes) handeln. Die Irreführung führt immer manipulativ zu einem falschen Eindruck, durch Weglassen, Fälschen, Lügen, Erfinden, Gerüchte, tendenziöse Behauptungen, Verzerren, Überspitzen, durch Einseitigkeit. Desinformationskampagnen können, wenn vom Ausland aus durchgeführt, den Charakter einer hybriden Bedrohung annehmen.[76]

Bei der digitalen Desinformation werden Bild- und Textbotschaften individualisiert und automatisiert. Der Skandal um Cambridge Analytica 2016 wird von Mathias Schulze als Beispiel genannt. Automatisierte Bots und Troll-Armeen können Online-Kommunikation in eine bestimmte Richtung beeinflussen. Ein weiteres Problem ist die fehlende Qualitätskontrolle und Geschwindigkeit auch bei traditionellen Medien. Dies verstärkt Unzufriedenheit und unterstützt so alternative Angebote. Es sei nachweisbar, dass Menschen, die sich aus algorithmisierten alternativen Medien informieren, ein negativeres Politikbild haben:

Wer vorwiegend Nachrichten über algorithmisch aggregierte Newsfeeds auf sozialen Medien konsumiert, hat häufig ein negativeres Politikbild als etwa Leser von Zeitungen, die ausgewogener berichten.[77]

KI-gesteuerte Empfehlungssysteme (z. B. YouTube, Facebook) zeigen Nutzern nur Inhalte, die ihre bestehenden Überzeugungen verstärken. In der Folge können Rezipienten sich radikalisieren und polarisieren, da andere Perspektiven unterdrückt werden. Bei der KI-Verstärkung erkennen selbstlernende Algorithmen Muster und vertiefen gezielt polarisierende Inhalte.

Embedded Journalism

[Bearbeiten | Quelltext bearbeiten]

Der Begriff Embedded Journalist bedeutete ursprünglich die Einschränkungen im Einsatz von Journalisten unter Leitung von Militärs, heute wird der Begriff in einem allgemeineren Sinn benutzt, um einen Journalisten zu charakterisieren, der sich den vorgegebenen politischen Strukturen und Erwartungen anpasst, also zum Sprachrohr der Regierung machen lässt. Die Struktur und Funktionsweise von politisch-medialen Netzwerken, in die der Journalist „eingebettet“ ist, wurde unter anderem von Uwe Krüger näher erforscht[78] und bildet einen Teil der modernen Form der Medienmanipulation.[79]

Emotionalisierte Sprache/Loaded Language

[Bearbeiten | Quelltext bearbeiten]

Bestimmte Wörter und Ausdrücke mit starken emotionalen Implikationen werden verwendet, um das Publikum zu beeinflussen, z. B. durch Verwendung des positiv konnotierten Wortes „Reformen“ anstatte eines neutraleren Wortes wie etwa „Veränderungen“.

Empfindungssteuerung (Perzeptionsmanagement)

[Bearbeiten | Quelltext bearbeiten]

Die Wahrnehmung und Bewertung von Ereignissen wird indirekt in die gewünschte Richtung gelenkt, also nicht durch die Darstellung von Fakten, sondern durch die Steuerung der Gefühle.

Bei der Ergreifung des Diktators Saddam Hussein wurde argumentiert, dass durch den Krieg doch wenigstens der Diktator gefasst und das Land befreit werden konnte. „Das weltweit verbreitete Bild von der Ergreifung Saddam Husseins wurde zum Symbolbild für den erfolgreichen Militäreinsatz der USA im Irak und drängte die Frage nach der Rechtmäßigkeit des Krieges in den Hintergrund.“[80]

KI kann bei der Sentiment-Analyse der Rezipienten unterstützen.

Euphemismus/Beschönigung

[Bearbeiten | Quelltext bearbeiten]

In der politischen Kommunikation werden durch beschönigende Ausdrücke gefährliche, peinliche Sachverhalte verharmlost. Sie können als perspektivierende Ausdrücke Teil der strategischen Kommunikation sein. Die Problematik wird im Ausklammern von Problemen, im Ent-Problematisieren gesehen.[81]

Euphemismus-Vorwurf

[Bearbeiten | Quelltext bearbeiten]

Auch der unbegründete Vorwurf, ein Ausdruck sei beschönigend, kann das Ziel haben, die Wahrnehmungsweise des Rezipienten zu beeinflussen.[81]

Fake News wird teilweise in enger Nachbarschaft zu Begriffen wie Hoax oder Scam eingeordnet.[82] Facebook legte im April 2017 ein Arbeitspapier mit vier verschiedenen Formen des Informationsmissbrauchs vor, die Facebook als Fake News bezeichnet:[83]

  • Information (or Influence) Operations: Aktivitäten von Regierungen oder nicht-staatlichen Organisationen mit dem Ziel, in- oder ausländische politische Stimmungen zu steuern.
  • False News: Nachrichten, die vorgeben, korrekt zu sein, aber absichtliche Fehlinformationen transportieren, um Emotionen hervorzurufen, Aufmerksamkeit zu gewinnen oder zu täuschen.
  • False Amplifiers: die koordinierte Aktivität von ge- und verfälschten Onlinekonten, mit der Absicht, politische Diskussionen zu manipulieren
  • Desinformation: Fehlerhafte oder manipulierte Informationen und/oder Inhalte, die absichtlich verbreitet werden. Das kann falsche Nachrichten umfassen oder subtilere Methoden einschließen, wie Operationen unter falscher Flagge, das Einschleusen falscher Zitate oder Narrative bei unwissenden Verbreitern oder die absichtliche Verstärkung von irreführenden Informationen.[84]

Falsche Anschuldigungen

[Bearbeiten | Quelltext bearbeiten]

Falsche Anschuldigungen in der Öffentlichkeit sind Ausdruck von Aggression, Mobbing und Bullying. Hinter einer Selbstinszenierung von Unschuld und Reinheit können sich sadistische Impulse verbergen, die darauf zielen, die Existenz anderer zu zerstören.[85]

Falsche Ausgewogenheit

[Bearbeiten | Quelltext bearbeiten]

Gegensätzliche Standpunkte werden als gleichwertig dargestellt, obwohl es klare Beweise gibt. Der Vorwurf wird manchmal selbst manipulativ erhoben, wenn nicht wirklich bewiesen ist, welche Meinung die allein richtige ist.

„So groß sind die psychologischen Widerstände gegen den Krieg in den modernen Nationen, dass jeder Krieg als Verteidigungskrieg gegen einen bedrohlichen, mörderischen Angreifer erscheinen muss. Es darf keine Zweideutigkeit darüber geben, wen die Öffentlichkeit hassen soll.“ (Harold Lasswell)[86] Der Feind muss als blutrünstig, bösartig, hässlich und verachtenswert erscheinen. Diese Übersteigerung und Dehumanisierung wirkt als „Enthemmungsdroge“. Auf diese Weise können internationale Konflikte vereinfacht und es kann so von internen Konflikten und Mängeln abgelenkt werden.[87] Christoph Weller sieht fünf Fundamente des Feindbildes:

1.) Stereotypisierung (zur Aufrechterhaltung der Feindbilder) 2.) Selektive Wahrnehmung (Beschränkung auf negative Charakteristika) 3.) ‚Dichotomisierung‘ der sozialen Welt (Freund-Feind-Schema) 4.) Projektionen oder Sündenbocksuche 5.) Gesellschaftlicher Funktionalismus (Wandel der Feindbilder infolge politischer Veränderungen).[88]

Operationen „unter falscher Flagge“ erwecken den Anschein, sie würde von einem Drittstaat oder einer anderen Organisation durchgeführt. „Auch die gezielten Bemühungen eines Cyberakteurs, die eigenen Handlungen einer anderen Stelle zuzuschreiben, um die Urheberschaft zu verschleiern und eine Attribution zu erschweren, werden False Flag genannt.“

Algorithmen wählen basierend auf gesammelten Nutzerdaten (z. B. Suchverlauf, Klicks, Standort) personalisierte Inhalte aus. Dies führt dazu, dass Nutzer vorrangig Informationen sehen, die ihren bestehenden Überzeugungen, Vorlieben oder Verhaltensmustern entsprechen, während abweichende Perspektiven systematisch ausgeblendet werden.[89] Plattformen wie Google, Facebook oder YouTube nutzen Machine-Learning-Modelle zur Algorithmischen Personalisierung, um Inhalte zu priorisieren, die Aufmerksamkeit und Engagement maximieren.[90] Nutzer werden von widersprüchlichen Informationen „geschützt“, was bestehende Überzeugungen verstärkt („Bestätigungsfehler“)[91]. Kollektive Debatten werden durch parallele, voneinander isolierte Informationsräume ersetzt (Bruns, 2019).[92]

Massive negative Einflussnahme aus der Öffentlichkeit mit dem Anliegen, Organisationen oder Personen zu diskreditieren, die das vorherrschende Meinungsbild anzweifeln oder ihm widersprechen.

Furcht, Unsicherheit und Zweifel

[Bearbeiten | Quelltext bearbeiten]

Um die öffentliche Wahrnehmung zu beeinflussen, können negative, zweifelhafte oder falsche Informationen verbreitet werden, die die Glaubwürdigkeit untergraben und Unsicherheit, Zweifel, Angst und Furcht erzeugen.

Framing ist die nicht bewusst gemachte Vorgabe eines Deutungsrahmens um einen Nachrichtenkern herum, durch den die dargestellten Sachverhalte vorinterpretiert präsentiert werden. Dieser Deutungsrahmen wird oft im Stil, der sprachlichen Form der Darstellung, vor allem der Metaphorik, wirksam. Framing ist nach Elisabeth Wehling ein unvermeidlicher Prozess des selektiven Einflusses auf die individuelle Wahrnehmung der Bedeutungen, die Wörtern oder Phrasen zugeordnet werden, dieser Prozess kann aber bewusst gemacht und bewusst oder unbewusst manipulativ gesteuert werden.[93]

Fuß-in-der-Tür-Technik

[Bearbeiten | Quelltext bearbeiten]

Der Bitte um ein größeres Entgegenkommen wird leichter entsprochen, wenn man vorher ein kleineres Entgegenkommen erbracht hat. Dies hat teilweise mit der Tendenz zu konsistentem Verhalten beziehungsweise mit der Vermeidung von Dissonanz zu tun.

Beharrliche Verleugnung, Irreführung, Widerspruch und Lügen sollen in der Zielperson oder -gruppe Selbstzweifel erzeugen, in der Absicht, sie dazu zu bringen, ihre eigenen Erinnerungen, ihre Wahrnehmung, ihre Vernunft und Normen in Frage zu stellen. Gaslighting kombiniert verschiedene Techniken der Manipulation, vor allem solche der Verwirrung, Täuschung und Kontrolle.[94]

Im Nationalsozialismus hatten die Gefallenen Vorbildfunktion.[95] In den kommunistischen Ostblockländern wurden Kriegsmonumente und Gefallenendenkmäler instrumentalisiert.[96]

Gehirnwäsche oder Coercive Persuasion ist eine missverständliche umgangssprachliche Bezeichnung für Verfahren, um Grundeinstellungen und Realitätswahrnehmungen zu destabilisieren und durch neue Einstellungen zu ersetzen.[97] Dass Gehirnwäsche wirklich funktioniert, wird in der Wissenschaft bezweifelt.[98] Die entsprechenden Versuche, die die CIA von den 1950er bis in die 1970er Jahre unter dem Decknamen MKULTRA unternahm, zeitigten keine brauchbaren Ergebnisse, gaben aber Anlass zu verschiedenen Verschwörungstheorien.[99]

Heroisierung

Gish-Galopp beschreibt das Bombardieren eines politischen Gegners mit aufdringlich komplexen Fragen oder Kritikpunkten während einer Debatte, damit er nicht die Möglichkeit hat, auf alle Einzelheiten einzugehen, wodurch er inkompetent erscheinen soll.[100]

Politiker werden hierbei als vorbildliche Menschen oder Helden dargestellt, Kriege erscheinen als „gute“ oder gerechte Kriege, die sämtliche Opfer rechtfertigen.[101] Auch die eigene politische Haltung kann glorifiziert werden. Dem entspricht Anne Morellis Prinzip der Kriegspropaganda: „Unser Anliegen hat etwas Heiliges (Notre cause a un caractère sacré.)[69]

Gräuelpropaganda

[Bearbeiten | Quelltext bearbeiten]
Gräuelpropaganda im Balkankrieg (19. Jahrhundert)

Ein Gegner wird diffamiert, indem man ihm erfundene oder nicht von ihm begangene Untaten bzw. Gräuel zuschreibt oder von ihm unternommene Handlungen bewusst verzerrt darstellt und so skandalisiert. Sie ist ein häufiges Mittel psychologischer Kriegführung und kann im Krieg zur Motivation der eigenen Streitkräfte und Bevölkerung oder zur Beeinflussung der Weltöffentlichkeit eingesetzt werden. „Eine junge Frau, die vom Feind geschändet wurde, verschafft einer Schar von Erfüllungsgehilfen auf der anderen Seite der Grenze heimliche Befriedigung. Daher vielleicht auch die Beliebtheit und Allgegenwärtigkeit solcher Geschichten.“[102]

Plakat aus der Zeit des Ersten Weltkriegs von Winsor McCay. Amerikaner werden aufgerufen, Kriegsanleihen, Liberty Bonds genannt, zu zeichnen.

Eine halbe Wahrheit ist eine betrügerische Aussage, die ein gewisses Element der Wahrheit enthält. Es gibt verschiedene Formen: Die Aussage kann teilweise wahr sein, die Aussage kann völlig zutreffend sein, aber nur ein Teil der gesamten Wahrheit, oder sie kann ein betrügerisches Element verwenden, täuschen, ausweichen, beschuldigen oder falsch darstellen.[103]

Hetz- und Schmutzkampagnen

[Bearbeiten | Quelltext bearbeiten]

Eine Schmutzkampagne ist der Versuch, den Ruf zu schädigen oder in Frage zu stellen, indem man negative Aussagen verbreitet. Eine Hetzkampagne ist die Steigerung einer Schmutzkampagne. Sie kann Einzelpersonen oder Gruppen betreffen und justiziable Fälle übler Nachrede, Rufschädigung bis hin zum Rufmord enthalten. Ein ähnlicher Begriff, der hauptsächlich den politischen Gegner in Wahlkampagnen betrifft und sich auf die negativen Seiten seiner Position konzentriert, ist Negative Campaigning.

Information Laundering (Informationswäsche)

[Bearbeiten | Quelltext bearbeiten]

Belén Carrasco Rodríguez (NATO Strategic Communications Centre of Excellence) definiert Informationswäsche (IL) als eine Strategie feindlicher Akteuren im Rahmen einer Informationsbeeinflussungs-Kampagne (HIIC). „Bei diesem Prozess werden falsche oder betrügerische Informationen durch ein Netz von Vermittlern legitimiert, die nach und nach eine Reihe von Techniken anwenden, um sie zu verzerren und die ursprüngliche Quelle zu verschleiern.“[104]

Als verwandte Methode wird das Citation Laundering angesehen, die Praxis, statt sich selbst jemanden zu zitieren, dessen Informationen auf der Quelle des „Wäschers“ beruht. Wissenschaftler können „Zitationsfarmen“ oder „Zitierkartelle“ bilden, um die Arbeiten der anderen aufzuwerten.[105]

Informationsüberflutung

[Bearbeiten | Quelltext bearbeiten]

Emma Briant charakterisiert diese Technik, die im Englischen information overload heißt, wie folgt:[106]

  • „Informationsüberflutung kann die gleiche Wirkung haben wie die Geheimhaltung und ist sicherlich kurzfristig und für die heutigen Demokratien als wirksamer einzustufen.“
  • „Wenn eine Informationsüberflutung auftritt, wird mit hoher Wahrscheinlichkeit die Entscheidungsqualität beeinträchtigt.“
  • „Die Informationsflut, die durch die moderne Technologie erzeugt wird, […] droht, die Empfänger passiv zu machen. Überlastung führt zu mangelnder Bereitschaft sich zu engagieren.“[107]

Diese Technik wird auch von Rainer Mausfeld als grundlegend für die moderne Massenkommunikation dargestellt, da sie abstumpfe und Apathie verbreite.[108] Sie ist mit der Reizüberflutung verwandt.[109] Sie führt zu Schutz- und Abwehrmechanismen der Psyche zur Unterdrückung von Informationen, wie Verdrängung, Isolation, Regression, Projektion, Introjektion, Sublimierung, Fantasiebildung, Verleugnung. Diese Schutzmechanismen bilden eine wirksame Basis für Manipulation.[110]

Inokulation ist eine Softpower-Technik aus der Zeit des Kalten Krieges. Sie besteht darin, Personen kontrollierten Dosen von Desinformation, Fehlinformation und Verschwörungstheorien auszusetzen, um ein Art mentale „Immunität“ aufzubauen, die auch als Resilienz bezeichnet wird. Das „Immunsystem des Gehirns“ wird darauf trainiert, als falsch deklarierte Informationen zu erkennen und von vornherein als falsch abzulehnen.[111] Diese Abwehr von Propaganda, bevor sie verarbeitet wird, wird im Gegensatz zur nachträglichen Widerlegung (Debunking) als Prebunking bezeichnet.[112]

Just World Fallacy (Fehlschluss der Gerechten Welt)

[Bearbeiten | Quelltext bearbeiten]

Es besteht dabei die Tendenz, anzunehmen, dass es in der Welt grundsätzlich gerecht zugeht und jeder das bekommt, was im zusteht, dass „das Gute“ am Ende siegt und der „Böse“ bestraft wird.[113] Diese Glaube, der oft dem psychischen Wohlbefinden zuträglich ist, führt manchmal zur Täter-Opfer-Umkehr oder zur Viktimisierung, etwa beim Problem der Armut in der Dritten Welt.[114]

Kognitive Dissonanz

[Bearbeiten | Quelltext bearbeiten]
Kognitive Verzerrungen und ihre Ursachen

Menschen bevorzugen konsistente Vorstellungen, harmonische Konzepte, in denen alle Teile zueinander passen. Diese Tendenz kann manipulativ ausgenutzt werden. Wenn beispielsweise eine Gruppe von Menschen einen Politiker ablehnt, aber einen bestimmten Schauspieler schätzt, kann man das Lob des Politikers durch den Schauspieler verwenden, um die Meinung der Menschen zu ändern, weil die Menschen Inkonsistenz nicht tolerieren können. Sie fühlen das Bedürfnis, entweder den Schauspieler nicht mehr zu mögen oder die Abneigung gegenüber dem Politiker zu revidieren. Festingers Theorie der kognitiven Dissonanz zeigte, dass sich Menschen Inhalten, die ihren Vorstellungen und Werten grundlegend widersprechen, gar nicht erst aussetzen, den Kontakt mit ihnen vermeiden[115].

Konditionierung

[Bearbeiten | Quelltext bearbeiten]

Alle Wirbeltiere, einschließlich Menschen, reagieren auf klassische Konditionierung, Menschen auch auf evualative Konditionierung. Klassische Konditionierung bedeutet Signallernen: Wenn A (Signal) über eine gewisse Zeitspanne auch dann vorhanden ist, wenn Objekt B vorhanden ist und B eine körperliche Reaktion hervorruft (z. B. Ekel, Lust), dann wird die gleiche körperliche Reaktion auftreten, wenn das Signal A in Abwesenheit von Objekt B präsentiert wird. Diese assoziative Verbindung gilt beim Menschen für alle Gefühlsreaktionen und alle Wahrnehmungen/Vorstellungen. Bei der werbewirksamen evaluativen Konditionierung werden Werturteile und Einstellungen vermittelt. Auch unbemerkte Zusammenhänge (z. B. durch unterschwellige Reize) können eine Wirkung zeigen. Evaluativ konditionierte Reaktionen werden außerdem als stabiler erachtet als die Ergebnisse der klassischen Konditionierung. Auch Bedeutungen sind konditionierbar (konzeptuelles Konditionieren am Beispiel Markenimage). Bei der operanten Konditionierung wird das Verhalten durch die Konsequenzen (Verstärker) kontrolliert, die man ihm gibt. Außer Belohnungen können auch neutrale Reize durch Koppelung an einen Verstärker selbst Verstärkungswert erhalten (sekundärer Verstärker). Bei der Werbung kann ein Produkt durch Koppelung an einen Verstärker zu einem sekundären Verstärker werden.[116]

Durch Kontaktschuld wird dem Zielpublikum die Vorstellung vermittelt, eine Aktion oder eine Idee sei abzulehnen, weil diese bei einer negativ besetzten Person oder Gruppe beliebt ist, die von dem Zielpublikum gehasst, gefürchtet oder verachtet wird. Dies führt oft zu einer Meinungsänderung, entsprechend der irreführenden Schlussfolgerung, dass etwas negativ sei, wenn es von einer negativ bewerteten Person oder Gruppe vertreten wird. Der Begriff wurde ursprünglich in der Nachkriegszeit eingeführt, um Vorwürfe zu kritisieren, jemand sei Kommunist, weil er Kommunisten kenne, mit ihnen spreche oder mit ihnen gemeinsam agiere.[117]

Kontrolle des sozialen Umfelds

[Bearbeiten | Quelltext bearbeiten]

Maßnahmen mit dem Ziel, das soziale Umfeld und die Ideen durch den Einsatz von sozialem Druck zu kontrollieren. Oft Teil der Maßnahmen der Zersetzung.

Labeling (Etikettierung) / Name Calling

[Bearbeiten | Quelltext bearbeiten]

Labeling/Etikettierung und Name Calling sind manipulative Kommunikationstechniken. Labeling kategorisiert Personen/Gruppen durch stereotype Schlagworte (z. B. „Elite“, „Querdenker“), um Debatten zu vereinfachen und Vorurteile zu schüren. Name Calling degradiert gezielt via Beleidigungen (z. B. „Volksverräter“), um Gegner emotional zu entwerten. Während Labeling komplexe Realitäten in Schubladen presst, attackiert Name Calling direkt die Person. Beide Techniken spalten durch Schwarz-Weiß-Denken, untergraben sachliche Diskurse und nutzen emotionale Trigger, um Macht über Narrative auszuüben.[118][119] Verwandte Techniken sind Gaslighting: Opfer werden durch falsche Labels („du bist paranoid“) verunsichert, Strohmann-Argumente: Gegner werden durch falsche Etiketten („Sie wollen also die Wirtschaft zerstören!“) karikiert, und Totschlagargumente: Begriffe wie „Cancel Culture“ beenden Debatten, bevor sie beginnen.

Lüge und Täuschung

[Bearbeiten | Quelltext bearbeiten]

Menschliche Zeugenaussagen können schon unter normalen Umständen unzuverlässig sein, aber in Kriegszeiten können sie durch Voreingenommenheit, Gefühle und fehlgeleiteten Patriotismus noch mehr verwirrt werden.[120][121] Lüge und Täuschung können die Grundlage vieler Propagandatechniken sein, darunter der Ad-Homimen-Argumente, Diffamierung, der Door in the face-Technik, der Halbwahrheit, der Namensfindung oder einer anderen auf Unehrlichkeit oder Täuschung basierenden Technik.

Zur besonderen Situation der Lüge in Kriegszeiten schreibt die Bundeszentrale für politische Bildung: „In Kriegszeiten lassen sich Informationen nur schwer oder gar nicht auf ihren Wahrheitsgehalt überprüfen. Das macht es für kriegführende Parteien einfach, die Öffentlichkeit durch Streuung falscher Informationen auf Kriegskurs zu bringen.“

Um die Menschen davon zu überzeugen, dass eine Lüge wahr ist, muss sie nur stetig wiederholt werden. Als wirksam erweist sich dabei auch der Einsatz besonders vertrauenswürdig erscheinender Personen.[122]

Anti-islamische Propaganda in Deutschland, entstanden in der Zeit der Türkenkriege im 16. Jahrhundert.

Mere-Exposure-Effekt

[Bearbeiten | Quelltext bearbeiten]

Kurze, mehrmalige Wiederholung von Werbung kann dazu führen, dass das Werbeobjekt positiver wahrgenommen wird. Dieser Effekt wird auch von Social Media genutzt.[123][124]

Militainment bezeichnet die „Zusammenarbeit zwischen Militär und Medienunternehmen bei der Produktion von Kriegsfilmen, -serien, -dokumentationen oder Computerkriegsspielen.“ Dies gibt dem Militär erhebliche Einflussmöglichkeiten auf die Darstellung des Krieges, den Verlauf eines solchen und erhöht zugleich den ästhetischen Reiz und den ehrenvollen Charakter des Krieges. „Szenen, die dem Ruf des Militärs schaden könnten, haben keine Chance. Sie müssen umgeschrieben werden, sonst ist eine Veröffentlichung nicht möglich. Regisseure, die ohne Unterstützung des Militärs produzieren, haben es schwer: Oliver Stone beispielsweise brauchte zehn Jahre, um seinen kritischen Vietnamfilm ‚Platoon‘ (1986) fertigzustellen.“[125]

Massenmedien moralisieren, indem sie auf Entscheider und Betroffene, auf Täter und Opfer reduzieren. Man braucht Schuldige, um die Komplexität der Welt handhabbar zu machen. Damit ist das Moralisieren mit der Personalisierung und der Emotionalisierung verwandt.[126][127]

Politische Mythen stiften Identität und integrieren die Gemeinschaft. Sie legitimieren Herrschaft bzw. Herrschaftsansprüche, Handlungen wie Kriege und Eroberungen, Ansprüche auf Territorien.

Gerade Mythen, die bei Prozessen der Nationswerdung „erfunden“ wurden, schaffen Traditionslinien zur mittelalterlichen Geschichte des Landes, durch die gegenwärtige Forderungen und Ziele gerechtfertigt werden.[128]

Propagandisten verwenden Neologismen, um mit ihren oft bildhaften Wortprägungen eine negative oder positive Meinung zu vermitteln.

Ein nudge (Anstupser) ist „jegliche Facette einer Entscheidungsstruktur, die geeignet ist, das Verhalten von Menschen in einer vorhersehbaren Art und Weise zu ändern, ohne Verbote auszusprechen oder signifikant deren ökonomische Anreizstruktur zu verändern“. Es handelt sich um ein verhaltensökonomisches Verfahren, um das Verhalten von Bürgern in gewünschte Richtungen zu steuern.[129][130] Nudging ist im Gegensatz zu boosting (Verhaltensverstärkung) laut Ralph Hertwig, Direktor am Max-Planck-Institut für Bildungsforschung, zu kritisieren, etwa bei der Organspende, da hierbei der Mensch als defizitär angesehen wird, als zu träge, selbst zu denken.

Die Nudger haben es aufgegeben, Menschen kompetenter zu machen und sie dazu zu bewegen, sich ihres eigenen Verstandes zu bedienen. Damit kehren sie in gewisser Weise der Aufklärung den Rücken.[131]

Nirwana-Fehlschluss/Trugschluss der perfekten Lösung

[Bearbeiten | Quelltext bearbeiten]

Etwas Wirkliches oder Realisierbares wird mit einem unrealisierbaren modellhaften Ideal verglichen und abgelehnt, „weil ein Teil des Problems nach ihrer Implementierung immer noch existieren würde. Mit anderen Worten, dass eine Vorgehensweise abgelehnt werden sollte, weil sie nicht perfekt ist, obwohl sie die beste verfügbare Option ist.“ Der Fehlschluss gilt als Beispiel für Schwarz-Weiß-Denken.[132]

Operante Konditionierung

[Bearbeiten | Quelltext bearbeiten]

Operante Konditionierung bezeichnet das Lernen durch Nachahmung. Wenn man zum Beispiel beobachtet, wie eine attraktive Person Produkte kauft oder Positionen befürwortet, lernt eine Person, das Produkt zu kaufen oder die Position zu bestätigen. Operante Konditionierung ist das Grundprinzip von Werbekampagnen.

Overton-Fenster

[Bearbeiten | Quelltext bearbeiten]

Propaganda kann zur Vergrößerung oder Verkleinerung des „Overton-Fensters“ führen, also der Vorstellungen, welche Meinungen, Haltungen und Auffassungen öffentlich als akzeptabel gelten können.[133] Dies ist verwandt mit der Frage nach dem Meinungskorridor, dessen Breite auch durch die Akzeptanz der Themen und Haltungen bestimmt ist. Der Meinungskorridor wird nach Overton dadurch erweitert, dass extreme Positionen als Tabu-Bruch thematisiert werden; dieser Tabu-Bruch werde zwar zurückgewiesen, er erweitere aber doch den Rahmen des Sagbaren und Denkbaren. Vier Faktorengruppen sollen eine Verschiebung begünstigen: Fakten und Logik, moralische Appelle, emotionale Ansprache und Ereignisse, Fehler oder Desinformation.[134] Argumentationen auf der Basis dieses Modells werden teilweise als propagandistisch zurückgewiesen.[135] Die Overtonstrategie funktioniert nach beiden politischen Seiten: in den 60er Jahren zugunsten der Emanzipation, heute als Strategie zur Begrenzung der Immigration, so die Zeit 2018.[136]

Personalisierung

[Bearbeiten | Quelltext bearbeiten]

Wer personalisiert, reduziert die politische Komplexität auf die Charaktereigenschaften und Motive einer einzelnen Person. So verschwinden die Sachverhalte hinter Entscheidungen und die Mitwirkung von Institutionen und Bevölkerungsgruppen wird unsichtbar. Entscheidungen scheinen aus dem Willen der Person allein und ihrer individuellen Motive zu folgen. Im Falle eines Konflikts erscheint dann die Ausschaltung oder Ablösung dieser Person als das Hauptziel, der Einsatz wird mit der Disqualifizierung der Person gerechtfertigt. Personalisierungen werden von Kritikern beispielsweise der Darstellung Wladimir Putins und Russlands zugeschrieben.[137]

Auch Medienwandel und Medienkrise können nach Heinz Bonfadelli und Kurt Imhof die Tendenz zu Skandalisierung, Moralisierung und Personalisierung in der Berichterstattung verstärken, da diese vom Publikum mit größerem Interesse und weniger geistigem Aufwand wahrgenommen werden.

„Der Journalismus, aber auch Public Relations, würden immer mehr Ereignisse als Media-Events selber inszenieren und fokussierten immer stärker auf Skandalisierung und Moralisierung einerseits sowie Personalisierung, Emotionalisierung und Intimisierung andererseits. Dabei würde bewusst das Bedürfnis des Medienpublikums nach Neugier und Voyeurismus bedient und bewirtschaftet im Sinne der Steigerung von Auflagen und Reichweiten.“[138]

Er besteht in der Überhöhung einer Einzelperson ins Übermenschliche und Vorbildhafte. Die Verhältnisse werden durch die Glorifizierung einer Persönlichkeit personalisiert, d. h. der Aufbau eines Systems wird nicht als das Verdienst einer Gesellschaft, sondern einer einzelnen Person dargestellt. Der politische Führer wird als Genie charakterisiert, das angeblich Leistungen erbringt, zu denen kein anderer fähig ist. Oft wird die Führerfigur mythisiert: als allwissend, unsterblich und allgegenwärtig, was sich im öffentlichen Raum in Statuen, Monumenten, Porträts, Straßennamen usw. zeigt.

Political Correctness

[Bearbeiten | Quelltext bearbeiten]

Die Einhaltung der Erwartungen der politischen Korrektheit kann zur Unterdrückung von Themenaspekten, zur Einengung der Meinungsvielfalt und zur Beschränkung der öffentlichen Diskussion führen.[139]

Prebunking, im Unterschied zum nachträglichen Debunking, konfrontiert den Rezipienten mit einer geringen Dosis Fake News, in erster Linie ihren äußeren Erkennungsmerkmalen, und veranlasst ihn nach dem Modell der operanten Konditionierung, diese Fake News unmittelbar abzulehnen, negativ zu konnotieren und gegebenenfalls mit den im Voraus vermittelten Gegenargumenten abzuwehren. Ziel ist Immunität und Resilienz, ein Effekt, der empirisch bestätigt worden sei.[140][141][142]

Menschen haben die Tendenz, die ersten Informationen, die sie zu einem Thema oder einer Situation erhalten, stärker zu gewichten als spätere. Die Wahrnehmung der Rezipienten kann gesteuert werden, indem über den „ersten Eindruck“ zu Beginn des Kontaktes mit einer Person oder einem Thema Grundannahmen verankert werden (Vgl. anchoring/Ankereffekt). Dies wird im Medien-Priming medial eingesetzt. Das erhöhte Aktivierungspotenzial der primär verstärkten Nachrichteninhalte führt dazu, dass beispielsweise bei der Beurteilung eines Politikers vorrangig auf solche zugänglichen Wissenseinheiten zurückgegriffen wird, das entsprechende Politikfeld also als Hauptkriterium für die Gesamtbeurteilung des Politikers dient (vgl. Agenda Setting und Framing-Effekt). Medien-Priming ist damit eine Anwendungsform des psychologischen Priming.[143]

Primacy/Recency-Effekt

[Bearbeiten | Quelltext bearbeiten]

Informationen zu Beginn einer Reihe von Informationen gehen, wenn keine proaktiven oder retroaktiven Interferenzen vorliegen, besser ins Langzeitgedächtnis über als spätere. Ausnahme sind die letzten Informationen einer Reihe, die ebenfalls besser behalten werden (Recency-Effekt). Beide Effekte können für sich oder gemeinsam für die Gestaltung von Medien und Inhalten genutzt werden.[144][145]

Reductio ad Hitlerum

[Bearbeiten | Quelltext bearbeiten]

Dieses Manöver besteht darin, dass Ähnlichkeiten mit Hitlers Biografie oder Meinungen herangezogen werden, um den Gegner zu diskreditieren und zu diffamieren. Das regelmäßige Auftreten dieser Technik wird durch Godwin’s law beschrieben.[146][147] Es handelt sich um eine Unterform der reductio ad absurdum,[148] die wiederum als Analogieschluss eine Form der falschen Schlussfolgerung ist. Sie kann außerdem zu den Formen des sogenannten Brunnenvergiftens und der Assoziationsfehler gerechnet werden.

Bei Referenzierungen oder Empfehlungen handelt es sich um Zitate innerhalb oder außerhalb des Kontextes, die insbesondere zur Unterstützung oder Ablehnung einer bestimmten Politik, Aktion, eines bestimmten Programms oder einer bestimmten Persönlichkeit zitiert werden. Die Reputation oder die Rolle (Experte, angesehene Persönlichkeit des öffentlichen Lebens usw.) der Person, die die Erklärung abgibt, wird ausgenutzt. Es handelt sich um eine Association Fallacy.

Schwarzweiß-Irrtum, Falsches Dilemma

[Bearbeiten | Quelltext bearbeiten]

Es wird eine gegensätzliche Auswahlmöglichkeit aus zwei polaren Eigenschaften, Werten oder Verhaltensweisen präsentiert (Dichotomie, Dualismus): „Sie sind entweder für uns oder gegen uns …“; „gut oder böse“; „frei oder unfrei“. Dichotomien können auch miteinander verbunden werden: „Lieber für die Freiheit sterben, als in Knechtschaft leben.“ Die Komplexität der Welt wird damit auf extreme und oft gegensätzliche binäre Kategorien oder Kriterien reduziert, Zwischentöne oder andere Möglichkeiten werden ausgeblendet. Politische Alternativen sind oft eher mehr oder weniger grau, das erschwert die Entscheidung, daher wird eine Seite aufgehellt und dem klaren Weiß angenähert, die andere Seite wird verdunkelt und der Farbe Schwarz angeglichen. Der Schwarz-Weiß-Irrtum verstärkt sich also durch selektive Wahrnehmung und Denkfilter, besonders sprachliche Denkfilter. In moralischen Kategorien erscheint ein Weltbild dieser Art als manichäisch (Kampf des Guten gegen das Böse), in theologischen als apokalyptisch (Endkampf des Guten gegen das Böse). Es handelt sich um ein so genanntes falsches Dilemma.

Ein Slogan ist ein kurzer, auffälliger Satz, der Etikettierung und Stereotypisierung umfassen kann. Zwar können Slogans zur Unterstützung begründeter Ideen herangezogen werden, doch in der Praxis wirken sie nur als emotionale Appelle. Gegner der US-Invasion und Besetzung des Irak verwenden den Slogan „Kein Blut für Öl“,[149] um darauf hinzuweisen, dass die Invasion und ihre menschlichen Verluste für den Zugang zum irakischen Ölreichtum gemacht wurden. Auf der anderen Seite verwenden Anhänger, die der Meinung sind, dass die USA weiterhin im Irak kämpfen sollten, den Slogan „cut and run“, um den Rückzug feige oder schwach zu machen. In ähnlicher Weise können die Namen der militärischen Kampagnen, wie „enduring freedom“ oder „just cause“, auch als Slogans bezeichnet werden, die den Menschen beeinflussen sollen.

Soziale Isolierung oder Privilegierung

[Bearbeiten | Quelltext bearbeiten]

Wird verwendet, um Mitglieder für einen Kult oder eine Ideologie zu gewinnen, indem eine Gruppe von Personen eine Person von ihrer bestehenden sozialen Unterstützung abschneidet und sie vollständig durch Mitglieder der Gruppe ersetzt. Diese bombardieren die Person absichtlich mit Zuneigung, um sie isoliert zu halten, um ihre Glaubenssätze und ihr Wertesystem zu manipulieren.

Spiegeltechnik (Chamäleoneffekt)

[Bearbeiten | Quelltext bearbeiten]

Da Ähnlichkeiten sympathisch wirken, kann die Spiegelung des Verhaltens (Spiegelfalle) zur Manipulation dienen (Spiegelfalle), um Vertrauen zu gewinnen. Dabei werden Verhaltensweisen, Wortschatz, Vorlieben ezc gespiegelt, um in dieser chamäleonhaften Verschleierung Botschaften zu vermitteln. Diese Technik kann auch KI-unterstützt angewandt werden und auf Persönlichkeitsprofile zurückgreifen, die etwa über social media Kommunikation gewonnen wurden.[150]

Sprachmanipulation

[Bearbeiten | Quelltext bearbeiten]

Sprachmanipulation umfasst alle Formen der Beeinflussung, die sich sprachlicher Mittel auf der Wort- oder Satzebene bedienen, wobei diese sprachlichen Mittel oft umgeformt oder neugeprägt werden. Bei Wörtern spielt die Konnotation oft eine größere Rolle als die Denotation, etwa be Schlagwörtern, Euphemismen, Dysphemismen und Pejorationen, Neologismen, mehrdeutigen Ausdrücken. Bei Sätzen sind besonders „Phrasen“ (Gemeinplätze, Floskeln und Slogans), Zitate und Leerformeln gebräuchlich.

Stereotypisierung und Etikettierung

[Bearbeiten | Quelltext bearbeiten]

Diese Technik versucht, Vorurteile in einem Publikum zu wecken, indem das Objekt der Propagandakampagne als etwas bezeichnet wird, das das Zielpublikum fürchtet, hasst, verabscheut oder für unerwünscht hält. Beispielsweise kann sich die Berichterstattung über ein fremdes Land oder eine soziale Gruppe auf die stereotypen Merkmale konzentrieren, die der Leser erwartet, obwohl sie weit davon entfernt sind, das gesamte Land oder die gesamte Gruppe zu repräsentieren. Diese Berichterstattung konzentriert sich oft auf Anekdoten. In grafischer Propaganda, einschließlich Kriegsplakaten, kann dies die Darstellung von Feinden mit stereotypen Rassenmerkmalen beinhalten.

Ein Strohmann-Argument ist ein informeller Trugschluss, der auf einer falschen Darstellung der Position eines Gegners beruht. „Einen Strohmann anzugreifen“ bedeutet, die Illusion zu erzeugen, einen Vorschlag widerlegt zu haben, indem er einen oberflächlich ähnlichen Vorschlag (den „Strohmann“) ersetzt und ihn widerlegt, ohne jemals die ursprüngliche Position widerlegt zu haben.

Einer Einzelperson oder einer Gruppe wird Schuld zugewiesen, wodurch Schuldgefühle von den Verantwortlichen gemildert werden und / oder die Aufmerksamkeit von der Notwendigkeit abgelehnt wird, das Problem zu lösen, für das die Schuldzuweisung vorliegt.

„Die bulgarischen Märtyrerinnen“, ein 1877 entstandenes Gemälde des russischen Malers Konstantin Makovsky. Es stellt die Vergewaltigung bulgarischer Frauen durch Soldaten des Ottomanischen Heers während des Aprilaufstands im vorausgehenden Jahr dar. Das Gemälde diente der Mobilisierung der öffentlichen Unterstützung für den Russisch-Osmanischen Krieg (1877–1878), der mit dem ausdrücklichen Ziel der Befreiung der Bulgaren von der Türkenherrschaft geführt wurde.

Täter-Opfer-Umkehr

[Bearbeiten | Quelltext bearbeiten]

Die Verantwortung wird vom Täter auf das Opfer verlagert, das Opfer soll selbst die Tat auf sich gezogen, verschuldet oder verdient haben (vgl. DARVO-Methode).[151] Diese Methode wird beispielsweise in Bezug auf die Opferrolle der Deutschen in 2. Weltkrieg analysiert.[152]

Tatsachenbehauptung

[Bearbeiten | Quelltext bearbeiten]

Vorstellungen und Meinungen einfach als Tatsachen darzustellen, ohne eine Einschränkung zu machen oder eine Erklärung zu geben und jeden Zweifel daran unsinnig erscheinen zu lassen, gilt als wirksame Propagandatechnik. Die Ursache der Wirksamkeit wird darin gesehen, dass Menschen im Prinzip gutgläubig seien. Außerdem sei der Haupteffekt der Propaganda schon erreicht, wenn die Nachricht als solche rezipiert wird. Das ist bei einfachen Behauptungen leichter möglich als bei umständlichen Darstellungen. „Behauptungen sind ein einfacher und schneller Weg, sich im Bewusstsein der Menschen festzusetzen.“ Als Beispiel zitiert Magedah Shabo den Nazislogan „Europas Sieg, dein Wohlstand“. Die Tatsachenbehauptung hat oft einen deutlichen impliziten Aufforderungscharakter, wie etwa in dem Werbeplakat Kaliforniens: „Room for Millions of Immigrants“.[153]

TINA (There is no alternative)

[Bearbeiten | Quelltext bearbeiten]

Die Behauptung, etwas sei „alternativlos“, ist oft unbegründet. Durch die Behauptung, es gebe „keine andere Wahl“, wird der Diskurs eingeschränkt und kritische Reflexion blockiert.[154]

„Das Wort suggeriert sachlich unangemessen, dass es bei einem Entscheidungsprozess von vornherein keine Alternativen und damit auch keine Notwendigkeit der Diskussion und Argumentation gebe. Behauptungen dieser Art sind 2010 zu oft aufgestellt worden, sie drohen, die Politikverdrossenheit in der Bevölkerung zu verstärken.“[155]

Totschlagargument/Killerphrase

[Bearbeiten | Quelltext bearbeiten]

Man bestreitet die Legitimität einer Meinung oder Kritik grundsätzlich, indem man die beispielsweise mangelnde direkte persönliche Erfahrung des Kritikers ins Zentrum stellt. Es wird impliziert, dass nur direkte Erfahrung eine valide Beurteilung ermöglicht – was faktisch falsch ist. Die Aussagen werden apodiktisch formuliert.

Traditionsargument

[Bearbeiten | Quelltext bearbeiten]

Man begründet eine Handlungsempfehlung damit, dass man es immer so oder früher auch schon so gemacht habe. Das Traditionsargument ist dem Autoritätsappell ähnlich.[156]

Man weist dabei darauf hin, dass der Gegner sich der gleichen oder ähnlicher Fehler schuldig gemacht hat, die er dem anderen vorwirft, Diese Strategie entlarvt Heuchelei. Eine Meinung oder eine Empfehlung wird nicht akzeptiert, weil der Befürworter oder die Befürworterin oder der Befürworter ihr selbst nicht folgt. Es geht dabei mehr um die Integrität als um die Wahrheit der Behauptung. Das „Du auch“-Scheinargument gilt als eine der Unterformen des argumentum ad hominem.[157]

Verschwörungstheorie

[Bearbeiten | Quelltext bearbeiten]

Nach Michael Butters Studie von 2018 Nichts ist, wie es scheint wurden die zunächst überwiegend staatlich gesteuerten Verschwörungstheorien in den 1960er Jahren durch regierungskritische Verschwörungstheorien aus der Gesellschaft abgelöst. Besonders als populistisch eingestufte Politiker verbreiten nach Auffassung des isländischen Politikwissenschaftler Eiríkur Bergmann häufig gezielt Verschwörungstheorien, um durch die Markierung realer oder imaginierter Feinde ihre Anhänger zu einen und auf sich als Retter aus angeblichen der Gefahr einzuschwören. Er führt drei aktuelle Beispiele für diese Manipulationstechnik an: die Behauptung europäischer Rechtspopulisten, Muslime wären dabei, Europa zu überschwemmen (Großer Austausch); Donald Trumps Beschwörung eines deep state, sowie Wladimir Putins Narrativ, westliche Mächte würden durch verdeckte Manipulationen Russlands Souveränität untergraben und seinen geopolitischen Einfluss unterminieren, um seine legitime Regierung zu stürzen und letztlich seine Staatlichkeit zu zerstören.[158]

Opfernarrative bilden im Gedächtnis einer Gesellschaft (Kollektives Gedächtnis) das Bewusstsein, an Missständen sei nicht die Gesellschaft selbst oder die Regierung, sondern schuldhafte Einflussnahme von außen verantwortlich, der man ausgeliefert sei. Diese Narrative werden oft in politischen Systemen hervorgebracht oder verstärkt, in denen durch ein gemeinsames Feindbild Mängel der Regierung als Verantwortung anderer rationalisiert werden. Die Unterstützung oder Duldung der Bevölkerung wird gesichert, um dadurch die Herrschaft zu legitimieren und Kritik an ihr als Unterstützung des Gegners zu delegitimieren.[159]

Virtueller Krieg

[Bearbeiten | Quelltext bearbeiten]

Bezeichnung, die in Anlehnung an Orwells Vorstellung eines erfundenen oder künstlich am Leben erhaltenen Konflikts gebraucht wird. In Orwells dystopischem Roman „1984“ dient der virtuelle Krieg dazu, ein totalitäres System zu stabilisieren, seine Kräfte zu mobilisieren, die eigenen Entbehrungen der Schuld des Gegners zuzuschreiben, um der Sicherheit willen Freiheit, auch Gedankenfreiheit einzuschränken und gleichzeitig alle Bürger auf die Unterstützung des Systems einzuschwören. Im Gegensatz zu diesem fiktionalen Entwurf sind nach Mark Danner in der Realität virtuelle Kriege nur in der Vorbereitungsphase von Konflikten wirksam oder lediglich ein Teil wirklicher Konflikte. Dabei bezieht er sich auf den War on terror.[160]

Illustration von Rev. Branford Clarke aus Heroes of the Fiery Cross von Bishop Alma White im Pillar of Fire Church 1928 in Zarephath, NJ veröffentlicht.
1807 schrieb William Cobbett, wie er red herrings benutzte um jemanden auf die falsche Fährte zu locken, während er Hunde für die Jagd trainierte. Hier liegt möglicherweise der Ursprung der Namensgebung.

Vorsätzliche Ungenauigkeit

[Bearbeiten | Quelltext bearbeiten]

Die Allgemeinheiten sind bewusst vage, so dass das Publikum seine eigenen Interpretationen liefern kann. Es ist beabsichtigt, das Publikum mithilfe von undefinierten Phrasen zu bewegen, ohne deren Gültigkeit zu prüfen oder zu versuchen, ihre Angemessenheit oder Anwendung zu ermitteln. Die Absicht ist, die Menschen dazu zu bringen, ihre eigenen Interpretationen zu zeichnen, anstatt sich nur eine explizite Idee präsentieren zu lassen. Beim Versuch, die Propaganda „herauszufinden“, verzichtet das Publikum auf die Beurteilung der präsentierten Ideen. Ihre Gültigkeit, Angemessenheit und Anwendung kann dennoch berücksichtigt werden.

Wahrheitseffekt (illusory truth effect)

[Bearbeiten | Quelltext bearbeiten]

Je häufiger man eine Aussage gehört oder gelesen hat, desto mehr glaubt man an die Richtigkeit dieser Aussage, auch wenn man sie vergessen hat (implizites Gedächtnis). Außerdem beeinflusst die Verarbeitungsflüssigkeit (leichte Aufnehmbarkeit und Verständlichkeit) die Wahrscheinlichkeit, eine Aussage für wahr zu halten.[161]

Whataboutism (Und was ist mit…?)

[Bearbeiten | Quelltext bearbeiten]

Whataboutism wird teilweise als eine Variante des tu quoque („Auch du … “) aufgefasst. Whataboutism ist die Bezeichnung eines Verfahrens der Zurückweisung eines Vorwurfs durch einen Gegenvorwurf. Dieser Gegenvorwurf unterstellt oft, dass die Position des Gegners auf Heuchelei beruht oder Doppelstandards vertritt, also zweierlei Maß anlegt. Dabei wird das Argument des Vorwurfs auf der Sachebene aber nicht widerlegt, sondern sogar akzeptiert. Lediglich in seiner kritischen Bedeutung wird es relativiert. Bei der Frage „Und was ist (auf deiner Seite) mit … ?“ kann sich daher um eine Ablenkung, aber auch um einen wichtigen Hinweis handeln.[162] Schon die erste kritische Feststellung oder Äußerung, auf die jemand dann mit der Frage „Und was ist (auf deiner Seite) mit ....?“ reagiert, kann ein gezielter talking point sein, der bewusst einen bestimmten Kritikpunkt auswählt, um den Gegner zu diskreditieren. Der dann auf die Erwiderung und Zurückweisung folgende Vorwurf, Whataboutism zu betreiben, kann in diesem Zusammenhang ein conversation stopper oder eine Ablenkung von der berechtigten Kritik der anderen Seite sein. Talking points sind Gesprächsanlässe auf derselben Ebene wie der Whataboutism (Kritischer Vorwurf und Gegenvorwurf), nur an einer früheren Stelle der Kommunikation. Beides sind Strategien des Framings.

Zahlen, Statistiken und Diagramme

[Bearbeiten | Quelltext bearbeiten]

Die visuelle Darstellung von Statistiken, besonders in Form von Diagrammen kann manipulativen Charakter haben.[163][164] Zu den statistischen Manipulationen gehören unter anderem

Zensur, Internetzensur

[Bearbeiten | Quelltext bearbeiten]

„Eine Sichtweise kann dann besonders gut vermittelt werden, wenn eine andere unterdrückt wird.“[165] Ansatzpunkt für die Internetzensur sind Konzerne wie Google, Meta-Platforms, Twitter, Telegram, Youtube u. a. Diese Unternehmen werden in die Pflicht genommen, auszuwählen, was ihre Nutzer zu sehen bekommen und was nicht. Ulrich Teusch: „Zu fördern ist das, was das System stabilisiert — auszusondern und als Fake News, Hate Speech, russische Propaganda et cetera zu bewerten; all das, was den eng gesteckten Mainstream-Rahmen sprengt“.[166]

Methoden der Zersetzung haben das Ziel, das Opfer bis in seine persönlichsten Beziehungen hinein zu destabilisieren, verunsichern, das Selbstwertgefühl zu untergraben und Panik, Verwirrung und Angst zu erzeugen. Methoden wären Beeinflussung des sozialen Umfelds, auch am Arbeitsplatz, öffentliche Rufschädigung. Sie wurde in totalitären Systemen wie der DDR vom Sicherheitsdienst systematisch angewandt, erforscht und gelehrt (Operative Psychologie).[167]

In den meist englischsprachigen Publikationen werden viele der dargestellten einzelnen Techniken dargestellt.[168][169][170][55][171]

Internetquellen

[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Ellul, Jacques (1973). Propaganda: The Formation of Men's Attitudes, p. 39–40. Trans. Konrad Kellen & Jean Lerner. Vintage Books, New York, ISBN 978-0-394-71874-3.
  2. Nicholas J. O’Shaughnessy: Politics and Propaganda: Weapons of Mass Seduction. Manchester University Press, 2004, ISBN 0-7190-6853-3 (google.de [abgerufen am 7. Juli 2019]).
  3. Thymian Bussemer, Zentrum Für Zeithistorische Forschung Potsdam: Propaganda. Theoretisches Konzept und geschichtliche Bedeutung. In: Docupedia-Zeitgeschichte. 2013, doi:10.14765/ZZF.DOK.2.239.V1 (zeitgeschichte-digital.de [abgerufen am 16. Oktober 2021]).
  4. Thomas C. Bruneau, Steven C. Boraz: Reforming Intelligence: Obstacles to Democratic Control and Effectiveness. University of Texas Press, 2009, ISBN 978-0-292-78341-6, S. 10 (google.de [abgerufen am 5. März 2025]).
  5. Thomas C. Bruneau, Steven C. Boraz: Reforming Intelligence: Obstacles to Democratic Control and Effectiveness. University of Texas Press, 2009, ISBN 978-0-292-78341-6, S. 10 (google.de [abgerufen am 5. März 2025]).
  6. deutschlandfunk.de: Was ist Propaganda? 16. Dezember 2023, abgerufen am 11. September 2024.
  7. Über Sinn und Unsinn von Nudging | Brandenburgische Landeszentrale für politische Bildung. Abgerufen am 7. März 2025.
  8. Josef Kirschner: Manipulieren – aber richtig: die acht Gesetze der Menschenbeeinflussung. Droemer Knaur, 1974, ISBN 3-426-07442-7 (google.de [abgerufen am 12. März 2024]).
  9. deutschlandfunkkultur.de: Alexander Fischer: „Manipulation“ – Manipulation als legitimes Mittel. Abgerufen am 12. März 2024.
  10. Clemens Bach: Vorbilderziehung als pädagogische Manipulation. Ethisch-ästhetische Aspekte einer Form der Beeinflussung. In: Wem folgen? Über Sinn, Wandel und Aktualität von Vorbildern. Springer, Berlin, Heidelberg 2023, ISBN 978-3-662-66838-2, S. 27–40, doi:10.1007/978-3-662-66838-2_3 (springer.com [abgerufen am 12. März 2025]).
  11. Josh A Goldstein, Jason Chao, Shelby Grossman, Alex Stamos, Michael Tomz: How persuasive is AI-generated propaganda? In: PNAS Nexus. Band 3, Nr. 2, 1. Februar 2024, ISSN 2752-6542, S. pgae034, doi:10.1093/pnasnexus/pgae034 (oup.com [abgerufen am 10. März 2025]).
  12. Bussemer Thymian: Psychologie der Propaganda | APuZ. Abgerufen am 30. Juni 2019.
  13. Ali Almossawi: An Illustrated Book of Bad Arguments. The Experiment, 2014, ISBN 978-1-61519-226-7 (com.ph [abgerufen am 7. April 2019]).
  14. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 7. April 2019]).
  15. Paul Walter, Petra Wenzl: Kritisch denken – treffend argumentieren: Ein Übungsbuch. Springer-Verlag, 2015, ISBN 978-3-658-10554-9 (com.ph [abgerufen am 30. Juni 2019]).
  16. Albert Mößmer: 64 Fehlschlüsse in Argumenten: Logische und rhetorische Irrwege erkennen und vermeiden. BookRix, 2016, ISBN 978-3-7396-3631-3 (com.ph [abgerufen am 30. Juni 2019]).
  17. Valentin Zsifkovits: Ethisch richtig denken und handeln. LIT Verlag Münster, 2005, ISBN 3-8258-8509-7 (com.ph [abgerufen am 30. Juni 2019]).
  18. Arthur Schopenhauer: Die Kunst, Recht zu behalten. Abgerufen am 4. Juli 2024.
  19. Ulrich Frey: Der blinde Fleck: Kognitive Fehler in der Wissenschaft und ihre evolutionsbiologischen Grundlagen. Walter de Gruyter, 2013, ISBN 978-3-11-032336-8 (google.de [abgerufen am 15. März 2025]).
  20. Yuval Noah Harari: (2011): Eine kurze Geschichte der Menschheit. Deutsch von Jürgen Neubauer. Pantheon, München 2015, ISBN 978-3-570-55269-8. Jonathan Haidt: (2012): The Righteous Mind: Why Good People Are Divided by Politics and Religion. Pantheon Books, New York. Keine deutsche Ausgabe verfügbar. ISBN 978-0-307-37790-6. Jason Stanley:(2015): Wie Propaganda funktioniert. Deutsch von Christine Schickert. Suhrkamp, Berlin 2018, ISBN 978-3-518-29845-3. Arie W Kruglanski, Michele J. Gelfand, Jocelyn J. Bélanger et al:. (2014): The Psychology of Radicalization and Deradicalization: How Significance Quest Impacts Violent Extremism. In: Political Psychology, Bd. 35, Nr. S1, S. 69–93. DOI:10.1111/pops.12163. Gordon Pennycook, David G. Rand, 2021: Why Do People Fall for Fake News?. In: Nature Human Behaviour, Bd. 5, S. 338–346. DOI:10.1038/s41562-021-01056-1.
  21. Joseph Henrich (2016): The Secret of Our Success: How Culture Is Driving Human Evolution. Princeton University Press, Princeton. ISBN 978-0-691-16685-8. 2.
  22. Daniel Kahneman: (2011): Schnelles Denken, langsames Denken. Deutsch von Thorsten Schmidt. Siedler, München 2012, ISBN 978-3-88680-886-1.
  23. Sharot, Tali (2017): The Influential Mind: What the Brain Reveals About Our Power to Change Others. Henry Holt and Co., New York. ISBN 978-1-62779-496-3.
  24. Douglas, K. M. et al. (2019). The Psychology of Conspiracy Theories. Current Directions in Psychological Science.
  25. Kahan, D. M. (2017). Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition. Cultural Cognition Project.
  26. Marcus, G. E. et al. (2019). Affective Intelligence and Political Judgment. University of Chicago Press.
  27. Kahne, J. & Bowyer, B. (2017). Educating for Democracy in a Partisan Age. American Educational Research Journal.
  28. Stanovich, K. E. et al. (2016). The Rationality Quotient. MIT Press
  29. Mutz, D. C. (2006). Hearing the Other Side: Deliberative versus Participatory Democracy. Cambridge University Press.
  30. Bandura, A. (2001). Social Cognitive Theory of Mass Communication. Media Psychology.
  31. Henry T. Conserva: Propaganda Techniques. AuthorHouse, 2003, ISBN 978-1-4107-0496-2 (google.de [abgerufen am 12. März 2025]).
  32. Henry T. Conserva: Propaganda Techniques. AuthorHouse, 2003, ISBN 1-4107-0496-3 (eingeschränkte Vorschau in der Google-Buchsuche).
  33. Alexander Dinges, Julia Zakkou: On Deniability. In: Mind. Band 132, Nr. 526, 1. April 2023, ISSN 0026-4423, S. 372–401, doi:10.1093/mind/fzac056 (oup.com [abgerufen am 5. März 2025]).
  34. Silvia Stöber: US-Vorwurf gegen Russland: Unter falscher Flagge. Abgerufen am 5. März 2025.
  35. Kenneth L. Marcus: Accusation in a Mirror. 2012, abgerufen am 1. März 2025.
  36. #Kriegstreiber: Wie ein Hashtag Propaganda streut. 22. Juli 2022, abgerufen am 1. März 2025.
  37. ctalgo: How to Thwart the Nefarious Propaganda Technique of Projection. 23. Januar 2024, abgerufen am 7. März 2025 (amerikanisches Englisch).
  38. Douglas Walton: Ad Hominem Arguments. University of Alabama Press, 2009, ISBN 978-0-8173-5561-6, S. 1–10 (com.ph [abgerufen am 26. Juni 2019]).
  39. Jeff Koob: Ad Nauseam: How Advertising and Public Relations Changed Everything. iUniverse, 2015, ISBN 978-1-4917-5890-8 (com.ph [abgerufen am 7. April 2019]).
  40. Na logisch! Die Ad-nauseam-Argumentation. Abgerufen am 7. Juli 2019.
  41. McCombs, M; Reynolds, A (2002). „News influence on our pictures of the world“. Media effects: Advances in theory and research.
  42. Patrick Rössler, Wolfgang Eichhorn: Agenda-setting. Theoretische Annahmen und empirische Evidenzen einer Medienwirkungshypothese. Opladen 1997.
  43. Dagmar Unz: Agenda Setting. In: Nicole Krämer, Stephan Schwan, Dagmar Unz, Monika Suckfüll (Hrsg.): Medienpsychologie. Schlüsselbegriffe und Konzepte. 2., überarbeitete und erweiterte Auflage. Stuttgart 2016, S. 219–225. Wiedergegeben nach Uli Gleich: Evolution eines Ansatzes der Medienwirkungsforschung Agenda Setting in der digitalen Medienwelt. Media Perspektiven 3/2019 [1]
  44. Garth Jowett, Victoria O’Donnell: Propaganda and Persuasion. SAGE, 2006, ISBN 1-4129-0897-3 (com.ph [abgerufen am 7. April 2019]).
  45. Maxwell McCombs: Setting the Agenda: The Mass Media and Public Opinion. John Wiley & Sons, 2013, ISBN 978-0-7456-3713-6 (com.ph [abgerufen am 7. April 2019]).
  46. Patrick Rössler, Wolfgang Eichhorn: Agenda-setting. Theoretische Annahmen und empirische Evidenzen einer Medienwirkungshypothese. Opladen 1997, S. 20.
  47. https://www.ard-media.de/fileadmin/user_upload/media-perspektiven/pdf/2019/0319_Gleich.pdf
  48. S. W. R. Kultur: Aufklärung mit Algorithmen. 25. August 2020, abgerufen am 9. März 2025.
  49. Felix Heidenreich: Genauso war es 1933: Wie historische Analogien zum Wahn werden. In: Neue Zürcher Zeitung. 7. Januar 2021, ISSN 0376-6829 (nzz.ch [abgerufen am 9. März 2025]).
  50. deutschlandfunkkultur.de: Geschichtspolitik – Warum historische Vergleiche hinken. 3. Mai 2022, abgerufen am 9. März 2025.
  51. Robert Kindler: Zeit der Wirren. Der Wagner-Aufstand in historischen Analogien. 9. Juli 2023, abgerufen am 9. März 2025.
  52. Georg Felser: Werbe- und Konsumentenpsychologie. Springer-Verlag, 2015, ISBN 978-3-642-37645-0 (com.ph [abgerufen am 7. April 2019]).
  53. Ralf Zoll: Manipulation der Meinungsbildung: Zum Problem hergestellter Öffentlichkeit. Springer-Verlag, 2013, ISBN 978-3-322-88712-2 (com.ph [abgerufen am 7. April 2019]).
  54. Google Books. (google.com [abgerufen am 7. April 2019]).
  55. a b c Alexandra Bleyer: Propaganda als Machtinstrument: Fakten, Fakes und Strategien. Eine Gebrauchsanleitung. BoD – Books on Demand, 2018, ISBN 978-3-7431-9071-9 (com.ph [abgerufen am 7. April 2019]).
  56. Douglas Walton: Appeal to Expert Opinion: Arguments from Authority. Penn State Press, 2010, ISBN 978-0-271-04194-0 (com.ph [abgerufen am 7. April 2019]).
  57. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 7. April 2019]).
  58. Elliot Aronson, Timothy D. Wilson, Robin M. Akert: Sozialpsychologie. Pearson Deutschland GmbH, 2008, ISBN 978-3-8273-7359-5 (com.ph [abgerufen am 7. April 2019]).
  59. Ad Hominem (Guilt by Association). Abgerufen am 7. März 2025 (englisch).
  60. Reductio ad Hitlerum. Abgerufen am 7. März 2025 (englisch).
  61. Galileo Fallacy. Abgerufen am 7. März 2025 (englisch).
  62. Genetic Fallacy. Abgerufen am 7. März 2025 (englisch).
  63. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  64. Zerback, T., & Töpfl, F. (2021). Forged Examples as Disinformation: The Biasing Effects of Political Astroturfing Comments on Public Opinion Perceptions and How to Prevent Them. Political Psychology. Available at: doi:10.1111/pops.12767
  65. Mary Cummings: Automation Bias in Intelligent Time Critical Decision Support Systems. In: AIAA 1st Intelligent Systems Technical Conference (= Infotech@Aerospace Conferences). American Institute of Aeronautics and Astronautics, 20. September 2004, doi:10.2514/6.2004-6313 (aiaa.org [abgerufen am 9. März 2025]).
  66. Magedah Shabo: Techniques of Propaganda and Persuasion. Prestwick House Inc, 2008, ISBN 978-1-58049-874-6, S. 18 ff. (com.ph [abgerufen am 7. April 2019]).
  67. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  68. Pier Paolo Pedrini: Propaganda, Persuasion and the Great War: Heredity in the modern sale of products and political ideas. Routledge, 2017, ISBN 978-1-351-86618-7 (com.ph [abgerufen am 7. April 2019]).
  69. a b c Die Prinzipien der Kriegspropaganda. 2. Auflage. Zu Klampen Verlag, Springe 2014, ISBN 978-3-86674-415-8 (französisch: Principes élémentaires de propagande de guerre. Utilisables en cas de guerre froide, chaude ou tiède [Brüssel 2001]. Übersetzt von Marianne Schönbach).
  70. Irene Watson: Indigenous Peoples as Subjects of International Law. Taylor & Francis, 2017, ISBN 978-1-317-24066-2 (com.ph [abgerufen am 7. April 2019]).
  71. Nicholas John Cull, David Holbrook Culbert, David Welch: Propaganda and Mass Persuasion: A Historical Encyclopedia, 1500 to the Present. ABC-CLIO, 2003, ISBN 1-57607-820-5 (com.ph [abgerufen am 7. April 2019]).
  72. Wladislaw Jachtchenko: Schwarze Rhetorik: Manipuliere, bevor du manipuliert wirst! Goldmann Verlag, 2018, ISBN 978-3-641-21815-7 (com.ph [abgerufen am 26. Juni 2019]).
  73. Alan C. Miller: Confronting Confirmation Bias: Giving Truth a Fighting Chance in the Information Age. Archiviert vom Original am 3. April 2022; abgerufen am 7. März 2025.
  74. Douglas N. Walton: Slippery Slope Arguments. Clarendon Press 1992.
  75. Rainer Mausfeld: Warum schweigen die Lämmer? Wie Elitendemokratie und Neoliberalismus unsere Gesellschaft und unsere Lebensgrundlagen zerstören, Westend, Frankfurt am Main 2018, S. 32 ff., 39–42.
  76. Was ist Desinformation? Abgerufen am 22. Oktober 2021.
  77. Matthias Schulze: Desinformation: Vom Kalten Krieg zum Informationszeitalter. In: bpb.de. Abgerufen am 22. Oktober 2021 (Vgl. Ceron, Andrea: Internet, News, and Political Trust: The Difference Between Social Media and Online Media Outlets. In: Journal of Computer-Mediated Communication, 20, 2015 S. 487–503 (PDF).).
  78. Uwe Krüger: Meinungsmacht – Herbert von Halem Verlag. In: halem-verlag.de. 24. November 2015, abgerufen am 9. Januar 2017.
  79. Stefanie Tornow-Godoy: Konstruktion der Wahrheit: Die Manipulation der US-Bevölkerung durch Politik und Medien. Hamburg 2012.
  80. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  81. a b Schröter, Melanie; Carius, Björn (2009): Vom politischen Gebrauch der Sprache. Wort, Text, Diskurs. Eine Einführung. Frankfurt am Main: Peter Lang, S. 40‒43. Zitiert nach: Rada, Roberta (2021): Euphemismus. In: Diskursmonitor. Glossar zur strategischen Kommunikation in öffentlichen Diskursen. Hg. von der Forschungsgruppe Diskursmonitor und Diskursintervention. Veröffentlicht am 4. Mai 2021. Online unter: https://diskursmonitor.de/glossar/euphemismus/
  82. Facebook In Constant Battle Against Hoaxes, Scams And Fake News, International Business Times vom 30. Januar 2015, abgerufen am 21. Januar 2017 (englisch)
  83. Jen Weedon, William Nuland, Alex Stamos: Information Operations and Facebook. (Memento vom 27. April 2017 im Internet Archive) 27. April 2017 (englisch)
  84. John Lanchester: You Are the Product. In: London Review of Books, 177. August 2017 (englisch). Im Original: Information (or Influence) Operations – Actions taken by governments or organised non-state actors to distort domestic or foreign political sentiment. False News – News articles that purport to be factual, but which contain intentional misstatements of fact with the intention to arouse passions, attract viewership, or deceive. False Amplifiers – Co-ordinated activity by inauthentic accounts with the intent of manipulating political discussion (e.g. by discouraging specific parties from participating in discussion, or amplifying sensationalistic voices over others). Disinformation – Inaccurate or manipulated information/content that is spread intentionally. This can include false news, or it can involve more subtle methods, such as false flag operations, feeding inaccurate quotes or stories to innocent intermediaries, or knowingly amplifying biased or misleading information.
  85. False Accusations, Scapegoats, and the Power of Words. Abgerufen am 30. September 2019 (amerikanisches Englisch).
  86. Harold Lasswell: Propaganda Technique in the World War. New York 1938.https://ia802904.us.archive.org/7/items/PropagandaTechniqueInTheWorldWarHaroldLasswell/Propaganda%20Technique%20In%20the%20World%20War%20-%20Harold%20Lasswell_text.pdf, S. 47
  87. Firas Amr: Der ‚Charakter‘ des deutschen Feindes. Eine Analyse der britischen Propaganda und Psychologischen Kriegsführung im Zweiten Weltkrieg. Dissertation Humboldt-Universität Berlin 23. Juni 2015. https://edoc.hu-berlin.de/server/api/core/bitstreams/09c50d08-c790-46d8-8ee9-8e6bba6a49ba/content, S. 13
  88. Christoph Weller: Feindbilder – Ansätze und Probleme ihrer Erforschung, Arbeitspapier, Universität Bremen. https://opus.bibliothek.uni-augsburg.de/opus4/frontdoor/deliver/index/docId/53262/file/InIIS-AP_01-22_Weller_Feindbilder.pdf S. 11.
  89. Zuboff, Shoshana (2019): Das Zeitalter des Überwachungskapitalismus. Campus Verlag, Frankfurt. ISBN 978-3-593-50930-3.
  90. Pariser, Eli (2011): The Filter Bubble: What the Internet Is Hiding from You. Penguin Books, New York. ISBN 978-0-14-312123-7.
  91. Sunstein, Cass R. (2017): Republic: Divided Democracy in the Age of Social Media. Princeton University Press, Princeton. ISBN 978-0-691-17648-2.
  92. Bruns, Axel (2019): Are Filter Bubbles Real?. Polity Press, Cambridge. ISBN 978-1-5095-2617-4.
  93. Ahmed Abdel-Raheem: Pictorial Framing in Moral Politics: A Corpus-Based Experimental Study. Routledge, 2018, ISBN 978-0-429-78692-1 (com.ph [abgerufen am 26. Juni 2019]).
  94. Alexander Brown: An Ethics of Political Communication. Routledge, 2021, ISBN 978-1-00-044122-2 (google.com [abgerufen am 30. Juli 2022]).
  95. Dr habil Jörg Echternkamp: Kriegsideologie, Propaganda und Massenkultur | bpb. Abgerufen am 30. Juni 2019.
  96. Jussi Jalonen, Klaus Richter, Piotr Szlanta: Commemoration, Cult of the Fallen (East Central Europe). In: 1914-1918-Online International Encyclopedia of the First World War. 2014, doi:10.15463/ie1418.10441 (1914-1918-online.net [abgerufen am 30. Juni 2019]).
  97. Britannica, T. Editors of Encyclopaedia: Brainwashing. In: Encyclopedia Britannica, 14. Juni 2024. www.britannica.com
  98. Siehe z. B. Elizabeth Aileen Young: The use of the “Brainwashing Theory” by the Anti-cult Movement in the United States of America, pre-1996. In: Zeitschrift für junge Religionswissenschaft. Band 7, 2012, S. 1–13, hier S. 8 ff.; Annalee Newitz: A brief, weird history of brainwashing. In: Technology Review, 12. April 2024.
  99. Fran Mason: Mind Control. In: Peter Knight (Hrsg.): Conspiracy Theories in American History. An Encyclopedia. ABC Clio, Santa Barbara / Denver/London 2003, Band 2, S. 480–489.
  100. Scott F. Aikin, Robert B. Talisse: Why We Argue (And How We Should): A Guide to Political Disagreement in an Age of Unreason. Routledge, 2018, ISBN 978-1-351-61623-2 (com.ph [abgerufen am 21. April 2019]).
  101. Geoffrey Wheatcroft: The myth of the good war | Geoffrey Wheatcroft. In: The Guardian. 9. Dezember 2014, ISSN 0261-3077 (theguardian.com [abgerufen am 21. April 2019]).
  102. Harold Lasswell: Propaganda Technique in the World War. New York 1938.https://ia802904.us.archive.org/7/items/PropagandaTechniqueInTheWorldWarHaroldLasswell/Propaganda%20Technique%20In%20the%20World%20War%20-%20Harold%20Lasswell_text.pdf S. 82
  103. Nicola Gess: Halbwahrheiten. Zur Manipulation von Wirklichkeit. Matthes & Seitz, Berlin 2021, ISBN 978-3-7518-0512-4.
  104. Information Laudering in Germany. Published by the NATO Strategic Communications Centre of Excellence. Authors: Belén Carrasco Rodríguez, Project manager: Merete Voetman, Editor: Philip Birzulis. Riga, Oktober 2020. ISBN 978-9934-564-82-6
  105. Ken Hyland: Selbstzitierung und Selbstreferenz: Glaubwürdigkeit und Förderung in wissenschaftlichen Veröffentlichungen. Zeitschrift der American Society for Information Science and Technology Bd 54 Nr. 3, 1. Februar 2003. S. 251–259. doi:10.1002/asi.10204.
  106. Emma Briant: Propaganda and counter-terrorism: Strategies for global change. Oxford University Press, 2015, ISBN 978-1-84779-962-3 (com.ph [abgerufen am 7. April 2019]).
  107. Emma Briant: Propaganda and counter-terrorism: Strategies for global change. Oxford University Press. “Information overload can have the same effect as secrecy and certainly in the short term and for democracies today it might be considered more effective.” “When information overload occurs, it is likely that a reduction in decision quality will occur.” “The glut of information generated by modern technology […] threatens to make its receivers passive. Overload prompts disengagement.
  108. Rainer Mausfeld: Warum schweigen die Lämmer? Wie Elitendemokratie und Neoliberalismus unsere Gesellschaft und unsere Lebensgrundlagen zerstören, Westend, Frankfurt am Main 2018, S. 32 ff., 39–42.
  109. Wilson Bryan Key: The Age of Manipulation: The Con in Confidence, the Sin in Sincere. Rowman & Littlefield, 1993, ISBN 0-8191-8653-8 (com.ph [abgerufen am 3. Juli 2019]).
  110. Wilson Bryan Key: The Age of Manipulation: The Con in Confidence, the Sin in Sincere. Rowman & Littlefield, 1993, ISBN 0-8191-8653-8 (com.ph [abgerufen am 3. Juli 2019]).
  111. Jonas Tögel: Kognitive Kriegsführung: Neueste Manipulationstechniken als Waffengattung der NATO. Westend Verlag GmbH, 2023, ISBN 978-3-9879102-4-1 (google.de [abgerufen am 26. Juni 2024]).
  112. Yasmeen Serhan: Inside Google’s Plans to Combat Election Misinformation. 25. April 2024, abgerufen am 26. Juni 2024 (englisch).
  113. Maes, J. (1998). Die Geschichte der Gerechte-Welt-Forschung : eine Entwicklung in acht Stufen?. doi:10.23668/psycharchives.8769
  114. Harper, David J.; Manasse, Paul R. (1992). The Just World and the Third World: British explanations for poverty abroad. In: The Journal of Social Psychology. 132 (6): 783–785. doi:10.1080/00224545.1992.9712107.
  115. Bussemer Thymian: Psychologie der Propaganda. 2. März 2007, abgerufen am 10. März 2025.
  116. Zusammenfassung: Werbe- und Konsumentenpsychologie | Lehrbuch Psychologie. Abgerufen am 1. September 2024.
  117. Peter Brückner: Zerstörung des Gehorsams. B.R.D., 1983, ISBN 3-8031-3516-8 (books.google.com.ph [abgerufen am 21. April 2019]).
  118. Alfred McClung Lee: The Fine Art of Propaganda: A Study of Father Coughlin's Speeches. 1939, S. 22 f. (archive.org [abgerufen am 6. März 2025]).
  119. KHRITISH SWARGIARY: Techniques for Manipulation and Mind Control. ERA, US, 1. Oktober 2024 (google.de [abgerufen am 6. März 2025]).
  120. Arthur Ponsonby: Falsehood in Wartime (World War 1) 1928 https://ia902905.us.archive.org/20/items/falsehood-in-wartime-lord-ponsonby/Falsehood%20in%20wartime%20Lord%20Ponsonby_text.pdf, S. 22
  121. Arthur Ponsonby | Falsehood in War-Time, 1928 | Propaganda First World War | WWI Resource Centre. Abgerufen am 9. März 2025.
  122. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  123. Jörg Matthes: Der Effekt der bloßen Darbietung: Attitudinal Effects of Mere Exposure von Zajonc. In: Schlüsselwerke der Werbeforschung. Springer Fachmedien, Wiesbaden 2022, ISBN 978-3-658-36508-0, S. 109–117, doi:10.1007/978-3-658-36508-0_10 (springer.com [abgerufen am 1. September 2024]).
  124. Zusammenfassung: Werbe- und Konsumentenpsychologie | Lehrbuch Psychologie. Abgerufen am 1. September 2024.
  125. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  126. Christer Petersen: Terror und Propaganda: Prolegomena zu einer Analytischen Medienwissenschaft. transcript Verlag, 2016, ISBN 978-3-8394-2243-4 (com.ph [abgerufen am 21. April 2019]).
  127. Phil Hopkins: Mass Moralizing: Marketing and Moral Storytelling. Lexington Books, 2015, ISBN 978-0-7391-8852-1 (com.ph [abgerufen am 21. April 2019]).
  128. Hein-Kircher Heidi: Politische Mythen. 2. März 2007, abgerufen am 10. März 2025.
  129. Richard H. Thaler und Cass R. Sunstein (2008): Nudge: Improving Decisions about Health, Wealth and Happiness. New Haven, CT, Yale University Press 2008. Zitiert nach: Philip Jan Schäfer: NATO StratCom – a closer look: Warum Deutschland die strategische Kommunikation der Allianz aktiv mitgestalten sollte. BAKS-Arbeitspapiere 4 2023
  130. Oliver Bendel: Definition: Nudging. Abgerufen am 7. März 2025.
  131. Über Sinn und Unsinn von Nudging | Brandenburgische Landeszentrale für politische Bildung. Abgerufen am 7. März 2025.
  132. Perfect solution fallacy. In: The Logical Place. 9. Dezember 2013, abgerufen am 12. März 2025 (englisch).
  133. Maggie Astor: How the Politically Unthinkable Can Become Mainstream. In: The New York Times. 26. Februar 2019, ISSN 0362-4331 (nytimes.com [abgerufen am 4. Juli 2024]).
  134. Jens-Christian Rabe: Overton-Fenster: Das wird man bald sagen dürfen. In: Süddeutsche Zeitung. 1. August 2018, abgerufen am 4. Juli 2024.
  135. Theresa Lehmann: Verschiebung des Sagbaren – Das Overton Window. In: Amadeu Antonio Stiftung. 4. Oktober 2017, abgerufen am 4. Juli 2024 (deutsch).
  136. Lenz Jacobsen: Overton-Fenster: Krasse Meinungen wehen uns mit voller Wucht ins Gesicht. In: Die Zeit. 26. Juli 2018, ISSN 0044-2070 (zeit.de [abgerufen am 4. Juli 2024]).
  137. Danny Schmidt: Das Bild Russlands in den deutschen Leitmedien: Die Berichterstattung über Russland und Wladimir Putin im Rahmen der Ukrainekrise. Frank & Timme GmbH, 2015, ISBN 978-3-7329-0204-0 (com.ph [abgerufen am 16. Oktober 2021]).
  138. Heinz Bonfadelli: Medien und Gesellschaft im Wandel. In: Themen › Politik › Medien & Digitales › Medien & Journalismus. Bundeszentrale für politische Bildung (bpb), 9. Dezember 2016, abgerufen am 7. September 2022 (Heinz Bonfadelli belegt diese zitierte Textstelle in der Fußnote mit Imhof, Kurt (2006): Mediengesellschaft und Medialisierung. In: Medien und Kommunikationsgesellschaft, 54(2), S. 191–215.).
  139. Daniel Ullrich, Sarah Diefenbach: Es war doch gut gemeint: Wie Political Correctness unsere freiheitliche Gesellschaft zerstört. Riva Verlag, 2017, ISBN 978-3-95971-842-4 (com.ph [abgerufen am 5. Mai 2019]).
  140. Stephan Lewandowsky, Sander van der Linden: Countering Misinformation and Fake News Through Inoculation and Prebunking. In: European Review of Social Psychology. Band 0, Nr. 0, 22. Februar 2021, ISSN 1046-3283, S. 1–38, doi:10.1080/10463283.2021.1876983.
  141. John A. Banas, Stephen A. Rains: A Meta-Analysis of Research on Inoculation Theory. In: Communication Monographs. Band 77, Nr. 3, 1. September 2010, ISSN 0363-7751, S. 281–311, doi:10.1080/03637751003758193.
  142. Jon Roozenbeek, Sander van der Linden: The fake news game: actively inoculating against the risk of misinformation. In: Journal of Risk Research. Band 22, Nr. 5, 4. Mai 2019, ISSN 1366-9877, S. 570–580, doi:10.1080/13669877.2018.1443491.
  143. Dietram Scheufele, David Tewksbury: Framing, Agenda Setting, and Priming: The Evolution of Three Media Effects Models. In: Journal of Communication, 2007, Bd. 57, S. 9–20.
  144. primacy-recency-effect. Abgerufen am 1. September 2024.
  145. What is the Recency Effect? — updated 2024. Abgerufen am 1. September 2024 (englisch).
  146. François De Smet: Reductio ad hitlerum: Essai sur la loi de Godwin. Presses Universitaires de France, 2014, ISBN 978-2-13-063466-9 (com.ph [abgerufen am 21. April 2019]).
  147. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 21. April 2019]).
  148. Jon H. Widener M.D: The Nexus: Understanding Faith and Modern Culture. WestBow Press, 2017, ISBN 978-1-5127-9132-7 (com.ph [abgerufen am 21. April 2019]).
  149. ferdos forudastan: „Kein Blut für Öl“. In: Die Tageszeitung: taz. 20. November 1990, S. 6 (taz.de [abgerufen am 14. Februar 2023]).
  150. 11 07 2018 um 13:16 von Aaron Brüstle: Lassen Sie sich nicht manipulieren: Der Spiegeltrick. 11. Juli 2018, abgerufen am 6. März 2025.
  151. Nadine Zeller: Darvo-Methode enttarnen: Die Opfer-Täter-Umkehr verstehen. In: Neue Zürcher Zeitung. 8. August 2024, ISSN 0376-6829 (nzz.ch [abgerufen am 7. März 2025]).
  152. Die unendliche Geschichte der Täter-Opfer-Umkehr | zeitgeschichte | online. Abgerufen am 7. März 2025.
  153. Magedah Shabo: Techniques of Propaganda and Persuasion. Prestwick House Inc, 2008, ISBN 978-1-58049-874-6 (com.ph [abgerufen am 18. April 2019]).
  154. George Lakoff: Don’t Think of an Elephant!: Know Your Values and Frame the Debate. Chelsea Green Publishing. 2004
  155. Unwort des Jahres. Abgerufen am 10. März 2025.
  156. Appeal to Tradition. Abgerufen am 10. März 2025 (englisch).
  157. Hans Hansen: Fallacies. In: The Stanford Encyclopedia of Philosophy. Spring 2023 Auflage. Metaphysics Research Lab, Stanford University, 2023 (stanford.edu [abgerufen am 15. November 2024] Core fallacies, Nr. 13).
  158. Eiríkur Bergmann: The Weaponization of Conspracy Theories. In: Michael Butter, Katerina Hatzikidi, Constanze Jeitler, Giacomo Loperfido, Lili Turza (Hrsg.): Populism and Conspiracy Theory. Case Studies and Theoretical Perspectives. Routledge, London / New York 2024, ISBN 978-1-03-275482-6, S. 55–78.
  159. Yiqing Xu, Jiannan Zhao: The power of history: How a victimization narrative shapes national identity and public opinion in China. In: Research & Politics. Band 10, Nr. 2, 1. April 2023, ISSN 2053-1680, doi:10.1177/20531680231154837 (sagepub.com [abgerufen am 8. März 2025]).
  160. Mark Danner Words in a Time of War: On Rhetoric, Truth and Power. Abgerufen am 5. Mai 2019.
  161. Hassan, A., Barber, S.J. The effects of repetition frequency on the illusory truth effect. Cogn. Research 6, 38 (2021).doi:10.1186/s41235-021-00301-5
  162. Robert Gass, John Seiter: Arguing, Reasoning, and Thinking Well. Routledge, 2019, ISBN 978-1-351-24247-9 (com.ph [abgerufen am 11. März 2022]).
  163. Peter Mohr: Optische Rhetorik: Visualisierungen und Medien in Präsentationen wirkungsvoll einsetzen. BoD – Books on Demand, 2011, ISBN 978-3-8423-5635-1 (com.ph [abgerufen am 10. November 2019]).
  164. Darrell Huff: How to Lie with Statistics (illustriert von I. Geis), Norton, New York, 1954, ISBN 0-393-31072-8
  165. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  166. Ulrich Teusch: Der Krieg vor dem Krieg: Wie Propaganda über Leben und Tod entscheidet. Westend Verlag, 2019, ISBN 978-3-86489-734-4 (com.ph [abgerufen am 5. Mai 2019]).
  167. Bundeszentrale für politische Bildung: Psychofolgen bis heute. 7. Oktober 2016, abgerufen am 25. August 2024.
  168. Robert Cole, ed. Encyclopedia of Propaganda (3 vol 1998)
  169. Jeff Koob: Ad Nauseam: How Advertising and Public Relations Changed Everything. iUniverse, 2015, ISBN 978-1-4917-5890-8 (com.ph [abgerufen am 7. April 2019]).
  170. STEVE Dr ESOMBA: ADVERTISING AND THE SPREAD OF BUSINESS, DEMOCRACY AND KNOWLEDGE. Lulu.com, ISBN 978-1-4717-3443-4 (com.ph [abgerufen am 7. April 2019]).
  171. Nicholas John Cull, David Holbrook Culbert, David Welch: Propaganda and Mass Persuasion: A Historical Encyclopedia, 1500 to the Present. ABC-CLIO, 2003, ISBN 1-57607-820-5 (com.ph [abgerufen am 16. Oktober 2021]).
  172. Sammelrezension Kriegspropaganda. 3. Mai 2024, abgerufen am 7. März 2025 (deutsch).