Techniken der Propaganda und Manipulation

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Meinungsmanipulation)
Zur Navigation springen Zur Suche springen

Techniken der Propaganda und Manipulation sind durch folgende Merkmale gekennzeichnet:

Notwendige Bedingung der Wirksamkeit von Propaganda ist, dass sie vom Empfänger nicht explizit als Propaganda aufgefasst, sondern als sachliche Information oder als ethisch oder juristisch begründetes Werturteil rezipiert wird. In ähnlicher Weise wird Propaganda auch von ihren Urhebern und Multiplikatoren oft nicht als solche erkannt und kann tatsächliche Überzeugungen zum Ausdruck bringen. In der Regel ist Propaganda mit der Auffassung verbunden, nicht man selbst, sondern nur der Gegner benutze Propaganda, die eigene Propaganda wird entweder als neutrale und objektive Darstellung aufgefasst oder als legitime Gegenpropaganda gerechtfertigt. Bewusste Propaganda für die eigene Überzeugung wird oft mit dem guten Zweck begründet. Das gilt für die so genannte „positive Propaganda“, die sich nicht nur in allen totalitären Systemen, sondern auch in Demokratien findet.[4] Die „soziale Propaganda“ (Jaques Ellul) fasst Propaganda nicht nur als etwas Sinnvolles, sondern als etwas Notwendiges auf: „Diese wird als notwendig für den Zusammenhalt der Gesellschaft und die Akzeptanz der Demokratie angesehen, eine Auffassung, die schon in dem Klassiker Propaganda von Edward Bernays vertreten wurde.“

Darüber hinaus wird die noch weitergehende Auffassung vertreten, dass Menschen grundsätzlich nicht nicht manipulieren können, insofern jede Interaktion mit anderen auch den Charakter der emotionalen und kognitiven Beeinflussung hat, eine Tatsache, der die Kommunikationspsychologie mit dem Begriff der Beziehungsebene (Paul Watzlawick) und dem Modell Schulz von Thuns Rechnung trägt. Unterschiede der Methoden bestünden dabei nur noch in ihrer Auswahl, Feinheit, Absicht und in ihrem Ergebnis (Josef Kirschner).[5] Ethisch gerechtfertigt erscheinen diejenigen Formen der Beeinflussung, die andere respektieren, stärken und zum Selbstsein, zur Autonomie ermächtigen.[6] Hier überschneidet sich der Sachgehalt des negativ konnotierten Begriffs der Manipulation mit dem positiv konnotierten von Erziehung und Bildung, etwa bei der Erziehung durch Vorbilder.[7]

Bezüge zu unterschiedlichen Wissenschaftsfeldern

[Bearbeiten | Quelltext bearbeiten]

Techniken der Manipulation und Propaganda werden unter anderem in Logik und Rhetorik, Kognitionspsychologie, Kommunikationspsychologie, Massenpsychologie und Totalitarismusforschung analysiert.

Anwendungsfelder sind außer politischer und religiöser oder weltanschaulicher Propaganda, Werbung, Marketing und Public Relations auch die hybride Kriegsführung, die psychologischen Operationen (PSYOPS), Umerziehung, Zersetzung und das Social Engineering.

Eine Reihe von Techniken werden psychologisch eingeordnet, analysiert und interpretiert, etwa in der politischen Psychologie, der Massenpsychologie,[8] der Kommunikationspsychologie, der Sozialpsychologie und der Kognitionspsychologie, die kognitive Verzerrungen untersucht.

Logik und Rhetorik

[Bearbeiten | Quelltext bearbeiten]

Viele dieser Techniken werden unter logischem Gesichtspunkt als so genannte Fehlschlüsse kategorisiert, da Propagandisten Argumente verwenden, die zwar psychologisch wirksam, aber nicht unbedingt logisch gültig sind.[9][10] Dieselben oder ähnliche Techniken werden auch in der Theorie der Argumentation als Scheinargumente analysiert.[11][12][13]

In der Rhetorik und Dialektik wurden und werden sie als Sophismen, Verfahren der Rabulistik und eristische Stratageme dargestellt (vgl. Schopenhauers Eristische Dialektik).[14]

Auch mit dem Bereich der rhetorischen Stilmittel literarischer und nicht-literarischer Texte gibt es Überschneidungen.

Einzelne Techniken der Propaganda

[Bearbeiten | Quelltext bearbeiten]

Typen der Propagandatechniken

Henry T. Conserva unterscheidet in seinem Handbuch der Propagandatechnik sieben Typen, die selbst wieder einzelne Techniken umfassen:

  1. Logische Fehler
  2. Ablenkung und Vermeidung (Diversion and Evasion)
  3. Appell an Gefühle (Appealing to the Emotions)
  4. Falsche Tatsachen und Irreführung (Using Falsehoods and Trickery)
  5. Ausnutzung menschlicher Verhaltenstendenzen, geistiger Fähigkeiten und Prozesse (Playing on Human Behavioral Tendencies, Mental Capacities and Processes)
  6. Stil im Sprechen und Schreiben (Speaking or Writing Styles)
  7. Vernunft und gesunder Menschenverstand (Reason or Common Sense).[15]

Ablenkungsmanöver

[Bearbeiten | Quelltext bearbeiten]

Ein rhetorisches Ablenkungsmanöver stellt Sachverhalte und Argumente dar, die zwar für sich genommen überzeugend, jedoch nicht relevant für das vorliegende Thema oder Argument sind. Vergleiche dazu Red Herring, Strohmann-Argument und Whataboutism.

Ad hominem ist ein lateinischer Ausdruck[16] für die Technik im Streitgespräch, persönliche Eigenschaften des Gegners zu kritisieren, anstatt seine Argumente zu widerlegen. Aus den negativ charakterisierten Eigenschaften der Person soll die Unwahrheit oder der Unwert der vertretenen Meinung oder Haltung folgen.[17] Douglas Walton unterscheidet fünf Untertypen, die Beschimpfung, den Verweis auf Begleitumstände, den Verweis auf Befangenheit, das tu quoque („du auch!“) und die Brunnenvergiftung.

Der lateinische Ausdruck Ad nauseam[16] (wörtl.: „bis zum Erbrechen“) bezeichnet die unermüdliche und „unendliche“ Wiederholung einer Behauptung (ad infinitum), manchmal auch in Form eines einfachen und eingängigen Slogans oder eines politischen Schlagworts. Durch die ständige Wiederholung wird die betreffenden Behauptung schließlich als selbstverständliche und allgemein bekannte Tatsachenaussage empfunden.[18][19]

Wenn der Angriff ad hominem sich nicht direkt auf den Inhalt des Streitthemas bezieht, sondern nur die Person diskreditiert, nennt man dies auch argumentum ad personam.

Agenda-Setting bedeutet die „Fähigkeit [der Nachrichtenmedien], die Bedeutung, die den Themen der öffentlichen Agenda beigemessen wird, zu beeinflussen.“[20] Medien beeinflussen die Rezeption durch den Grad ihrer Zugänglichkeit (accessability), die Themenwahl (Selektion) und Schwerpunktsetzung. Durch Hervorhebung und Wiederholung von Themen und Meinungen bestimmen Medien nicht nur, was Rezipienten zu bestimmten Themen denken und entsprechend äußern, sondern in noch viel stärkerem Maße, über welche Themen diese überhaupt nachdenken und sprechen und über welche Themen nicht.[21] Auf einer ersten Ebene lenken Medien die Aufmerksamkeit auf bestimmte Themen (Thematisierungsfunktion), beeinflussen die Einschätzung ihrer Wichtigkeit (salience) und ihrer Rangfolge (priority). Auf der zweiten Ebene beeinflussen Medien Sachurteile, Werturteile und Einstellungen (vgl. Framing). Auf Ebene drei werden Einzelthemen miteinander zu Themennetzwerken verknüpft. Diese Themen und Themenverknüpfung kennt man meist nur durch die Massenmedien und übernimmt deren Darstellung fast unverändert. Für diese Rezeptionsleistung werden die Konsumenten durch soziale Integration belohnt, etwa durch das Gefühl, dazuzugehören und mitreden zu können.[22] Wenn also eine Nachricht häufig und an prominenter Stelle behandelt wird, erscheint das Thema dem Publikum wichtiger.[23][24] Umgekehrt aber werden bestimmte Themen gar nicht erst wahrgenommen oder sie werden für weniger wichtig gehalten, weil sie in den Medien nicht oder nur am Rande dargestellt werden (Agenda cutting). Die Themensetzung der Medien (Medienagenda) wird teilweise durch Themensetzungen im politischen Bereich (Politische Agenda), durch die Einschätzung des Bevölkerungsinteresses (Publikumsagenda) und durch Leitmedien beeinflusst (Intermedia Agenda Setting).[25] Es gibt darüber hinaus auch Wirkungen der Medien-Agenda auf die Agenda der Politik (Agenda Policy). Die Publikumsagenda wurde in vordigitaler Zeit meist durch die Medienagenda bestimmt, entsprach dieser also weitestgehend. Mit dem Aufkommen filternder, vorsortierender und personalisierender Medien und alternativer Medien, Suchmaschinen, Sozialer Medien und Nachrichten-Apps wird das Agenda Setting immer mehr durch interaktive Mitgestaltung der Rezipienten, Fragmentierung des Publikums und Diffusion unterschiedlicher Agenden aufgelöst. Es wird von Kritikern befürchtet, dass so die für die Demokratie wichtig erscheinende Integrationsfunktion der Medien durch „Herstellung von Öffentlichkeit für gesellschaftlich relevante Themen und Probleme“ verloren gehen könnte.[26]

Methodische Erzeugung von Angst wird auch Appell an die Angst, Furchtappell oder Argumentum ad metum genannt. Appelle an die Angst suchen nach Unterstützung, indem sie Ängste und Panik im Konsumenten, aber auch in der Bevölkerung erzeugen.[27][28][29][30]

Appell an die Autorität oder Berufung auf Autoritäten / Argumentum ad verecundiam

[Bearbeiten | Quelltext bearbeiten]

Ein Autoritätsappell zitiert eine Autorität oder beruft sich auf prominente Persönlichkeiten des öffentlichen Lebens, besonders auch Wissenschaftler, um Positionen, Ideen, Argumente oder Vorgehensweisen überzeugend, allgemeinverbindlich, vorbildlich oder wertvoll wirken zu lassen.[31][32]

Appell an Vorurteile

[Bearbeiten | Quelltext bearbeiten]

Man verwendet belastete oder emotionale Begriffe oder Stereotype für die eigenen oder die generischen Auffassungen, um dem Glauben an die eigene Auffassung einen moralischen Wert zu verleihen.[33]

Ästhetisierung

[Bearbeiten | Quelltext bearbeiten]

Durch Ästhetisierung werden eigentlich abstoßende, hässliche, ekelerregende oder grausame Sachverhalte in der Darstellung so bearbeitet, dass sie ästhetisch ansprechend oder sogar faszinierend erscheinen. Bildmaterial zu Kriegsereignissen wird so ausgewählt, dass die grausame Realität des Krieges nicht wahrgenommen werden kann. „Erreicht wird dies beispielsweise durch den Einsatz von Licht, Farben, Musik, bestimmte Kameraeinstellungen, die Anordnung der Bildobjekte oder die Verwendung von gemeinhin als schön wahrgenommenen Bildmotiven aus Kunst, Natur, Alltag und Werbung.“[34]

Beim Astroturfing geben sich wenige Personen als große Zahl von Aktivisten aus, die für eine bestimmte Sache eintreten. Dabei werden meist „Sockenpuppen“ oder Bots eingesetzt. Es soll so der Eindruck einer weit verbreiteten und daher relevanten Auffassung und eines öffentlichen Interesses entstehen.

Bandwagon-Appelle nutzen den Mitläufereffekt, um die Zielgruppe zu überzeugen, mitzumachen und den Kurs zu ergreifen, den angeblich alle anderen schon eingeschlagen haben.[35][36]

Propaganda mit dem Zweck, Immigranten zu bewegen, nach Kalifornien zu ziehen, 1876

Diese Technik nutzt den „Herdentrieb“ und das natürliche Verlangen der Menschen, auf der Gewinnerseite zu sein.[37]

Berufung auf berühmte Menschen

[Bearbeiten | Quelltext bearbeiten]

Diese Art von Propaganda beruft sich auf berühmte Menschen oder auf attraktiv und glücklich erscheinende Menschen. Dem entspricht Anne Morellis Prinzip der Kriegspropaganda: „Die Künstler und Intellektuellen unterstützen unsere Sache (Les artistes et intellectuels soutiennent notre cause.)“[38]

Big Lie, die „große Lüge“

[Bearbeiten | Quelltext bearbeiten]

Dabei handelt es sich um den Bezug auf ein historisches Ereignis, ein tatsächliches oder irriges oder verfälschtes (Revisionismus), um dadurch eine Maßnahme zu begründen. Nach dem Ersten Weltkrieg wurde etwa die Dolchstoßlegende zur Rechtfertigung für die Re-Militarisierung und den Revanchismus der Nazis eingesetzt. In den USA benutzt Donald Trump die Legende vom groß angelegten Wahlbetrug und der „gestohlenen“ Wahl, um die Präsidentschaftswahl 2020 in Verruf zu ziehen und Joe Bidens Präsidentschaft zu delegitimieren. Ein weiterer Aspekt des manipulativen Charakters der großen Lügen ist die, dass sie leichter geglaubt werden als kleine Lügen.[39][40]

Brunnenvergiftung

[Bearbeiten | Quelltext bearbeiten]

Bei der Methode der rhetorischen Brunnenvergiftung (engl.: poisoning of the well) handelt es sich darum, die Quelle einer Information zu diskreditieren, meist eine Person oder Institution.[41]

Cherry Picking oder selektive Wahrnehmung

[Bearbeiten | Quelltext bearbeiten]

Aus der Gesamtheit relevanter oder besonders wirkungsvoller Informationen werden nur diejenigen herausgenommen, die dem Ziel entsprechen, die anderen werden ignoriert. Richard Crossman, der britische stellvertretende Direktor der Abteilung für psychologische Kriegsführung (PWD) des Obersten Hauptquartiers der Alliierten Expeditionstruppe (SHAEF) während des Zweiten Weltkriegs sagte, Propaganda sei keine Lüge, sondern die Auswahl der gewünschten Wahrheit und das Vermischen mit einigen Wahrheiten, die das Publikum hören möchte.

US-amerikanische antijapanische Darstellung im Zweiten Weltkrieg – Werbung für Kriegsanleihen

Gegner sollen entmenschlicht erscheinen.[30] Die Dämonisierung und Entmenschlichung des Gegners ist, wie Anne Morelli darstellt, ein wesentliches Prinzip der Kriegspropaganda. Da man nach Morellis Auffassung kein ganzes Volk oder Land hassen kann, ist es notwendig, den Hass auf eine Person umzuleiten, die das Land vertritt. Durch diese Personifizierung des Landes bekomme „der Feind“ ein Gesicht und dieses Gesicht könne zum Bezugspunkt des Hasses gemacht werden. Zu diesem Zweck wird die Person als moralisch verwerflich, böswillig und geistig krank charakterisiert.[38] Dämonisierung des Gegners ist das Gegenstück zur Glorifizierung.

Dekontextualisierung/Isolierung/Fragmentierung

[Bearbeiten | Quelltext bearbeiten]

Bei der Dekontextualisierung wird ein Nachrichteninhalt oder ein Ereignis aus seinem tatsächlichen Kontext herausgelöst, so dass das Ereignis nur für sich, also isoliert, wahrgenommen wird. Bei Ereignissen (zum Beispiel einer gewaltsamen Demonstration) fehlt die Vorgeschichte oder der politische Hintergrund. Das Ereignis oder die Nachricht kann daher nicht von Rezipienten eingeordnet und interpretiert werden. Zum richtigen Verständnis muss der ursprüngliche Kontext wiederhergestellt werden. Dekontextualisierung ist eine Form der Fragmentierung von Information.[42]

Desinformation, digitale Desinformation

[Bearbeiten | Quelltext bearbeiten]

Nach Auskunft der deutschen Bundesregierung bezeichnet Desinformation irreführende und falsche Informationen, die im Unterschiede zur Falschnachricht das Ziel haben, Menschen vorsätzlich zu täuschen oder zu beeinflussen und die gezielt verbreitet werden. Es kann sich dabei um Texte oder Bilder (deep fakes) handeln. Die Irreführung führt immer manipulativ zu einem falschen Eindruck, durch Weglassen, Fälschen, Lügen, Erfinden, Gerüchte, tendenziöse Behauptungen, Verzerren, Überspitzen, durch Einseitigkeit. Desinformationskampagnen können, wenn vom Ausland aus durchgeführt, den Charakter einer hybriden Bedrohung annehmen.[43]

Bei der digitalen Desinformation werden Bild- und Textbotschaften individualisiert und automatisiert. Der Skandal um Cambridge Analytica 2016 wird von Mathias Schulze als Beispiel genannt. Automatisierte Bots und Troll-Armeen können Online-Kommunikation in eine bestimmte Richtung beeinflussen. Ein weiteres Problem ist die fehlende Qualitätskontrolle und Geschwindigkeit auch bei traditionellen Medien. Dies verstärkt Unzufriedenheit und unterstützt so alternative Angebote. Es sei nachweisbar, dass Menschen, die sich aus algorithmisierten alternativen Medien informieren, ein negativeres Politikbild haben:

Wer vorwiegend Nachrichten über algorithmisch aggregierte Newsfeeds auf sozialen Medien konsumiert, hat häufig ein negativeres Politikbild als etwa Leser von Zeitungen, die ausgewogener berichten.[44]

Embedded Journalism

[Bearbeiten | Quelltext bearbeiten]

Der Begriff Embedded Journalist bedeutete ursprünglich die Einschränkungen im Einsatz von Journalisten unter Leitung von Militärs, heute wird der Begriff in einem allgemeineren Sinn benutzt, um einen Journalisten zu charakterisieren, der sich den vorgegebenen politischen Strukturen und Erwartungen anpasst, also zum Sprachrohr der Regierung machen lässt. Die Struktur und Funktionsweise von politisch-medialen Netzwerken, in die der Journalist „eingebettet“ ist, wurde unter anderem von Uwe Krüger näher erforscht[45] und bildet einen Teil der modernen Form der Medienmanipulation.[46]

Emotionalisierte Sprache

[Bearbeiten | Quelltext bearbeiten]

Bestimmte Wörter und Ausdrücke mit starken emotionalen Implikationen werden verwendet, um das Publikum zu beeinflussen, z. B. durch Verwendung des positiv konnotierten Wortes „Reformen“ anstatte eines neutraleren Wortes wie etwa „Veränderungen“.

Empfindungssteuerung (Perzeptionsmanagement)

[Bearbeiten | Quelltext bearbeiten]

Die Wahrnehmung und Bewertung von Ereignissen wird indirekt in die gewünschte Richtung gelenkt, also nicht durch die Darstellung von Fakten, sondern durch die Steuerung der Gefühle.

Bei der Ergreifung des Diktators Saddam Hussein wurde argumentiert, dass durch den Krieg doch wenigstens der Diktator gefasst und das Land befreit werden konnte. „Das weltweit verbreitete Bild von der Ergreifung Saddam Husseins wurde zum Symbolbild für den erfolgreichen Militäreinsatz der USA im Irak und drängte die Frage nach der Rechtmäßigkeit des Krieges in den Hintergrund.“[47]

Fake News wird teilweise in enger Nachbarschaft zu Begriffen wie Hoax oder Scam eingeordnet.[48] Facebook legte im April 2017 ein Arbeitspapier mit vier verschiedenen Formen des Informationsmissbrauchs vor, die Facebook als Fake News bezeichnet:[49]

  • Information (or Influence) Operations: Aktivitäten von Regierungen oder nicht-staatlichen Organisationen mit dem Ziel, in- oder ausländische politische Stimmungen zu steuern.
  • False News: Nachrichten, die vorgeben, korrekt zu sein, aber absichtliche Fehlinformationen transportieren, um Emotionen hervorzurufen, Aufmerksamkeit zu gewinnen oder zu täuschen.
  • False Amplifiers: die koordinierte Aktivität von ge- und verfälschten Onlinekonten, mit der Absicht, politische Diskussionen zu manipulieren
  • Desinformation: Fehlerhafte oder manipulierte Informationen und/oder Inhalte, die absichtlich verbreitet werden. Das kann falsche Nachrichten umfassen oder subtilere Methoden einschließen, wie Operationen unter falscher Flagge, das Einschleusen falscher Zitate oder Narrative bei unwissenden Verbreitern oder die absichtliche Verstärkung von irreführenden Informationen.[50]

Falsche Anschuldigungen

[Bearbeiten | Quelltext bearbeiten]

Falsche Anschuldigungen in der Öffentlichkeit sind Ausdruck von Aggression, Mobbing und Bullying. Hinter einer Selbstinszenierung von Unschuld und Reinheit können sich sadistische Impulse verbergen, die darauf zielen, die Existenz anderer zu zerstören.[51]

Massive negative Einflussnahme aus der Öffentlichkeit mit dem Anliegen, Organisationen oder Personen zu diskreditieren, die das vorherrschende Meinungsbild anzweifeln oder ihm widersprechen.

Furcht, Unsicherheit und Zweifel

[Bearbeiten | Quelltext bearbeiten]

Um die öffentliche Wahrnehmung zu beeinflussen, können negative, zweifelhafte oder falsche Informationen verbreitet werden, die die Glaubwürdigkeit untergraben und Unsicherheit, Zweifel, Angst und Furcht erzeugen.

Framing ist die Vorgabe eines Deutungsrahmens, durch den Sachverhalte vorinterpretiert werden. Dieser Deutungsrahmen wird oft in der sprachlichen Form der Darstellung, vor allem der Metaphorik, wirksam. Framing ist nach Elisabeth Wehling ein unvermeidlicher Prozess des selektiven Einflusses auf die individuelle Wahrnehmung der Bedeutungen, die Wörtern oder Phrasen zugeordnet werden, dieser Prozess kann aber bewusst gemacht und bewusst oder unbewusst manipulativ gesteuert werden.[52]

Fuß-in-der-Tür-Technik

[Bearbeiten | Quelltext bearbeiten]

Der Bitte um ein größeres Entgegenkommen wird leichter entsprochen, wenn man vorher ein kleineres Entgegenkommen erbracht hat. Dies hat teilweise mit der Tendenz zu konsistentem Verhalten beziehungsweise mit der Vermeidung von Dissonanz zu tun.

Beim Gaslighting sollen beharrliche Verleugnung, Irreführung, Widerspruch und Lügen in der Zielperson oder -gruppe Selbstzweifel erzeugen, in der Absicht, sie dazu zu bringen, ihre eigenen Erinnerungen, ihre Wahrnehmung, ihre Vernunft und Normen in Frage zu stellen. Gaslighting kombiniert verschiedene Techniken der Manipulation, vor allem solche der Verwirrung, Täuschung und Kontrolle.[53]

Im Nationalsozialismus hatten die Gefallenen Vorbildfunktion.[54] In den kommunistischen Ostblockländern wurden Kriegsmonumente und Gefallenendenkmäler instrumentalisiert.[55]

Gehirnwäsche oder Coercive Persuasion ist eine missverständliche umgangssprachliche Bezeichnung für Verfahren, um Grundeinstellungen und Realitätswahrnehmungen zu destabilisieren und durch neue Einstellungen zu ersetzen.[56] Dass Gehirnwäsche wirklich funktioniert, wird in der Wissenschaft bezweifelt.[57] Die entsprechenden Versuche, die die CIA von den 1950er bis in die 1970er Jahre unter dem Decknamen MKULTRA unternahm, zeitigten keine brauchbaren Ergebnisse, gaben aber Anlass zu verschiedenen Verschwörungstheorien.[58]

Heroisierung

Gish-Galopp beschreibt das Bombardieren eines politischen Gegners mit aufdringlich komplexen Fragen oder Kritikpunkten während einer Debatte, damit er nicht die Möglichkeit hat, auf alle Einzelheiten einzugehen, wodurch er inkompetent erscheinen soll.[59]

Politiker werden hierbei als vorbildliche Menschen oder Helden dargestellt, Kriege erscheinen als „gute“ oder gerechte Kriege, die sämtliche Opfer rechtfertigen.[60] Auch die eigene politische Haltung kann glorifiziert werden. Dem entspricht Anne Morellis Prinzip der Kriegspropaganda: „Unser Anliegen hat etwas Heiliges (Notre cause a un caractère sacré.)[38]

Gräuelpropaganda

[Bearbeiten | Quelltext bearbeiten]
Gräuelpropaganda im Balkankrieg (19. Jahrhundert)

Gräuelpropaganda ist eine Form politischer Propaganda, bei der versucht wird, einen Gegner zu diffamieren, indem man ihm erfundene oder nicht von ihm begangene Untaten bzw. Gräuel zuschreibt oder von ihm unternommene Handlungen bewusst verzerrt darstellt und so skandalisiert. Sie ist ein häufiges Mittel psychologischer Kriegführung und kann im Krieg zur Motivation der eigenen Streitkräfte und Bevölkerung oder zur Beeinflussung der Weltöffentlichkeit eingesetzt werden.

Plakat aus der Zeit des Ersten Weltkriegs von Winsor McCay. Amerikaner werden aufgerufen, Kriegsanleihen, Liberty Bonds genannt, zu zeichnen.

Eine halbe Wahrheit ist eine betrügerische Aussage, die ein gewisses Element der Wahrheit enthält. Es gibt verschiedene Formen: Die Aussage kann teilweise wahr sein, die Aussage kann völlig zutreffend sein, aber nur ein Teil der gesamten Wahrheit, oder sie kann ein betrügerisches Element verwenden, täuschen, ausweichen, beschuldigen oder falsch darstellen.[61]

Hetz- und Schmutzkampagnen

[Bearbeiten | Quelltext bearbeiten]

Eine Schmutzkampagne ist der Versuch, den Ruf zu schädigen oder in Frage zu stellen, indem man negative Aussagen verbreitet. Eine Hetzkampagne ist die Steigerung einer Schmutzkampagne. Sie kann Einzelpersonen oder Gruppen betreffen und justiziable Fälle übler Nachrede, Rufschädigung bis hin zum Rufmord enthalten. Ein ähnlicher Begriff, der hauptsächlich den politischen Gegner in Wahlkampagnen betrifft und sich auf die negativen Seiten seiner Position konzentriert, ist Negative Campaigning.

Informationsüberflutung

[Bearbeiten | Quelltext bearbeiten]

Emma Briant charakterisiert diese Technik, die im Englischen information overload heißt, wie folgt:[62]

  • Informationsüberflutung kann die gleiche Wirkung haben wie die Geheimhaltung und ist sicherlich kurzfristig und für die heutigen Demokratien als wirksamer einzustufen.“
  • „Wenn eine Informationsüberflutung auftritt, wird mit hoher Wahrscheinlichkeit die Entscheidungsqualität beeinträchtigt.“
  • „Die Informationsflut, die durch die moderne Technologie erzeugt wird, […] droht, die Empfänger passiv zu machen. Überlastung führt zu mangelnder Bereitschaft sich zu engagieren.“[63]

Diese Technik wird auch von Rainer Mausfeld als grundlegend für die moderne Massenkommunikation dargestellt, da sie abstumpfe und Apathie verbreite.[64] Sie ist mit der Reizüberflutung verwandt.[65] Sie führt zu Schutz- und Abwehrmechanismen der Psyche zur Unterdrückung von Informationen, wie Verdrängung, Isolation, Regression, Projektion, Introjektion, Sublimierung, Fantasiebildung, Verleugnung. Diese Schutzmechanismen bilden eine wirksame Basis für Manipulation.[66]

Inokulation ist eine Softpower-Technik aus der Zeit des Kalten Krieges. Sie besteht darin, Personen kontrollierten Dosen von Desinformation, Fehlinformation und Verschwörungstheorien auszusetzen, um ein Art mentale „Immunität“ aufzubauen, die auch als Resilienz bezeichnet wird. Das „Immunsystem des Gehirns“ wird darauf trainiert, als falsch deklarierte Informationen zu erkennen und von vornherein als falsch abzulehnen.[67] Diese Abwehr von Propaganda, bevor sie verarbeitet wird, wird im Gegensatz zur nachträglichen Widerlegung (Debunking) als Prebunking bezeichnet.[68]

Kognitive Dissonanz

[Bearbeiten | Quelltext bearbeiten]
Kognitive Verzerrungen und ihre Ursachen

Menschen bevorzugen konsistente Vorstellungen, harmonische Konzepte, in denen alle Teile zueinander passen. Diese Tendenz kann manipulativ ausgenutzt werden. Wenn beispielsweise eine Gruppe von Menschen einen Politiker ablehnt, aber einen bestimmten Schauspieler schätzt, kann man das Lob des Politikers durch den Schauspieler verwenden, um die Meinung der Menschen zu ändern, weil die Menschen Inkonsistenz nicht tolerieren können. Sie fühlen das Bedürfnis, entweder den Schauspieler nicht mehr zu mögen oder die Abneigung gegenüber dem Politiker zu revidieren.

Konditionierung

[Bearbeiten | Quelltext bearbeiten]

Alle Wirbeltiere, einschließlich Menschen, reagieren auf klassische Konditionierung, Menschen auch auf evualative Konditionierung. Klassische Konditionierung bedeutet Signallernen: Wenn A (Signal) über eine gewisse Zeitspanne auch dann vorhanden ist, wenn Objekt B vorhanden ist und B eine körperliche Reaktion hervorruft (z. B. Ekel, Lust), dann wird die gleiche körperliche Reaktion auftreten, wenn das Signal A in Abwesenheit von Objekt B präsentiert wird. Diese assoziative Verbindung gilt beim Menschen für alle Gefühlsreaktionen und alle Wahrnehmungen/Vorstellungen. Bei der werbewirksamen evaluativen Konditionierung werden Werturteile und Einstellungen vermittelt. Auch unbemerkte Zusammenhänge (z. B. durch unterschwellige Reize) können eine Wirkung zeigen. Evaluativ konditionierte Reaktionen werden außerdem als stabiler erachtet als die Ergebnisse der klassischen Konditionierung. Auch Bedeutungen sind konditionierbar (konzeptuelles Konditionieren am Beispiel Markenimage). Bei der operanten Konditionierung wird das Verhalten durch die Konsequenzen (Verstärker) kontrolliert, die man ihm gibt. Außer Belohnungen können auch neutrale Reize durch Koppelung an einen Verstärker selbst Verstärkungswert erhalten (sekundärer Verstärker). Bei der Werbung kann ein Produkt durch Koppelung an einen Verstärker zu einem sekundären Verstärker werden.[69]

Durch Kontaktschuld wird dem Zielpublikum die Vorstellung vermittelt, eine Aktion oder eine Idee sei abzulehnen, weil diese bei einer negativ besetzten Person oder Gruppe beliebt ist, die von dem Zielpublikum gehasst, gefürchtet oder verachtet wird. Dies führt oft zu einer Meinungsänderung, entsprechend der irreführenden Schlussfolgerung, dass etwas negativ sei, wenn es von einer negativ bewerteten Person oder Gruppe vertreten wird. Der Begriff wurde ursprünglich in der Nachkriegszeit eingeführt, um Vorwürfe zu kritisieren, jemand sei Kommunist, weil er Kommunisten kenne, mit ihnen spreche oder mit ihnen gemeinsam agiere.[70]

Kontrolle des sozialen Umfelds

[Bearbeiten | Quelltext bearbeiten]

Maßnahmen mit dem Ziel, das soziale Umfeld und die Ideen durch den Einsatz von sozialem Druck zu kontrollieren. Oft Teil der Maßnahmen der Zersetzung.

Lüge und Täuschung

[Bearbeiten | Quelltext bearbeiten]

Lüge und Täuschung können die Grundlage vieler Propagandatechniken sein, darunter der Ad-Homimen-Argumente, Diffamierung, der Door in the face-Technik, der Halbwahrheit, der Namensfindung oder einer anderen auf Unehrlichkeit oder Täuschung basierenden Technik.

Zur besonderen Situation der Lüge in Kriegszeiten schreibt die Bundeszentrale für politische Bildung: „In Kriegszeiten lassen sich Informationen nur schwer oder gar nicht auf ihren Wahrheitsgehalt überprüfen. Das macht es für kriegführende Parteien einfach, die Öffentlichkeit durch Streuung falscher Informationen auf Kriegskurs zu bringen.“

Um die Menschen davon zu überzeugen, dass eine Lüge wahr ist, muss sie nur stetig wiederholt werden. Als wirksam erweist sich dabei auch der Einsatz besonders vertrauenswürdig erscheinender Personen.[71]

Anti-islamische Propaganda in Deutschland, entstanden in der Zeit der Türkenkriege im 16. Jahrhundert.

Mere-Exposure-Effekt

[Bearbeiten | Quelltext bearbeiten]

Kurze, mehrmalige Wiederholung von Werbung kann dazu führen, dass das Werbeobjekt positiver wahrgenommen wird. Dieser Effekt wird auch von Social Media genutzt.[72][73]

Militainment bezeichnet die „Zusammenarbeit zwischen Militär und Medienunternehmen bei der Produktion von Kriegsfilmen, -serien, -dokumentationen oder Computerkriegsspielen.“ Dies gibt dem Militär erhebliche Einflussmöglichkeiten auf die Darstellung des Krieges, den Verlauf eines solchen und erhöht zugleich den ästhetischen Reiz und den ehrenvollen Charakter des Krieges. „Szenen, die dem Ruf des Militärs schaden könnten, haben keine Chance. Sie müssen umgeschrieben werden, sonst ist eine Veröffentlichung nicht möglich. Regisseure, die ohne Unterstützung des Militärs produzieren, haben es schwer: Oliver Stone beispielsweise brauchte zehn Jahre, um seinen kritischen Vietnamfilm ‚Platoon‘ (1986) fertigzustellen.“[74]

Massenmedien moralisieren, indem sie auf Entscheider und Betroffene, auf Täter und Opfer reduzieren. Man braucht Schuldige, um die Komplexität der Welt handhabbar zu machen. Damit ist das Moralisieren mit der Personalisierung und der Emotionalisierung verwandt.[75][76]

Propagandisten verwenden Neologismen, um mit ihren oft bildhaften Wortprägungen eine negative oder positive Meinung zu vermitteln.

Operante Konditionierung

[Bearbeiten | Quelltext bearbeiten]

Operante Konditionierung bezeichnet das Lernen durch Nachahmung. Wenn man zum Beispiel beobachtet, wie eine attraktive Person Produkte kauft oder Positionen befürwortet, lernt eine Person, das Produkt zu kaufen oder die Position zu bestätigen. Operante Konditionierung ist das Grundprinzip von Werbekampagnen.

Overton-Fenster

[Bearbeiten | Quelltext bearbeiten]

Propaganda kann zur Vergrößerung oder Verkleinerung des „Overton-Fensters“ führen, also der Vorstellungen, welche Meinungen, Haltungen und Auffassungen öffentlich als akzeptabel gelten können.[77] Dies ist verwandt mit der Frage nach dem Meinungskorridor, dessen Breite auch durch die Akzeptanz der Themen und Haltungen bestimmt ist. Der Meinungskorridor wird nach Overton dadurch erweitert, dass extreme Positionen als Tabu-Bruch thematisiert werden; dieser Tabu-Bruch werde zwar zurückgewiesen, er erweitere aber doch den Rahmen des Sagbaren und Denkbaren. Vier Faktorengruppen sollen eine Verschiebung begünstigen: Fakten und Logik, moralische Appelle, emotionale Ansprache und Ereignisse, Fehler oder Desinformation.[78] Argumentationen auf der Basis dieses Modells werden teilweise als propagandistisch zurückgewiesen.[79] Die Overtonstrategie funktioniert nach beiden politischen Seiten: in den 60er Jahren zugunsten der Emanzipation, heute als Strategie zur Begrenzung der Immigration, so die Zeit 2018.[80]

Personalisierung

[Bearbeiten | Quelltext bearbeiten]

Wer personalisiert, reduziert die politische Komplexität auf die Charaktereigenschaften und Motive einer einzelnen Person. So verschwinden die Sachverhalte hinter Entscheidungen und die Mitwirkung von Institutionen und Bevölkerungsgruppen wird unsichtbar. Entscheidungen scheinen aus dem Willen der Person allein und ihrer individuellen Motive zu folgen. Im Falle eines Konflikts erscheint dann die Ausschaltung oder Ablösung dieser Person als das Hauptziel, der Einsatz wird mit der Disqualifizierung der Person gerechtfertigt. Personalisierungen werden von Kritikern beispielsweise der Darstellung Wladimir Putins und Russlands zugeschrieben.[81]

Auch Medienwandel und Medienkrise können nach Heinz Bonfadelli und Kurt Imhof die Tendenz zu Skandalisierung, Moralisierung und Personalisierung in der Berichterstattung verstärken, da diese vom Publikum mit größerem Interesse und weniger geistigem Aufwand wahrgenommen werden.

„Der Journalismus, aber auch Public Relations, würden immer mehr Ereignisse als Media-Events selber inszenieren und fokussierten immer stärker auf Skandalisierung und Moralisierung einerseits sowie Personalisierung, Emotionalisierung und Intimisierung andererseits. Dabei würde bewusst das Bedürfnis des Medienpublikums nach Neugier und Voyeurismus bedient und bewirtschaftet im Sinne der Steigerung von Auflagen und Reichweiten.“[82]

Er besteht in der Überhöhung einer Einzelperson ins Übermenschliche und Vorbildhafte. Die Verhältnisse werden durch die Glorifizierung einer Persönlichkeit personalisiert, d. h. der Aufbau eines Systems wird nicht als das Verdienst einer Gesellschaft, sondern einer einzelnen Person dargestellt. Der politische Führer wird als Genie charakterisiert, das angeblich Leistungen erbringt, zu denen kein anderer fähig ist. Oft wird die Führerfigur mythisiert: als allwissend, unsterblich und allgegenwärtig, was sich im öffentlichen Raum in Statuen, Monumenten, Porträts, Straßennamen usw. zeigt.

Political Correctness

[Bearbeiten | Quelltext bearbeiten]

Die Einhaltung der Erwartungen der politischen Korrektheit kann zur Unterdrückung von Themenaspekten, zur Einengung der Meinungsvielfalt und zur Beschränkung der öffentlichen Diskussion führen.[83]

Prebunking, im Unterschied zum nachträglichen Debunking, konfrontiert den Rezipienten mit einer geringen Dosis Fake News, in erster Linie ihren äußeren Erkennungsmerkmalen, und veranlasst ihn nach dem Modell der operanten Konditionierung, diese Fake News unmittelbar abzulehnen, negativ zu konnotieren und gegebenenfalls mit den im Voraus vermittelten Gegenargumenten abzuwehren. Ziel ist Immunität und Resilienz, ein Effekt, der empirisch bestätigt worden sei.[84][85][86]

Menschen haben die Tendenz, die ersten Informationen, die sie zu einem Thema oder einer Situation erhalten, stärker zu gewichten als spätere. Die Wahrnehmung der Rezipienten kann gesteuert werden, indem über den „ersten Eindruck“ zu Beginn des Kontaktes mit einer Person oder einem Thema Grundannahmen verankert werden (Vgl. anchoring). Dies wird im Medien-Priming medial eingesetzt. Das erhöhte Aktivierungspotenzial der primär verstärkten Nachrichteninhalte führt dazu, dass beispielsweise bei der Beurteilung eines Politikers vorrangig auf solche zugänglichen Wissenseinheiten zurückgegriffen wird, das entsprechende Politikfeld also als Hauptkriterium für die Gesamtbeurteilung des Politikers dient (vgl. Agenda Setting und Framing-Effekt). Medien-Priming ist damit eine Anwendungsform des psychologischen Priming.[87]

Primacy/Recency-Effekt

[Bearbeiten | Quelltext bearbeiten]

Informationen zu Beginn einer Reihe von Informationen gehen, wenn keine proaktiven oder retroaktiven Interferenzen vorliegen, besser ins Langzeitgedächtnis über als spätere. Ausnahme sind die letzten Informationen einer Reihe, die ebenfalls besser behalten werden (Recency-Effekt). Beide Effekte können für sich oder gemeinsam für die Gestaltung von Medien und Inhalten genutzt werden.[88][89]

Reductio ad Hitlerum

[Bearbeiten | Quelltext bearbeiten]

Dieses Manöver besteht darin, dass Ähnlichkeiten mit Hitlers Biografie oder Meinungen herangezogen werden, um den Gegner zu diskreditieren und zu diffamieren. Das regelmäßige Auftreten dieser Technik wird durch Godwin’s law beschrieben.[90][91] Es handelt sich um eine Unterform der reductio ad absurdum,[92] die wiederum als Analogieschluss eine Form der falschen Schlussfolgerung ist. Sie gehört außerdem zu den Formen des sogenannten Brunnenvergiftens.

Bei Referenzierungen oder Empfehlungen handelt es sich um Zitate innerhalb oder außerhalb des Kontextes, die insbesondere zur Unterstützung oder Ablehnung einer bestimmten Politik, Aktion, eines bestimmten Programms oder einer bestimmten Persönlichkeit zitiert werden. Die Reputation oder die Rolle (Experte, angesehene Persönlichkeit des öffentlichen Lebens usw.) der Person, die die Erklärung abgibt, wird ausgenutzt.

Schwarzweiß-Irrtum, Falsches Dilemma

[Bearbeiten | Quelltext bearbeiten]

Es wird eine gegensätzliche Auswahlmöglichkeit aus zwei polaren Eigenschaften, Werten oder Verhaltensweisen präsentiert (Dichotomie, Dualismus): „Sie sind entweder für uns oder gegen uns …“; „gut oder böse“; „frei oder unfrei“. Dichotomien können auch miteinander verbunden werden: „Lieber für die Freiheit sterben, als in Knechtschaft leben.“ Die Komplexität der Welt wird damit auf extreme und oft gegensätzliche binäre Kategorien oder Kriterien reduziert, Zwischentöne oder andere Möglichkeiten werden ausgeblendet. Politische Alternativen sind oft eher mehr oder weniger grau, das erschwert die Entscheidung, daher wird eine Seite aufgehellt und dem klaren Weiß angenähert, die andere Seite wird verdunkelt und der Farbe Schwarz angeglichen. Der Schwarz-Weiß-Irrtum verstärkt sich also durch selektive Wahrnehmung und Denkfilter, besonders sprachliche Denkfilter. In moralischen Kategorien erscheint ein Weltbild dieser Art als manichäisch (Kampf des Guten gegen das Böse), in theologischen als apokalyptisch (Endkampf des Guten gegen das Böse). Es handelt sich um ein so genanntes falsches Dilemma.

Ein Slogan ist ein kurzer, auffälliger Satz, der Etikettierung und Stereotypisierung umfassen kann. Zwar können Slogans zur Unterstützung begründeter Ideen herangezogen werden, doch in der Praxis wirken sie nur als emotionale Appelle. Gegner der US-Invasion und Besetzung des Irak verwenden den Slogan „Kein Blut für Öl“,[93] um darauf hinzuweisen, dass die Invasion und ihre menschlichen Verluste für den Zugang zum irakischen Ölreichtum gemacht wurden. Auf der anderen Seite verwenden Anhänger, die der Meinung sind, dass die USA weiterhin im Irak kämpfen sollten, den Slogan „cut and run“, um den Rückzug feige oder schwach zu machen. In ähnlicher Weise können die Namen der militärischen Kampagnen, wie „enduring freedom“ oder „just cause“, auch als Slogans bezeichnet werden, die den Menschen beeinflussen sollen.

Soziale Isolierung oder Privilegierung

[Bearbeiten | Quelltext bearbeiten]

Wird verwendet, um Mitglieder für einen Kult oder eine Ideologie zu gewinnen, indem eine Gruppe von Personen eine Person von ihrer bestehenden sozialen Unterstützung abschneidet und sie vollständig durch Mitglieder der Gruppe ersetzt. Diese bombardieren die Person absichtlich mit Zuneigung, um sie isoliert zu halten, um ihre Glaubenssätze und ihr Wertesystem zu manipulieren.

Sprachmanipulation

[Bearbeiten | Quelltext bearbeiten]

Sprachmanipulation umfasst alle Formen der Beeinflussung, die sich sprachlicher Mittel auf der Wort- oder Satzebene bedienen, wobei diese sprachlichen Mittel oft umgeformt oder neugeprägt werden.

Stereotypisierung und Etikettierung

[Bearbeiten | Quelltext bearbeiten]

Diese Technik versucht, Vorurteile in einem Publikum zu wecken, indem das Objekt der Propagandakampagne als etwas bezeichnet wird, das das Zielpublikum fürchtet, hasst, verabscheut oder für unerwünscht hält. Beispielsweise kann sich die Berichterstattung über ein fremdes Land oder eine soziale Gruppe auf die stereotypen Merkmale konzentrieren, die der Leser erwartet, obwohl sie weit davon entfernt sind, das gesamte Land oder die gesamte Gruppe zu repräsentieren. Diese Berichterstattung konzentriert sich oft auf Anekdoten. In grafischer Propaganda, einschließlich Kriegsplakaten, kann dies die Darstellung von Feinden mit stereotypen Rassenmerkmalen beinhalten.

Ein Strohmann-Argument ist ein informeller Trugschluss, der auf einer falschen Darstellung der Position eines Gegners beruht. „Einen Strohmann anzugreifen“ bedeutet, die Illusion zu erzeugen, einen Vorschlag widerlegt zu haben, indem er einen oberflächlich ähnlichen Vorschlag (den „Strohmann“) ersetzt und ihn widerlegt, ohne jemals die ursprüngliche Position widerlegt zu haben.

Schuldzuweisung an eine Einzelperson oder an eine Gruppe, wodurch Schuldgefühle von den Verantwortlichen gemildert werden und / oder die Aufmerksamkeit von der Notwendigkeit abgelehnt wird, das Problem zu lösen, für das die Schuldzuweisung vorliegt.

„Die bulgarischen Märtyrerinnen“, ein 1877 entstandenes Gemälde des russischen Malers Konstantin Makovsky. Es stellt die Vergewaltigung bulgarischer Frauen durch Soldaten des Ottomanischen Heers während des Aprilaufstands im vorausgehenden Jahr dar. Das Gemälde diente der Mobilisierung der öffentlichen Unterstützung für den Russisch-Osmanischen Krieg (1877–1878), der mit dem ausdrücklichen Ziel der Befreiung der Bulgaren von der Türkenherrschaft geführt wurde.

Tatsachenbehauptung

[Bearbeiten | Quelltext bearbeiten]

Vorstellungen und Meinungen einfach als Tatsachen darzustellen, ohne eine Einschränkung zu machen oder eine Erklärung zu geben und jeden Zweifel daran unsinnig erscheinen zu lassen, gilt als wirksame Propagandatechnik. Die Ursache der Wirksamkeit wird darin gesehen, dass Menschen im Prinzip gutgläubig seien. Außerdem sei der Haupteffekt der Propaganda schon erreicht, wenn die Nachricht als solche rezipiert wird. Das ist bei einfachen Behauptungen leichter möglich als bei umständlichen Darstellungen. „Behauptungen sind ein einfacher und schneller Weg, sich im Bewusstsein der Menschen festzusetzen.“ Als Beispiel zitiert Magedah Shabo den Nazislogan „Europas Sieg, dein Wohlstand“. Die Tatsachenbehauptung hat oft einen deutlichen impliziten Aufforderungscharakter, wie etwa in dem Werbeplakat Kaliforniens: „Room for Millions of Immigrants“.[94]

Das "Du auch"-Scheinargument gilt als eine der Unterformen des argumentum ad hominem. Man weist dabei darauf hin, dass der Gegner sich der gleichen oder ähnlicher Fehler schuldig gemacht hat, die er dir vorwirft, Diese Strategie entlarvt Heuchelei. Eine Meinung oder eine Empfehlung wird nicht akzeptiert, weil der Befürworter oder die Befürworterin oder der Befürworter selbst ihr nicht folgt. Es geht dabei mehr um die Integrität als um die Wahrheit der Behauptung.[95]

Verschwörungstheorien

[Bearbeiten | Quelltext bearbeiten]

Populistische Politiker verbreiten häufig gezielt Verschwörungstheorien, um durch die Markierung realer oder imaginierter Feinde ihre Anhänger zu einen und auf sich als Retter aus angeblichen der Gefahr einzuschwören. Der isländische Politikwissenschaftler Eiríkur Bergmann führt drei Beispiele für diese Manipulationstechnik an: die Behauptung europäischer Rechtspopulisten, Muslime wären dabei, Europa zu überschwemmen (Großer Austausch); Donald Trumps Beschwörung eines deep state, sowie Wladimir Putins Narrativ, westliche Mächte würden durch verdeckte Manipulationen Russlands Souveränität untergraben und seinen geopolitischen Einfluss unterminieren, um seine legitime Regierung zu stürzen und letztlich seine Staatlichkeit zu zerstören.[96]

Virtueller Krieg

[Bearbeiten | Quelltext bearbeiten]

Bezeichnung, die in Anlehnung an Orwells Vorstellung eines erfundenen oder künstlich am Leben erhaltenen Konflikts gebraucht wird. In Orwells dystopischem Roman „1984“ dient der virtuelle Krieg dazu, ein totalitäres System zu stabilisieren, seine Kräfte zu mobilisieren, die eigenen Entbehrungen der Schuld des Gegners zuzuschreiben, um der Sicherheit willen Freiheit, auch Gedankenfreiheit einzuschränken und gleichzeitig alle Bürger auf die Unterstützung des Systems einzuschwören. Im Gegensatz zu diesem fiktionalen Entwurf sind nach Mark Danner in der Realität virtuelle Kriege nur in der Vorbereitungsphase von Konflikten wirksam oder lediglich ein Teil wirklicher Konflikte. Dabei bezieht er sich auf den War on terror.[97]

Illustration von Rev. Branford Clarke aus Heroes of the Fiery Cross von Bishop Alma White im Pillar of Fire Church 1928 in Zarephath, NJ veröffentlicht.
1807 schrieb William Cobbett, wie er red herrings benutzte um jemanden auf die falsche Fährte zu locken, während er Hunde für die Jagd trainierte. Hier liegt möglicherweise der Ursprung der Namensgebung.

Vorsätzliche Ungenauigkeit

[Bearbeiten | Quelltext bearbeiten]

Die Allgemeinheiten sind bewusst vage, so dass das Publikum seine eigenen Interpretationen liefern kann. Es ist beabsichtigt, das Publikum mithilfe von undefinierten Phrasen zu bewegen, ohne deren Gültigkeit zu prüfen oder zu versuchen, ihre Angemessenheit oder Anwendung zu ermitteln. Die Absicht ist, die Menschen dazu zu bringen, ihre eigenen Interpretationen zu zeichnen, anstatt sich nur eine explizite Idee präsentieren zu lassen. Beim Versuch, die Propaganda „herauszufinden“, verzichtet das Publikum auf die Beurteilung der präsentierten Ideen. Ihre Gültigkeit, Angemessenheit und Anwendung kann dennoch berücksichtigt werden.

Wahrheitseffekt (illusory truth effect)

[Bearbeiten | Quelltext bearbeiten]

Je häufiger man eine Aussage gehört oder gelesen hat, desto mehr glaubt man an die Richtigkeit dieser Aussage, auch wenn man sie vergessen hat (implizites Gedächtnis). Außerdem beeinflusst die Verarbeitungsflüssigkeit (leichte Aufnehmbarkeit und Verständlichkeit) die Wahrscheinlichkeit, eine Aussage für wahr zu halten.[98]

Whataboutism (Und was ist mit…?)

[Bearbeiten | Quelltext bearbeiten]

Whataboutism wird teilweise als eine Variante des tu quoque („Auch du ... “) aufgefasst. Whataboutism ist die Bezeichnung eines Verfahrens der Zurückweisung eines Vorwurfs durch einen Gegenvorwurf. Dieser Gegenvorwurf unterstellt oft, dass die Position des Gegners auf Heuchelei beruht oder Doppelstandards vertritt, also zweierlei Maß anlegt. Dabei wird das Argument des Vorwurfs auf der Sachebene aber nicht widerlegt, sondern sogar akzeptiert. Lediglich in seiner kritischen Bedeutung wird es relativiert. Bei der Frage „Und was ist (auf deiner Seite) mit ... ?“ kann sich daher um eine Ablenkung, aber auch um einen wichtigen Hinweis handeln.[99] Schon die erste kritische Feststellung oder Äußerung, auf die jemand dann mit der Frage „ Und was ist (auf deiner Seite) mit ....?“ reagiert, kann ein gezielter talking point sein, der bewusst einen bestimmten Kritikpunkt auswählt, um den Gegner zu diskreditieren. Der dann auf die Erwiderung und Zurückweisung folgende Vorwurf, Whataboutism zu betreiben, kann in diesem Zusammenhang ein conversation stopper oder eine Ablenkung von der berechtigten Kritik der anderen Seite sein. Talking points sind Gesprächsanlässe auf derselben Ebene wie der Whataboutism (Kritischer Vorwurf und Gegenvorwurf), nur an einer früheren Stelle der Kommunikation. Beides sind Strategien des Framings.

Zahlen, Statistiken und Diagramme

[Bearbeiten | Quelltext bearbeiten]

Die visuelle Darstellung von Statistiken, besonders in Form von Diagrammen kann manipulativen Charakter haben.[100][101] Zu den statistischen Manipulationen gehören unter anderem

Zensur, Internetzensur

[Bearbeiten | Quelltext bearbeiten]

„Eine Sichtweise kann dann besonders gut vermittelt werden, wenn eine andere unterdrückt wird.“[102] Ansatzpunkt für die Internetzensur sind Konzerne wie Google, Meta-Platforms, Twitter, Telegram, Youtube u. a. Diese Unternehmen werden in die Pflicht genommen, auszuwählen, was ihre Nutzer zu sehen bekommen und was nicht. Ulrich Teusch: „Zu fördern ist das, was das System stabilisiert — auszusondern und als Fake News, Hate Speech, russische Propaganda et cetera zu bewerten; all das, was den eng gesteckten Mainstream-Rahmen sprengt“.[103]

Methoden der Zersetzung haben das Ziel, das Opfer bis in seine persönlichsten Beziehungen hinein zu destabilisieren, verunsichern, das Selbstwertgefühl zu untergraben und Panik, Verwirrung und Angst zu erzeugen. Methoden wären Beeinflussung des sozialen Umfelds, auch am Arbeitsplatz, öffentliche Rufschädigung. Sie wurde in totalitären Systemen wie der DDR vom Sicherheitsdienst systematisch angewandt, erforscht und gelehrt (Operative Psychologie).[104]

In den meist englischsprachigen Publikationen werden viele der dargestellten einzelnen Techniken dargestellt.[105][106][107][30][108]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Ellul, Jacques (1973). Propaganda: The Formation of Men's Attitudes, p. 39–40. Trans. Konrad Kellen & Jean Lerner. Vintage Books, New York, ISBN 978-0-394-71874-3.
  2. Nicholas J. O’Shaughnessy: Politics and Propaganda: Weapons of Mass Seduction. Manchester University Press, 2004, ISBN 0-7190-6853-3 (google.de [abgerufen am 7. Juli 2019]).
  3. Thymian Bussemer, Zentrum Für Zeithistorische Forschung Potsdam: Propaganda. Theoretisches Konzept und geschichtliche Bedeutung. In: Docupedia-Zeitgeschichte. 2013, doi:10.14765/ZZF.DOK.2.239.V1 (zeitgeschichte-digital.de [abgerufen am 16. Oktober 2021]).
  4. deutschlandfunk.de: Was ist Propaganda? 16. Dezember 2023, abgerufen am 11. September 2024.
  5. Josef Kirschner: Manipulieren - aber richtig: die acht Gesetze der Menschenbeeinflussung. Droemer Knaur, 1974, ISBN 3-426-07442-7 (google.de [abgerufen am 12. März 2024]).
  6. deutschlandfunkkultur.de: Alexander Fischer: "Manipulation" - Manipulation als legitimes Mittel. Abgerufen am 12. März 2024.
  7. https://link.springer.com/chapter/10.1007/978-3-662-66838-2_3
  8. Bussemer Thymian: Psychologie der Propaganda | APuZ. Abgerufen am 30. Juni 2019.
  9. Ali Almossawi: An Illustrated Book of Bad Arguments. The Experiment, 2014, ISBN 978-1-61519-226-7 (com.ph [abgerufen am 7. April 2019]).
  10. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 7. April 2019]).
  11. Paul Walter, Petra Wenzl: Kritisch denken – treffend argumentieren: Ein Übungsbuch. Springer-Verlag, 2015, ISBN 978-3-658-10554-9 (com.ph [abgerufen am 30. Juni 2019]).
  12. Albert Mößmer: 64 Fehlschlüsse in Argumenten: Logische und rhetorische Irrwege erkennen und vermeiden. BookRix, 2016, ISBN 978-3-7396-3631-3 (com.ph [abgerufen am 30. Juni 2019]).
  13. Valentin Zsifkovits: Ethisch richtig denken und handeln. LIT Verlag Münster, 2005, ISBN 3-8258-8509-7 (com.ph [abgerufen am 30. Juni 2019]).
  14. Arthur Schopenhauer: Die Kunst, Recht zu behalten. Abgerufen am 4. Juli 2024.
  15. Henry T. Conserva: Propaganda Techniques. AuthorHouse, 2003, ISBN 1-4107-0496-3 (eingeschränkte Vorschau in der Google-Buchsuche).
  16. a b Charles Augustus Maude Fennell: The Stanford Dictionary of Anglicised Words and Phrases. University Press, 1892 (com.ph [abgerufen am 7. April 2019]).
  17. Douglas Walton: Ad Hominem Arguments. University of Alabama Press, 2009, ISBN 978-0-8173-5561-6, S. 1–10 (com.ph [abgerufen am 26. Juni 2019]).
  18. Jeff Koob: Ad Nauseam: How Advertising and Public Relations Changed Everything. iUniverse, 2015, ISBN 978-1-4917-5890-8 (com.ph [abgerufen am 7. April 2019]).
  19. Na logisch! Die Ad-nauseam-Argumentation. Abgerufen am 7. Juli 2019.
  20. McCombs, M; Reynolds, A (2002). „News influence on our pictures of the world“. Media effects: Advances in theory and research.
  21. Patrick Rössler, Wolfgang Eichhorn: Agenda-setting. Theoretische Annahmen und empirische Evidenzen einer Medienwirkungshypothese. Opladen 1997.
  22. Dagmar Unz: Agenda Setting. In: Nicole Krämer, Stephan Schwan, Dagmar Unz, Monika Suckfüll (Hrsg.): Medienpsychologie. Schlüsselbegriffe und Konzepte. 2., überarbeitete und erweiterte Auflage. Stuttgart 2016, S. 219–225. Wiedergegeben nach Uli Gleich: Evolution eines Ansatzes der Medienwirkungsforschung Agenda Setting in der digitalen Medienwelt. Media Perspektiven 3/2019 [1]
  23. Garth Jowett, Victoria O’Donnell: Propaganda and Persuasion. SAGE, 2006, ISBN 1-4129-0897-3 (com.ph [abgerufen am 7. April 2019]).
  24. Maxwell McCombs: Setting the Agenda: The Mass Media and Public Opinion. John Wiley & Sons, 2013, ISBN 978-0-7456-3713-6 (com.ph [abgerufen am 7. April 2019]).
  25. Patrick Rössler, Wolfgang Eichhorn: Agenda-setting. Theoretische Annahmen und empirische Evidenzen einer Medienwirkungshypothese. Opladen 1997, S. 20.
  26. https://www.ard-media.de/fileadmin/user_upload/media-perspektiven/pdf/2019/0319_Gleich.pdf
  27. Georg Felser: Werbe- und Konsumentenpsychologie. Springer-Verlag, 2015, ISBN 978-3-642-37645-0 (com.ph [abgerufen am 7. April 2019]).
  28. Ralf Zoll: Manipulation der Meinungsbildung: Zum Problem hergestellter Öffentlichkeit. Springer-Verlag, 2013, ISBN 978-3-322-88712-2 (com.ph [abgerufen am 7. April 2019]).
  29. Google Books. (google.com [abgerufen am 7. April 2019]).
  30. a b c Alexandra Bleyer: Propaganda als Machtinstrument: Fakten, Fakes und Strategien. Eine Gebrauchsanleitung. BoD – Books on Demand, 2018, ISBN 978-3-7431-9071-9 (com.ph [abgerufen am 7. April 2019]).
  31. Douglas Walton: Appeal to Expert Opinion: Arguments from Authority. Penn State Press, 2010, ISBN 978-0-271-04194-0 (com.ph [abgerufen am 7. April 2019]).
  32. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 7. April 2019]).
  33. Elliot Aronson, Timothy D. Wilson, Robin M. Akert: Sozialpsychologie. Pearson Deutschland GmbH, 2008, ISBN 978-3-8273-7359-5 (com.ph [abgerufen am 7. April 2019]).
  34. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  35. Magedah Shabo: Techniques of Propaganda and Persuasion. Prestwick House Inc, 2008, ISBN 978-1-58049-874-6, S. 18 ff. (com.ph [abgerufen am 7. April 2019]).
  36. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  37. Pier Paolo Pedrini: Propaganda, Persuasion and the Great War: Heredity in the modern sale of products and political ideas. Routledge, 2017, ISBN 978-1-351-86618-7 (com.ph [abgerufen am 7. April 2019]).
  38. a b c Die Prinzipien der Kriegspropaganda. 2. Auflage. Zu Klampen Verlag, Springe 2014, ISBN 978-3-86674-415-8 (französisch: Principes élémentaires de propagande de guerre. Utilisables en cas de guerre froide, chaude ou tiède [Brüssel 2001]. Übersetzt von Marianne Schönbach).
  39. Irene Watson: Indigenous Peoples as Subjects of International Law. Taylor & Francis, 2017, ISBN 978-1-317-24066-2 (com.ph [abgerufen am 7. April 2019]).
  40. Nicholas John Cull, David Holbrook Culbert, David Welch: Propaganda and Mass Persuasion: A Historical Encyclopedia, 1500 to the Present. ABC-CLIO, 2003, ISBN 1-57607-820-5 (com.ph [abgerufen am 7. April 2019]).
  41. Wladislaw Jachtchenko: Schwarze Rhetorik: Manipuliere, bevor du manipuliert wirst! Goldmann Verlag, 2018, ISBN 978-3-641-21815-7 (com.ph [abgerufen am 26. Juni 2019]).
  42. Rainer Mausfeld: Warum schweigen die Lämmer? Wie Elitendemokratie und Neoliberalismus unsere Gesellschaft und unsere Lebensgrundlagen zerstören, Westend, Frankfurt am Main 2018, S. 32 ff., 39–42.
  43. Was ist Desinformation? Abgerufen am 22. Oktober 2021.
  44. Matthias Schulze: Desinformation: Vom Kalten Krieg zum Informationszeitalter. In: bpb.de. Abgerufen am 22. Oktober 2021 (Vgl. Ceron, Andrea: Internet, News, and Political Trust: The Difference Between Social Media and Online Media Outlets. In: Journal of Computer-Mediated Communication, 20, 2015 S. 487–503 (PDF).).
  45. Uwe Krüger: Meinungsmacht – Herbert von Halem Verlag. In: halem-verlag.de. 24. November 2015, abgerufen am 9. Januar 2017.
  46. Stefanie Tornow-Godoy: Konstruktion der Wahrheit: Die Manipulation der US-Bevölkerung durch Politik und Medien. Hamburg 2012.
  47. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  48. Facebook In Constant Battle Against Hoaxes, Scams And Fake News, International Business Times vom 30. Januar 2015, abgerufen am 21. Januar 2017 (englisch)
  49. Jen Weedon, William Nuland, Alex Stamos: Information Operations and Facebook (Memento des Originals vom 27. April 2017 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/fbnewsroomus.files.wordpress.com, 27. April 2017 (englisch)
  50. John Lanchester: You Are the Product. In: London Review of Books, 177. August 2017 (englisch). Im Original: Information (or Influence) Operations – Actions taken by governments or organised non-state actors to distort domestic or foreign political sentiment. False News – News articles that purport to be factual, but which contain intentional misstatements of fact with the intention to arouse passions, attract viewership, or deceive. False Amplifiers – Co-ordinated activity by inauthentic accounts with the intent of manipulating political discussion (e.g. by discouraging specific parties from participating in discussion, or amplifying sensationalistic voices over others). Disinformation – Inaccurate or manipulated information/content that is spread intentionally. This can include false news, or it can involve more subtle methods, such as false flag operations, feeding inaccurate quotes or stories to innocent intermediaries, or knowingly amplifying biased or misleading information.
  51. False Accusations, Scapegoats, and the Power of Words. Abgerufen am 30. September 2019 (amerikanisches Englisch).
  52. Ahmed Abdel-Raheem: Pictorial Framing in Moral Politics: A Corpus-Based Experimental Study. Routledge, 2018, ISBN 978-0-429-78692-1 (com.ph [abgerufen am 26. Juni 2019]).
  53. Alexander Brown: An Ethics of Political Communication. Routledge, 2021, ISBN 978-1-00-044122-2 (google.com [abgerufen am 30. Juli 2022]).
  54. Dr habil Jörg Echternkamp: Kriegsideologie, Propaganda und Massenkultur | bpb. Abgerufen am 30. Juni 2019.
  55. Jussi Jalonen, Klaus Richter, Piotr Szlanta: Commemoration, Cult of the Fallen (East Central Europe). In: 1914-1918-Online International Encyclopedia of the First World War. 2014, doi:10.15463/ie1418.10441 (1914-1918-online.net [abgerufen am 30. Juni 2019]).
  56. Britannica, T. Editors of Encyclopaedia: Brainwashing. In: Encyclopedia Britannica, 14. Juni 2024. www.britannica.com
  57. Siehe z. B. Elizabeth Aileen Young: The use of the “Brainwashing Theory” by the Anti-cult Movement in the United States of America, pre-1996. In: Zeitschrift für junge Religionswissenschaft. Band 7, 2012, S. 1–13, hier S. 8 ff.; Annalee Newitz: A brief, weird history of brainwashing. In: Technology Review, 12. April 2024.
  58. Fran Mason: Mind Control. In: Peter Knight (Hrsg.): Conspiracy Theories in American History. An Encyclopedia. ABC Clio, Santa Barbara / Denver/London 2003, Band 2, S. 480–489.
  59. Scott F. Aikin, Robert B. Talisse: Why We Argue (And How We Should): A Guide to Political Disagreement in an Age of Unreason. Routledge, 2018, ISBN 978-1-351-61623-2 (com.ph [abgerufen am 21. April 2019]).
  60. Geoffrey Wheatcroft: The myth of the good war | Geoffrey Wheatcroft. In: The Guardian. 9. Dezember 2014, ISSN 0261-3077 (theguardian.com [abgerufen am 21. April 2019]).
  61. Nicola Gess: Halbwahrheiten. Zur Manipulation von Wirklichkeit. Matthes & Seitz, Berlin 2021, ISBN 978-3-7518-0512-4.
  62. Emma Briant: Propaganda and counter-terrorism: Strategies for global change. Oxford University Press, 2015, ISBN 978-1-84779-962-3 (com.ph [abgerufen am 7. April 2019]).
  63. Emma Briant: Propaganda and counter-terrorism: Strategies for global change. Oxford University Press. "Information overload can have the same effect as secrecy and certainly in the short term and for democracies today it might be considered more effective." "When information overload occurs, it is likely that a reduction in decision quality will occur." „The glut of information generated by modern technology […] threatens to make its receivers passive. Overload prompts disengagement.“
  64. Rainer Mausfeld: Warum schweigen die Lämmer? Wie Elitendemokratie und Neoliberalismus unsere Gesellschaft und unsere Lebensgrundlagen zerstören, Westend, Frankfurt am Main 2018, S. 32 ff., 39–42.
  65. Wilson Bryan Key: The Age of Manipulation: The Con in Confidence, the Sin in Sincere. Rowman & Littlefield, 1993, ISBN 0-8191-8653-8 (com.ph [abgerufen am 3. Juli 2019]).
  66. Wilson Bryan Key: The Age of Manipulation: The Con in Confidence, the Sin in Sincere. Rowman & Littlefield, 1993, ISBN 0-8191-8653-8 (com.ph [abgerufen am 3. Juli 2019]).
  67. Jonas Tögel: Kognitive Kriegsführung: Neueste Manipulationstechniken als Waffengattung der NATO. Westend Verlag GmbH, 2023, ISBN 978-3-9879102-4-1 (google.de [abgerufen am 26. Juni 2024]).
  68. Yasmeen Serhan: Inside Google’s Plans to Combat Election Misinformation. 25. April 2024, abgerufen am 26. Juni 2024 (englisch).
  69. Zusammenfassung: Werbe- und Konsumentenpsychologie | Lehrbuch Psychologie. Abgerufen am 1. September 2024.
  70. Peter Brückner: Zerstörung des Gehorsams. B.R.D., 1983, ISBN 3-8031-3516-8 (books.google.com.ph [abgerufen am 21. April 2019]).
  71. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  72. Jörg Matthes: Der Effekt der bloßen Darbietung: Attitudinal Effects of Mere Exposure von Zajonc. In: Schlüsselwerke der Werbeforschung. Springer Fachmedien, Wiesbaden 2022, ISBN 978-3-658-36508-0, S. 109–117, doi:10.1007/978-3-658-36508-0_10 (springer.com [abgerufen am 1. September 2024]).
  73. Zusammenfassung: Werbe- und Konsumentenpsychologie | Lehrbuch Psychologie. Abgerufen am 1. September 2024.
  74. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  75. Christer Petersen: Terror und Propaganda: Prolegomena zu einer Analytischen Medienwissenschaft. transcript Verlag, 2016, ISBN 978-3-8394-2243-4 (com.ph [abgerufen am 21. April 2019]).
  76. Phil Hopkins: Mass Moralizing: Marketing and Moral Storytelling. Lexington Books, 2015, ISBN 978-0-7391-8852-1 (com.ph [abgerufen am 21. April 2019]).
  77. Maggie Astor: How the Politically Unthinkable Can Become Mainstream. In: The New York Times. 26. Februar 2019, ISSN 0362-4331 (nytimes.com [abgerufen am 4. Juli 2024]).
  78. Jens-Christian Rabe: Overton-Fenster: Das wird man bald sagen dürfen. In: Süddeutsche Zeitung. 1. August 2018, abgerufen am 4. Juli 2024.
  79. Theresa Lehmann: Verschiebung des Sagbaren – Das Overton Window. In: Amadeu Antonio Stiftung. 4. Oktober 2017, abgerufen am 4. Juli 2024 (deutsch).
  80. Lenz Jacobsen: Overton-Fenster: Krasse Meinungen wehen uns mit voller Wucht ins Gesicht. In: Die Zeit. 26. Juli 2018, ISSN 0044-2070 (zeit.de [abgerufen am 4. Juli 2024]).
  81. Danny Schmidt: Das Bild Russlands in den deutschen Leitmedien: Die Berichterstattung über Russland und Wladimir Putin im Rahmen der Ukrainekrise. Frank & Timme GmbH, 2015, ISBN 978-3-7329-0204-0 (com.ph [abgerufen am 16. Oktober 2021]).
  82. Heinz Bonfadelli: Medien und Gesellschaft im Wandel. In: Themen › Politik › Medien & Digitales › Medien & Journalismus. Bundeszentrale für politische Bildung (bpb), 9. Dezember 2016, abgerufen am 7. September 2022 (Heinz Bonfadelli belegt diese zitierte Textstelle in der Fußnote mit Imhof, Kurt (2006): Mediengesellschaft und Medialisierung. In: Medien und Kommunikationsgesellschaft, 54(2), S. 191–215.).
  83. Daniel Ullrich, Sarah Diefenbach: Es war doch gut gemeint: Wie Political Correctness unsere freiheitliche Gesellschaft zerstört. Riva Verlag, 2017, ISBN 978-3-95971-842-4 (com.ph [abgerufen am 5. Mai 2019]).
  84. Stephan Lewandowsky, Sander van der Linden: Countering Misinformation and Fake News Through Inoculation and Prebunking. In: European Review of Social Psychology. Band 0, Nr. 0, 22. Februar 2021, ISSN 1046-3283, S. 1–38, doi:10.1080/10463283.2021.1876983.
  85. John A. Banas, Stephen A. Rains: A Meta-Analysis of Research on Inoculation Theory. In: Communication Monographs. Band 77, Nr. 3, 1. September 2010, ISSN 0363-7751, S. 281–311, doi:10.1080/03637751003758193.
  86. Jon Roozenbeek, Sander van der Linden: The fake news game: actively inoculating against the risk of misinformation. In: Journal of Risk Research. Band 22, Nr. 5, 4. Mai 2019, ISSN 1366-9877, S. 570–580, doi:10.1080/13669877.2018.1443491.
  87. Dietram Scheufele, David Tewksbury: Framing, Agenda Setting, and Priming: The Evolution of Three Media Effects Models. In: Journal of Communication, 2007, Bd. 57, S. 9–20.
  88. primacy-recency-effect. Abgerufen am 1. September 2024.
  89. What is the Recency Effect? — updated 2024. Abgerufen am 1. September 2024 (englisch).
  90. François De Smet: Reductio ad hitlerum: Essai sur la loi de Godwin. Presses Universitaires de France, 2014, ISBN 978-2-13-063466-9 (com.ph [abgerufen am 21. April 2019]).
  91. Bo Bennett: Logically Fallacious: The Ultimate Collection of Over 300 Logical Fallacies (Academic Edition). eBookIt.com, 2017, ISBN 978-1-4566-0737-1 (com.ph [abgerufen am 21. April 2019]).
  92. Jon H. Widener M.D: The Nexus: Understanding Faith and Modern Culture. WestBow Press, 2017, ISBN 978-1-5127-9132-7 (com.ph [abgerufen am 21. April 2019]).
  93. ferdos forudastan: „Kein Blut für Öl“. In: Die Tageszeitung: taz. 20. November 1990, S. 6 (taz.de [abgerufen am 14. Februar 2023]).
  94. Magedah Shabo: Techniques of Propaganda and Persuasion. Prestwick House Inc, 2008, ISBN 978-1-58049-874-6 (com.ph [abgerufen am 18. April 2019]).
  95. Hans Hansen: Fallacies. In: The Stanford Encyclopedia of Philosophy. Spring 2023 Auflage. Metaphysics Research Lab, Stanford University, 2023 (stanford.edu [abgerufen am 15. November 2024] Core fallacies, Nr. 13).
  96. Eiríkur Bergmann: The Weaponization of Conspracy Theories. In: Michael Butter, Katerina Hatzikidi, Constanze Jeitler, Giacomo Loperfido, Lili Turza (Hrsg.): Populism and Conspiracy Theory. Case Studies and Theoretical Perspectives. Routledge, London / New York 2024, ISBN 978-1-032-75482-6, S. 55–78.
  97. Mark Danner Words in a Time of War: On Rhetoric, Truth and Power. Abgerufen am 5. Mai 2019.
  98. Hassan, A., Barber, S.J. The effects of repetition frequency on the illusory truth effect. Cogn. Research 6, 38 (2021).doi:10.1186/s41235-021-00301-5
  99. Robert Gass, John Seiter: Arguing, Reasoning, and Thinking Well. Routledge, 2019, ISBN 978-1-351-24247-9 (com.ph [abgerufen am 11. März 2022]).
  100. Peter Mohr: Optische Rhetorik: Visualisierungen und Medien in Präsentationen wirkungsvoll einsetzen. BoD – Books on Demand, 2011, ISBN 978-3-8423-5635-1 (com.ph [abgerufen am 10. November 2019]).
  101. Darrell Huff: How to Lie with Statistics (illustriert von I. Geis), Norton, New York, 1954, ISBN 0-393-31072-8
  102. Bundeszentrale für politische Bildung: Methoden der Kriegspropaganda | bpb. Abgerufen am 25. April 2019.
  103. Ulrich Teusch: Der Krieg vor dem Krieg: Wie Propaganda über Leben und Tod entscheidet. Westend Verlag, 2019, ISBN 978-3-86489-734-4 (com.ph [abgerufen am 5. Mai 2019]).
  104. Bundeszentrale für politische Bildung: Psychofolgen bis heute. 7. Oktober 2016, abgerufen am 25. August 2024.
  105. Robert Cole, ed. Encyclopedia of Propaganda (3 vol 1998)
  106. Jeff Koob: Ad Nauseam: How Advertising and Public Relations Changed Everything. iUniverse, 2015, ISBN 978-1-4917-5890-8 (com.ph [abgerufen am 7. April 2019]).
  107. STEVE Dr ESOMBA: ADVERTISING AND THE SPREAD OF BUSINESS, DEMOCRACY AND KNOWLEDGE. Lulu.com, ISBN 978-1-4717-3443-4 (com.ph [abgerufen am 7. April 2019]).
  108. Nicholas John Cull, David Holbrook Culbert, David Welch: Propaganda and Mass Persuasion: A Historical Encyclopedia, 1500 to the Present. ABC-CLIO, 2003, ISBN 1-57607-820-5 (com.ph [abgerufen am 16. Oktober 2021]).