Benutzer:MBq/WikiCon2019
Trolle & Filter
[Bearbeiten | Quelltext bearbeiten]Wikipedia:WikiCon_2019/Programm/Trolle & Filter
WikiCon 2919 in Wuppertal, Samstag 5. Oktober, 14:30–16:15 Raum: Erwin Lindemann, Seminarraum 3.004 Referenten: MBq, Elop
WhyTo
[Bearbeiten | Quelltext bearbeiten]„If the filter pops up and says "hey, how are you? maybe you'd like to spend your time more usefully, you might be happier that way" then most people will respond well to it.“
- TROLLE WERDEN GEBOREN
Troll (Netzkultur) ist seit ca. 1995 ein Wort mit wechselnder Bedeutung, unscharf zu anderen antisozialen Verhaltensweisen wie Hating und Cyberbullying. Liste von 16 möglichen Definitionen zB bei Jussinova S.12 (Jussinoja T: Life-cycle of Internet Trolls. University of Jyväskylä, Information Systems, Master’s Thesis, 2018 [2]).
Gemeinsamer Kern ist, dass Trolle mit Diskussionspostings belästigen, bei uns wäre das der Metaraum (in Abgrenzung zu Vandalen, die in erster Linie Artikel stören). Sie benutzen dabei nervende Wiederholungen; senden irrelevante, falsche oder wirre Informationen; geben falsche Ratschläge; und verwenden persönliche Angriffe (Petykó 2017).
Sehr häufiges Phänomen. Jeder zweite befragte Student war in den letzten 6 Monten mindestens einmal getrollt worden (Case C, Darwin King D: Internet Trolling in Social Networking Sites: A Preliminary Investigation of Undergraduate Student Victimization. J Business Behavorial Sciences 29 (2) 2017, pp. 32-43 ISSN 1946-8113 [3]). In den Kommentarspalten großer Medien trollen ca. 2% der User.
Klassische Trolle gelten als böse, aber nicht als ernsthaft, sie handeln aus Spaß (Coles A, West M: Trolling the trolls: Online forum users constructions of the nature and properties of trolling. Computers in Human Behavior Volume 60, July 2016, Pages 233-244 [4]).
Allerdings gibt es Trolle mit hoher Aggressivität, die ihren Opfern ernsthaft zu schaden versuchen. Sie setzen entsprechende Mittel wie Doxxing, Drohungen etc ein und nähern sich damit der Methodik von Bullies und Stalkern (Jussinova p.17, p.53 = Auswertung zu Eigenbelegen/Postings von 109 Trollen). Ein Unterschied zu Bullies könnte sein, dass Trolle auf keinen bestimmten Menschen zielen, sondern ihre Opfer zufällig auswählen.
Andere Forenteilnehmer vermuten bei Trollen oft psychosoziale Probleme, finanzielle oder politische Motive (Petykó M: “You’re trolling because...” – A Corpus-based Study of Perceived Trolling and Motive Attribution in the Comment Threads of Three British Political Blogs. Proceedings of the 5th Conference on CMC and Social Media Corpora for the Humanities, cmc-corpora conference series. Bolzano, Italy, 3-4 October 2017 Part of DOI:10.5281/zenodo.1040713, [5]).
Studien legen tatsächlich nahe, dass Trolle psychopathische Persönlichkeiten sind, indem nämlich Eigenschaften des Narzissmus, Machiavellismus, Psychopathie, und Sadismus bei ihnen überproportional ausgeprägt sind, die sogenannte Dunkle Tetrade (Buckels EE, Trapnell PD, Paulhus DL: "Trolls just want to have fun." Personality and Individual Differences 67 (2014): 97-102 [6]).
Ihr Selbstwertgefühl ist tendenziell unterdurchschnittlich (Zezulka LA, Seigfried-Spellar K: Differentiating Cyberbullies and Internet Trolls by Personality Characteristics and Self-Esteem. Purdue University e-Pubs, 30.9.2016 [7]).
Sexismus spielt als Charaktereigenschaft nur eine kleine Rolle. Selbst Gender-Trolle, die gezielt Frauen angreifen, handeln aus den allgemeinen Trollmotiven wie Spass, Rache, Sadismus… (Paananen, Amanda & J. Reichl, Arleigh. (2019). Gendertrolls just want to have fun, too. Personality and Individual Differences. 141. 152-156. 10.1016/j.paid.2019.01.011 [8]).
"Trolls are born and not made. Trolls have particular personality types. Trolls are sociopaths."
- TROLLE WERDEN GEMACHT
Das könnte jedoch falsch sein, meint eine Arbeitsgruppe aus Stanford. Aufgrund ihrer Studie vermuten sie das Gegenteil: Trolling sei situationsabhängig, könne experimentell bei jedem erzeugt werden (Kumar S, Cheng J, Leskovec J: Antisocial Behavior on the Web: Characterization and Detection. Proceedings of the 26th International Conference on World Wide Web 2017, pp. 947-950 ISBN: 978-1-4503-4914-7 doi:10.1145/3041021.3051106 [9], + Tutorial slides [10]) [--> gute Grafiken S. 30, 43/44, 156/157, 168], Blog [11])
Schlechte Laune veranlasst 'normale' User zu Trollpostings (Cheng J, Bernstein M, et al.: Anyone Can Become a Troll: Causes of Trolling Behavior in Online Discussions. Proceedings of the 2017 ACM Conference on Computer Supported Cooperative Work and Social Computing, p. 1217-1230 [12]).
Aggressive Kommentare verstärken die Polarisation einer Diskussionsrunde (Anderson AA, Brossard D, Scheufele DA, et al. The “nasty effect:” Online incivility and risk perceptions of emerging technologies. Journal of Computer-Mediated Communication 2014; 19:373-387 [13]).
Communities verschlechtern sich mit der Zeit (Kumar 2017, aaO).
"Gyges-Effekt": Anonymität erhöht die Aggressivität von Kommentaren (Santana AD. Virtuous or vitriolic: The effect of anonymity on civility in online newspaper reader comment boards. Journalism Practice 2014; 8:18-33 [14]). Gyges war ein mythischer Hirte der durch Unsichtbarkeit korrumpiert wurde. Vgl auch die Handlung von "Hollow Man" 2000.
Internet-Trolle sind nicht immer echte Personen (Anne Applebaum: Another reason to avoid reading the comments. Washington Post 28.11.2014 [15]). Wenn es echte Personen sind, sind sie überwiegend männlich und durch Langeweile, Wunsch nach Beachtung und Rache motiviert (Shachaf P, Hara N. Beyond vandalism: Wikipedia trolls. Journal of Information Science 2010; 36:357-370 [16]).
Oder durch Stolz, sich gegen das Wikipedia-System behaupten zu können (Sierra AO, Castanedo JO: University students in the educational field and Wikipedia vandalism. OpenSym 2018 [17]). Trolle müssen die Besonderheiten eines Forums kennen, sich zunächst in der Community assimiliert sein. Nur Communitymitglieder finden die richtigen Gelegenheiten für trollende Übertretung. (Cruz AGB, Seo Y, Rex M (2018): Trolling in online communities: A practice-based theoretical perspective, The Information Society, 34:1, 15-26, DOI: 10.1080/01972243.2017.1391909 [18]).
- TROLLE WERDEN GEBANNT
Trollposts haben klare Charakteristiken, sind leicht zu markieren. Trollaccounts nicht, da ein großer Anteil ihrer Beiträge normal ist. Allerdings starten spätere Trolle oft schon mit schlechteren Postings und bekommen frühzeitig Kritik der Community (Samory M, Peserico E: Sizing Up the Troll: A Quantitative Characterization of Moderator-Identified Trolling in an Online Forum. Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, p. 6943-6947 [19]).
Trollwerdung von 'normalen' Usern könnte mit AI proaktiv aus den ersten antisozialen Edits erkannt werden (Tsantarliotis P, Pitoura E, Panayiotis Tsaparas P: Troll vulnerability in online social networks. 2016 IEEE/ACM International Conference Proceedings [20]).
Hochaktive User werden durch Trolle weniger gestört als gelegentlich aktive User (Simulation: Koncar P,Walk S, et al.: Exploring the Impact of Trolls on Activity Dynamics in Real-World Collaboration Networks. Proceedings of the 26th International Conference on World Wide Web Companion 2017, pp. 1573-1578, ISBN: 978-1-4503-4914-7, DOI:10.1145/3041021.3051116 [21]).
Mögliche Reaktionen:
- Don't feed the trolls. (Kumar 2017 aaO)
- Speak up for the targets (Joe Pierre (Blogpost, 1.9.2016): No Comment: 3 Rules for Dealing With Internet Trolls. [22])
- Troll Whispering (Lange PG: Feeding the Trolls: Strategies for Raising the Bar in Online Interaction. Proceedings of the Southwestern Anthropological Association, 2017, Vol. 11, pp. 81-91. ISSN 1941-7500 [23])
- Den Trollpost ignorieren, sachlich entlarven, unsachlich angreifen, den User attackieren, "schlechtes Trollen" kritisieren, verspotten, zurücktrollen… egal. Jede auf das Erkennen folgende Reaktion mindert den Erfolg des Trollings. Erfolgreiches Trolling bleibt als solches nicht erkannt. (Hardaker C: ‘I refuse to respond to this obvious troll’: an overview of responses to (perceived) trolling. Corpora, Volume 10 Issue 2, Page 201-229, ISSN 1749-5032 Available Online Aug 2015 [24]).
- Recht auf freie Rede ist vs. Störung abzuwägen. Reaktion sollte deshalb ethisch und kontextabhängig sein: Antworten, ignorieren, löschen/blockieren, RL-outing, peer tribunal, governance... (Sanfilippo MR, Yang S, Fichman P: Managing Online Trolling: From Deviant to Social and Political Trolls. Hawaii International Conference on System Sciences (HICSS) 2017, [25]). Frauen reagieren zurückhaltender, passiver auf Trollpostings als Männer (Fichman P, Madelyn Rose Sanfilippo R: The Bad Boys and Girls of Cyberspace: How Gender and Context Impact Perception of and Reaction to Trolling. Social science computer review 2015; 33(2):163-180 [26]).
Negatives Feedback aus der Community verstärkt die Trollaktivität (Kumar 2017).
Wikipedia ist Diskurs (E. Gredel: Digitale Diskursanalysen: kollaborative Konstruktion von Wissensbeständen am Beispiel der Wikipedia. In: Sylvia Jaki, Annette Sabban (Hrsg.), Wissensformate in den Medien, Frank & Timme 2016, p.317-340). These MBq: Filter sind Software, können nicht diskutieren. Gerade das macht sie zur besten Waffe gegen Trolle.
Trolle sind meist 1-7 Jahre lang aktiv. Sie hören idR auf zu trollen, weil ihnen langweilig wird, oder weil sie persönliche Konsequenzen erfahren haben. Nur selten aus Gewissensbissen (Jussinoja pp. 70-84).
- LITERATUR
- Centre for Strategy & Evaluation Services (2018) Rapid Evidence Assessment - The Prevalence and Impact of Online Trolling. [27]
- Jussinoja T: Life-cycle of Internet Trolls. University of Jyväskylä, Information Systems, Master’s Thesis, 2018 [28]
- Kumar S, Cheng J, Leskovec J: Antisocial Behavior on the Web: Characterization and Detection. Proceedings of the 26th International Conference on World Wide Web 2017, pp. 947-950 ISBN: 978-1-4503-4914-7 doi:10.1145/3041021.3051106 [29]
- Rainie L, Anderson J, Albright J: The Future of Free Speech, Trolls, Anonymity, and Fake News Online. Pew Research Center, March 29, 2017 [30]
HowTo
[Bearbeiten | Quelltext bearbeiten]- TECHNIK
- Bearbeitungsfilter = mw:Extension:AbuseFilter, deshalb ist die Syntax PHP.
Aktiv in dewiki seit 2009. Wurde 2014 nach einer Umfrage in “Bearbeitungsfilter” umbenannt. Im Moment (August 2019) haben wir ca. 75 aktive Filter, von denen etwa ⅔ auf ‘verbieten’ gestellt sind und ca. die Hälfte nichtöffentlich ist. Die Variable $wgAbuseFilterConditionLimit
in [31] begrenzt die Höchstzahl der ‘’Conditions’’ (~ Summe aus Funktionsaufrufen und logischen Vergleichen); defaultmässig auf max.1000. Aktuell haben wir ca. 350 Conditions.
- Bearbeitungen, die aus Performancegründen nicht vollständig von allen aktiven Bearbeitungsfilter geprüft werden, würden in den Logs das Tag abusefilter-condition-limit bekommen.
- Ein Filter, der kürzlich editiert wurde und sehr viele Treffer hat, sollte automatisch deaktiviert werden (‘’Throttling’’).
- SYNTAX
- Konkret werden Filter über Spezial:Missbrauchsfilter angelegt und verwaltet.
- Filter gegen Vandalismus sind in der Regel nichtöffentlich, um den böswilligen Benutzern keine Handhabe zu geben.
- Mögliche Aktionen sind unter mw:Extension:AbuseFilter/Action, in der Praxis sind nur Loggen, Warnen, Verbieten üblich.
- Grundlagen der Syntax: Hilfe:Bearbeitungsfilter
- Ausführlicher: mw:Special:MyLanguage/Extension:AbuseFilter/Rules_format
- Was manche Filter kompliziert aussehen lässt, sind die Regulären Ausdrücke (in der PHP-Syntax)
- Performance beachten! (Erfahrung aus der italienischen Wikipedia: 135 Filter / 450 Conditions verbrauchen schon 0.5 sec.)
Tipps: Einfache Kriterien (action==, article_namespace==) zu Anfang prüfen. Datenbankabfragen wie user_* erst danach. Die von anderen Filtern schon errechneten Variablen werden allerdings im Server gecacht, sehr häufig benutzte Kriterien wie user_age kosten also kaum Rechenzeit. Komplizierte Abfragen wie Textvergleiche zuletzt. Dabei die Funktionsaufrufe möglichst zusammenfassen: rlike 'a|b|c' ist viel schneller als ('a' in text | 'b' in text | 'c' in text).
- KONVENTION
- Für dewiki-Filter gelten ein paar Konventionen, die Lustiger_seth maßgeblich mitentwickelt hat, um Störungen wohlmeinender Benutzer zu verringern, etwa die unter Wikipedia:Bearbeitungsfilter verlinkten Antrags- und Wartungsseiten.
- Filter sollten keine beleidigenden Namen haben und so agieren, dass falsch betroffene User nicht abgeschreckt oder verwirrt werden.
- Wichtig ist, zu jedem Filter eine Diskussionsseite anzulegen und zu beobachten, auf der sich Benutzer mit Problemen melden können.
- Filter, die nicht mehr gebraucht werden, werden nicht gelöscht, nur deaktiviert und “als gelöscht markiert”. Wir sind auch davon abgekommen, gelöschte Filter für andere Zwecke wiederzuverwenden.
- BEISPIEL 1
- “Partnerstadtvandale” (2013 - 2014)
- Löschte in zahlreichen Städteartikeln einzelne Partnerstädte, fügte frei erfundene Partnerschaften zu.
- Begann sein Trollen vermutlich Anfang April 2013, zB hier bei Angermünde [32]. Dynamische IPs der Hansenet (früher bekannt als “Alice”).
- Aufgrund der zahlreichen Vandalismusmeldungen wurde von Itti im Juni eine Dokumentationsseite angelegt.
- Damit habe ich am 30.9. den Filter #86 eingerichtet. Die Ranges haben XenonX3 und ich noch mehrfach angepasst
- Der User hat nur IP benutzt. Er wechselte seinen Provider nicht, versuchte nicht, den Filtermechanismus aktiv zu umgehen, und nahm auch keinen Kontakt zu uns auf Metaseiten auf. Er/sie versuchte noch bis zum Februar 2014 gelegentlich weitere Vandalismen, die vom Filter abgefangen wurden.
- Im November 2014 wurde Filter #86 abgeschaltet.
- BEISPIEL 2
- “Unitymediatroll” (2011 - 2019)
- Fügt in Artikeln und Diskussionsseiten Senderlisten des baden-württembergischen Kabelfernsehanbieters Unitymedia (vormals KabelBW) ein.
- Der User ist mindestens seit November 2011 in der Wikipedia tätig [33], eventuell schon seit Oktober 2010 [34], und verwendet in der Regel IPs dieses Anbieters. Er brauchte relativ viele Edits, hat nie versucht zu kommunizieren, eventuell war er damals ein Neuling. Aufgrund der einfachen Erkennung war das sporadische Auftreten zunächst kein Problem. Es gibt AFAIK auch keine Dokumentationsseite.
- Ab Frühjahr 2019 stark gesteigerte Aktivität, fast tägliche Vandalismusmeldungen, alle einschlägigen Lemmata und bald auch einige Diskussionsseiten mussten gesperrt werden, und es gab zahlreiche IP- und Rangesperren.
Der User hatte inzwischen gelernt, seine IP schnell zu wechseln, er verwendet Mobilfunk, offene WLAN, und vermutlich auch Hotelnetze in ganz Deutschland. Er hat auch gelernt, Lemmasperren durch Neuanlagen zu umgehen.
- Am 4. April habe ich den Bearbeitungsfilter #275 angelegt.
- Der User hat danach innerhalb weniger Tage gelernt, dass das Wort “Unitymedia” triggert, sodass wir den Trigger erweitern mussten. Damit begann ein Katz-und-Maus-Spiel, der User hat vermutlich Spass an der Konfrontation gefunden. Man kann im Filterlog verfolgen, wie er/sie kreativ verschiedene Varianten ausprobiert. Der User hat auch gemerkt, dass Benutzer:Seewolf mit der Filterung irgendwie zu tun hat. Der Gegner ist für ihn offenbar keine anonyme Software - er hat die Handschrift der Admins erkannt und weiss, dass er Menschen trollt und keinen Algorithmus.
- Trotz unseres schnellen Nachregelns sank die Zahl der Filtertreffer, der Troll war im Effekt nicht aufzuhalten… und dies ist der Stand bis heute.