MediaWiki Diskussion:Spam-blacklist/Archiv/2010
Dies ist ein Archiv! Diskussionen werden nicht hier fortgesetzt, sondern auf der eigentlichen Diskussionsseite: MediaWiki Diskussion:Spam-blacklist. Bei Bezug zu einem bereits behandelten Thema ist jedoch ein Link ins Archiv hilfreich. |
verbesserungsvorschlaege/fragen zur sbl
[Quelltext bearbeiten]zusammenarbeit mit suchmaschinen?
[Quelltext bearbeiten]gudn tach!
hin und wieder taucht der verdacht auf, dass die sbl eine rufschaendigende wirkung haette. in einer diskussion zu einem sbl-eintrag wurde auf [1] hingewiesen, wo dergleichen zu lesen ist. ich moechte hier auf die dort gemachten und dort verlinkten behauptungen eingehen.
Wikipedia has a strong relationship with Search engines, Wikipedia does share this information to Search engines and it will result in your site loosing credibility with search engines.[2]
- interessanterweise wird keine einzige suchmaschine genannt, auf die das zutreffen soll. es wird nur gesagt, dass google es fuer sich verneint. die gemachte behauptung ist reine spekulation, die schon im ersten teilsatz beginnt mit der verwirrenden aussage, dass wikipedia eine starke beziehung mit suchmaschinen pflege. das ist so erst mal kaese. die wikipedia arbeitet afaik nicht mit suchmaschinen zusammen, sondern suchmaschinen nehmen (ohne ruecksprache; und das ist auch gut so) wikipedia-seiten in ihre listen auf oder lassen es.
Wikipedia is making their spammers publicly available, so many search engines are out there obtaining this list actively.[3]
- dasselbe. wer sind "many search engines"?
Wikipedia keeps a "spammer blacklist" and shares it with several search engines, [Jonathan Hochman] says. Domains that appear on the list often lose valuable search engine traffic. [4]
- und wieder wird gesagt "shares it with several search engines" ohne eine einzige explit zu nennen. fuer den zweiten satz fehlt somit folglich auch jegliche grundlage und natuerlich auch wieder ein beispiel.
- und wenn man noch etwas weiterrecherchiert, stellt man fest, dass der forbes-reporter einfach scheisse gebaut hat. Hochman stellte es in einem blog, in dem die leser um hinweise bzgl. des forbes-artikel-inhaltes gebeten wurden, noch mal klar.[5]
es wurden also keine expliziten beispiele genannt, nun gut, dann mach ich das mal: 2008 wurden via sbl einige unbrauchbare seiten von vorort.bund.net (weil nicht neutral, dafuer umso polemischer) ueber atomkraftwerke gesperrt. kurz vorher ist in der schweiz wohl beschlossen worden, dass irgendein akw ans netz gehen solle. und ausserdem wurde etwa zur gleichen zeit die komplette subdomain vorort.bund.net von google aus dem index geschmissen. wie offenbar fuer die betrieber jener website ueblich, machte man sich nicht die muehe zu recherchieren, was die jeweiligen gruende waren, sondern spann sich seine eigene kleine verschwoerungstheorie, weil ja schuld immer nur die anderen sein koennen, und die atom-lobby ueberall mitdrinsteckt. die taz-redaktion war dumm genug, den quatsch unreflektiert ins netz zu stellen.[6]
und die wahrheit? bei google gibt es richtlinien, die verhindern sollen, dass website-betreiber mit unlauteren methoden versuchen, ein hohes page ranking zu erzielen (siehe Suchmaschinenoptimierung#Ethische_Regeln). gegen jene richtlinien hat vorort.bund.net verstossen und wurde deshalb von google aus dem index entfernt. auch bmw verschwand wegen so was schon mal aus dem google-index. vermutlich wurden da jedoch nicht die schweizer oder die wikipedia verdaechtigt. aber vielleicht war's ja doch die atom-lobby, da bmw weiterhin keine atom-autos bauen will? ;-)
in der wikipedia wurde zudem massives linkspamming von seiten vorort.bund.net propagiert und durchgefuehrt, auch wenn vorort.bund.net das mittlerweile scheinheilig leugnet[7]. in der wikipedia wird alles mitgeloggt, in der history, dort kann man auch das spamming nachvollziehen. vorort.bund.net hat keine oeffentliche history, sondern kann seine seiten beliebig aendern und inhalte ploetzlich umkehren.
und so gibt's ne ganz einfache erklaerung, die jedoch - zugegeben - natuerlich nicht so schoen und weltfremd ist, wie die verschwoerungstheorie. nun ja.
zusammengefasst gibt es also keinen einzigen hinweis dafuer, dass die blacklists (es gibt ja mehrere in der wikipedia) zu schlechteren page ranks fuehren. fuer gegenteilige behauptungen fehlen bisher schlichtweg die belege.
noch ein wort dazu, warum die listen ueberhaupt oeffentlich sind: das ist das prinzip der wikipedia. alles ist oeffentlich und damit transparent. niemand soll einem administrator vorwerfen koennen, dass er heimlich zensur betreibt. seit einigen jahren muss auch jeder sbl-eintrag nachvollziehbar im log begruendet werden. es gibt nur ganz wenige ausnahmen von sperrseiten, die tatsaechlich nicht oeffentlich einsehbar sind, dafuer muss es jedoch sehr triftige gruende geben, z.b. verstoss gegen persoenlichkeitsrecht, stalking, technisches versagen anderer massnahmen etc. -- seth 02:54, 14. Mai 2010 (CEST)
- Es wäre aber überlegenswert, die Indizierung der Blacklisten via robots.txt (etc.) zu verhindern. Die Inhalte der Filterliste sind nur bedingt sinnvolle Suchergebnisse. Dies könnte helfen, diese Art von Beschwerden ("geschäftsschädigend") zu reduzieren. Die Inhalte bleiben ja nach wie vor für interessierte Nutzer zugänglich/transparent, selbst wenn wir Suchmaschinen empfehlen, sie nicht zu indizieren. --Chire 20:12, 24. Mai 2010 (CEST)
- gudn tach!
- ein kurzer blick in unser robots.txt haette verhindert, dass du diesen vorschlag machst. ;-) die sbl ist schon lange auf disallow gesetzt. an die empfehlungen in robots.txt halten sich zumindest die grossen suchmachinen. -- seth 23:25, 24. Mai 2010 (CEST)
- Na dann ist das sowieso Unsinn, dass da ein Kunde das zufällig finden würde, dass die Domain hier "geblacklisted" ist. Dazu muss man dann schon manuell nach derartigen Filtereinträgen suchen. (In dem konkreten Fall unten halte ich den Domainbetreiber sowieso nicht für unschuldig ... er hat halt nur die neuesten SEO-irgendwas-news gelesen, wo drin steht "Wikipedia blacklist ist schlecht" statt "Links auf Wikipedia sind gut" wie in der vorherigen Ausgabe ...) --Chire 01:09, 25. Mai 2010 (CEST)
Hier besser kein „Abschnitt hinzufügen“-Link?
[Quelltext bearbeiten]Tach, ich hatte gerade per „Abschnitt hinzufügen“-Link diesen neuen Abschnitt eingefügt. Mir war allerdings nicht aufgefallen, daß die Gliederung dann nicht stimmt danke für die Reparatur, Xenon, es wird eine Ebene-2-Überschrift eingefügt, keine Ebene-3-Überschrift. Da ich davon ausgehe, daß es technisch nicht anders zu lösen ist, plädiere ich für ein __KEIN_PLUS_LINK__
am Seitenanfang. Meinungen? Gruß --Schniggendiller Diskussion 17:47, 11. Jul. 2010 (CEST)
- gudn tach!
- ich kenne auch keine gescheite loesung fuer das problem (ohne ebene-1-ueberschriften zu nutzen). aber sehe es andererseits als kein ernstzunehmendes problem an, da die gliederungskorrektur meist bei der antwort auf den request erfolgt.
- wenn allerdings der new-section-link nicht mehr vorhanden waere, waeren einige user vermutlich irritiert und haetten schwierigkeiten, einen request hinzuzufuegen. deshalb bin ich eher gegen __NONEWSECTIONLINK__. -- seth 23:13, 11. Jul. 2010 (CEST)
(Fast) alle - jedenfalls ein Wenig
[Quelltext bearbeiten]Im Gegensatz zur globalen Spamliste des Meta-Wiki ist in der deutschen fast nie vermerkt, dass der Eintrag als Domänenname gedacht ist und nicht als Domänennamensuffix.
Beispiel: Ich wollte "scienceslam.de" verlinken und wurde durch den existierenden Eintrag "eslam.de" gestoppt. Das wollte aber niemand erreichen. Für lange Einträge ist das meist kein Problem, für kürzere wie eslam.de aber sehr wohl und auch davon gibt es eine ganze Menge.
Mit eventuell wenigen Ausnahmen (ich habe auf Anhieb keine einzige gefunden) sollte wohl jeder Eintrag der Blacklist ein "\b" vorndran erhalten. Auf der Meta-Wiki Blacklist wird das oft (aber auch weitaus nicht konsequent) eingesetzt. (nicht signierter Beitrag von LutzPrechelt (Diskussion | Beiträge) 16:10, 22. Okt. 2010 (CEST))
- gudn tach!
- das \b allein hilft auch nocht nicht 100%-ig, siehe dazu Wikipedia:Spam-blacklist/manual#Komplette_Domain_sperren. auf meta wird \b imho zu haeufig verwendet und manchmal habe ich den eindruck, dass einige leute es benutzen, ohne dessen bedeutung zu kennen. was eslam betrifft, so habe ich mittels (?<=\.|://) scienceslam und etwaige weitere freigegeben.
- das genannte problem tritt sehr selten auf, weshalb es, denke ich, genuegt, auf einzelne requests wie den deinen zu reagieren, anstatt standardmaessig \b oder (?<=\.|://) zu verwenden, was ja auch immer mit einem stueck performance-verlust verbunden ist. auf meta gibt es uebrigens viele beispiele von sbleintragungen, die sich tatsaechlich nicht nur auf den kompletten (second-level-)domainnamen beziehen. -- seth 23:32, 22. Okt. 2010 (CEST)
bot
[Quelltext bearbeiten]gudn tach!
da link-ersetzerei immer wieder ein thema ist, plane ich, einen bot dafuer zu basteln. siehe auch Wikipedia:Bots/Anfragen#wikipedia-mirror_entlinken. -- seth 23:21, 5. Nov. 2010 (CET)
- fertiggebastelt. bot-flag erhalten: user:CamelBot. -- seth 20:48, 14. Nov. 2010 (CET)
(Ent-)Sperrungen
[Quelltext bearbeiten]Die Diskussionen wurden auf Einzelseiten verschoben, siehe MediaWiki_Diskussion:Spam-blacklist/Archiv#2010.